Você está na página 1de 105

Universidade Federal do Rio Grande do Norte

Centro de Tecnologia
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE Programa de Pós-Graduação em Engenharia Elétrica

Modelos de Dispositivos de Microondas


e Ópticos Através de Redes Neurais
Artificiais de Alimentação Direta

Márcio Galdino Passos

Orientador: Prof. Dr. Humberto César Chaves Fernandes

Dissertação de Mestrado apresentada


ao Programa de Pós-Graduação em En-
genharia Elétrica da UFRN (área de con-
centração: Telecomunicações) como parte
dos requisitos para obtenção do tı́tulo de
Mestre em Ciências.

Natal, RN, junho de 2006


Divisão de Serviços Técnicos
Catalogação da publicação na fonte. UFRN / Biblioteca Central Zila Mamede

Passos, Márcio Galdino.


Modelos de dispositivos de microondas e ópticos através de redes neurais
artificiais de alimentação direta / Márcio Galdino Passos - Natal, RN, 2006.
88 f. : il.

Orientador: Humberto César Chaves Fernandes.

Dissertação (Mestrado) - Universidade Federal do Rio Grande do Norte.


Centro de Tecnologia. Programa de Pós-Graduação em Engenharia Elétrica.

1. Redes neurais artificiais - Dissertação. 2. Modelagem não linear


- Dissertação. 3. Amplificadores ópticos - Dissertação. 4. Dispositivos de
microondas - Dissertação. I. Fernandes, Humberto César Chaves. II. Tı́tulo.

RN/UF/BCZM CDU 004.032.26(043.3)


Modelos de Dispositivos de Microondas
e Ópticos Através de Redes Neurais
Artificiais de Alimentação Direta

Márcio Galdino Passos

Dissertação de Mestrado aprovada em 19 de Junho de 2006 pela banca examinadora


composta pelos seguintes membros:

Prof. Dr. Humberto César Chaves Fernandes (orientador) . . DEE/UFRN

Prof. Dr. Paulo Henrique da Fonseca Silva . . . . . . . . . . . . . . . . . . CEFET-PB

Prof. Dr. Cláudio Rodrigues Muniz da Silva . . . . . . . . . . . . . . . . DEE/UFRN

Prof. Dr. José Alfrêdo Ferreira Costa . . . . . . . . . . . . . . . . . . . . . . DEE/UFRN


Agradecimentos

Aos meus pais e irmãos pelo apoio, incentivo, orientação, encorajamento, paciência,
enfim, tantas qualidades demonstradas não só nestes últimos dois anos, mas desde
sempre. Obrigado!

Ao professor Paulo Henrique da Fonseca Silva, pela ajuda técnica, motivação e


amizade compartilhadas desde o inı́cio deste trabalho.

Ao professor Humberto César Chaves Fernandes, por me acolher no seu grupo de


pesquisa.

À Juliana Passamani, pelo carinho, compreensão, paciência, incentivo e companhei-


rismo. Serei eternamente grato!

Aos meus companheiros de luta: Patric Lacouth, Rafael Marrocos e Danilo Lima,
por toda ajuda, que, sem dúvida foram essenciais no decorrer de todo o mestrado.

À Maria Goes, pela hospitalidade no perı́odo mais difı́cil desta jornada.

À Raquel Bası́lio, pela correção gramatical desta dissertação.

Aos professores Alfrêdo Gomes Neto e Silvana Luciene Cunha Costa, por suas con-
tribuições mais do que significativas para a concretização deste trabalho.

À CAPES, pelo apoio financeiro.

Aos demais colegas e professores do PPGEE, que, de uma forma ou de outra, também
contribuı́ram com minha formação acadêmica.
Sumário

Sumário i

Lista de Figuras v

Lista de Tabelas ix

Lista de Sı́mbolos xi

Lista de Siglas e Acrônimos xv

1 Introdução 1
1.1 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Estado da Arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Organização do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Redes Neurais Artificiais de Alimentação Direta 7


2.1 Introdução às Redes Neurais Artificiais . . . . . . . . . . . . . . . . . 7
2.2 Redes Perceptrons de Múltiplas Camadas . . . . . . . . . . . . . . . . 11
2.3 Redes de Funções de Base Radial . . . . . . . . . . . . . . . . . . . . 13
2.4 Redes de Funções Sample . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.5 Redes Modulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.6 Técnicas e Algoritmos de Treinamento . . . . . . . . . . . . . . . . . 18
2.6.1 Aprendizado Supervisionado . . . . . . . . . . . . . . . . . . . 18
2.6.2 Algoritmo Backpropagation . . . . . . . . . . . . . . . . . . . 21
2.6.3 Algoritmo Resilient Backpropagation . . . . . . . . . . . . . . 23

3 Derivação das Equações de Ajuste a partir do Método do Gradiente 25


3.1 Método do Gradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Algoritmo Backpropagation Aplicado à Rede MLP . . . . . . . . . . . 26

i
Lista de Figuras

2.1 Exemplo de uma rede de alimentação direta. . . . . . . . . . . . . . . 8


2.2 Exemplo de uma rede recorrente. . . . . . . . . . . . . . . . . . . . . 9
2.3 Taxonomia utilizada para as redes de alimentação direta e redes recor-
rentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Modelo de neurônio artifical (perceptron) utilizado nas redes MLPs. . 11
2.5 Formas da função sample com variações dos centros e das larguras. . 15
2.6 Arquitetura da rede modular. . . . . . . . . . . . . . . . . . . . . . . 16
2.7 Configurações utilizando: (a) SFNN. (b) RBF/MLP. . . . . . . . . . 17
2.8 Região de interesse a ser modelada. . . . . . . . . . . . . . . . . . . . 17
2.9 Representação do processo de aprendizado supervisionado. . . . . . . 18
2.10 Um modelo neural ilustrando: (a) Overlearning; (b) Underlearning;
(c) Boa aprendizagem. . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.11 Curvas de erro de treino e de teste apresentando o melhor ponto de
aprendizado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.12 Influência da magnitude das derivadas e da taxa de aprendizado na
busca do mı́nimo global na superfı́cie de erro. . . . . . . . . . . . . . 22

3.1 Configuração de uma rede MLP com uma camada de neurônios ocul-
tos e um neurônio na camada de saı́da. . . . . . . . . . . . . . . . . . 27
3.2 Configuração de uma rede RBF com um neurônio na camada de saı́da. 31

4.1 Configuração de uma antena de microfita. . . . . . . . . . . . . . . . 42


4.2 Propagação de ondas de superfı́cie em um substrato de uma antena
de microfita e suas difrações na borda. . . . . . . . . . . . . . . . . . 43
4.3 Antena de microfita com substrato PBG. . . . . . . . . . . . . . . . . 44
4.4 Ressoador retangular de microfita. . . . . . . . . . . . . . . . . . . . . 45
4.5 Saı́da da rede MLP - Ressoador retangular de microfita. . . . . . . . . 46
4.6 Parâmetros utilizados no treinamento da rede modular para a antena
de microfita com substrato PBG. . . . . . . . . . . . . . . . . . . . . 47

v
4.7 Resposta das redes especialistas 1 e 2 - Antena de microfita com
substrato PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.8 Respostas da rede modular para: (a) h = 0,794 mm; (b) h = 0,9528
mm; (c) h = 1,588 mm - Antena de microfita com substrato PBG. . . 49
4.9 Generalização da rede modular para h = 1,4292 mm - Antena de
microfita com substrato PBG. . . . . . . . . . . . . . . . . . . . . . . 50
4.10 Análise comparativa dos modelos para a antena de microfita através
das redes RBF, MLP e Modular RBF/MLP. . . . . . . . . . . . . . . 50
4.11 Guia de ondas UC-PBG: (a) Diagrama esquemático; (b) Material
PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.12 Guia de ondas UC-PBG: (a) Dimensões e locais de medição do campo
elétrico; (b) Dimensões da célula PBG. . . . . . . . . . . . . . . . . . 52
4.13 Parâmetros utilizados no treinamento da rede modular para guia de
ondas UC-PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.14 Resposta das redes especialistas 1 e 2 - Guia de Ondas UC-PBG. . . 53
4.15 Resposta da rede modular hı́brida RBF/MLP Rprop - Guia de Ondas
UC-PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.16 Análise comparativa dos modelos para o guia de ondas UC-PBG
através das redes RBF, MLP e Modular RBF/MLP. . . . . . . . . . . 55
4.17 Linha de microfita com substrato de GaAs - Seção transversal. . . . . 56
4.18 Parâmetros utilizados no treinamento da rede modular para a linha
de microfita com o substrato de GaAs. . . . . . . . . . . . . . . . . . 57
4.19 Resposta das redes especialistas 1 e 2 - Linha de microfita com subs-
trato de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.20 Resposta da rede modular hı́brida RBF/MLP Rprop - Linha de mi-
crofita com substrato de GaAs. . . . . . . . . . . . . . . . . . . . . . 59
4.21 Generalização da rede modular hı́brida RBF/MLP Rprop e compara-
ção com programas CAD e rede MLP simples - Linha de microfita
com substrato de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . 59

5.1 Diagrama simplificado de um amplificador óptico. . . . . . . . . . . . 62


5.2 Dois tipos de amplificadores ópticos. (a) Amplificador de fibra. (b)
Amplificador a laser semicondutor. . . . . . . . . . . . . . . . . . . . 63
5.3 Parâmetros utilizados no treinamento da rede modular para o SLA
de InGaAsP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.4 Resposta da rede especialista 1 - SLA de InGaAsP. . . . . . . . . . . 67
5.5 Resposta da rede especialista 2 - SLA de InGaAsP. . . . . . . . . . . 67
5.6 Resposta da rede modular - SLA de InGaAsP. . . . . . . . . . . . . . 68
5.7 Evolução do treinamento da rede de saı́da através do algoritmo RProp
- SLA de InGaAsP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.8 Parâmetros utilizados no treinamento da rede modular para o SLA
de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.9 Resposta da rede especialista 1 - SLA de GaAs. . . . . . . . . . . . . 70
5.10 Resposta da rede especialista 2 - SLA de GaAs. . . . . . . . . . . . . 70
5.11 Resposta da rede modular - SLA de GaAs. . . . . . . . . . . . . . . . 71
5.12 Evolução do treinamento da rede de saı́da através do algoritmo RProp
- SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.13 Generalização da rede modular SFNN dentro da região de interesse:
(a) Gráfico Bidimensional; (b) Gráfico Tridimensional. . . . . . . . . 72
5.14 Estimativa dos valores de pico do coeficiente de ganho do SLA de
GaAs - Rede modular e referência. . . . . . . . . . . . . . . . . . . . 72
5.15 Saı́da das redes especialistas RBF - SLA de GaAs. . . . . . . . . . . . 73
5.16 Resposta da rede de saı́da MLP - SLA de GaAs. . . . . . . . . . . . . 73
5.17 Generalização da rede modular RBF/MLP na região de interesse -
SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.18 Estimativa dos valores de pico do coeficiente de ganho do SLA de
GaAs através da rede RBF/MLP - Rede modular e referência. . . . . 75
Lista de Tabelas

4.1 Principais caracterı́sticas do ressoador retangular de microfita mode-


lado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Informações de treinamento da MLP/Rprop na modelagem do ressoador
retangular de microfita. . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3 Principais caracterı́sticas da antena de microfita modelada. . . . . . . 47
4.4 Informações de treinamento das redes especialistas para modelagem
da antena de microfita com substrato PBG. . . . . . . . . . . . . . . 48
4.5 Informações de treinamento da rede de saı́da para modelagem da
antena de microfita com substrato PBG. . . . . . . . . . . . . . . . . 49
4.6 Principais caracterı́sticas do guia de ondas UC-PBG modelado. . . . . 52
4.7 Informações de treinamento das redes especialistas para modelagem
do guia de ondas UC-PBG. . . . . . . . . . . . . . . . . . . . . . . . 53
4.8 Informações de treinamento da rede de saı́da para modelagem do guia
de ondas UC-PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.9 Informações de treinamento das redes especialistas para modelagem
da linha de microfita com substrato de GaAs. . . . . . . . . . . . . . 57
4.10 Informações de treinamento da rede de saı́da para modelagem da linha
de microfita com substrato de GaAs. . . . . . . . . . . . . . . . . . . 58

5.1 Comparação entre EDFA e SLA. . . . . . . . . . . . . . . . . . . . . 62


5.2 Principais caracterı́sticas do SLA de InGaAsP modelado. . . . . . . . 65
5.3 Informações de treinamento das redes especialistas para modelagem
do SLA de InGaAsP. . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.4 Informações de treinamento da rede de saı́da para modelagem do SLA
de InGaAsP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.5 Principais caracterı́sticas do SLA de GaAs modelado. . . . . . . . . . 69
5.6 Informações de treinamento das redes especialistas SFNN para mo-
delagem do SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . 69

ix
5.7 Informações de treinamento da rede de saı́da SFNN para modelagem
do SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.8 Informações de treinamento das redes especialistas RBF para mode-
lagem do SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.9 Informações de treinamento da rede de saı́da MLP para modelagem
do SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Lista de Sı́mbolos

Letras Gregas

α0 constante de atenuação
γ0 coeficiente de ganho
∆, ∆ij valores de ajuste
∆n concentração de portadoras injetadas
r permissividade elétrica relativa
η,δ taxas de aprendizado global
η + ,η − constantes: 1,2 e 0,5 respectivamente
ηw , ησ , ηv taxas de aprendizado especı́ficas
θ valor de polarização ou bias
κ constante
λp comprimento de onda polarizada
ν freqüência óptica
π constante: 3,1415...
σ2 largura ou espalhamento de uma função de base radial
τ ângulo de elevação
τr tempo de recombinação elétrons-lacunas
φ densidade do fluxo de fótons
ϕ, ϕ1 , ϕ2 funções de ativação

xi
Letras Romanas

B coeficiente de Einstein
d(n) resposta desejada para o exemplo n
e erro entre a resposta desejada e a saı́da da rede
E erro quadrático instantâneo
En nı́vel arbitrário de energia
ET E erro de teste
ET R erro de treinamento
f freqüência
fv , fc distribuições de Fermi-Dirac
g(hν) ganho entre absorção e emissão
gv , gc densidades de estados
h altura do substrato
hν energia do fóton
H, h̄ constante de Planck e esta dividida por 2π
L comprimento do ressoador retangular de microfita
mc , m v massa efetiva de elétrons nas bandas de condução e valência
m∗e massa efetiva do elétron
M SE erro médio quadrático
n número do exemplo de treinamento
N número total de exemplos de treinamento
Ne número de entradas da rede
netj potencial de ativação
Nh número de unidades ocultas
Ns número de saı́das
p, q, g, i medidas da célula PBG
r, s medidas do guia de onda UC-PBG
Sij parâmetro de espalhamento
t época de treinamento
T temperatura
Te dados de teste
Tr dados de treinamento
Vd dados de validação
vkj peso da camada de saı́da da rede
xi entrada da rede neural
yj saı́da da camada oculta
w largura da linha de microfita
wji peso da camada oculta de uma MLP
wj centro de uma função de base radial
W largura do ressoador retangular de microfita
zk saı́da da rede neural
Lista de Siglas e Acrônimos

ANN Artificial Neural Network


BP Backpropagation
CAD Computer Aided Design
CPW Coplanar Waveguide
EDFA Erbium Doped Fiber Amplifier
EM Electromagnetic
EM-ANN Electromagnetic - Artificial Neural Network
FDTD Finite Difference Time Domain
FNN Feedforward Neural Network
GaAs Arseneto de Gálio
HEMT High Electron Mobility Transistor
InGaAsP Arseneto Fosfeto de Índio Gálio
KBNN Knowledge Based Neural Network
MBH Método do Balanço Harmônico
ME Mistura de Especialistas
MESFET Metal-Semiconductor Field Effect Transistor
MHE Mistura Hierárquica de Especialistas
MLP Multilayer Perceptron
MMIC Monolithic Microwave Integrated Circuit
MSE Mean Square Error
PBG Photonic Bandgap
PKI Priori Knowledge Input
RBF Radial Basis Function
RF Radio Frequency
RNA Rede Neural Artificial
Rprop Resilient Backpropagation
SD Spectral Domain
SFNN Sample Function Neural Network

xv
SLA Semiconductor Laser Amplifier
SM-ANN Space Mapping - Artificial Neural Network
TE Transverse Electric
TEM Transverse Electromagnetic
TM Transverse Magnetic
UC-PBG Uniplanar Compact - Photonic Bandgap
VLSI Very Large Scale Integration
Resumo

Esta dissertação contribui para o desenvolvimento de metodologias através de


redes neurais artificiais de alimentação direta para a modelagem de dispositivos de
microondas e ópticos.
Uma revisão bibliográfica sobre as aplicações de técnicas neuro-computacionais
na áreas de engenharia de microondas e óptica foi realizada. As caracterı́sticas das
redes MLP, RBF e SFNN, bem como as estratégias de aprendizado supervisionado
foram apresentadas. As expressões de ajuste dos parâmetros livres das redes acima
citadas foram deduzidas a partir do método do gradiente.
O método convencional EM-ANN foi aplicado na modelagem de dispositivos
passivos de microondas e amplificadores ópticos. Para isto, foram propostas confi-
gurações modulares baseadas em redes SFNN e RBF/MLP objetivando uma maior
capacidade de generalização dos modelos. No que se refere ao treinamento das redes
utilizadas, o algoritmo Rprop foi aplicado.
Todos os algoritmos utilizados na obtenção dos modelos desta dissertação foram
implementados em MatlabTM .

Palavras-chave: Redes Neurais Artificiais, Modelagem Não Linear, Amplifi-


cadores Ópticos, Dispositivos de Microondas.

xvii
Abstract

This dissertation contributes for the development of methodologies through feed


forward artificial neural networks for microwave and optical devices modeling.
A bibliographical revision on the applications of neuro-computational techniques
in the areas of microwave/optical engineering was carried through. Characteristics
of networks MLP, RBF and SFNN, as well as the strategies of supervised learning
had been presented. Adjustment expressions of the networks free parameters above
cited had been deduced from the gradient method.
Conventional method EM-ANN was applied in the modeling of microwave passive
devices and optical amplifiers. For this, they had been proposals modular configu-
rations based in networks SFNN and RBF/MLP objectifying a bigger capacity of
models generalization. As for the training of the used networks, the Rprop algorithm
was applied.
All the algorithms used in the attainment of the models of this dissertation had
been implemented in MatlabTM .

Keywords: Artificial Neural Networks, Nonlinear Modeling, Optical Amplifiers,


Microwave Devices.

xix
Capı́tulo 1

Introdução

Neste capı́tulo introdutório são explicadas as motivações para a realização deste


trabalho com o uso das redes neurais artificiais para implementação de ferramentas
de auxı́lio à modelagem de dispositivos de microondas e ópticos. É apresentado um
estudo revisional sobre o estado da arte nesta área, mostrando algumas referências
bibliográficas e trabalhos de autores conceituados sobre a utilização das redes neurais
nas áreas da engenharia de microondas e sistemas ópticos. Destaca-se a forma em
que este trabalho está organizado, bem como, uma sı́ntese do seu conteúdo.

1.1 Motivação
O uso constante de ferramentas computacionais para o desenvolvimento de proje-
tos de dispositivos, para sistemas de comunicações, tem gerado um novo paradigma
na modelagem e simulação destes. As ferramentas de projeto auxiliado por com-
putador (CAD) para aplicações nas faixas de rádio freqüência (RF), microondas,
ondas milimétricas e óptica receberam um maior destaque a partir da década de 90.
Algumas destas ferramentas incluem: modelagem precisa de dispositivos passivos e
ativos, simulação eletromagnética computacional e análise de circuitos não lineares
utilizando balanço harmônico e aproximações no domı́nio do tempo [1].
Simuladores eletromagnéticos (EM’s) para estruturas em altas-freqüências foram
desenvolvidos, tornando o CAD para a elaboração de circuitos e dispositivos de
RF/microondas e ópticos o estado da arte na área. Isto se deve, em parte, à grande
demanda do mercado e da indústria por tais itens. Por exemplo, os dispositivos
ópticos possuem caracterı́sticas muito desejáveis nos sistemas de telecomunicações,
tais como baixo custo, ampla largura de banda, atenuação relativamente reduzida,
2 CAPÍTULO 1. INTRODUÇÃO

baixo peso e tamanho e imunidade contra interferências externas [2]. Já os circuitos
de RF/microondas tiveram um grande avanço, permitindo, com a tecnologia planar,
a confecção de circuitos hı́bridos, circuitos integrados monolı́ticos de microondas
(MMIC) para aplicações em arranjos de fase e sistemas de comunicações sem fio [3].
A análise estatı́stica e otimização baseada em modelos fı́sicos rigorosos - eletro-
magnéticos - de componentes ativos e passivos pode ser uma boa solução. No en-
tanto, tais métodos em geral são muito complexos, com um grande custo com-
putacional e geralmente necessitam de uma poderosa plataforma de hardware. Al-
ternativamente, modelos empı́ricos são usados em alguns simuladores, mas, estes
apresentam limitações na faixa de aplicação, bem como deixam a desejar quanto
a precisão [4]. Na última década uma nova abordagem, baseada na tecnologia das
redes neurais artificiais (ANN), tem sido introduzida na comunidade cientı́fica para
a elaboração de modelos para dispositivos e circuitos [5].
A modelagem baseada em redes neurais artificiais tem sido utilizada no que
se refere a aproximação, simulação e otimização de parâmetros fı́sicos, elétricos e
ópticos [3, 6]. Os modelos neurais são muito mais rápidos do que os modelos fı́sicos
rigorosos ou modelos eletromagnéticos e são mais precisos do que modelos empı́ricos
ou polinomiais. Além disso, são mais flexı́veis do que tabelas de consulta no que se
refere à problemas multi-dimensionais e são mais fáceis de implementar quando um
novo dispositivo ou circuito é introduzido [7]. Neste tipo de modelagem, as ANNs
são treinadas com dados medidos ou simulados de forma off-line. Uma vez treinados,
os modelos neurais podem ser usados on-line durante a fase de projeto, calculando
de forma eficiente as respostas, ou dados desejados.
Teoricamente, os modelos neurais são do tipo “caixa preta”, onde a precisão
depende dos dados apresentados durante o treinamento. Um bom conjunto de dados
de treinamento, isto é, um conjunto de dados bem distribuı́do, quantitativamente
suficiente e preciso em relação aos dados medidos e/ou simulados, é o requisito básico
para a obtenção de um modelo neural exato [5].
A escolha dos algoritmos de treinamento constitui a parte principal de um modelo
neural. Uma estrutura neural apropriada pode vir a falhar na obtenção de um
modelo desde que o algoritmo de treinamento não seja eficiente. Um bom algoritmo
é aquele que combina baixo custo computacional sem, no entanto, perder sua eficácia.
Nos modelos neurais utilizados na área de microondas e óptica, o algoritmo mais
aplicado é o backpropagation ou retropropagação do erro [1]. No entanto, outros
algoritmos têm sido propostos na literatura para uso nas aplicações acima citadas.
Na aplicação como modelos na área de microondas/óptica, as redes neurais têm
CAPÍTULO 1. INTRODUÇÃO 3

mostrado caracterı́sticas interessantes . Primeiro, nenhum conhecimento prévio so-


bre um mapeamento entrada/saı́da é necessário para o desenvolvimento do modelo.
Isto se deve ao fato de que os dados de treinamento já possuem tal informação.
Segundo, as ANNs podem generalizar, ou seja, responder corretamente para novos
dados que não foram utilizados no treinamento. E terceiro, a habilidade que os
modelos neurais têm em mapear funções altamente não lineares, bem como, funções
lineares [8]. Diante do exposto, fica observado que as redes neurais podem ser uti-
lizadas na solução dos problemas apresentados neste trabalho.

1.2 Estado da Arte


As redes neurais têm sido usadas nos últimos anos em diversas áreas do co-
nhecimento e nas mais diferentes aplicações. Uma das aplicações das ANNs é sua
utilização como preditores de séries temporais [9]. No que se refere a processamento
de sinais, as ANNs têm sido utilizadas em: identificação de sistemas, controle de
aeronaves, sintetizadores de voz e visão computacional. Hwang et al. apresentaram
um resumo das aplicações e sistemas que combinam processamento de sinais e re-
des neurais [10]. Em problemas relacionados ao sensoriamento remoto, as ANNs
também têm contribuı́do significativamente [11].
Na área de engenharia de telecomunicações, principalmente no que se refere à
modelagem de dispositivos de RF/microondas, encontram-se aplicações de redes
neurais na obtenção dos parâmetros de espalhamento no projeto de filtros em mi-
crofita [12], no cálculo de parâmetros fı́sicos em antenas de microfita com patch
triangular [13] e na otimização da freqüência de ressonância e perda de retorno em
antenas de microfita com múltiplas camadas com substrato de GaAs [14]. As ANNs
também têm sido utilizadas na obtenção dos parâmetros de espalhamento em guias
de onda coplanares (CPW) [15], na localização de sinais para comunicações móveis
e rastreamento em arranjos de antenas [16], em conjunto com o método do balanço
harmônico (MBH) na otimização e cálculo da freqüência de ressonância de antenas
planares ativas [17], no modelo da função de transferência de transistores de efeito
de campo de junção metal-semicondutor (MESFET) [18] e na otimização do método
no domı́nio espectral (SD) para a análise de antenas planares [19].
Embora o uso das redes neurais no projeto de dispositivos nas faixas de RF/mi-
croondas já esteja consolidado, alguns trabalhos também já reportam a sua aplicação
à sistemas e dispositivos ópticos. Modelos neurais são utilizados em conexões eletro-
ópticas e diodos laser [6], na predição de feixes laser em alumı́nio e aço em função
4 CAPÍTULO 1. INTRODUÇÃO

da potência do feixe e velocidade de varredura [20], na simulação de acopladores


direcionais para fibras ópticas em função do comprimento e taxa de acoplamento
[21] e na caracterização de pulsos laser ultra-curtos [22]. Pode-se citar ainda a
aplicação de técnicas neurais no processamento de dados obtidos por sensores ópticos
[23], na modelagem e simulação de portas lógicas ópticas [24] e em modelos de
demultiplexadores ópticos [25].
Destacam-se também alguns trabalhos publicados sobre o objeto de pesquisa
desta dissertação, tais como a utilização de redes modulares na modelagem de am-
plificadores ópticos, transistores baseados em GaAs, guias de ondas com material
PBG e antenas tipo patch com material PBG [26, 27, 28, 29].
Os trabalhos acima citados demonstram a eficiência das ANNs em diversos con-
textos, quer no âmbito da modelagem computacional, otimização, reconhecimento
de padrões e principalmente nos objetivos a serem alcançados por este trabalho.

1.3 Organização do Trabalho


No capı́tulo 2 é dado um enfoque no método utilizado, ou seja, as redes neurais
artificiais de alimentação direta (FNNs). É feita uma apresentação concisa, dando
destaque às vantagens, caracterı́sticas e propriedades das ANNs. Os paradigmas
de aprendizado também são abordados, assim como algumas configurações comuns
e encontradas na literatura. Um enfoque maior é voltado para as redes utilizadas
neste trabalho, tais como a rede perceptron de múltiplas camadas (MLP), a rede
de funções de base radial (RBF), a rede de funções Sample (SFNN), bem como as
redes modulares SFNN/SFNN e RBF/MLP. São apresentados os algoritmos para
o treinamento das FNNs utilizadas, que são baseados no método do gradiente: o
backpropagation e o resilient backpropagation (Rprop).
No capı́tulo 3, descreve-se a formulação matemática, na qual são dadas as defini-
ções e deduções das equações para o ajuste dos parâmetros das FNNs utilizadas. O
método do gradiente é utilizado como ponto de partida para estas deduções e uma
notação simples e coerente é utilizada, de forma didática, a fim de facilitar um bom
entendimento da descrição matemática, facilitando a implementação computacional.
Nos capı́tulos 4 e 5, destacam-se algumas propriedades elétricas e fı́sicas dos
dispositivos de microondas e ópticos abordados nesta dissertação. São tratados
também, de forma simplificada, alguns métodos utilizados por outros autores para
a obtenção de modelos para os mesmos dispositivos. Os resultados obtidos na apli-
cação de redes neurais para neuro-modelagem de dispositivos de microondas e ópticos
CAPÍTULO 1. INTRODUÇÃO 5

são apresentados. É feito um estudo comparativo entre o desempenho de diferentes


métodos de modelagem para tais dispositivos: ANN, fı́sico/EM, experimental e em-
pı́ricos. A análise entre os modelos através das redes RBF, MLP e da arquitetura
modular proposta neste trabalho, mostra que a última supera as primeiras no que
se refere à eficiência, consistência do treinamento e capacidade de generalização.
Tais resultados confirmam que o método proposto através de redes neurais é efi-
ciente e preciso para a solução de problemas de regressão não linear, otimização
computacional, integração com ferramentas CAD e neuro-modelagem nas áreas de
microondas e óptica.
Enfim, no capı́tulo 6, conclusões sobre as contribuições deste trabalho, dos mo-
delos implementados e dos resultados obtidos são apresentados, bem como, aspectos
relacionados à continuidade do trabalho.
6 CAPÍTULO 1. INTRODUÇÃO
Capı́tulo 2

Redes Neurais Artificiais de


Alimentação Direta

Este capı́tulo destaca o método utilizado neste trabalho. Destacam-se os con-


ceitos relacionados com o projeto e o desenvolvimento de redes neurais de alimen-
tação direta para aplicações em modelagem de dispositivos de microondas e ópticos.
As configurações mais comuns de redes de alimentação direta, como por exemplo,
as redes MLP, RBF e SFNN são explicadas. A arquitetura modular e o conceito
de região de interesse de um modelo são apresentados neste capı́tulo. Os principais
paradigmas de aprendizado, técnicas e alguns algoritmos de treinamento também
são descritos.

2.1 Introdução às Redes Neurais Artificiais


Muito se tem falado sobre as ANNs e suas aplicações em diversas áreas cientı́-
ficas. Uma rede neural artifical é um processador paralelo com uma configuração
totalmente distribuı́da de unidades de processamento, que tem a propensão natural
para armazenar conhecimento experimental e torná-lo disponı́vel para o subseqüente
uso [30]. Uma definição alternativa é dada por Zhang e Gupta, onde estes tratam
as ANNs como sistemas de processamento da informação inspirados na habilidade
do cérebro humano de aprender a partir de observações e generalizar por meio de
abstração [8].
Em termos simples, uma rede neural tı́pica tem dois tipos de componentes bási-
cos: os elementos de processamento e as interconexões entre eles. Os elementos
de processamento são chamados neurônios e as ligações entre eles são conhecidas
8 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

como conexões ou sinapses. Cada conexão tem um peso ou parâmetro livre asso-
ciado. Este peso é usado para amplificar ou atenuar o sinal que chega à conexão.
Os neurônios recebem estı́mulos a partir dos outros neurônios conectados a eles. Os
que recebem sinais de fora da rede são chamados de neurônios de entrada, os que
fornecem sinais para fora da rede são chamados neurônios de saı́da e os que recebem
estı́mulos de outros neurônios são conhecidos como neurônios ocultos. Por sua vez,
diferentes estruturas de redes neurais podem ser construı́das utilizando diferentes
tipos de elementos de processamento e com formas de conexão diferentes [1, 31].

Quanto a alimentação ou a forma na qual os sinais são apresentados à rede, as


ANNs podem ser subdivididas em redes de alimentação direta e redes recorrentes.
As primeiras se caracterizam pela propagação dos sinais em apenas uma direção a
partir de um estágio de entrada até o estágio de saı́da [1], enquanto nas últimas
são encontrados laços de realimentação e elementos de atraso unitário resultando
em um comportamento dinâmico não-linear [30]. Neste trabalho, serão considera-
dos modelos apenas de redes de alimentação direta. As Figuras 2.1 e 2.2 ilustram
exemplos de redes de alimentação direta e recorrentes, respectivamente. A Figura
2.3 apresenta uma taxonomia das diferentes redes e ilustra de maneira simplificada
suas arquiteturas [32].

Camada Camada de Camada


de neurônios de
entrada ocultos saída

Figura 2.1: Exemplo de uma rede de alimentação direta.


CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 9

Uma propriedade importante das redes neurais é a sua habilidade para aprender
a partir do ambiente na qual está inserida, ou ambiente de aprendizado, e melhorar
seu desempenho através da aprendizagem [30]. A aprendizagem, conforme Mendel
e Maclaren, é um processo pelo qual os parâmetros livres de uma rede neural são
adaptados através de um processo de estimulação pelo ambiente no qual a rede está
inserida, sendo seu tipo determinado pela maneira na qual se dá a modificação dos
parâmetros livres da rede [33].
Esta forma de funcionamento de uma ANN é responsável não só por sua capaci-
dade de aprendizagem a partir de exemplos, mas principalmente por sua habilidade
para generalizar respostas quando ativada com novos exemplos - uma propriedade
muito difı́cil de se obter a partir de sistemas de computação convencional [26].

(.) (.) (.) (.) Operadores de


-1 -1 -1 -1

atraso unitário

Figura 2.2: Exemplo de uma rede recorrente.

Quanto aos processos de aprendizado das redes neurais, podemos destacar dois
paradigmas principais: aprendizado supervisionado, ou com um “professor”, e o
aprendizado não-supervisionado, ou sem um “professor”. No aprendizado supervi-
sionado, processo utilizado em todo este trabalho, o conhecimento do ambiente é
transferido para a rede neural através de exemplos de entrada-saı́da. O sinal erro é
a diferença entre a resposta desejada e a saı́da da rede. O ajuste dos pesos da rede
é proporcional ao sinal erro. Este tipo de aprendizado é definido de forma mais de-
talhada adiante. No processo não-supervisionado, não existe a figura do “professor”.
O conhecimento é transferido com a ajuda de um “crı́tico” ou através de sistemas
auto-organizáveis [30].
10 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

Redes Neurais

Redes de Alimentação
Redes Recorrentes
Direta

Perceptron de Perceptron de Redes de Funções Redes Redes Redes de


Múltiplas Camadas Competitivas Hopfield Modelos ART
Camada Única de Base Radial SOM

Figura 2.3: Taxonomia utilizada para as redes de alimentação direta e redes recor-
rentes.

Dentre as configurações de redes de alimentação direta e aprendizado supervi-


sionado pode-se citar as mais utlizadas:

• Redes Perceptrons de Múltiplas Camadas (MLP);


• Redes de Funções de Base Radial (RBF);
• Redes de Funções Sample (SFNN);
• Redes de Fourier;
• Redes Wavelet.

Nas áreas da engenharia de microondas e óptica, o uso das ANNs é motivado por
serem versáteis, apresentarem eficiência computacional, reduzido uso de memória,
estabilidade e uma boa capacidade de aprendizado e generalização [1]. Podem ser
citados ainda outras caracterı́sticas das ANNs [30]:

• Não linearidade. Como suas unidades são não lineares, a rede como um todo
é não linear;
• Mapeamento de Entrada-Saı́da. Através da aprendizagem supervisionada que
será tratada adiante;
• Adaptabilidade. Os pesos são adaptados de acordo com modificações no ambi-
ente;
• Informação Contextual. Cada neurônio é afetado pela atividade de todos os
outros neurônios da rede;
• Tolerância a Falhas. A natureza distribuı́da da rede faz com que ela venha a
suportar falhas em neurônios individuais, sem prejudicar seriamente a resposta;
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 11

• Implementação em VLSI. O paralelismo da rede a torna potencialmente rápida


para a maioria das aplicações;
• Uniformidade de Análise e Projeto. Por serem compostas de um elemento em
comum, os neurônios, a integração e o compartilhamento se tornam possı́veis;
• Analogia Neurobiológica. A analogia com o cérebro comprova a capacidade do
processamento paralelo e distribuı́do.
Por serem as configurações utilizadas neste trabalho, dar-se-á um destaque nas
redes perceptrons de múltiplas camadas, redes de função de base radial e redes de
funções sample.

2.2 Redes Perceptrons de Múltiplas Camadas


As redes perceptrons de múltiplas camadas têm como unidade básica o perceptron
descrito por McCulloch e Pitts [34]. Estas unidades são distribuı́das em camadas
onde cada uma está conectada a todas unidades da camada anterior. Esta confi-
guração é idêntica a que foi ilustrada na Figura 2.1. Neste modelo, é calculado o
produto interno das entradas aplicadas, xi , com os pesos, wji e também é incor-
porada uma polarização, x0 , aplicada externamente. O efeito desta polarização é
importante quando a soma ponderada dos neurônios da camada anterior for igual a
zero. A soma resultante, considerada como nı́vel de atividade interna ou potencial
de ativação, netj , é aplicada então a uma função de ativação, ϕ(netj ), que pode ser
a saı́da final da rede, ou as entradas de outros perceptrons da camada seguinte. A
Figura 2.4 apresenta a configuração do modelo do perceptron.

x0 wj0

x1 wj1
netj
S j(netj) yj
xi wji

xNi wjNh

Figura 2.4: Modelo de neurônio artifical (perceptron) utilizado nas redes MLPs.

Exemplos de funções de ativação utilizadas nas redes MLPs são a sigmóide, (2.1),
a tangente hiperbólica, (2.2) e a linear,(2.3):

1
ϕ(net) = (2.1)
1 + exp(−net)
12 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

ϕ(net) = tanh(net) (2.2)

ϕ(net) = net (2.3)

No capı́tulo seguinte são apresentadas as equações utilizadas na propagação dos


sinais, no sentido direto, em uma rede MLP que utiliza uma função do tipo sigmóide
para os neurônios da camada oculta e uma função linear para os neurônios da camada
de saı́da.
Referente às redes MLPs, Hornik et al. provaram o teorema da aproximação
universal [35]. Este teorema afirma que sempre existe uma rede composta de três
camadas que é capaz de aproximar qualquer função arbitrariamente não linear, con-
tı́nua e multi-dimensional com a precisão desejada. Entretanto, este teorema não
descreve qual o número de neurônios necessários para que seja alcançada essa apro-
ximação. Conseqüentemente, as falhas mais comuns no desenvolvimento de modelos
neurais se deve em grande parte ao número inadequado de neurônios. O número es-
pecı́fico de neurônios requerido para um problema de modelagem ainda permanece
uma questão aberta. É intuitivo que o número de unidades ocultas depende do
grau de não linearidade e dimensionalidade do problema: problemas com alta não
linearidade necessitam de mais neurônios para obtenção de uma boa aproximação.
Uma solução para o problema do tamanho da rede é o teste por tentativa e erro,
até conseguir um nı́vel arbitrário de aproximação. Outra solução é a otimização do
número de unidades ocultas durante o treinamento - unidades são adicionadas ou
retiradas de acordo com a evolução do treinamento [8]. Esta última técnica foi a
escolhida para utilização neste trabalho.
Conforme citado anteriormente, uma rede MLP com no mı́nimo uma camada
oculta é suficiente para aproximar uma função não linear qualquer. Na prática, redes
com uma ou duas camadas ocultas são utilizadas para aplicações em engenharia de
microondas. Deve ser considerado, no entanto, que o desempenho de uma ANN deve
ser medido não em função do seu número de neurônios, e sim pela sua capacidade de
mapeamento e generalização. Em problemas que envolvem aproximação e regressão
não linear, redes com uma camada oculta são preferencialmente utilizadas, enquanto
que, para problemas envolvendo classificação de padrões, duas camadas ocultas são
utilizadas para garantir uma maior capacidade de obtenção de regiões de decisão
[36].
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 13

2.3 Redes de Funções de Base Radial


A configuração de uma rede de funções de base radial segue o mesmo diagrama
apresentado na Figura 2.1. As considerações feitas acerca do número de neurônios
das redes MLPs também valem para as redes RBFs. No entanto o projeto de uma
rede RBF envolve apenas três camadas, com objetivos totalmente diferentes. A
camada de entrada é constituı́da por unidades sensoriais que conectam a rede ao seu
ambiente do mesmo modo que as redes MLP. A segunda camada, a única camada
oculta da rede, aplica uma transformação não linear que geralmente é uma medida
de distância entre os sinais de entrada xi e os centros das funções de base radial
wj . A camada de saı́da utiliza uma função de transferência linear como mostrada
na Equação (2.3) [30]. Carlin (1992) definiu uma função de base radial como [37]:

ϕ(r) = ϕ(||x − w||); x ∈ n ; r ≥ 0 (2.4)

em que ϕ(r) é uma função contı́nua em (0, ∞) e suas k-ésimas derivadas são com-
pletamente monotônicas em (0, ∞) para todo k. Enquanto as unidades ocultas das
redes MLPs trabalham com o produto interno das saı́das das camadas anteriores
e os pesos, as redes RBFs utilizam uma métrica (||.||) que é, usualmente, a norma
Euclidiana, ou a distância de Mahalanobis. O parâmetro w, para as redes RBFs,
representa o centro ou meio da base radial. Uma das funções de base radial mais
utilizadas é a Gaussiana, (2.5):
 
1
ϕ(x, w) = exp − 2 ||x − w|| (2.5)
σ
sendo que σ 2 é o desvio padrão (uma medida de espalhamento dos centros) de cada
função de base radial utilizada por cada neurônio da camada oculta da rede RBF.
Do mesmo modo que foi provado para as redes MLPs, Park e Sandberg demons-
traram o teorema da aproximação universal para as redes RBFs [38]. De acordo
com tal trabalho, uma rede RBF com um número suficiente de neurônios na camada
oculta é capaz de aproximar uma função não linear arbitrária, com qualquer grau
de precisão.
Por terem caracterı́sticas diferentes, as redes MLP e RBF apresentam compor-
tamentos diferentes. As MLP constróem aproximações globais para mapeamentos
não lineares de entrada-saı́da. Conseqüentemente elas são capazes de generalizar
em regiões do espaço de entrada nas quais existe pouco ou nenhum conhecimento
do comportamento da resposta esperada. De maneira inversa, as RBF usam não
14 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

linearidades locais para a construção do mapeamento entrada-saı́da. Com isso, as


RBF aprendem de forma mais rápida e não são afetadas pela ordem de apresentação
dos dados de treinamento [8]. É com base em tais caracterı́sticas, que o uso de uma
rede modular composta de redes RBFs e uma MLP é proposto posteriormente neste
trabalho.

2.4 Redes de Funções Sample


Silva apresentou uma nova classe de redes neurais, as redes de funções sample
(SFNN) [39]. Estas vieram tentar suprir a dificuldade que as redes MLPs e RBFs têm
em aproximar funções que apresentem comportamentos localizados, ou seja, regiões
com não linearidades suaves, regiões com ondulações e não linearidades abruptas.
A SFNN tem uma configuração semelhante a da RBF. A diferença principal
encontra-se na função de ativação utilizada pelas unidades da camada não linear,
que no caso da RBF, é a função Gaussiana, e no caso da rede SFNN é a função
sample, (2.6):

1 1 sen(||x − w||)
ϕ(x, w) = sample(||x − w||) = (2.6)
σ2 σ 2 ||x − w||
em que x são as entradas, w se refere aos centros das funções sample e σ 2 ao es-
palhamento. Estes parâmetros influenciam significativamente a forma desta função,
fazendo que ela se torne mais flexı́vel no emprego em uma ampla classe de mapea-
mentos não lineares. A escolha da função sample foi originalmente motivada pela
constatação das propriedades da função sinc na reconstrução e processamento de
sinais. Feita a escolha, os outros parâmetros foram adicionados, assim como nas re-
des RBFs. Através da distância euclidiana entre os vetores de entrada x e os centros
w, as funções sample são deslocadas, ao passo que σ 2 determina as suas larguras. A
Figura 2.5 apresenta algumas formas da função sample com variações dos centros e
das larguras.

2.5 Redes Modulares


Como já foi observado no capı́tulo 1, na área de engenharia de microondas/óptica,
as redes neurais têm sido aplicadas com bastante sucesso em problemas de mode-
lagem não linear. Na busca de um maior aperfeiçoamento destes modelos, foram
propostas algumas técnicas que utilizam o conhecimento prévio para se atingir uma
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 15

(s 2,w)=(1,-4) (s 2,w)=(0,3 ,7)


0.8

0.6 (s 2,w)=(3,3)

sample(x) 0.4

0.2 (s 2,w)=(1,9)

-0.2

-0.4
-10 -5 0 5 10
x

Figura 2.5: Formas da função sample com variações dos centros e das larguras.

maior precisão e capacidade de generalização: o modelo hı́brido EM-ANN [40], o


modelo PKI [41], o KBNN [42] e o SM-ANN [43].
Contudo, conforme o tamanho do conjunto de dados de treinamento ou quando
este exige um mapeamento multidimensional e altamente não linear, um modelo
neural maior e mais complexo se faz necessário. A expansão do modelo simples,
baseado em uma MLP ou RBF com uma camada oculta, através do acréscimo de
unidades ocultas, resulta em um aprendizado lento e uma generalização fraca [8].
Por outro lado, um número insuficiente de unidades ocultas gera uma sobrecarga de
informação, como será descrito mais adiante.
Em problemas complexos, simulações realizadas comprovam que, para a rede
MLP e RBF, não são obtidas boas respostas nas regiões do mapeamento em que
predominam oscilações ou não linearidades abruptas.
Para superar tais dificuldades, foi sugerido o uso de redes modulares. A aplicação
desta técnica, para a modelagem de um mapeamento entrada-saı́da não linear, foi
discutida por Jordan et al. (1991) [44]. Arquiteturas modulares como o modelo de
mistura de especialistas (ME) e a mistura hierárquica de especialistas (MHE) foram
apresentadas por Jordan e Jacobs [45].
De acordo com o princı́pio “dividir e conquistar”, uma tarefa complexa é resolvida
dividindo-a em tarefas simples e então combinando as soluções destas tarefas a fim
de se obter a solução do problema de aprendizado como um todo. Na aprendizagem
supervisionada, a simplicidade computacional é alcançada distribuindo-se a tarefa
entre um número arbitrário de especialistas. A combinação de especialistas constitui
16 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

uma máquina de comitê [30]. As máquinas de comitê podem ser classificadas em:

1. Estruturas estáticas - O mecanismo de combinação não envolve o sinal de


entrada. Incluem:
• Média - Saı́da combinada linearmente.
• Reforço - Algoritmo de aprendizagem é convertido em um algoritmo de
alta precisão.
2. Estruturas dinâmicas - O sinal de entrada está envolvido no mecanismo de
combinação. Incluem:
• Mistura de especialistas - Existência de uma rede de passagem na com-
binação.
• Mistura hierárquica de especialistas - Várias redes de passagem organi-
zadas de forma hierárquica.

Neste trabalho, para obtenção dos resultados foi empregada a mistura de es-
pecialistas. O modelo utilizado é composto de três redes: duas especialistas e uma
rede de passagem (saı́da). A Figura 2.6 ilustra graficamente a configuração utilizada.
Duas configurações diferentes para a rede modular são adotadas neste trabalho. No
primeiro caso, as três redes são do tipo SFNN. No segundo caso, as duas redes es-
pecialistas são do tipo RBF e a de saı́da é uma rede MLP. Estas duas configurações
são mostradas na Figura 2.7.

PARÂMETRO
VALOR INICIAL

REDE
ESPECIALISTA 1

REDE
ENTRADA DE SAÍDA
SAÍDA

REDE
ESPECIALISTA 2
PARÂMETRO
VARIÁVEL

PARÂMETRO
VALOR FINAL

Figura 2.6: Arquitetura da rede modular.

Os parâmetros valor inicial, valor final e variável estão relacionados com a região
de interesse definida pelos parâmetros de entrada do modelo. A Figura 2.8 apresenta
um exemplo de região de interesse e os parâmetros utilizados no treinamento da rede
modular.
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 17

PARÂMETRO PARÂMETRO
VALOR INICIAL VALOR INICIAL

SFNN RBF

ENTRADA SFNN SAÍDA ENTRADA MLP SAÍDA

SFNN RBF
PARÂMETRO PARÂMETRO
VARIÁVEL VARIÁVEL

PARÂMETRO PARÂMETRO
VALOR FINAL VALOR FINAL

(a) (b)

Figura 2.7: Configurações utilizando: (a) SFNN. (b) RBF/MLP.

A rede especialista 1 é treinada apenas com a curva referente ao parâmetro valor


inicial; a rede especialista 2 é treinada com a curva correspondente ao parâmetro
valor final; por sua vez, a rede de saı́da é treinada a partir de todo o conjunto de
treinamento e com as respostas das redes especialistas pré-treinadas servindo como
entradas adicionais. Com esta configuração, espera-se obter uma capacidade de
generalização maior em relação às redes tradicionais, além de uma maior consistência
do processo de aprendizado e estabilidade dos resultados.

d
Valor Final

+ +
+ +
Valor + +
+ +
Variável
x

Valor Inicial
Região de Interesse
Dados de Treinamento
+ Dados de Teste
Aproximação do Modelo Neural
Generalização do Modelo Neural

Figura 2.8: Região de interesse a ser modelada.


18 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

2.6 Técnicas e Algoritmos de Treinamento

2.6.1 Aprendizado Supervisionado

Como já citado, no processo de aprendizado supervisionado, a adaptação dos


pesos de uma dada FNN é feita através da estratégia de aprendizado por correção
de erro. Este processo é ilustrado pela Figura 2.9.

x(n) d(n)
Professor

w(n) z(n) - ++
Rede Neural

e(n)
Algoritmo de
Treinamento

Figura 2.9: Representação do processo de aprendizado supervisionado.

O sinal erro (a diferença entre a resposta desejada, d, e a saı́da da rede, z) é


obtido através da computação no sentido direto da rede neural com exemplos de
treinamento. No contexto deste trabalho, se as respostas desejadas forem obtidas a
partir de valores medidos ou métodos eletromagnéticos, esta forma de treinamento
é conhecida como EM-ANN. O sinal de erro é dado por:

e(n) = d(n) − z(n) (2.7)

em que o ı́ndice n varia no intervalo n = 1, 2, ..., N , sendo N o número total de


exemplos de treinamento. Para se evitar que valores de erro com sinais positivos
anulem valores com sinais negativos, toma-se o erro quadrático de cada amostra,
levando em consideração todas as saı́das da rede, Ns :

1 
Ns
E(n) = [e(n)]2 (2.8)
2Ns k=1

Para uma análise geral do treinamento, se utiliza a média dos erros quadráticos
das amostras de todo o conjunto de treinamento. Esta medida, denominada MSE é
dada por:
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 19

1 
N
E(t) = E(n) (2.9)
N n=1

em que, t denota o número de épocas de treinamento. Uma época é contada a


cada apresentação à rede neural de todos os exemplos do conjunto de treinamento.
O objetivo do treinamento é exatamente ajustar os pesos (MLP) ou os centros,
larguras e pesos (RBF e SFNN), tal que o MSE seja minimizado.
Existem dois paradigmas principais quanto ao ajuste dos parâmetros livres de
uma rede: o aprendizado a cada exemplo de treinamento e o aprendizado por época
ou lote. No primeiro, a atualização é feita com base no cálculo do gradiente de cada
exemplo de treinamento apresentado à rede. Este método funciona bem especial-
mente quando o conjunto de treinamento contém muitas amostras com informação
redundante. No segundo caso, o aprendizado por época, a atualização é feita no fim
de cada apresentação de todos os exemplos de treinamento. Este método tem sido
muito utilizado pelo fato de que a soma dos gradientes apresenta uma informação
mais confiável sobre a forma da superfı́cie de erro [46].
O desenvolvimento de um modelo neural tipicamente requer que o conjunto de
treinamento seja dividido em três partes: dados de treinamento (Tr ), dados de
validação (Vd ) e dados de teste (Te ). Os dados de treinamento são aqueles utilizados
no processo de treino, isto é, na adaptação dos parâmetros livres da rede objetivando
a minimização do MSE. Os dados de validação são utilizados para monitorar a
qualidade do modelo neural durante o treinamento e determinar o ponto em que
esta qualidade foi alcançada e o treinamento deve ser suspenso. Os dados de teste
são usados para examinar a qualidade final do desenvolvimento do modelo, incluindo
a sua capacidade de generalização [8]. A menos que seja indicado, neste trabalho foi
utilizado Vd =Tr .
Ao passo que é desejável que o MSE seja minimizado, deve-se levar em conside-
ração a influência de dois fenômenos: o overlearning e o underlearning. O primeiro
é caracterizado quando a rede neural memoriza os dados de treinamento, mas apre-
senta uma generalização “pobre”. Em outras palavras, o erro de treinamento ETr
é pequeno, mas o erro de teste ETe >> ETr . Razões possı́veis para o overlearn-
ing incluem a presença de muitos neurônios ocultos ou a insuficiência dos dados
de treinamento. Por outro lado, o underlearning acontece quando a rede tem di-
ficuldades de aprender os próprios dados de treinamento, ou seja ETr >> 0. Isto
acontece, geralmente, devido a um número insuficiente de neurônios, treinamento
insuficiente ou pela estabilização do algoritmo de treino em um mı́nimo local da
20 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

superfı́cie de erro. A Figura 2.10 apresenta exemplos de overlearning, underlearning


e um modelo com boa aprendizagem.

1,5 x 1,5 x

1 1
Saída (y)

Saída (y)
0,5 0,5
x x
x x
0 0
x x

-0,5 Rede Neural -0,5 Rede Neural


x x x x
Dados de Treinamento Dados de Treinamento
-1 Dados de Teste -1 Dados de Teste
-5 0 5 10 15 -5 0 5 10 15

Entrada (x) Entrada (x)

(a) (b)

1,5 x

1
Saída (y)

0,5
x
x
0
x

-0,5 Rede Neural


x x Dados de Treinamento
-1 Dados de Teste
-5 0 5 10 15

Entrada (x)

(c)

Figura 2.10: Um modelo neural ilustrando: (a) Overlearning; (b) Underlearning;


(c) Boa aprendizagem.

Outro fato que deve ser levado em consideração é a relação entre o erro de treina-
mento, o erro de teste e o número de épocas de treinamento. A Figura 2.11 ilustra
uma curva tı́pica de aprendizado [8]. Embora a minimização do erro de treinamento
seja desejável, deve-se achar o ponto ótimo de minimização das duas curvas de erro
para que não ocorra overlearning nem underlearning. Isto é conseguido através da
monitoração do erro de teste ETe gerado no fim da etapa de treinamento.
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 21

ETr , ETe

ETe

ETe
ETr

Épocas
Ponto de
Melhor Aprendizado

Figura 2.11: Curvas de erro de treino e de teste apresentando o melhor ponto de


aprendizado.

2.6.2 Algoritmo Backpropagation


O tipo mais utilizado de rede neural é a MLP treinada com o algoritmo back-
propagation (BP) ou retropropagação do erro [1]. A difusão deste algoritmo reporta
a década de 80, representando um marco na utilização das redes neurais e tendo o
trabalho de Rumelhart et al. como uma das referências principais [47].
Basicamente, o algoritmo BP é uma aplicação particular do método do gradiente
para a otimização dos pesos da rede MLP. Neste método, o cálculo da direção de
pesquisa no espaço de pesos usa a informação do vetor gradiente da superfı́cie de
erro ∇E(n). Por definição, o gradiente em relação a um peso qualquer da rede,
w(n), é dado por (2.10):

∂E(n) ∂E
∇E(n)|w = = (n) (2.10)
∂w(n) ∂w
em que, E foi definido em (2.8). Especificamente, o valor do ajuste aplicado a cada
peso está no sentido oposto ao do gradiente, pelo fato de que este aponta para a
direção de maior crescimento de uma função. A adaptação dos pesos da rede é
efetuada de uma forma iterativa através da seguinte relação recursiva:

w(n) = w(n − 1) − η∇E(w(n − 1)) (2.11)

na qual, 0 < η < 1 é a taxa de aprendizado ou amplitude de ajuste, um parâmetro


que controla a magnitude dos ajustes aplicados aos pesos. Uma má escolha deste
parâmetro influencia negativamente o treinamento, atrasando-o e recaindo em mı́-
nimos locais, no caso de um valor muito baixo, ou impossibilitando a convergência,
no caso de um valor muito alto.
22 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

Embora este algoritmo tenha sido concebido para o treinamento de redes MLP,
sua derivação a partir do método do gradiente permite que o mesmo seja estendido
para a adaptação dos parâmetros livres das redes RBF e SFNN, como é mostrado
no capı́tulo posterior.
Embora seja de fácil compreensão, o BP apresenta uma convergência lenta. Ja-
cobs identificou duas causas fundamentais para isto [48]:

1. Quando a superfı́cie de erro (E) apresentar uma variação pequena (região


flat) com relação a um dado peso, sua derivada terá uma magnitude pequena
e conseqüentemente o ajuste será pequeno requerendo muitas iterações para a
convergência. Se a variação for elevada (região sharp), o gradiente e o ajuste
também serão elevados acarretando numa ultrapassagem pelo mı́nimo da su-
perfı́cie de erro.
2. O vetor oposto ao vetor gradiente pode apontar para longe do mı́nimo da
superfı́cie de erro, fazendo com que os ajustes ocorram numa direção ruim.

A Figura 2.12 mostra que uma má escolha da taxa de aprendizado global e a
influência da magnitude das derivadas em relação a superfı́cie de erro pode aumentar
o tempo de convergência do algoritmo.

E(w) Região “Flat”

Região “Sharp”

D(w)

Figura 2.12: Influência da magnitude das derivadas e da taxa de aprendizado na


busca do mı́nimo global na superfı́cie de erro.

Conforme já citado, o BP depende de uma boa escolha da taxa de aprendizado


η. Várias heurı́sticas têm sido publicadas para otimização dessa taxa. Por exemplo,
Robins e Monro empregaram o método do gradiente estocástico onde [49]:

κ
η(t) = (2.12)
t
em que, κ é uma constante e t é o número da época atual de treinamento. Outras
adaptações para otimização do método do gradiente estão disponı́veis na literatura,
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 23

como o esquema “pesquisa-então-converge” [50], regra delta-bar-delta [48] e o algo-


ritmo SuperSAB [51]. Entretanto, este trabalho se concentrará no algoritmo resilient
backpropagation a ser tratado na sub-seção seguinte.
Nas redes RBF e SFNN, além da otimização dos pesos da camada de saı́da,
composta de unidades de processamento lineares, exige-se também a otimização
dos centros e dos espalhamentos das funções de base radial (gaussiana, para as redes
RBF e sample, para as redes SFNN). Existem diferentes estratégias de aprendizagem
que podemos seguir para o treinamento de redes RBF e que valem também para as
SFNN. Destacam-se três [30]:

1. Centros Fixos e Selecionados ao Acaso - Esta é a abordagem mais simples em


que as funções de base radial são fixadas e os centros escolhidos aleatoriamente
dentro do conjunto de treinamento. Os únicos parâmetros a serem otimizados
são as larguras das funções da camada oculta e os pesos da camada de saı́da
da rede.
2. Seleção Auto-Organizada de Centros - Consiste de dois estágios: aprendiza-
gem auto-organizada e aprendizagem supervisionada. Este último é usado na
otimização dos pesos da camada linear. No entanto, para a implementação do
primeiro, necessitamos de um algoritmo de agrupamento (clustering) como,
por exemplo, o k-médias. Este algoritmo otimizará a posição dos centros das
funções de base radial de modo que fiquem onde haja maior concentração de
dados significativos.
3. Seleção Supervisionada de Centros - Esta última estratégia, a utilizada neste
trabalho, baseia-se no método do gradiente para a otimização de todos os
parâmetros livres da RBF ou SFNN.

Através da última estratégia, a seleção supervisionada de centros, podemos esten-


der um algoritmo de treinamento similar ao BP, igualmente baseado no método do
gradiente, para a otimização dos parâmetros livres das RBF e SFNN. Esta dedução
é apresentada no Capı́tulo 3.

2.6.3 Algoritmo Resilient Backpropagation


Como apresentado na Figura 2.12, o algoritmo backpropagation demonstra ter
limitações quanto a influência negativa da taxa de aprendizado escolhida de forma
inadequada, bem como, a influência da magnitude das derivadas. Riedmiller apre-
sentou uma solução para os problemas acima [52]. O algoritmo resilient backpropaga-
tion (Rprop) é um algoritmo no qual a taxa de aprendizado é adaptativa, individual
24 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA

para cada peso e a influência indesejável da magnitude das derivadas é ignorado.


Deste modo, apenas o sinal do gradiente é levado em conta no momento do ajuste
dos parâmetros livres. A atualização no Rprop é feita de modo batch (em lote) ou
por época de treinamento. Cada peso wji é atualizado de forma individual, no qual:

(t+1) (t) (t)


wji = wji + ∆wji (2.13)


⎪ (t) ∂E (t)
⎨ −∆ji ,
⎪ se ∂wji
>0
(t) (t) ∂E (t)
∆wji = +∆ji , se <0 (2.14)


∂wji
⎩ 0, demais casos

⎪ (t−1) ∂E (t) ∂E (t−1)
⎨ η ∗ ∆ji ,
⎪ ∗
+
se ∂w ji ∂w ji
>0
(t) (t) (t−1)
η − ∗ ∆ji ,
(t−1)
∆ji = ∂E
se ∂w ∗ ∂w
∂E
<0 (2.15)

⎪ ji ji
⎩ (t−1)
∆ji , demais casos
em que, E é o erro médio quadrático de uma época de treinamento t e η + = 1,2 e
η − = 0,5 são constantes escolhidas empiricamente [53].
As equações (2.14) e (2.15) significam que cada vez que a derivada parcial do
erro correspondente muda de sinal, indica que a última atualização foi muito grande,
ou seja, o algoritmo saltou o mı́nimo local. Sendo assim, o valor de adaptação é
diminuı́do pelo fator η − . Se o sinal da derivada permanece o mesmo, indica que
o valor de adaptação deve ser aumentado, acelerando a convergência mesmo em
regiões suaves da superfı́cie de erro [52].
Este algoritmo tem se mostrado robusto quanto a escolha dos parâmetros de
treinamento e eficiente, mesmo se comparado com outros algoritmos similares, como
o BP, o SuperSAB e o QuickProp [46]. Além disso, ele tem sido usado em aplicações
de neuromodelagem no treinamento de redes MLP, RBF e SFNN [26, 27, 28, 39, 54].
A menos que haja outra indicação, o Rprop é o algoritmo de treinamento utilizado
nos modelos neste trabalho.
Capı́tulo 3

Derivação das Equações de Ajuste


a partir do Método do Gradiente

Neste capı́tulo, o método do gradiente é discutido e utilizado como uma fer-


ramenta numérica na otimização dos parâmetros livres de alguns tipos de redes
reurais. São apresentadas algumas deduções das equações de adaptação das redes
MLP, RBF e SFNN, obtendo as expressões do algoritmo backpropagation para a
primeira e adaptando-o para o treinamento das outras duas. É explicada a apli-
cação do algoritmo utilizado nas simulações deste trabalho, o resilient backpropaga-
tion (Rprop), para os três tipos de rede acima citados. O principal objetivo deste
capı́tulo é utilizar uma notação uniforme, clara e concisa, com o objetivo de facilitar
a implementação computacional das redes e algoritmos descritos.

3.1 Método do Gradiente


O método do gradiente é uma técnica numérica simples e amplamente usada no
âmbito cientı́fico para a minimização de funções através de suas derivadas. Seja uma
função f (x(n)), numa dada iteração n, a direção de pesquisa em busca do mı́nimo
da função, será a direção negativa a do gradiente [39]. Ou seja:

x(n + 1) = x(n) − η∇f (x(n)) (3.1)

em que, η é uma constante que determina a amplitude do ajuste a ser aplicado e


∇ é o operador matemático que representa o gradiente de uma função escalar. Um
valor elevado de η inicialmente apressará a convergência, mas, dificultará o encontro
do mı́nimo apropriado na superfı́cie de erro no decorrer das iterações. No entanto,
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
26 GRADIENTE

um valor muito pequeno de η resultará numa lentidão excessiva na convergência do


método.

3.2 Algoritmo Backpropagation Aplicado à Rede


MLP

Como discutido no capı́tulo anterior, as equações de ajuste para atualização dos


parâmetros livres de uma rede neural são realizadas no sentido de minimizar um
funcional, que no caso das redes supervisionadas, é o erro entre a resposta desejada
e a saı́da da rede. Vários métodos podem ser utilizados nessa minimização, e neste
trabalho, é utilizado o método do gradiente discutido na seção anterior. Este método
inicialmente foi aplicado para as redes MLP e conseqüentemente gerou o algoritmo
mais utilizado pelos usuários de redes neurais: o backpropagation. Como o nome diz,
se baseia na retropropagação dos sinais de erro do fim para o começo da rede. As
deduções destas equações de ajuste são mostradas a seguir.
Por questões de simplicidade, no entanto sem perder a generalidade, será consi-
derada uma estrutura neural com apenas um neurônio na camada de saı́da. Como
foi citado no capı́tulo anterior, é provado que uma rede MLP com três camadas
pode realizar o mapeamento de qualquer função contı́nua [35]. Logo, para apli-
cações de modelagem não linear, considera-se da mesma forma, apenas uma camada
de neurônios ocultos e a linearidade da função de ativação da camada de saı́da.
Estas também são as considerações adotadas daqui em diante. Esta configuração é
ilustrada na Figura 3.1.
Conforme já citado, no aprendizado supervisionado objetiva-se a minimização
do erro, que é dado inicialmente por (3.2):

e(n) = d(n) − z(n) (3.2)

em que, d(n) é a resposta desejada e z(n) é a saı́da da rede na apresentação do


exemplo de treinamento n. Para evitar que valores positivos de erro anulem valores
negativos, toma-se o erro quadrático, (3.3) :

1
E(n) = [e(n)]2 (3.3)
2
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 27

y0
x0 w1,0
Ne

w1,i net1 = å w1,i xi y1 = j1 (net1 )


i =0

w1,Ne
vk,0
wj,0 vk,1
Ne vk,j Nh
xi
wj,i net j = å w j ,i xi y j = j1 (net j ) netk = å vk , j y j z k = j 2 (netk ) zk
i =0 j =0
wj,Ne vk,Nh

wNh,0
wNh,i Ne
net Nh = å wNh ,i xi y Nh = j1 (net Nh )
i =0
xNe wNh,Ne

Figura 3.1: Configuração de uma rede MLP com uma camada de neurônios ocultos
e um neurônio na camada de saı́da.

Ao fim de uma época, ou o perı́odo em que todos os exemplos do conjunto de


treinamento são apresentados à rede MLP, avalia-se o aprendizado através da análise
do Erro Médio Quadrático (MSE), que é obtido pela expressão (3.4):

1 
N
M SE = E(n) (3.4)
N n=1

em que, N é o número total de exemplos de treinamento. Usando a notação da


Figura 3.1 temos que, para um dado exemplo de treinamento n, yj (n) = ϕ1 (netj (n))
e zk (n) = ϕ2 (netk (n)) no qual:


Ne
netj (n) = wji (n)xi (n) (3.5)
i=0


Nh
netk (n) = vkj (n)yj (n) (3.6)
j=0

em que, N e representa o número de entradas da rede; N h o número de neurônios


ocultos; wji refere-se aos pesos da camada oculta e vkj os pesos da camada de saı́da.
Ainda na Figura 3.1, ϕ1 (.) e ϕ2 (.) são as funções de ativação dos neurônios das
camadas oculta e de saı́da, respectivamente, dadas por:
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
28 GRADIENTE

1
ϕ1 (netj (n)) = , para neurônios na camada oculta (3.7)
1 + exp(−netj (n))

ϕ2 (netk (n)) = netk (n), para neurônios na camada de saı́da (3.8)

3.2.1 Computação no Sentido Direto


Para a propagação dos sinais no sentido direto, chega-se às seguintes expressões:


Nh
zk (n) = ϕ2 (netk (n)) = netk (n) = vkj (n)yj (n), k = 1 (3.9)
j=0

1
yj (n) = ϕ1 (netj (n)) = netk (n) = , j = 1 , 2 , ...Nh (3.10)
1 + exp(−netj (n))


Ne
netj (n) = wji (n)xi (n), j = 1 , 2 , ...Nh (3.11)
i=0

x 0 = y0 = θ (3.12)

sendo θ um valor de polarização ou bias, adicionado ao valor das entradas e unidades


ocultas da rede. Por exemplo, para uma rede MLP com  parâmetros de entrada
e projetada para ter ψ neurônios ocultos, na realidade sua configuração vai ser de
 + 1 entradas e ψ + 1 unidades ocultas, por causa do acréscimo da polarização. Sua
utilização foi discutida no capı́tulo anterior.

3.2.2 Computação no Sentido Reverso


As variáveis livres a serem otimizadas numa rede do tipo MLP são os pesos da
camada oculta, w, e os pesos da camada de saı́da, v. Esta otimização, quando
realizada em cada apresentação de um exemplo de treinamento, segue as seguintes
expressões:

wji (n + 1) = wji (n) + ∆wji (n) (3.13)


CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 29

vkj (n + 1) = vkj (n) + ∆vkj (n) (3.14)

em que, ∆w(n) e ∆v(n) são os valores de ajuste. Expandindo as Equações (3.13)


e (3.14), e seguindo o método do gradiente, chega-se às expressões para otimização
de tais parâmetros e conseqüentemente a minimização da função erro. A partir de
(3.13) e (3.14), pode-se deduzir:

∂E(n)
∆wji (n) = −η∇wji (n)E(n) = −η (3.15)
∂wji (n)

∂E(n)
∆vkj (n) = −η∇vkj (n)E(n) = −η (3.16)
∂vkj (n)
em que, η é a taxa de aprendizado global.


∂E(n) ∂ 1 ∂zk (n)
= (dk (n) − zk (n)) = −e(n)
2
∂vkj (n) ∂vkj (n) 2 ∂vkj (n)

∂ϕ2 (netk (n)) ∂netk (n)


= −e(n) = −e(n)
∂vkj (n) ∂vkj (n)

Nh
∂ 
= −e(n) vkj (n)yj (n) = −e(n)yj (n) (3.17)
∂vkj (n) j=0

Substituindo (3.17) em (3.16) e (3.18) em (3.14), tem-se que:

∆vkj (n) = ηe(n)yj (n) (3.18)

vkj (n + 1) = vkj (n) + ηe(n)yj (n) (3.19)

Para os pesos da camada oculta w, o procedimento é similar. Partindo de (3.15):


∂E(n) ∂ 1 ∂zk (n)
= (dk (n) − zk (n)) = −e(n)
2
∂wji (n) ∂wji (n) 2 ∂wji (n)

Nh
∂ 
= −e(n) vkj (n)yj (n)
∂wji (n) j=0
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
30 GRADIENTE


Nh
∂ 
= −e(n) vkj (n)ϕ1 (netj (n))
∂wji (n) j=0

∂ϕ1 (netj (n)) ∂netj (n)


= −e(n)vkj (n)
∂netj (n) ∂wji (n)

Ne
∂ϕ1 (netj (n)) ∂ 
= −e(n)vkj (n) wji (n)xi (n)
∂netj (n) ∂wji (n) i=0

∂E(n) ∂ϕ1 (netj (n))


= = −e(n)vkj (n) xi (n) (3.20)
∂wji (n) ∂netj (n)

Expandindo (3.20) e utilizando (3.7), tem-se que:


∂ϕ1 (netj (n)) ∂ 1
= =
∂netj (n) ∂netj (n) 1 + exp(−netj (n))

netj exp(−netj (n))


= yj (n)(1 − yj (n)) (3.21)
(1 + exp(−netj (n)))2

∂ϕ1 (netj (n))


O termo é calculado de forma dependente da função ϕ1 (.) uti-
∂netj (n)
lizada, que neste caso, foi expandido para a função sigmóide dada na Equação (3.7).
Utilizando (3.20) e (3.21), chega-se a:

∆wji (n) = ηe(n)vkj (n)yj (n)(1 − yj (n))xi (n) (3.22)

wji (n + 1) = wji (n) + ηe(n)vkj (n)yj (n)(1 − yj (n))xi (n) (3.23)

3.3 Algoritmo Backpropagation Aplicado à Rede


RBF
Por ser uma aplicação do método do gradiente, o algoritmo backpropagation pode
ser adaptado para o ajuste dos parâmetros livres de uma rede RBF, no contexto da
aprendizagem supervisionada. A função custo a ser minimizada foi mostrada em
(3.3). A configuração de uma rede RBF naturalmente só apresenta uma camada
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 31

de neurônios ocultos, diferente das redes MLP. Além disto, para simplificação da
notação, será considerado apenas um neurônio na camada de saı́da. A Figura 3.2
apresenta a configuração da rede RBF, bem como a notação adotada.
Durante a fase de treinamento é analisado o desempenho através do valor MSE,
(3.4). A atualização dos parâmetros livres é feita objetivando sua minimização.

y0
x1

net1 = ||x-w1|| y1 = j1(net1)

vk,0
vk,1
vk,j Nh
xi netj = ||x-wj|| yj = j1(netj) netk = å vk , j y j z k = j 2 (netk ) zk
j =0
vk,Nh

netNh = ||x-wNh|| yNh = j1(netNh)

xNe

Figura 3.2: Configuração de uma rede RBF com um neurônio na camada de saı́da.

Usando a notação da Figura 3.2 temos que, para um dado exemplo de treina-
mento n, yj (n) = ϕ1 (netj (n)) e zk (n) = ϕ2 (netk (n)) nas quais:


netj (n) = ||x(n) − wj (n)|| = (x(n) − wj (n)) .(x(n) − wj (n)), j = 1 , 2 , ...Nh


Nh
netk (n) = vkj (n)yj (n) (3.24)
j=0

em que, wj não representa mais os pesos da camada oculta, como na rede MLP, e
sim o centro da função de base radial associada a cada neurônio oculto. Este centro é
um vetor, de mesma dimensão que x(n). No entanto, vkj continua representando os
pesos da camada de saı́da. Como mostrado na Figura 3.2, netj e netk são aplicados
às funções ϕ1 (.) e ϕ2 (.) existentes na camada oculta e de saı́da, respectivamente, e
são dadas por:
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
32 GRADIENTE

 
1
ϕ1 (netj (n)) = exp − 2 netj (n) , para neurônios na camada oculta
σ j (n)
(3.25)

ϕ2 (netk (n)) = netk (n), para neurônios na camada de saı́da (3.26)

em que, σ 2 representa o espalhamento ou largura das funções de base radial associ-


adas a cada neurônio da camada oculta. Em suma, os parâmetros a serem otimizados
numa rede RBF são os centros w e as larguras σ 2 .

3.3.1 Computação no Sentido Direto


Para a propagação dos sinais no sentido direto, chegam-se às seguintes expressões:


Nh
zk (n) = ϕ2 (netk (n)) = netk (n) = vkj (n)yj (n), k = 1 (3.27)
j=0

 
1
yj (n) = ϕ1 (netj (n)) = exp − 2 netj (n) (3.28)
σ j (n)

netj (n) = ||x(n) − wj (n)||


= (x(n) − wj (n)) .(x(n) − wj (n)), j = 1 , 2 , ...Nh (3.29)

y0 = θ (3.30)

em que, θ novamente representa a polarização ou bias, desta vez aplicada apenas na


camada de saı́da.

3.3.2 Computação no Sentido Reverso


A otimização dos parâmetros livres, no sentido da minimização da função custo,
em uma rede RBF, segue as seguintes expressões quando são realizadas a cada
exemplo de treinamento:

wj (n + 1) = wj (n) + ∆wj (n) (3.31)


CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 33

σ 2 j (n + 1) = σ 2 j (n) + ∆σ 2 j (n) (3.32)

vkj (n + 1) = vkj (n) + ∆vkj (n) (3.33)

em que, ∆w(n), ∆σ 2 (n) e ∆v(n) são os valores de ajuste. De acordo com o


método do gradiente, e expandindo as Equações (3.31), (3.32) e (3.33), chegam-
se às seguintes expressões para otimização de tais parâmetros:

∂E(n)
∆wj (n) = −ηw ∇wj (n)E(n) = −ηw (3.34)
∂wj (n)

∂E(n)
∆σ 2 j (n) = −ησ ∇σ 2 j (n)E(n) = −ησ (3.35)
∂σ 2 j (n)

∂E(n)
∆vkj (n) = −ηv ∇vkj (n)E(n) = −ηv (3.36)
∂vkj (n)
em que, ηw , ησ e ηv são as taxas de aprendizado para os centros e larguras (camada
oculta) e pesos (camada linear), respectivamente. A atualização do parâmetro v,
pelo fato de utilizar a mesma função de ativação da rede MLP, é obtida igualmente
à Equação (3.19). Partindo de (3.34) e de (3.35), obtém-se:

∂E(n) ∂ϕ1 (netj (n))


= −e(n)vkj (n)
∂wj (n) ∂wj (n)
 
∂ exp − σ2 j1(n) netj (n)
= −e(n)vkj (n)
∂wj (n)
  
1 1 ∂
= −e(n)vkj (n) exp − 2 netj (n) (−||x(n) − wj (n)||)
σ j (n) σj 2 (n) ∂wj (n)

yj (n)
= −e(n)vkj (n) [2(x(n) − wj (n))]
σj 2 (n)
(3.37)

Substituindo (3.37) em (3.34), tem-se que:

yj (n)
∆wj (n) = 2e(n)vkj (n) [(x(n) − wj (n))] (3.38)
σj 2 (n)
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
34 GRADIENTE

Por fim, chega-se à expressão final para o ajuste dos centros w:

yj (n)
wj (n + 1) = wj (n) + 2e(n)vkj (n) [(x(n) − wj (n))] (3.39)
σj 2 (n)

A derivação para o ajuste das larguras σ 2 é:

∂E(n) ∂ϕ1 (netj (n))


2
= −e(n)vkj (n)
∂σj (n) ∂σj 2 (n)

 
∂ exp − σ2 j1(n) netj (n)
= −e(n)vkj (n)
∂σj 2 (n)
    
1 ∂ −||x(n) − wj (n)||
= −e(n)vkj (n) exp − 2 netj (n) (3.40)
σ j (n) ∂σ 2 j (n) σ 2 j (n)

Substituindo (3.40) em (3.35), tem-se que:


 
2 ||x(n) − wj (n)||
∆σ j (n) = ησ e(n)vkj (n)yj (n) (3.41)
(σ 2 j (n))2

Obtém-se, portanto, a equação final de ajuste para σ 2 :


 
2 2 ||x(n) − wj (n)||
σ j (n + 1) = σ j (n) + ησ e(n)vkj (n)yj (n) (3.42)
(σ 2 j (n))2

3.4 Algoritmo Backpropagation Aplicado à Rede


SFNN

Pelo fato de que a rede SFNN é uma variação da rede RBF, as considerações
que foram feitas para esta última também valem para a primeira. A configuração
ilustrada na Figura 3.2 aplica-se igualmente para a SFNN.
Como mostrado na Figura 3.2, netj e netk são aplicados às funções ϕ1 (.) e ϕ2 (.)
existentes na camada oculta e de saı́da, respectivamente, e na rede SFNN são dadas
por:
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 35

1 sen(||x(n) − wj (n)||)
ϕ1 (netj (n)) = , para neurônios na camada oculta
σ2 j (n) ||x(n) − wj (n)||
(3.43)

ϕ2 (netk (n)) = netk (n), para neurônios na camada de saı́da (3.44)

nas quais, σ 2 representa o espalhamento ou largura das funções de base radial asso-
ciadas a cada neurônio da camada oculta, e w os centros destas funções. Em suma,
os parâmetros a serem otimizados numa rede SFNN, assim como na rede RBF, são
os centros w e as larguras σ 2 .

3.4.1 Computação no Sentido Direto


Para a propagação dos sinais no sentido direto, chega-se às seguintes expressões:


Nh
zk (n) = ϕ2 (netk (n)) = netk (n) = vkj (n)yj (n), k = 1 (3.45)
j=0

1 sen(netj (n)
yj (n) = ϕ1 (netj (n)) = (3.46)
σ2 j (n) netj (n)

netj (n) = ||x(n) − wj (n)||


= (x(n) − wj (n)) .(x(n) − wj (n)), j = 1 , 2 , ...Nh (3.47)

y0 = θ (3.48)

na qual, θ é a polarização ou bias da rede para a camada de saı́da.

3.4.2 Computação no Sentido Reverso


A otimização dos parâmetros livres, no sentido da minimização da função custo,
em uma rede SFNN segue as expressões utilizadas para a rede RBF:

wj (n + 1) = wj (n) + ∆wj (n) (3.49)


CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
36 GRADIENTE

σ 2 j (n + 1) = σ 2 j (n) + ∆σ 2 j (n) (3.50)

vkj (n + 1) = vkj (n) + ∆vkj (n) (3.51)

em que, ∆w(n), ∆σ 2 (n) e ∆v(n) são os valores de ajuste. De acordo com o método
do gradiente e expandindo as Equações (3.39), (3.42) e (3.51), chegam-se às seguintes
expressões para otimização de tais parâmetros:

∂E(n)
∆wj (n) = −ηw ∇wj (n)E(n) = −ηw (3.52)
∂wj (n)

∂E(n)
∆σ 2 j (n) = −ησ ∇σ 2 j (n)E(n) = −ησ (3.53)
∂σ 2 j (n)

∂E(n)
∆vkj (n) = −ηv ∇vkj (n)E(n) = −ηv (3.54)
∂vkj (n)
em que, ηw , ησ e ηv são as taxas de aprendizado para os centros e larguras (camada
oculta) e pesos (camada linear), respectivamente. A atualização do parâmetro v,
pelo fato de utilizar a mesma função de ativação da rede MLP e da RBF é obtida
igualmente à Equação (3.19). Partindo de (3.52) e de (3.53), obtém-se:

∂E(n) ∂ϕ1 (netj (n))


= −e(n)vkj (n)
∂wj (n) ∂wj (n)
 
∂ 1 sen(||x(n) − wj (n)||)
= −e(n)vkj (n)
∂wj (n) σ 2 j (n) ||x(n) − wj (n)||

1 netj (n)cos(netj (n)) − sen(netj (n))
= −e(n)vkj (n) 2 [−2(x(n) − wj (n))]
σ j (n) (netj (n))2
(3.55)

Substituindo (3.55) em (3.52), tem-se que:


cos(netj (n) yj (n)
∆wj (n) = 2ηw e(n)vkj (n) − (x(n) − wj (n)) (3.56)
σ 2 j (n) netj (n)

Por fim, chega-se à expressão final para o ajuste dos centros w:


CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 37


cos(netj (n) yj (n)
wj (n + 1) = wj (n) + 2ηw e(n)vkj (n) − (x(n) − wj (n)) (3.57)
σ 2 j (n) netj (n)

A derivação para o ajuste das larguras σ 2 é:

∂E(n) ∂ϕ1 (netj (n))


2
= −e(n)vkj (n)
∂σj (n) ∂σj 2 (n)
 
∂ 1 sen(||x(n) − wj (n)||)
= −e(n)vkj (n) 2
∂σ j (n) σ 2 j (n) ||x(n) − wj (n)||
 
sen(netj (n)) ∂ 1
= −e(n)vkj (n) (3.58)
netj (n) ∂σ 2 j (n) σ 2 j (n)

Substituindo (3.58) em (3.53), tem-se que:

−yj (n)
∆σ 2 j (n) = ησ e(n)vkj (n) (3.59)
(σ 2 j (n))2
Obtém-se, portanto, a equação final de ajuste para σ 2 :

−yj (n)
σ 2 j (n + 1) = σ 2 j (n) + ησ e(n)vkj (n) (3.60)
(σ 2 j (n))2

3.5 Algoritmo Resilient Backpropagation


A função principal do algoritmo Rprop é acelerar a convergência do backpropa-
gation. Isto é conseguido com a utilização de taxas de aprendizado individuais para
cada parâmetro, quer sejam os pesos, centros ou larguras das funções de base radial.
A atualização dos parâmetros é feita por época ou em lote. As equações, referentes
aos gradientes, até aqui apresentadas ainda são válidas, pois os gradientes são cal-
culados a cada exemplo de treinamento, são somados e a otimização é realizada no
fim da época com base neste valor somado.
Outro aspecto que contribui para a aceleração deste algoritmo é o fato de se levar
em conta apenas o sinal da derivada, e não sua magnitude. A dedução de expressões
de atualização para as taxas de aprendizado são mostradas daqui em diante. É
utilizada a notação ηvj e ηwji para indicar as taxas de aprendizado da camada de
saı́da e oculta, respectivamente. Logo, estas taxas podem estar associadas com a
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
38 GRADIENTE

otimização dos pesos em uma rede MLP, ou os centros e larguras, em uma rede RBF
ou SFNN. As equações de ajuste das taxas de aprendizado são dadas por:

∂E(n)
∆ηvj (n) = −δ (3.61)
∂ηvj (n)

∂E(n)
∆ηwji (n) = −δ (3.62)
∂ηwji (n)
em que δ é a taxa de aprendizado proveniente da regra geral do método do
gradiente, em substituição do próprio η que está sendo otimizado. Através de (3.61),
obtém-se:

∂E(n) ∂E(n) ∂zk (n) ∂netk (n)


= (3.63)
∂ηvj (n) ∂zk (n) ∂netk (n) ∂ηvj (n)
e sabendo que:

∂E(n − 1)
vkj (n) = vkj (n − 1) − ηvj (n) (3.64)
∂vkj (n − 1)

∂E(n)
= −e(n) (3.65)
∂zk (n)

∂zk (n)
=1 (3.66)
∂netk (n)
 Nh 
∂netk (n) ∂ 
= vj (n)yj (n) (3.67)
∂ηvkj (n) ∂ηvkj (n) j=0

Substituindo (3.64) em (3.67)tem-se assim que:

∂netk (n) ∂E(n − 1)


=− yj (n) (3.68)
∂ηvkj (n) ∂vkj (n − 1)

Utilizando o resultado de (3.17) e comparando com (3.65),(3.66) e (3.68) obtém-


se então que:

∂E(n) ∂E(n − 1)
∆ηvj (n) = δ (3.69)
∂vj (n) ∂vj (n − 1)
Para a otimização das taxas de aprendizado da camada oculta, parte-se da
equação (3.62), tem-se que:
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 39

∂E(n) ∂E(n) ∂yj (n) ∂netj (n)


= (3.70)
∂ηwji (n) ∂yj (n) ∂netj (n) ∂ηwji (n)
e sabendo que:

∂E(n − 1)
wji (n) = wji (n − 1) − ηwji (n) (3.71)
∂wji (n − 1)

∂E(n)
= e(n)(−vkj (n)) (3.72)
∂yj (n)

∂yj (n) ∂ϕ1 (netj (n))


= (3.73)
∂netj (n) ∂netj (n)

∂netj (n) ∂E(n − 1)


=− xi (n) (3.74)
∂ηwji (n) ∂wji (n − 1)
Tem-se que:

∂E(n) ∂ϕ1 (netj (n)) ∂E(n − 1)


= e(n)(vkj (n)) xi (n) (3.75)
∂ηwji (n) ∂netj (n) ∂wji (n − 1)
De (3.20), chega-se à:

∂E(n) ∂ϕ1 (netj (n))


= −e(n)vkj (n) xi (n) (3.76)
∂wji (n) ∂netj (n)
E, finalmente:

∂E(n) ∂E(n − 1)
∆ηwji (n) = δ (3.77)
∂wji (n) ∂wji (n − 1)
As equações (3.69) e (3.77) não são utilizadas diretamente como ajuste das taxas
de aprendizado. Suas deduções foram realizadas para justificá-las nas equações pro-
postas por Riedmiller, e que já foram definidas no capı́tulo anterior.
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
40 GRADIENTE
Capı́tulo 4

Modelos de Dispositivos de
Microondas

Neste capı́tulo são discutidos quatro dispositivos passivos de microondas: um


ressoador retangular de microfita, uma antena de microfita com substrato PBG, um
guia de ondas retangular de paredes internas com material PBG e uma linha de
microfita com substrato de GaAs. É proposta a configuração de uma rede modular
hı́brida RBF/MLP para a modelagem de algumas caracterı́sticas destes dispositivos.
Para a antena, a perda de retorno é modelada. No caso do guia de ondas, o modelo
elaborado é referente ao valor de campo elétrico no seu interior. E, por último, as
perdas na linha de microfita são modeladas pela rede proposta. Todas as simu-
lações deste capı́tulo foram implementadas em um microcomputador pessoal com
processador de 2,26 GHz e 128 Mb de memória.

4.1 Antenas de Microfita


O desenvolvimento das antenas de microfita remonta os anos 70, através da
disponibilidade dos substratos com baixa tangente de perda e propriedades térmi-
cas/mecânicas desejáveis. Como mostra a Figura 4.1, uma antena de microfita,
em sua configuração mais simples, consiste de um patch condutor em um lado do
substrato dielétrico, com um plano terra no outro lado [55].
Os patchs condutores, normalmente de cobre ou ouro, podem assumir virtual-
mente qualquer forma, mas formas regulares são geralmente utilizadas para simpli-
ficar a análise e a predição do desempenho. A faixa de aplicação de tais antenas fica
em torno de 100 MHz até 100 GHz e apresentam algumas vantagens se comparadas
42 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

Patch Condutor

Plano Terra
Substrato Dielétrico

Figura 4.1: Configuração de uma antena de microfita.

com as antenas de microondas convencionais [55]:

• Baixo peso e volume;


• Baixo custo de fabricação;
• Possibilidade de polarização linear e circular;
• Facilidade na obtenção de dupla polarização e ressonância em dupla freqüência;
• Podem ser facilmente acopladas com circuitos integrados de microondas;
• Linhas de alimentação e redes de casamento podem ser fabricadas juntas com
a estrutura da antena.

A radiação a partir de uma antena de microfita pode ser determinada pela dis-
tribuição do campo elétrico entre o patch e o plano terra ou pela distribuição de
corrente na superfı́cie condutora. Uma análise detalhada do comportamento e do
cálculo da radiação em uma antena de microfita é feita por Garg et al. e Itoh [55, 56].
O primeiro passo no projeto de uma antena de microfita é a escolha de um subs-
trato apropriado. Este é principalmente necessário para o suporte mecânico da parte
metálica. Para isto, o substrato deve consistir de um material dielétrico, o que geral-
mente afeta o desempenho elétrico da antena. Muitos fatores devem ser levados em
consideração na escolha do substrato: permissividade elétrica relativa, tangente de
perdas e sua variação com a temperatura e freqüência, homogeneidade, anisotropia,
flexibilidade, resistência a impactos e tensões, para citar alguns. Os substratos
dividem-se em cinco categorias principais: cerâmicos, semicondutores, ferrimagnéti-
cos, sintéticos e compostos. Os semicondutores, como o silı́cio (Si) ou arseneto de
gálio (GaAs), podem ser utilizados para circuitos passivos e antenas. Entretanto, o
tamanho dos substratos semicondutores disponı́veis restringem seu uso para a faixa
superior de microondas englobando também a faixa de ondas milimétricas [55].
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 43

Uma das caracterı́sticas das antenas de microfita é a formação de ondas de super-


fı́cie. Estas ondas são excitadas sempre que a permissividade relativa do substrato
for r > 1, e se propagam dentro do substrato com um ângulo de elevação τ e
complementarmente sen−1 ( √1r ), como mostra a Figura 4.2 [55].

t Difração de
Reflexão Borda
Total

æ 1 ö
arcsen ç ÷
ç e ÷
è rø

Figura 4.2: Propagação de ondas de superfı́cie em um substrato de uma antena de


microfita e suas difrações na borda.

A propagação das ondas de superfı́cie constitui um sério problema nas antenas


de microfita. Elas reduzem a eficiência e o ganho da antena, limitam a largura de
banda, aumentam a radiação end-fire, aumentam o nı́vel de polarização cruzada e
limitam a faixa de freqüência aplicável da antena. Adicionalmente, a miniaturiza-
ção das antenas e sua integração com circuitos de microfita é dificultada pela alta
constante dielétrica utilizada nos substratos, conseqüentemente adicionando ondas
de superfı́cie.

Uma solução para a redução das ondas de superfı́cie foi proposta por Garg et
al. e Almeida et al. [55, 57]. Estes propuseram uma estrutura do tipo PBG na
fabricação do substrato dielétrico. Basicamente, as estruturas PBG são feitas de
materiais dielétricos (ou metais) distribuı́dos periodicamente ao longo de uma região
[57]. Quando estas regiões são submetidas à propagação de ondas eletromagnéticas,
uma caracterı́stica apresentada pelo material é a existência de bandas de freqüência
onde as ondas eletromagnéticas são refletidas e não se propagam no seu interior.
Um exemplo de uma antena de microfita com substrato PBG é ilustrado na Figura
4.3.
44 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

Figura 4.3: Antena de microfita com substrato PBG.

4.1.1 Modelo da Freqüência de Ressonância de um Ressoador


Retangular de Microfita Através de uma Rede MLP
No estudo dos circuitos, dispositivos e linhas de transmissão, faz-se necessário a
análise dos campos eletromagnéticos, principalmente quando esses elementos são de
uso efetivo em altas freqüências.
Sendo assim, foram desenvolvidos os métodos de análise quasi-estáticas, ou apro-
ximados, e os métodos de análise dinâmica, ou de onda completa. Os métodos
aproximados têm a vantagem da simplificação no desenvolvimento das equações que
descrevem o funcionamento do dispositivo, bem como, uma boa aproximação nos
resultados obtidos através da análise quando comparados com os resultados reais
para baixas freqüências (< 10 GHz).
Entre os diversos métodos de onda completa hoje existentes estão: Método
da Linha de Transmissão Equivalente - LTE ou Método da Imitância, Método de
Galerkin, FDTD, Método da Linha de Transmissão Transversa - LTT e outros.
Vários métodos se utilizam do recurso matemático de mudança de domı́nio, pas-
sando para o domı́nio espectral, como uma boa maneira de simplificar e facilitar a
análise da estrutura [58].
O método da Linha de Transmissão Transversa - LTT utiliza um termo de propa-
gação na direção y transversa à direção real de propagação z e trata as equações
gerais dos campos elétricos e magnéticos como funções de suas componentes Ey e
Hy . Apesar de ser um método preciso, seu uso como ferramenta CAD é inviável
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 45

devido ao seu grande custo computacional.


Uma rede MLP, treinada com o algoritmo Rprop, foi utilizada para elaborar um
modelo da parte real da freqüência de ressonância de um ressoador retangular de
microfita em função das medidas de comprimento L e largura W do patch ressoador.
Estas medidas estão indicadas na Figura 4.4. As caracterı́sticas fı́sicas do ressoador
estão contidas na Tabela 4.1.
H

Substrato
W

Conector para
Alimentação
L

Patch Condutor

Plano Terra

Figura 4.4: Ressoador retangular de microfita.

Permissividade Elétrica Relativa r = 12, 9


Variação da largura do Patch W = [20 15 10 5 2] mm
Variação do comprimento do Patch L = [35 40 45 50 55 60 ] mm
Altura do substrato 1,27 mm

Tabela 4.1: Principais caracterı́sticas do ressoador retangular de microfita modelado.

O objetivo da elaboração deste modelo é a obtenção de uma maior eficiência


do ponto de vista computacional sem, no entanto, perder a precisão dos resultados.
A estrutura neural é de complexidade reduzida devida a não linearidade suave dos
dados. Os dados de treinamento foram obtidos diretamente a partir do método
LTT. Para cada um dos 24 pontos utilizados no treinamento, o tempo de processa-
mento gasto por este método foi de aproximadamente 27 segundos. Com o auxı́lio
da Tabela 4.2, observa-se que a rede MLP apresenta uma maior eficiência computa-
cional se comparada com o método LTT. A Figura 4.5 demonstra que a precisão dos
resultados foi alcançada, tanto no que se refere à aproximação, quanto à capacidade
de generalização da rede.
46 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

Rede MLP
Algoritmo de Treinamento RProp
Aproximação das curvas W = [20 15 5 2] mm
Neurônios na camada oculta 10
Épocas de treinamento 3000
Exemplos de treinamento 24
Exemplos de teste 1000
MSE final 8, 17E − 006
Tempo total de treinamento 16, 53 s
Tempo de obtenção de saı́da com conjunto de teste 0, 093 s

Tabela 4.2: Informações de treinamento da MLP/Rprop na modelagem do ressoador


retangular de microfita.

1.6

1.5 Dados de Treino - LTT


Dados de Teste - LTT
Aproximação - MLP
1.4 Generalização - MLP

1.3
freqüência (GHz)

1.2
W = 2 mm

1.1 5
10
15
1
20

0.9

0.8
35 40 45 50 55 60
L (mm)

Figura 4.5: Saı́da da rede MLP - Ressoador retangular de microfita.

4.1.2 Modelo da Perda de Retorno de uma Antena de Mi-


crofita com Substrato PBG Através de uma Rede Mo-
dular RBF/MLP Rprop

A inserção de um substrato PBG altera as caracterı́sticas da antena, bem como


sua resposta em freqüência. Com o objetivo de se obter uma maior eficiência com-
putacional, para aplicações CAD, foi elaborado um modelo para a perda de retorno
S11 em função da frequência e da altura do susbtrato PBG de uma antena de mi-
crofita através de uma rede modular hı́brida RBF/MLP Rprop. Almeida et al. [57]
analisaram uma antena de microfita com estrutura similar à ilustrada na Figura 4.3.
Com base nesta análise, foi aplicada no presente trabalho a metodologia EM-ANN,
onde o conhecimento eletromagnético é incorporado à rede pelo fato de que os exem-
plos de treinamento são obtidos através de um método eletromagnético rigoroso [8].
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 47

Neste caso, o método utilizado para a geração dos dados do conjunto de treinamento
foi o FDTD. Este método é utilizado para solucionar diretamente as equações de
Maxwell no domı́nio do tempo. Apesar de ser um método eletromagnético rigoroso
e preciso, o FDTD apresenta um custo computacional elevado, que, em geral, torna
proibitiva a sua utilização em aplicações CAD [57]. Uma explanação completa sobre
a formulação e aplicações do FDTD é feita por Sadiku [59].
No modelo elaborado, o sinal de controle considerado foi a altura do substrato
h, na faixa de h = [0, 794 0, 953 1, 429 1, 588]mm. A faixa de freqüência (f )
considerada foi de 2,5 a 20 GHz. As entradas da rede são representadas por h e f e
a saı́da por S11 . A configuração da rede modular é apresentada na Figura 4.6. As
principais caracterı́sticas da antena modelada estão contidas na Tabela 4.3.

h=0,794 mm

REDE
ESPECIALISTA 1
RBF

ENTRADA REDE SAÍDA


DE SAÍDA
[h, f] MLP
[S11]
REDE
ESPECIALISTA 2
RBF
h=[0,794 0,953
1,588] mm

h=1,588 mm

Figura 4.6: Parâmetros utilizados no treinamento da rede modular para a antena de


microfita com substrato PBG.

Permissividade Elétrica Relativa r = 10, 2 e r = 2, 2


Largura do Patch 12,45 mm
Comprimento do Patch 16,00 mm
Largura da Linha de Alimentação 2,46 mm
Comprimento da Linha de Alimentação 8 mm
Faixa de Freqüência 2,5 a 20 GHz
Variação da altura do substrato (h) [0,794 0,953 1,429 1,588] mm

Tabela 4.3: Principais caracterı́sticas da antena de microfita modelada.

A Tabela 4.4 e a Figura 4.7 apresentam resultados e informações do treinamento


das duas redes especialistas.
As informações relevantes referentes ao treinamento da rede de saı́da estão conti-
das na Tabela 4.5. A Figura 4.8 apresenta a capacidade de aproximação da rede de
48 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

Rede Especialista 1
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva h = 0, 794 mm
Neurônios na camada oculta 15
Épocas de treinamento 10000
Exemplos de treinamento 47
Exemplos de teste 200
MSE final 1, 87E − 004
Tempo total de treinamento 118 s
Tempo de obtenção de saı́da com conjunto de teste 0, 35 s
Rede Especialista 2
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva h = 1, 588 mm
Neurônios na camada oculta 15
Épocas de treinamento 10000
Exemplos de treinamento 46
Exemplos de teste 200
MSE final 1, 478E − 004
Tempo total de treinamento 121, 359 s
Tempo de obtenção de saı́da com conjunto de teste 0, 36 s

Tabela 4.4: Informações de treinamento das redes especialistas para modelagem da


antena de microfita com substrato PBG.

-5
S11 (dB)

-10

-15

RBF especialista 1 - h = 0,794 mm


-20 RBF especialista 2 - h = 1,588 mm
Dados de Treino - FDTD
Dados de Treino - FDTD
-25
2 4 6 8 10 12 14 16 18 20
freqüência (Ghz)

Figura 4.7: Resposta das redes especialistas 1 e 2 - Antena de microfita com substrato
PBG.

saı́da para a curva de treinamento: h = 0,794 mm, h = 0,9528 mm e h = 1,588 mm.


A Figura 4.9 apresenta a boa capacidade de generalização do modelo em relação a
uma curva não usada no treinamento: h = 1,4292 mm.
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 49

Rede Saı́da
Configuração MLP
Algoritmo de Treinamento RProp
Aproximação da curva h = [0,794 0,9528 1,588] mm
Neurônios na camada oculta 12
Épocas de treinamento 30000
Exemplos de treinamento 139
Exemplos de teste 1000
MSE final 2, 06E − 004
Tempo total de treinamento 885, 063 s
Tempo de obtenção de saı́da com conjunto de teste 1, 75 s

Tabela 4.5: Informações de treinamento da rede de saı́da para modelagem da antena


de microfita com substrato PBG.

0 0

-5
-5

-10
-10

-15
S11 (dB)

S11 (dB)

-15
-20

-20
-25

-25 Dados de Treino - FDTD


Dados de Treino - FDTD -30
Modular RBF/MLP - Aproximação Modular RBF/MLP - Aproximação

-30 -35
2 4 6 8 10 12 14 16 18 20 2 4 6 8 10 12 14 16 18 20
freqüência (GHz) freqüência (GHz)

(a) (b)

-5

-10
S11 (dB)

-15

-20
Dados de Treino - FDTD
Modular RBF/MLP - Aproximação

-25
2 4 6 8 10 12 14 16 18 20
freqüência (GHz)

(c)

Figura 4.8: Respostas da rede modular para: (a) h = 0,794 mm; (b) h = 0,9528
mm; (c) h = 1,588 mm - Antena de microfita com substrato PBG.

Com o intuito de demonstrar a superioridade do modelo da rede modular pro-


posta, foram implementados modelos para o mesmo problema, através de redes MLP
e RBF simples. A Figura 4.10 mostra a comparação entre o MSE obtido pela rede
de saı́da da configuração modular em função da variação no número de neurônios
na camada oculta. Os resultados mostram que com o mesmo número de neurônios
na rede de saı́da, a configuração modular alcança um MSE de generalização muito
menor do que as redes RBF e MLP tradicionais.
50 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

-2 Dados de Teste - FDTD


Modular RBF/MLP - Generalização
-4

-6

-8
S11 (dB)

-10

-12

-14

-16

-18

-20
2 4 6 8 10 12 14 16 18 20 22
freqüência (GHz)

Figura 4.9: Generalização da rede modular para h = 1,4292 mm - Antena de mi-


crofita com substrato PBG.

0,07
RBF Simples
0,06 RBF/MLP Modular

MLP Simples
0,05

0,04
MSE

0,03

0,02

0,01

0
5 6 7 8 9 10 11 12 13 14 15 20 30 40 50
# Neurônios na Camada Oculta

Figura 4.10: Análise comparativa dos modelos para a antena de microfita através
das redes RBF, MLP e Modular RBF/MLP.

4.2 Guia de Ondas UC-PBG

Itoh et al. propuseram uma nova estrutura PBG para circuitos integrados de
microondas: o uniplanar compact photonic bandgap (UC-PBG) [60]. Esta nova
estrutura consiste em blocos e fendas bi-dimensionais na parte metálica de uma
placa utilizada para confecção de circuitos e dispositivos planares. Neste trabalho,
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 51

esta estrutura foi utilizada como plano terra para linhas de microfita, guias de ondas
coplanares e filtros passa-faixa planares. No entanto, Yang et al. propuseram [61]
esta mesma estrutura para o uso em paredes de uma guia de ondas retangular,
como mostrado na Figura 4.11. Como foi apresentado anteriormente, o material
PBG tem a capacidade rejeitar certas freqüências, nos locais onde sua superfı́cie
varia entre superfı́cies metálicas (vistas pelo circuito como impedâncias) e fendas
(vistas como condições de circuito aberto). Este novo guia de ondas com material
PBG é um candidato promissor como uma estrutura de alimentação em arranjos de
amplificadores quasi-ópticos [61].

z Placas de Cobre
x

Padrões PBG
Placas de Cobre

(a) (b)

Figura 4.11: Guia de ondas UC-PBG: (a) Diagrama esquemático; (b) Material PBG.

4.2.1 Modelo do Campo Elétrico de um Guia de Ondas


UC-PBG Através de uma Rede Modular RBF/MLP
Rprop

Itoh et al. construı́ram um guia de ondas do tipo UC-PBG e mediram valores de


intensidade de campo elétrico no seu interior [60]. O medidor foi colocado em quatro
diferentes posições: x = [0 1/3 2/3 1] em relação ao centro do guia, como mostrado
na Figura 4.12. As caracterı́sticas fı́sicas deste guia encontram-se na Tabela 4.6.
Com o objetivo de se estabelecer um modelo eficiente e preciso para o campo
elétrico deste guia de ondas UC-PBG, foi elaborada uma rede modular hı́brida
RBF/MLP para esta caracterização não linear e dependente da freqüência. A confi-
guração da rede modular é ilustrada na Figura 4.13. Os parâmetros de entrada para
o modelo são as posições de medição x e a freqüência f . O parâmetro de saı́da é o
valor do campo elétrico medido (dBm).
52 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

r
s

g
p i q
y g
er er
h
x

p
0 1/3 2/3 1

(a) (b)

Figura 4.12: Guia de ondas UC-PBG: (a) Dimensões e locais de medição do campo
elétrico; (b) Dimensões da célula PBG.

Constante Dielétrica Duroid 6010 - r = 10, 2


Espessura do Substrato 0,635 mm
p 3,048 mm
r 22,86 mm
s 21,59 mm
q 2,7432 mm
g=i 0,3048 mm
h 0,762 mm
Faixa de Freqüência [9,2 - 11] GHz
Variação das posições de medição x = [0 1/3 2/3 1]

Tabela 4.6: Principais caracterı́sticas do guia de ondas UC-PBG modelado.

x=0

REDE
ESPECIALISTA 1
RBF

ENTRADA REDE SAÍDA


DE SAÍDA
[x, f] MLP
[E]
REDE
ESPECIALISTA 2
RBF
x=[0 1/3 1]

x=1

Figura 4.13: Parâmetros utilizados no treinamento da rede modular para guia de


ondas UC-PBG.

A Tabela 4.7 e a Figura 4.14 apresentam resultados e informações do treinamento


e teste das duas redes especialistas RBF.
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 53

Rede Especialista 1
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva x=0
Neurônios na camada oculta 10
Épocas de treinamento 10000
Exemplos de treinamento 37
Exemplos de teste 1001
MSE final 2, 06E − 006
Tempo total de treinamento 100, 32 s
Tempo de obtenção de saı́da com conjunto de teste 0, 105 s
Rede Especialista 2
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva x=1
Neurônios na camada oculta 10
Épocas de treinamento 10000
Exemplos de treinamento 37
Exemplos de teste 1001
MSE final 1, 138E − 005
Tempo total de treinamento 100, 59 s
Tempo de obtenção de saı́da com conjunto de teste 0, 105 s

Tabela 4.7: Informações de treinamento das redes especialistas para modelagem do


guia de ondas UC-PBG.

-2

-4
Campo Elétrico (dBm)

-6

-8

-10

-12

-14
RBF - Especialista 1
-16
RBF - Especialista 2
-18 Dados de Treino - x = 0
Dados de Treino - x = 1
-20
9 9.2 9.4 9.6 9.8 10 10.2 10.4 10.6 10.8 11
freqüência (Ghz)

Figura 4.14: Resposta das redes especialistas 1 e 2 - Guia de Ondas UC-PBG.

As informações relevantes referentes ao treinamento da rede de saı́da estão con-


tidas na Tabela 4.8. A Figura 4.15 apresenta a boa capacidade de generalização do
modelo em relação a uma curva não usada no treinamento, x = 2/3, bem como a
excelente capacidade de aproximação para as curvas de x = [0 1/3 1].
Com o intuito de demonstrar a superioridade do modelo da rede modular RBF/
MLP proposta, foram implementados modelos para o mesmo problema, através de
redes MLP e RBF simples. A Figura 4.16 mostra a comparação entre o MSE obtido
54 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

pela rede de saı́da da configuração modular em função da variação no número de


neurônios na camada oculta. Os resultados mostram, assim como no caso da antena
de microfita, que com o mesmo número de neurônios na rede de saı́da, a configuração
modular alcança um MSE de generalização muito menor do que as redes RBF e MLP
tradicionais. Com isso, torna-se evidente que a rede hı́brida RBF/MLP modular é
adequada e eficiente na resolução de problemas de neuro-modelagem envolvendo
dados com uma alta escala de não linearidade.

Rede Saı́da
Configuração MLP
Algoritmo de Treinamento RProp
Aproximação da curva x = [0 1/3 1]
Neurônios na camada oculta 10
Épocas de treinamento 10000
Exemplos de treinamento 111
Exemplos de teste 1001
MSE final 9, 32E − 005
Tempo total de treinamento 228, 57 s
Tempo de obtenção de saı́da com conjunto de teste 0, 984 s

Tabela 4.8: Informações de treinamento da rede de saı́da para modelagem do guia


de ondas UC-PBG.

-2

-4 (a)

-6 (b)
Campo Elétrico (dBm)

-8
( c)
-10

-12
(d)
-14 (a) x = 0
(b) x = 1/4
(c) x = 1/3 Modular RBF/MLP - Generalização
-16
(e) (d) x = 2/3 Modular RBF/MLP - Aproximação
(e) x = 1 Dados de Treino - Medidos
-18
Dados de Teste - Medidos
-20
9 9.2 9.4 9.6 9.8 10 10.2 10.4 10.6 10.8 11
freqüência (Ghz)

Figura 4.15: Resposta da rede modular hı́brida RBF/MLP Rprop - Guia de Ondas
UC-PBG.
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 55

0,06
RBF Simples

0,05 RBF/MLP Modular

MLP Simples
MSE 0,04

0,03

0,02

0,01

0
5 6 7 8 9 10 11 12 13 14 15
# Neurônios na Camada Oculta

Figura 4.16: Análise comparativa dos modelos para o guia de ondas UC-PBG através
das redes RBF, MLP e Modular RBF/MLP.

4.3 Linha de Microfita com Substrato de GaAs


Os circuitos integrados de microondas utilizam linhas de transmissão planares de
microfita como os elementos básicos do sistema. Estas linhas adicionam flexibilidade
ao projeto do circuito bem como melhoram o seu desempenho [62]. Como qualquer
outra outra linha de transmissão, os métodos de análise para uma linha de microfita
objetivam determinar a impedância caracterı́stica e a constante de propagação (ve-
locidade de fase e constante de atenuação). Estes métodos podem ser dividos em
dois grupos principais. O primeiro, compreende os métodos quasi-estáticos, onde a
natureza de propagação da onda é considerada como sendo puramente TEM e as
caracterı́sticas da microfita são calculadas a partir da capacitância eletrostática da
estrutura. No entanto, esta análise é adequada apenas para o projeto de circuitos
em baixas freqüências (abaixo da banda X), onde a largura da fita e a espessura do
substrato são desprezı́veis em relação ao comprimento de onda. No segundo grupo,
é levado em conta a natureza hı́brida dos modos de propagação TE e TM. Estas
técnicas são utilizadas para uma análise em onda completa e conseqüentemente são
mais rigorosos e analiticamente complexos [62]. Logo, para um projeto de CAD
em alta freqüência, não raro as expressões são empı́ricas, devido ao baixo custo
computacional e a não aplicabilidade dos modelos quasi-estáticos.
56 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

4.3.1 Modelo das Perdas em uma Linha de Microfita com


Substrato de GaAs Através de uma Rede Modular
RBF/MLP

As linhas planares apresentam três tipos de perdas: dielétricas, ôhmicas e devido


às ondas de superfı́cie. No entanto, quando a faixa de freqüência se torna elevada,
na faixa de 40 GHz, a modelagem destas perdas se torna um motivo de controvérsia
entre os desenvolvedores de ferramentas CAD. Com o objetivo de contribuir com
a precisão destes modelos, foi implementada uma rede modular RBF/MLP para a
modelagem das perdas em uma linha de microfita com substrato de GaAs, conforme
ilustrada na Figura 4.17, em função da freqüência e da largura da linha.

Metal Condutor { 3400mmAAuTi-W


Silicone 2000 A

GaAs 100 mm

Plano Terra
12 mm Au

Figura 4.17: Linha de microfita com substrato de GaAs - Seção transversal.

A configuração do modelo proposto é mostrado na Figura 4.18. Os parâmentros


de entrada da rede modular são a largura da linha de microfita w e a freqüência f , e
a saı́da do modelo é a perda na linha α0 . As informações de treinamento das redes
especialistas do tipo RBF estão contidas na Tabela 4.9.
Na Figura 4.19 são apresentados os resultados medidos obtidos por Goldfarb e
Platzker [63], e os resultados obtidos pela aproximação das redes especialistas do
tipo RBF.
Os resultados de teste do modelo com relação aos valores w = [10 20 130 350] µm,
estão ilustrados na Figura 4.20, e os dados de treinamento da rede de saı́da MLP
estão contidos na Tabela 4.10. Na Figura 4.21 é mostrada a comparação entre o
modelo RBF/MLP proposto, valores medidos, bem como outros métodos. São com-
parados softwares comerciais de CAD para microondas como o TOUCHSTONE
(VER. 1.7, EEsof, Westlake Village, CA), o SUPERCOMPACT 2.0 (Compact Soft-
ware, Patterson, NJ) e o MDS (HP85150A, Ver 2.0, HP, Santa Rosa, CA) [63]. Em
cada caso, os parâmetros usados para obtenção dos dados foram:
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 57

Rede Especialista 1
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva w = 10 µm
Neurônios na camada oculta 2
Épocas de treinamento 1000
Exemplos de treinamento 4
Exemplos de teste 801
MSE final 2, 06E − 006
Tempo total de treinamento 7, 57 s
Tempo de obtenção de saı́da com conjunto de teste 0, 075 s
Rede Especialista 2
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva w = 350 µm
Neurônios na camada oculta 2
Épocas de treinamento 1000
Exemplos de treinamento 4
Exemplos de teste 511
MSE final 1, 138E − 005
Tempo total de treinamento 5, 12 s
Tempo de obtenção de saı́da com conjunto de teste 0, 075 s

Tabela 4.9: Informações de treinamento das redes especialistas para modelagem da


linha de microfita com substrato de GaAs.

w = 10 mm

REDE
ESPECIALISTA 1
RBF

ENTRADA REDE SAÍDA


DE SAÍDA
[w, f] MLP [a0]
REDE
ESPECIALISTA 2
RBF
w = [10 20 130
350] mm

w = 350 mm

Figura 4.18: Parâmetros utilizados no treinamento da rede modular para a linha de


microfita com o substrato de GaAs.

• Constante dielétrica do GaAs: r = 12, 9


• Altura do substrato: 100 µm
• Espessura do condutor: 3 µm
• Resistividade do condutor: 4,1 ×107 S/m
• Tangente de perdas: 0

Ainda na Figura 4.21 é descrita a saı́da de uma rede MLP simples para a resolução
do mesmo problema. Ela foi elaborada com 6 neurônios ocultos e foi treinada com
as curvas w = [10 20 130 350] µm durante 5000 épocas. Embora tenha atingido
58 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS

0.16

0.14

0.12
Perdas (dB/mm)

0.1

0.08 RBF especialista 2


RBF especialista 1
Dados Medidos - w = 10 m m
0.06
Dados Medidos - w = 350 m m

0.04

0.02
5 10 15 20 25 30 35 40
freqüência (Ghz)

Figura 4.19: Resposta das redes especialistas 1 e 2 - Linha de microfita com substrato
de GaAs.

uma boa aproximação das curvas de treinamento, o resultado da generalização para


a curva de w = 70 µm mostra que o modelo proposto da rede modular RBF/MLP
é superior também neste caso, mesmo para uma curva de não linearidade suave.
Rede Saı́da
Configuração MLP
Algoritmo de Treinamento RProp
Aproximação da curva w = [10 20 130 350] µm
Neurônios na camada oculta 4
Épocas de treinamento 1000
Exemplos de treinamento 17
Exemplos de teste 1000
MSE final 3, 57E − 007
Tempo total de treinamento 7, 9 s
Tempo de obtenção de saı́da com conjunto de teste 0, 203 s

Tabela 4.10: Informações de treinamento da rede de saı́da para modelagem da linha


de microfita com substrato de GaAs.
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 59

{
0.16
w = 10 m m
20 m m
Dados Medidos:
0.14 130 m m
350 m m
RBF/MLP
0.12
Perdas (dB/mm)

0.1

0.08

0.06

0.04

0.02
5 10 15 20 25 30 35 40
freqüência (Ghz)

Figura 4.20: Resposta da rede modular hı́brida RBF/MLP Rprop - Linha de mi-
crofita com substrato de GaAs.

0.08

0.07

0.06
Perdas (dB/mm)

0.05

Dados de Teste - Medidos - w = 70 mm


0.04 RBF/MLP - Generalização
SuperCompact 2.0
Touchstone 1.7
0.03 HP85150A
MLP Simples

0.02
5 10 15 20 25 30 35 40
freqüência (Ghz)

Figura 4.21: Generalização da rede modular hı́brida RBF/MLP Rprop e comparação


com programas CAD e rede MLP simples - Linha de microfita com substrato de
GaAs.
60 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS
Capı́tulo 5

Modelos de Dispositivos Ópticos


Baseados em GaAs

Neste capı́tulo é dado destaque a um importante dispositivo nas comunicações


ópticas: os amplificadores a laser semicondutor (SLA). Os materiais semicondutores
considerados são o GaAs e o InGaAsP. O modelo fı́sico que rege o coeficiente de
ganho de tais amplificadores é descrito de forma sucinta. São destacadas as con-
tribuições no que se refere à modelagem deste coeficiente de ganho através de redes
neurais modulares. Resultados através dos modelos implementados da rede modu-
lar SFNN e RBF/MLP são apresentados. A excelente capacidade de generalização
destes modelos, bem como a eficiência computacional para aplicações CAD demons-
tram a viabilidade e confiabilidade dos métodos propostos. Todas as simulações
deste capı́tulo foram implementadas em um microcomputador pessoal com proces-
sador de 2,26 GHz e 128 Mb de memória.

5.1 Amplificadores Ópticos


Uma das principais aplicações dos amplificadores ópticos é o seu uso em estações
repetidoras. Grandes links de comunicação por fibra exigem o uso de repetidores,
senão o sinal chegaria no destino com nı́vel muito baixo para ser detectado. Sem os
amplificadores ópticos, os sinais em tais estações teriam de ser convertidos em sinais
elétricos, restaurados, sincronizados e reajustados. Todo este processo é eliminado
com o uso de tais amplificadores [64]. Um diagrama da função destes amplificadores
é ilustrado na Figura 5.1, na qual φ é a densidade de fluxo de fótons e s o meio de
amplificação [65].
62 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS

f f +df

Luz de
Entrada Luz de
Saída

0 s s+ds d

Figura 5.1: Diagrama simplificado de um amplificador óptico.

Os dois tipos principais de amplificadores ópticos são [64]:

• Amplificador de fibra
• Amplificador a laser semicondutor

No amplificador de fibra, o núcleo da fibra dopada serve como meio de amplifi-


cação. Dois exemplos de tais amplificadores são o amplificador de fibra dopada com
neodı́mio que opera na faixa de 1,06 e 1,32 µm, e o amplificador de fibra dopada
com érbio (EDFA) que opera na janela de 1,55 µm, a qual apresenta menor perda
na fibra [64].
O princı́pio de funcionamento de um amplificador a laser semicondutor (SLA)
também se baseia na criação de uma inversão de população que gera uma emissão
estimulada maior que a absorção. Esta inversão de população é conseguida através
de uma corrente elétrica injetada em um diodo de junção p-n. A maioria dos SLA
são fabricados para operar na faixa de 1,3 a 1,55 µm. Eles são menores e portanto
facilmente incorporados em circuitos optoeletrônicos integrados. Por outro lado,
eles possuem uma perda de inserção maior, instabilidade com a temperatura, bem
como, sensibilidade de polarização na entrada [65]. A Figura 5.2 apresenta um
diagrama esquemático dos dois principais tipos de amplificadores ópticos. A Tabela
5.1 apresenta uma comparação entre as principais caracterı́sticas dos EDFA’s e SLA’s
[64].

Caracterı́stica EDFA SLA


Estrutura Não adequado para circuitos Adequado para circuitos
monolı́ticos monolı́ticos
Acoplamento de Entrada Para a fibra Para o guia óptico
Estado de Polarização Independente Dependente
Comprimento de Onda Escolha limitada Vários comprimentos de onda
Método de Bombeamento Diodo laser Corrente elétrica
Ganho de Amplificação Maior Menor
Potência de Saturação da Saı́da Maior Menor
Ruı́do de Emissão Espontânea Amplificada Presente Presente

Tabela 5.1: Comparação entre EDFA e SLA.


CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 63

Fibra Dopada

Entrada:
Estado arbitrário lp
de polarização
Saída

Isolador Isolador Filtro


lp Dicróico

LD
Bombeamento

(a)

Corrente de Inclinação para minimizar


Bombeamento o efeito da reflexão
Entrada:
Linearmente Saída
Polarizada

Transição
Transição

Camada de
Antireflexão

(b)

Figura 5.2: Dois tipos de amplificadores ópticos. (a) Amplificador de fibra. (b)
Amplificador a laser semicondutor.

Os lasers semicondutores utilizados nos SLA’s apresentam caracterı́sticas dese-


jáveis para o uso em sistemas de comunicação via fibra-óptica. Algumas destas
vantagens são [64]:

• Longa vida útil;


• Alta confiabilidade;
• Tamanho compacto e de baixo peso;
• Alta eficiência de conversão eletro-óptica;
• Baixo nı́vel de tensão aplicada;
• Pureza espectral em comparação com outros lasers;
• Modulação direta com capacidade de dezenas de gigahertz.

Além dos lasers semicondutores de arseneto de gálio (GaAs), dopagens podem


ser feitas, por exemplo, acrescentando alumı́nio, (Alx Ga1−x As) onde o comprimento
de onda varia de 0,85 para 0,78 µm com o aumento de x. O laser dopado com ı́ndio e
fósforo substituindo o alumı́nio (In1−x Gax Asy P1−y ) apresenta faixa de comprimento
de onda de 0,9 a 1,67 µm dependendo dos valores de x e y. Com a combinação
64 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS

apropriada de x e y, um laser pode ser projetado para operar em 1,3 µm, faixa não-
dispersiva da fibra, ou projetado para operar em 1,55 µm, onde ocorrem as menores
perdas na fibra. Geralmente, o laser semicondutor é referido como diodo laser ou
simplesmente LD [64].

5.1.1 Modelo Fı́sico para o Cálculo do Coeficiente de Ganho


em um SLA
Luz de freqüência ν pode interagir com os portadores do material semicondutor e
gerar transições entre bandas de energia. Os fótons incidentes podem ser absorvidos
resultando em uma geração de pares elétrons-lacunas, ou podem produzir fótons
adicionais através da radiação de recombinação estimulada. Quando a emissão é
maior que a absorção, a rede óptica enxerga o material como um amplificador óptico
coerente. Na literatura é apresentada uma equação para o cálculo deste ganho entre
absorção e emissão, Equação (5.1) [64]:


g(Hν) = B gc (E2 )gv (E2 − Hν)[fc (E2 ) − fv (E2 − Hν)]dE2 (5.1)
v
em que B é um dos coeficientes de Einstein, v é a velocidade da luz, ν refere-se a
freqüência óptica, H é a constante de Planck e E2 corresponde a um nı́vel arbitrário
de energia. O valor da densidade de estados por unidade de energia por unidade de
volume na banda de condução é obtido por, Equação (5.2):
√ ∗3/2
2me
3 2 (E2 − Ec )
1/2
gc (E2 ) = (5.2)
h̄ π
sendo que a Equação (5.2) também é usada para o cálculo da densidade de
estados na banda de valência, gv . A massa efetiva de um elétron é indicada por m∗e e
h̄ indica a constante de Planck dividida por 2π. A distribuição de Fermi-Dirac para
elétrons na banda de condução, fc é dada por, Equação (5.3):

1
fc (E2 ) = (5.3)
e(E2 −Ec )/kT +1
sendo que a Equação (5.3) pode igualmente ser aplicada para a obtenção da
distribuição de Fermi-Dirac para elétrons na banda de valência, fv .
Como visto, a expressão final para o coeficiente de ganho apresenta um conside-
rável custo computacional e mostra-se dependente de vários outros parâmetros não
considerados aqui, como nı́veis de energia, temperatura e caracterı́sticas intrı́nsecas
CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 65

de cada material semicondutor.

5.1.2 Modelo do Coeficiente de Ganho em um SLA de In-


GaAsP Através de uma Rede Modular SFNN/RProp
Como já citado, o coeficiente de ganho (γ0 ) vai ser função do nı́vel de energia,
onde ocorrerá o decaimento dos fótons (hν), bem como da concentração de porta-
doras injetadas (∆n) nas bandas de valência e condução.
O coeficiente de ganho de um SLA baseado em InGaAsP foi modelado para os
valores de ∆n = [1, 2 1, 4 1, 6 1, 8] × 1018 cm−3 , sendo este intervalo a região
de interesse deste dispositivo e ∆n o sinal de controle considerado. As principais
caracterı́sticas deste SLA estão alistadas na Tabela 5.2.

Laser Semicondutor In0,72 Ga0,28 As0,6 P0,4


Temperatura 300 K
Energia de transição entre bandas Eg = 0, 95 eV
Comprimento de onda desejado λ0 = 1, 3 µm
Tempo de recombinação elétrons-lacunas τr = 2, 5 ns
Massa efetiva de elétrons da banda de condução mc = 0, 06m0
Massa efetiva de elétrons da banda de valência mv = 0, 4m0
Índice de refração do material 3,5
Largura de Banda 15 THz

Tabela 5.2: Principais caracterı́sticas do SLA de InGaAsP modelado.

Para a obtenção de uma maior simplicidade do modelo e uma redução no custo


computacional no cálculo do coeficiente de ganho, propôs-se um modelo neural
através de uma rede modular SFNN, composta de duas redes especialistas e de
uma rede de saı́da. As saı́das das redes especialistas são aplicadas nas entradas da
rede de saı́da, que fornece a resposta deste modelo neural. As curvas do sinal de
controle ∆n = 1, 2 e 1, 8 × 1018 cm−3 foram utilizadas para o treinamento das redes
especialistas e as curvas de ∆n = 1, 2, 1, 6 e 1, 8 × 1018 cm−3 , juntamente com as
saı́das das redes especialistas, foram utilizadas no treinamento da rede de passagem,
como mostrado na Figura 5.3.
Todos os dados do conjunto de treinamento foram obtidos através do modelo
fı́sico preciso apresentado na literatura [65]. Em suma, as entradas da rede modular
são hν e ∆n e a saı́da é γ0 .
66 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS

Dn=1,2E18 cm-3

REDE
ESPECIALISTA 1
SFNN
ENTRADA REDE SAÍDA
DE SAÍDA
[Dn,hn] SFNN [g0]
REDE
ESPECIALISTA 2
SFNN
Dn=[1,2 1,6 1,8]
E18 cm-3

Dn=1,8E18 cm-3

Figura 5.3: Parâmetros utilizados no treinamento da rede modular para o SLA de


InGaAsP.

A Tabela 5.3 e as Figuras 5.4 e 5.5 apresentam resultados e informações do


treinamento das duas redes especialistas.

Rede Especialista 1
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2 × 1018 cm−3
Neurônios na camada oculta 4
Épocas de treinamento 5000
Exemplos de treinamento 35
Exemplos de teste 597
MSE final 1, 2563E − 005
Tempo total de treinamento 66, 18s
Tempo de obtenção de saı́da com conjunto de teste 0, 14s
Rede Especialista 2
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 8 × 1018 cm−3
Neurônios na camada oculta 4
Épocas de treinamento 5000
Exemplos de treinamento 58
Exemplos de teste 1001
MSE final 1, 3648E − 005
Tempo total de treinamento 96, 65s
Tempo de obtenção de saı́da com conjunto de teste 0, 187s

Tabela 5.3: Informações de treinamento das redes especialistas para modelagem do


SLA de InGaAsP.
CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 67

50
Modelo Físico - D n = 1.2E18/cm3
SFNN - D n = 1.2E18/cm3
Coeficiente de Ganho, (cm-1) 0

-50

-100

-150

-200

-250
0.915 0.92 0.925 0.93 0.935 0.94 0.945 0.95 0.955 0.96
Energia de Foton, (eV)

Figura 5.4: Resposta da rede especialista 1 - SLA de InGaAsP.

300
Modelo Físico - Dn = 1.8E18/cm3
250 SFNN -Dn = 1.8E18/cm3
Coeficiente de Ganho, (cm-1)

200

150

100

50

-50

-100

-150
0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98
Energia de Foton, (eV)

Figura 5.5: Resposta da rede especialista 2 - SLA de InGaAsP.

As informações relevantes referentes ao treinamento da rede de saı́da estão conti-


das na Tabela 5.4. A Figura 5.6 apresenta a capacidade de generalização do modelo
para a curva de ∆n = 1, 4 × 1018 cm−3 . A Figura 5.7 mostra a evolução do treina-
mento da rede de saı́da com relação ao erro médio quadrático.

Rede Saı́da
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2, 1, 6 e 1, 8 × 1018 cm−3
Neurônios na camada oculta 15
Épocas de treinamento 10000
Exemplos de treinamento 146
Exemplos de teste 190
MSE final 8, 58E − 005
Tempo total de treinamento 505, 3s
Tempo de obtenção de saı́da com conjunto de teste 0, 23s

Tabela 5.4: Informações de treinamento da rede de saı́da para modelagem do SLA


de InGaAsP.
68 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS

300

200
Coeficiente de Ganho, (cm-1)

100

0
Dn=1,8E18 cm-3

-100

Dados de Treinamento 1,6


-200
Dados de Teste 1,2 1,4
Saida da SFNN
-300
0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98
Energia de Foton, (eV)

Figura 5.6: Resposta da rede modular - SLA de InGaAsP.

100
MSE - Erro Medio Quadratico

-1
10
MSE - Erro Medio Quadratico

10-2

10-3

10-4

-5
10
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
# epocas

Figura 5.7: Evolução do treinamento da rede de saı́da através do algoritmo RProp


- SLA de InGaAsP.

5.1.3 Modelo do Coeficiente de Ganho em um SLA de GaAs


Através de Redes Modulares

Utilizando a mesma metodologia aplicada para a modelagem do coeficiente de


ganho do SLA de InGaAsP, este parâmetro também foi modelado para um SLA de
GaAs. Os valores de ∆n = [1, 2 1, 4 1, 6 1, 8 2, 0] × 1018 cm−3 , delimitaram a
região de interesse deste dispositivo e ∆n foi utilizado como sinal de controle. As
curvas do sinal de controle ∆n = 1, 2 e 2, 0 × 1018 cm−3 foram utilizadas para o
treinamento das redes especialistas e as curvas de ∆n = 1, 2, 1, 8 e 2, 0×1018 cm−3 ,
juntamente com as saı́das das redes especialistas foram utilizadas no treinamento da
rede de passagem, como mostrado na Figura 5.8. As principais caracterı́sticas deste
SLA de GaAs estão alistadas na Tabela 5.5. De maneira similar ao amplificador de
InGaAsP, os dados de treinamento foram obtidos a partir do modelo fı́sico preciso
[65].
CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 69

Dn=1,2E18 cm-3

REDE
ESPECIALISTA 1
SFNN
ENTRADA REDE SAÍDA
DE SAÍDA
[Dn,hn] SFNN [g0]
REDE
ESPECIALISTA 2
SFNN
Dn=[1,2 1,8 2,0]
E18 cm-3

Dn=2,0E18 cm-3

Figura 5.8: Parâmetros utilizados no treinamento da rede modular para o SLA de


GaAs.

Laser Semicondutor GaAs


Temperatura 300 K
Energia de transição entre bandas Eg = 1, 4eV
Tempo de recombinação elétrons-lacunas τr = 2ns
Massa efetiva de elétrons da banda de condução mc = 0, 07m0
Massa efetiva de elétrons da banda de valência mv = 0, 5m0
Índice de refração do material 3,6

Tabela 5.5: Principais caracterı́sticas do SLA de GaAs modelado.

A Tabela 5.6 e as Figuras 5.9 e 5.10 apresentam resultados e informações do


treinamento das duas redes especialistas.

Rede Especialista 1 Especialista 2


Configuração SFNN SFNN
Algoritmo de Treinamento RProp RProp
Aproximação da curva ∆n = 1, 2 × 1018 cm−3 ∆n = 2, 0 × 1018 cm−3
Neurônios na camada oculta 4 4
Épocas de treinamento 5000 5000
Exemplos de treinamento 17 35
Exemplos de teste 471 1001
MSE final 1, 8253E − 006 8, 22E − 005
Tempo total de treinamento 36, 62s 100, 90s
Tempo de obtenção de saı́da com conjunto de teste 0, 296s 0, 359s

Tabela 5.6: Informações de treinamento das redes especialistas SFNN para modela-
gem do SLA de GaAs.
70 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS

50

45 Modelo Físico - Dn = 1.2E18/cm3


40 SFNN -Dn = 1.2E18/cm3
Coeficiente de Ganho, (cm-1)

35

30

25

20

15

10

0
1.35 1.36 1.37 1.38 1.39 1.4 1.41 1.42 1.43 1.44 1.45
Energia de Foton, (eV)

Figura 5.9: Resposta da rede especialista 1 - SLA de GaAs.

350

Modelo Físico - Dn = 2.0E18/cm3


300
SFNN - Dn = 2.0E18/cm3
Coeficiente de Ganho, (cm-1)

250

200

150

100

50

0
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Foton, (eV)

Figura 5.10: Resposta da rede especialista 2 - SLA de GaAs.

As informações relevantes referentes ao treinamento da rede de saı́da estão conti-


das na Tabela 5.7. A Figura 5.11 apresenta a capacidade de generalização do modelo
para as curvas de ∆n = [1, 4 1, 6] × 1018 cm−3 . A Figura 5.12 mostra a evolução do
treinamento da rede de saı́da com relação ao erro médio quadrático.

Rede Saı́da
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2, 1, 8 e 2, 0 × 1018 cm−3
Neurônios na camada oculta 15
Épocas de treinamento 5000
Exemplos de treinamento 83
Exemplos de teste 132
MSE final 8, 22E − 005
Tempo total de treinamento 135, 1s
Tempo de obtenção de saı́da com conjunto de teste 0, 23s

Tabela 5.7: Informações de treinamento da rede de saı́da SFNN para modelagem do


SLA de GaAs.
CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 71

350

Dados de Treino - Modelo Físico


300
Dados de Teste
Coeficiente de Ganho, (cm-1) Saida da SFNN
250

200

150

100
Dn=2,0E18 cm-3
50

0
1,2 1,4 1,6 1,8
-50
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Foton, (eV)

Figura 5.11: Resposta da rede modular - SLA de GaAs.


10 0

MSE - Erro Medio Quadratico


10 -1
MSE - Erro Medio Quadratico

10 -2

10-3

10 -4

-5
10
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000
# epocas

Figura 5.12: Evolução do treinamento da rede de saı́da através do algoritmo RProp


- SLA de GaAs.

Para demonstrar a capacidade de generalização, a estabilidade e a confiabili-


dade do modelo, diversas curvas para diferentes valores de ∆n, dentro da região
de interesse, foram testadas. A Figura 5.13 apresenta estes resultados na forma bi-
dimensional e tri-dimensional, comprovando a excelente capacidade de generalização
da rede modular SFNN.
Na Figura 5.14, é comparada a estimativa dos valores de pico do coeficiente de
ganho do SLA de GaAs produzida pela rede modular SFNN, com o modelo fı́sico
apresentado por Saleh e Teich [65]. Os resultados mostram uma boa aproximação
da rede modular, comprovando mais uma vez a validade do modelo proposto.
Com o objetivo de comparar o desempenho da rede modular SFNN e da rede
modular RBF/MLP, esta última, foi implementada para modelar o coeficiente de
ganho do SLA de GaAs. A metodologia utilizada foi a mesma da Figura 5.8, com
exceção de que ao invés das redes SFNN utilizadas, as redes especialistas são do tipo
RBF e a rede de saı́da é do tipo MLP.
72 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS

400
Dados de Treino 350
Dados de Teste
350
SFNN Modular - Generalização

Coeficiente de Ganho, (cm-1)


300
Coeficiente de Ganho, (cm-1)

300
250

250 200

200 150

150 100

50
100

0
50 2E18
1.8E18
0 1.6E18 1.44
1.38 1.39 1.4 1.41 1.42 1.43 1.44 1.43
1.4E18 1.42
Energia de Foton (eV) Concentração de 1.41
1.4
Portadoras, (cm-3) 1.2E18 1.38 1.39 Energia de Foton, (eV)

(a) (b)

Figura 5.13: Generalização da rede modular SFNN dentro da região de interesse:


(a) Gráfico Bidimensional; (b) Gráfico Tridimensional.

350
Referência - (Saleh e Teich, 1991)
SFNN Modular - Estimação
Valores de Pico do Coeficiente de Ganho, (cm-1)

300

250

200

150

100

50

0
0.8 1 1.2 1.4 1.6 1.8 2
Concentração de Portadoras Injetadas (1E18 cm-3)

Figura 5.14: Estimativa dos valores de pico do coeficiente de ganho do SLA de GaAs
- Rede modular e referência.

O resultado da aproximação das redes especialistas para as curvas de ∆n =


1, 2 e 2, 0 × 1018 cm−3 é mostrado na Figura 5.15. Uma boa concordância é obtida
com o modelo fı́sico rigoroso apresentado na literatura [65]. A saı́da final do modelo é
apresentada na Figura 5.16, com a aproximação das curvas utilizadas no treinamento
e a generalização para as curvas de ∆n = [1, 4 1, 6] × 1018 cm−3 . Para contribuir na
comparação entre os dois métodos utilizados, quanto à precisão, simplicidade, custo
computacional e generalização, a Tabela 5.8 traz as informações de treinamento das
duas redes RBF especialistas.
CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 73

Rede Especialista 1 Especialista 2


Configuração RBF RBF
Algoritmo de Treinamento RProp RProp
Aproximação da curva ∆n = 1, 2 × 1018 cm−3 ∆n = 2, 0 × 1018 cm−3
Neurônios na camada oculta 4 4
Épocas de treinamento 5000 5000
Exemplos de treinamento 17 35
Exemplos de teste 471 1001
MSE final 2, 39E − 006 2, 31E − 004
Tempo total de treinamento 29, 57s 41, 85s
Tempo de obtenção de saı́da com conjunto de teste 0, 093s 0, 032s

Tabela 5.8: Informações de treinamento das redes especialistas RBF para modelagem
do SLA de GaAs.
350
RBF especialista 2 -Dn = 2E18 cm -3

300 RBF especialista 1- Dn = 1.2E18 cm-3


Dados de Treino - Dn = 1.2E18 cm-3
Coeficiente de Ganho, (cm )
-1

250 Dados de Treino - Dn = 2E18 cm -3

200

150

100

50

-50
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Fóton (eV)

Figura 5.15: Saı́da das redes especialistas RBF - SLA de GaAs.


350
Dados de Treino
300 Dados de Teste
Aproximação da RBF/MLP
Coeficiente de Ganho, (cm-1)

Generalização da RBF/MLP
250

200 Dn = 2E18 cm -3
1.8
150
1.6
100
1.4

50 1.2

-50
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Foton, (eV)

Figura 5.16: Resposta da rede de saı́da MLP - SLA de GaAs.

A Tabela 5.9 apresenta as informações de treinamento da rede MLP de saı́da para


a modelagem do coeficiente de ganho do SLA de GaAs. Para testar a generalização
74 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS

do modelo a Figura 5.17 ilustra com um gráfico de superfı́cie a resposta da rede


modular na região de interesse. A estimativa dos valores de pico do coeficiente de
ganho através da rede modular RBF/MLP é comparada com os valores do modelo
fı́sico [65] e apresentada na Figura 5.18.

Rede Saı́da
Configuração MLP
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2, 1, 8 e 2, 0 × 1018 cm−3
Neurônios na camada oculta 15
Épocas de treinamento 5000
Exemplos de treinamento 83
Exemplos de teste 132
MSE final 5, 11E − 005
Tempo total de treinamento 44, 76s
Tempo de obtenção de saı́da com conjunto de teste 0, 265s

Tabela 5.9: Informações de treinamento da rede de saı́da MLP para modelagem do


SLA de GaAs.

350

300
Coeficiente de Ganho, (cm-1)

250

200

150

100

50

0
2
1.8
1.6 1.44
1.43
Portadoras Injetadas (1E18 cm-3) 1.4 1.42
1.41
1.4
1.2 1.39
1.38 Energia de Fóton (eV)

Figura 5.17: Generalização da rede modular RBF/MLP na região de interesse - SLA


de GaAs.
CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 75

350
Referência (Saleh and Teich, 1991)
Estimação da RBF/MLP Modular
300
Pico do Coeficiente de Ganho, (cm-1)

250

200

150

100

50

0
0.8 1 1.2 1.4 1.6 1.8 2
Portadoras Injetadas (1E18 cm-3)

Figura 5.18: Estimativa dos valores de pico do coeficiente de ganho do SLA de GaAs
através da rede RBF/MLP - Rede modular e referência.
76 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS
Capı́tulo 6

Conclusões

Nesta dissertação abordou-se a aplicação de redes neurais modulares de alimen-


tação direta por meio do paradigma da aprendizagem supervisionada, bem como,
alguns algoritmos de treinamento responsáveis por tal aprendizagem. O principal
objetivo da formulação e implementação destas técnicas neuro-computacionais foi a
aplicação na modelagem não linear das caracterı́sticas fı́sicas, elétricas ou ópticas de
dispositivos na faixa de microondas e óptica.
Uma revisão bibliográfica sobre as principais aplicações das redes neurais na mo-
delagem computacional de dispositivos e circuitos de microondas e ópticos foi reali-
zada. Os trabalhos encontrados na literatura, em sua grande maioria, restringem-se
ao uso de redes MLP treinadas com o algoritmo BP para aproximação de curvas não
lineares, embora com comportamento suave. Notou-se que o grau de dificuldade dos
problemas apresentados neste trabalho, principalmente no que tange a antena de
microfita com substrato PBG e o guia de onda UC-PBG, demonstra que problemas
complexos envolvendo modelagem de caracterı́sticas fı́sicas, elétricas ou ópticas de
dispositivos podem ser resolvidos através de redes neurais artificiais. Para tanto,
devem ser levados em consideração o tipo correto de rede, uma estrutura neural
apropriada, bem como um bom algoritmo de treinamento.
Foram consideradas três tipos de redes neurais de alimentação direta: rede per-
ceptron de múltiplas camadas (MLP), rede de funções de base radial (RBF) e a rede
de funções sample (SFNN). Dois algoritmos principais foram utilizados: o back-
propagation e o resilient backpropagation. As redes implementadas, bem como seus
algoritmos de treinamento, foram organizados de acordo com a configuração mo-
dular proposta. Nesta, duas redes especialistas são responsáveis pela aproximação
das curvas que delimitam a região de interesse utilizando, para tal avaliação, um
78 CAPÍTULO 6. CONCLUSÕES

sinal denominado sinal de controle. Uma rede de saı́da é encarregada de utilizar o


conhecimento de todo o conjunto de treinamento, juntamente com o conhecimento
adquirido pelas redes especialistas. O objetivo desta configuração modular é seguir
o princı́pio “dividir e conquistar”, dividindo assim um problema maior de neuro-
modelagem em problemas menores e agrupando-os em seguida. Outra vantagem
desta técnica é que a incorporação do conhecimento prévio do problema na rede
de saı́da, através das especialistas, resulta em uma convergência mais rápida no
treinamento, em um menor número de unidades ocultas, em uma maior capacidade
de resolução de problemas complexos e em uma maior capacidade de generalização
para regiões do espaço de entrada onde há pouco ou nenhum conhecimento prévio
sobre o comportamento do componente modelado.
Com o objetivo de uniformizar a nomenclatura e a notação, foram deduzidas
expressões para o treinamento das redes MLP, RBF e SFNN. Esta dedução foi feita
de uma maneira didática, de um modo que facilite o entendimento do processo de
aprendizagem supervisionada e, principalmente, facilite a implementação computa-
cional. Os algoritmos deduzidos foram o BP e o Rprop, ambos derivados diretamente
do método do gradiente. Embora o BP tenha sido inicialmente concebido apenas
para as redes MLP, foi mostrado que ele pode ser adaptado para o processo de apren-
dizagem das redes RBF e SFNN. Da mesma maneira ocorreu com o Rprop, pois, a
forma de atualização dos parâmetros livres e das taxas de aprendizado podem ser
aplicadas para os três tipos de rede mencionadas acima.
No que se refere à modelagem da freqüência de ressonância do ressoador retan-
gular de microfita, o modelo neural demonstrou uma maior eficiência computacional
mantendo, no entanto, a precisão do método rigoroso apresentado. Na resolução do
problema da modelagem do parâmetro de espalhamento S11 da antena de microfita
com substrato PBG, a rede modular hı́brida RBF/MLP apresentou um excelente
desempenho. Esta modelagem, embora no inı́cio tenha se mostrado inviável para
uma rede MLP ou RBF, mesmo estas tendo uma grande estrutura de neurônios
ocultos, pôde ser realizada com o auxı́lio da configuração modular. É notável o grau
de não linearidade do problema, principalmente por se tratar de um material PBG,
e da boa capacidade de generalização do modelo. A aproximação de não linearida-
des abruptas e localizadas tornou-se possı́vel graças a propriedade do decaimento
exponencial localizado fornecida pelas redes RBF. A comparação feita entre a rede
modular proposta, uma rede MLP e uma RBF através da análise do erro de gene-
ralização em função do número de neurônios, mostrou que a primeira é realmente
superior aos modelos de redes tradicionais.
CAPÍTULO 6. CONCLUSÕES 79

O modelo para o campo elétrico no interior de um guia de ondas retangular do


tipo UC-PBG através da rede modular RBF/MLP também mostrou ser bem suce-
dido. Na bibliografia em que este tipo de guia de onda foi proposto, bem como
em outros trabalhos posteriores, não foram estabelecidos modelos empı́ricos com-
putacionalmente viáveis, em ferramentas CAD, para a obtenção desta caracterı́stica
elétrica do guia. Seu cálculo pode, no entanto, ser proveniente do método FDTD ou
outro método de onda completa. A desvantagem destes métodos é o elevado custo
computacional, como foi citado no caso da antena de microfita, impossibilitando um
cálculo instantâneo ou, na melhor das hipóteses, computacionalmente eficiente. A
rede RBF/MLP veio suprir esta lacuna mantendo a precisão dos resultados medi-
dos, mesmo em regiões do espaço de entrada não utilizadas no treinamento. Sua
superioridade também ficou evidente quando comparada com as redes RBF e MLP
tradicionais, apresentando um maior poder de generalização com uma estrutura de
neurônios relativamente pequena.
No caso da modelagem das perdas na linha de microfita com substrato PBG o
caso foi bem diferente. Além das curvas apresentarem não linearidade suave, os soft-
wares CAD já incorporavam expressões empı́ricas para obtenção desta caracterı́stica
elétrica da linha. Os resultados demonstraram que mesmo com uma configuração
composta de um número bem reduzido de neurônios ocultos, a rede modular pôde
se mostrar superior no que tange a generalização e conseqüentemente produzindo
um modelo mais preciso do que os outros métodos utilizados. Por se tratar de
uma curva suave, uma rede MLP tradicional foi treinada com um número variado
de unidades ocultas e épocas de treinamento. O melhor resultado de generaliza-
ção obtido também foi comparado com o da rede modular RBF/MLP mostrando-se
inferior.
Para o modelo do coeficiente de ganho dos amplificadores ópticos, as redes mo-
dulares SFNN e RBF/MLP propostas, mantiveram a concordância com os métodos
fı́sicos precisos mostrando-se, porém, computacionalmente mais eficientes. Embora
os modelos fı́sicos não tenham sido implementados neste trabalho, a sua descrição
mostra que o elevado número de parâmetros envolvidos e o cálculo numérico de algu-
mas integrais os tornam computacionamente inviáveis como ferramentas CAD. Para
o amplificador de InGaAsP, a rede modular SFNN mostrou precisão na aproximação
e uma excelente capacidade de generalização. Para o amplificador de GaAs a rede
modular SFNN novamente manteve o mesmo desempenho. Com o objetivo de com-
parar as respostas das redes modulares SFNN e RBF/MLP, esta última também foi
implementada para a modelagem do amplificador de GaAs. As caracterı́sticas estru-
80 CAPÍTULO 6. CONCLUSÕES

turais dos dois modelos permaneceram parecidas e o treinamento da rede RBF/MLP


mostrou-se ligeiramente mais rápido. A confiabilidade e a capacidade de generaliza-
ção dos modelos, dentro da região de interesse, foi demonstrada pela construção de
gráficos de superfı́cie e pela estimação do valor de pico do coeficiente de ganho.
Em suma, o uso das redes modulares para modelagem de caracterı́sticas de dis-
positivos de microondas e ópticos resulta em vantagens, tais como: baixa ocupação
de memória computacional, computação eficiente para mapeamentos não lineares
complexos e capacidade de modelagem de diferentes dispositivos com a mesma con-
figuração de rede neural.
A partir da experiência e do conhecimento adquiridos no curso desta pesquisa,
são sugeridos os seguintes tópicos para desenvolvimento futuros:

• Utilização da rede modular RBF/MLP para a modelagem do coeficiente de


ganho de outros amplificadores ópticos como, por exemplo, amplificadores
baseados em GaInAs.
• Estimação da potência de emissão em amplificadores ópticos baseados em In-
GaAsP, na faixa de operação entre 1450 e 1600 nm em função do comprimento
de onda, através de uma rede modular do tipo SFNN.
• Otimização de modelos empı́ricos utilizados para modelagem de transistores de
microondas como, por exemplo, os high electron mobility transistors,(HEMT’s)
com o auxı́lio das redes modulares propostas neste trabalho. Estes modelos
incluem a estimação da corrente de dreno-fonte em função da tensão de dreno,
a condutância e a transcondutância em função da tensão de saı́da.
• Modelagem dos parâmetros de espalhamento para outros dispositivos que uti-
lizam o material UC-PBG. A literatura traz aplicações deste material em guias
de onda coplanares, filtros passa-faixa, rejeita-faixa e outros componentes para
circuitos integrados na faixa de microondas e ondas milimétricas.
• Verificação da capacidade de generalização das redes modulares apresentadas
neste trabalho com a utilização de outros métodos de treinamento, como o
Levenberg-Marquadt ou métodos diferentes baseados no cálculo das derivadas
de ordem superior.
Referências Bibliográficas

[1] A. Patnaik and R. K. Mishra. ANN Techniques in Microwave Engineering.


Microwave Magazine, IEEE, pages 55–60, Mar. 2000.

[2] J. Dunlop and D. G. Smith. Telecommunications Engineering - Third Edition,


chapter 12, pages 440–460. Chapman and Hall, London, 1994.

[3] K. C. Gupta and P. S. Hall. Analysis and Design of Integrated Circuit - Antenna
Modules, chapter Preface, 2, pages xi–xiii, 32. John Wiley and Sons, Inc., 2000.

[4] B. Milovanovic, V. Markovic, Z. Marinkovic, and Z. Stankovic. Some Appli-


cations of Neural Networks in Microwave Modeling. In Journal of Automatic
Control, volume 13, pages 39–46. University of Belgrade, 2003.

[5] F. Wang, V. K. Devabhaktuni, C. Xi, and Q. Zhang. Neural Network Structures


and Training Algorithms for RF and Microwave Applications. In Int. Journal
of RF and Microwave CAE, number 9, pages 216–240. John Wiley and Sons,
Inc., 1999.

[6] Q. J. Zhang, G. Wilson, R. Venkatachalam, A. Sarangan, J. Williamson, and


F. Wang. Ultra Fast Neural Models for Analysis of Electro/Optical Intercon-
nects. In Proceedings of Electronic Components and Technology Conference,
pages 1134–1137, 1997.

[7] V. K. Devabhaktuni, M. C. E. Yagoub, Y. Fang, J. Xu, and Q. Zhang. Neural


Networks for Microwave Modeling: Model Development Issues and Nonlinear
Modeling Techniques. In Int. Journal of RF and Microwave CAE, number 11,
pages 4–21. John Wiley and Sons, Inc., 2001.

[8] Q. J. Zhang and K. C. Gupta. Neural Networks for RF and Microwave Design.
Artech House, 2000.

81
82 REFERÊNCIAS BIBLIOGRÁFICAS

[9] M. Chai, S. Song, and N. Li. A Review of Some Main Improved Models for
Neural Network Forecasting on Time Series. In Proceedings of Intelligent Vehi-
cles Symposium, pages 866–868. IEEE, Jun. 2005.

[10] J. Hwang, S. Kung, M. Nirajan, and J. C. Principe. The Past, Present and
Future of Neural Networks for Signal Processing. Signal Processing Magazine,
14(6):28–48, Nov. 1997.

[11] Y. C. Tzeng, K. S. Chen, W. Kao, and A. K. Fung. A Dynamic Learning


Neural Network for Remote Sensing Applications. IEEE Trans. on Geoscience
and Remote Sensing, 32(5):1096–1102, Set. 1994.

[12] J. Hong and M. J. Lancaster. Microstrip Filters for RF/Microwave Applica-


tions, chapter 9, pages 283–285. John Wiley and Sons, INC., 2001.

[13] R. Gopalakrishnan and N. Gunasekaran. Design of Equilateral Triangular Mi-


crostrip Antenna using Artificial Neural Networks. In Proceedings of IEEE
International Workshop on Antenna Technology - Small Antennas and Novel
MetaMaterials, pages 246–249, 2005.

[14] N. P. Somasiri, X. Chen, and A. A. Rezazadeh. Neural Network Modeller


for Design Optimisation of Multilayer Patch Antennas. In IEE Microwave
Antennas and Propagation, volume 151, pages 514–518, Dez. 2004.

[15] P. M. Watson, G. L. Creech, and K. C. Gupta. Knowledge Based EM-ANN


Models for the Design of Wide Bandwidth CPW Patch/Slot Antennas. In Pro-
ceedings of IEEE Antennas and Propagation Society International Symposium,
pages 2588–2591, 1999.

[16] E. Charpentier and J. Laurin. An Implementation of a Direction-Finding An-


tenna for Mobile Communications Using a Neural Network. In IEEE Trans. on
Antennas and Propagation, volume 47, pages 1152–1159, 1999.

[17] J. Zhang, Y. Wang, and X. Wang. A Combination of Piecewise Harmonic


Balance Technique and Neural Network for Analyzing Active Antenna. In Pro-
ceedings of IEEE Antennas and Propagation Society International Symposium,
volume 1, pages 514–517, 1996.

[18] P. H. da F. Silva, M. A. B. de Melo, and A. D. D. Neto. Programas de


CAD/ANN para Dispositivos Planares com Resultados Eletromagnéticos In-
REFERÊNCIAS BIBLIOGRÁFICAS 83

corporados. In Proceedings of V Brazilian Conference on Neural Networks,


pages 547–552, 2001.

[19] R. K. Mishra and A. Patnaik. Designing Rectangular Patch Antenna Using the
Neurospectral Method. IEEE Trans. on Antennas and Propagation, 51(8):1914–
1921, Ago. 2003.

[20] V. Dragos, V. Dan, and R. Kovacevic. Prediction of the Laser Sheet Bending
Using Neural Network. In Proceedings of IEEE Int. Symposium on Circuits and
Systems, volume III, pages 686–689, Switzerland, Maio 2000.

[21] L. Jiusheng and B. Zhenwu. The Neural Network Model of Optical Fiber
Direction Coupler. In Proceedings of IEEE Int. Conf. Neural Networks and
Signal Processing, pages 71–74, 2003.

[22] M. Searcy, D. Cooley, R. Trebino, and M. Krumbügel. Ultrashort Laser Pulse


Characterization by Neural Network. In Proceedings of International Conf.
Neural Networks, volume 1, pages 26–30, 1997.

[23] W. Weis. Processing of Optical Sensor Data for Tool Monitoring with Neural
Networks. In Proceedings of Conference Record WESCON/94, pages 351–355,
Set. 1994.

[24] M. Devetsikiotis, J. K. Townsend, and M. W. White. Artificial Neural Net-


works for Modeling and Simulation of Communication Systems with Nonlinear
Devices. In Proceedings of IEEE International Conference on Communications,
volume 2, pages 763–768, 1994.

[25] T. Matsumoto, M. Koga, K. Noguchi, and S. Aizawa. Proposal for Neural-


Network Applications to Fiber-Optic Transmission. In Proceedings of Inter-
national Joint Conference on Neural Networks, volume I, pages 75–80, Jun.
1990.

[26] M. G. Passos, P. H. da F. Silva, and H. C. C. Fernandes. Modelos Neurais para


Dispositivos Ativos Semicondutores de GaAs nas Faixas de Microondas/Óptica.
Revista Principia - CEFET-PB, (13):66–75, Abr. 2006.

[27] M. G. Passos, P. H. da F. Silva, and H. C. C. Fernandes. A New RBF/MLP


Modular Neural Network for Device Modeling in Microwave/Optical Bands.
In Proceedings of XXVII Iberian Latin-American Congress on Computational
Methods in Engineering, 2006. A ser publicado.
84 REFERÊNCIAS BIBLIOGRÁFICAS

[28] M. G. Passos, P. H. da F. Silva, and H. C. C. Fernandes. A RBF/MLP Modu-


lar Neural Network for Microwave Device Modeling. International Journal of
Computer Science and Network Security, 6(5A):81–86, Maio 2006.

[29] M. G. Passos, P. H. da F. Silva, and H. C. C. Fernandes. Modelos de Dispositivos


com PBG Através de Redes Neurais Modulares RBF/MLP. In Anais do 12o
Simpósio Brasileiro de Microondas e Optoeletrônica e 7o Congresso Brasileiro
de Eletromagnetismo, 2006. A ser publicado.

[30] S. Haykin. Redes Neurais - Princı́pios e Prática. Bookman, 2001.

[31] Q. J. Zhang, K. C. Gupta, and V. K. Devabhaktuni. Artificial Neural Networks


for RF and Microwave Design - From Theory to Practice. IEEE Trans. on
Microwave Theory and Techniques, 51(4):1339–1350, Abr. 2003.

[32] A. K. Jain, M. Jianchang, and K. M. Mohiuddin. Artificial Neural Networks:


A Tutorial. Computer, 29(3):31–44, Mar. 1996.

[33] J. M. Mendel and R. W. Maclaren. Reinforcement-Learning Control and Pat-


tern Recognition Systems. In Adaptative Learning and Pattern Recognition
Systems: Theory and Applications, volume 66, pages 287–318. Academic Press,
1970.

[34] W. S. McCulloch and W. Pitts. A Logical Calculus of the Ideas Immanent in


Nervous Activity. Bulletin of Mathematical Biophysics, 5:115–133, 1943.

[35] K. Hornik, M. Stinchcombe, and H. White. Multilayer Feedforward Networks


are Universal Approximators. Neural Networks, 2:359–366, 1989.

[36] S. Tamura and M. Tateishi. Capabilities of a Four-Layered Feedforward Neural


Network: Four Layer Versus Three. IEEE Trans. Neural Networks, 8:251–255,
1997.

[37] M. Carlin. Radial Basis Function Networks and Nonlinear Data Modelling. In
Proceedings of Neuro-Nimes’92, pages 623–633, 1992.

[38] J. Park and I. W. Sandberg. Universal Approximation Using Radial-Basis-


Function Networks. Neural Computation, 3:246–257, 1991.

[39] P. H. da F. Silva. Modelos através de Redes Neurais Artificiais sem Reali-


mentação para Dispositivos e Circuitos de RF/Microondas. Tese de doutorado,
Universidade Federal da Paraı́ba, 2002.
REFERÊNCIAS BIBLIOGRÁFICAS 85

[40] P. M. Watson and K. C. Gupta. EM-ANN Models for Microstrip Vias and Inter-
connects in Datasets Circuits. IEEE Trans. Microwave Theory and Techniques,
MTT-44:2495–2503, 1996.

[41] P. M.Watson, K. C. Gupta, and R. L. Mahajan. Development of Knowledge


Based Artificial Neural Networks Models for Microwave Components. In IEEE
MTT-S Int. Microwave Symp. Dig., pages 9–12, Baltimore, 1998.

[42] F. Wang and Q. J. Zhang. Knowledge Based Neuromodels for Microwave De-
sign. IEEE Trans. Microwave Theory and Techniques, MTT-45:2333–2343,
1997.

[43] J. E. Rayas-Sanchez. Neural Space Mapping Methods for Modeling and Design
of Microwave Circuits. Tese de doutorado, McMaster University, 2001.

[44] R. A. Jacobs, M. I. Jordan, S. J. Nowlan, and G. E. Hinton. Adaptive Mixture


of Experts. Neural Computation 3, pages 79–87, 1991.

[45] M. I. Jordan and R. A. Jacobs. Hierarchical Mixtures of Experts and the EM


Algorithm. Neural Computation 6, pages 181–214, 1994.

[46] Riedmiller, M. Advanced Supervised Learning in Multi-layer Perceptrons -


From Backpropagation to Adaptive Learning Algorithms. Int. Journal of Com-
puter Standards and Interfaces, (5), 1994.

[47] D. Rumelhart, D. Hinton, and G. Williams. Learning Internal Representations


by Error Propagation. In Parallel Distributed Processing. M.I.T. Press, 1986.

[48] R. A. Jacobs. Increased Rates of Convergence Through Learning Rate Adap-


tation. In Neural Networks, volume 1, pages 295–307, 1988.

[49] H. Robins and S. Monro. A Stochastic Approximation Method. In Annals of


Mathematical Statistics, volume 22, pages 400–407, 1951.

[50] C. Darken, J. Chang, and J. Moody. Learning Rate Schedules for Faster Sto-
chastic Gradient Search. In Proceedings of IEEE Workshop on Neural Network
for Signal Processing, volume 2, pages 3–12, 1992.

[51] T. Tollenaere. SuperSAB: Fast Adaptive Backpropagation With Good Scaling.


In Neural Networks, volume 3, pages 561–573, 1990.
86 REFERÊNCIAS BIBLIOGRÁFICAS

[52] M. Riedmiller and H. Braun. A Direct Adaptive Method for Faster Back-
propagation Learning: The RPROP Algorithm. In Proceedings of the IEEE
International Conference on Neural Networks, volume 1, pages 586–591, 1993.

[53] M. Riedmiller. Rprop - Description and Implementation Details. Relatório


técnico, University of Karlsruhe, 1994.

[54] M. G. Passos and H. C. C. Fernandes. Rede Multilayer Perceptron com Al-


goritmo de Treinamento Resilient Backpropagation para Aplicações em Neuro-
modelagem. Relatório técnico, Grupo TECFOTON - PPGEE - UFRN, Abr.
2006.

[55] R. Garg, P. Bhartia, I. Bahl, and A. Ittipiboon. Microstrip Antenna Design


Handbook. Artech House, 2001.

[56] T. Itoh, editor. Numerical Techniques for Microwave and Millimeter-Wave


Passive Structures. John Wiley and Sons, Inc., 1989.

[57] J. F. Almeida, C. L. S. S. Sobrinho, and R. O. dos Santos. Analysis by FDTD


Method of a Microstrip Antenna with PBG Considering the Substrate Thick-
ness Variation. In Int. Conference on Applied Electromagnetics and Communi-
cations, pages 344–347, Croatia, Out. 2003.

[58] S. A. P. Silva. Ressoadores de Linha de Lâmina, de Microfita Retangular,


Retangular com Passos e Triangular Discretizado. Dissertação de mestrado,
PPGEE - UFRN, 1999.

[59] M. N. O. Sadiku. Numerical Techniques in Elecromagnetics - Second Edition.


CRC Press, 2001.

[60] F. Yang, K. Ma, Y. Qian, and T. Itoh. A Uniplanar Compact Photonic-Bandgap


(UC-PBG) Structure and its Applications for Microwave Circuits. IEEE Trans.
on Microwave Theory and Techniques, 47(8):1509–1514, 1999.

[61] F. Yang, K. Ma, Y. Qian, and T. Itoh. A Novel TEM Waveguide Using Uni-
planar Compact Photonic-Bandgap (UC-PBG) Structure. IEEE Trans. on Mi-
crowave Theory and Techniques, 47(11):2092–2098, 1999.

[62] K. C. Gupta, R. Garg., I. Bahl, and P. Bhartia. Microstrip Lines and Slotlines.
Artech House, 1996.
REFERÊNCIAS BIBLIOGRÁFICAS 87

[63] M. E. Goldfarb and A. Platzker. Losses in GaAs Microstrip. IEEE Trans. on


Microwave Theory and Techniques, 38(12):1957–1963, 1990.

[64] K. Iizuka. Elements of Photonics. John Wiley and Sons, Inc., 2002.

[65] B. E. A. Saleh and M. C. Teich. Fundamentals of Photonics. John Wiley and


Sons, Inc., 1991.
Índice Remissivo

Antena de Microfita, 41 número de camadas, 12


vantagens, 41 número de neurônios, 12
Aplicações das ANN, 3 teorema da aproximação universal, 12
Aprendizado não-supervisionado, 9 Rede neural
Aprendizado supervisionado, 8 alimentação, 8
direta, 8
Backpropagation, 20
recorrente, 8
Dados aprendizagem, 8
teste, 20 caracterı́sticas, 10
treinamento, 19 definição, 7
validação, 19 funcionamento, 8
Rede RBF
EDFA, 61
configuração, 13
Epoca, 19
estratégias de aprendizagem, 23
Função de base radial, 13 teorema da aproximação universal, 13
Rede SFNN
Método do Gradiente, 26 função não linear, 14
MSE, 19 Resilient Backpropagation, 24
Neurônios SLA, 61
entrada, 8
ocultos, 8 UC-PBG, 50
saı́da, 8 Underlearning, 20

Overlearning, 20

PBG, 43
Perceptron, 11

Rede MLP
configuração, 11
funções não lineares, 11

88

Você também pode gostar