Escolar Documentos
Profissional Documentos
Cultura Documentos
Centro de Tecnologia
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE Programa de Pós-Graduação em Engenharia Elétrica
Aos meus pais e irmãos pelo apoio, incentivo, orientação, encorajamento, paciência,
enfim, tantas qualidades demonstradas não só nestes últimos dois anos, mas desde
sempre. Obrigado!
Aos meus companheiros de luta: Patric Lacouth, Rafael Marrocos e Danilo Lima,
por toda ajuda, que, sem dúvida foram essenciais no decorrer de todo o mestrado.
Aos professores Alfrêdo Gomes Neto e Silvana Luciene Cunha Costa, por suas con-
tribuições mais do que significativas para a concretização deste trabalho.
Aos demais colegas e professores do PPGEE, que, de uma forma ou de outra, também
contribuı́ram com minha formação acadêmica.
Sumário
Sumário i
Lista de Figuras v
Lista de Tabelas ix
Lista de Sı́mbolos xi
1 Introdução 1
1.1 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Estado da Arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Organização do Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . 4
i
Lista de Figuras
3.1 Configuração de uma rede MLP com uma camada de neurônios ocul-
tos e um neurônio na camada de saı́da. . . . . . . . . . . . . . . . . . 27
3.2 Configuração de uma rede RBF com um neurônio na camada de saı́da. 31
v
4.7 Resposta das redes especialistas 1 e 2 - Antena de microfita com
substrato PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.8 Respostas da rede modular para: (a) h = 0,794 mm; (b) h = 0,9528
mm; (c) h = 1,588 mm - Antena de microfita com substrato PBG. . . 49
4.9 Generalização da rede modular para h = 1,4292 mm - Antena de
microfita com substrato PBG. . . . . . . . . . . . . . . . . . . . . . . 50
4.10 Análise comparativa dos modelos para a antena de microfita através
das redes RBF, MLP e Modular RBF/MLP. . . . . . . . . . . . . . . 50
4.11 Guia de ondas UC-PBG: (a) Diagrama esquemático; (b) Material
PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.12 Guia de ondas UC-PBG: (a) Dimensões e locais de medição do campo
elétrico; (b) Dimensões da célula PBG. . . . . . . . . . . . . . . . . . 52
4.13 Parâmetros utilizados no treinamento da rede modular para guia de
ondas UC-PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.14 Resposta das redes especialistas 1 e 2 - Guia de Ondas UC-PBG. . . 53
4.15 Resposta da rede modular hı́brida RBF/MLP Rprop - Guia de Ondas
UC-PBG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.16 Análise comparativa dos modelos para o guia de ondas UC-PBG
através das redes RBF, MLP e Modular RBF/MLP. . . . . . . . . . . 55
4.17 Linha de microfita com substrato de GaAs - Seção transversal. . . . . 56
4.18 Parâmetros utilizados no treinamento da rede modular para a linha
de microfita com o substrato de GaAs. . . . . . . . . . . . . . . . . . 57
4.19 Resposta das redes especialistas 1 e 2 - Linha de microfita com subs-
trato de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.20 Resposta da rede modular hı́brida RBF/MLP Rprop - Linha de mi-
crofita com substrato de GaAs. . . . . . . . . . . . . . . . . . . . . . 59
4.21 Generalização da rede modular hı́brida RBF/MLP Rprop e compara-
ção com programas CAD e rede MLP simples - Linha de microfita
com substrato de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . 59
ix
5.7 Informações de treinamento da rede de saı́da SFNN para modelagem
do SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.8 Informações de treinamento das redes especialistas RBF para mode-
lagem do SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.9 Informações de treinamento da rede de saı́da MLP para modelagem
do SLA de GaAs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
Lista de Sı́mbolos
Letras Gregas
α0 constante de atenuação
γ0 coeficiente de ganho
∆, ∆ij valores de ajuste
∆n concentração de portadoras injetadas
r permissividade elétrica relativa
η,δ taxas de aprendizado global
η + ,η − constantes: 1,2 e 0,5 respectivamente
ηw , ησ , ηv taxas de aprendizado especı́ficas
θ valor de polarização ou bias
κ constante
λp comprimento de onda polarizada
ν freqüência óptica
π constante: 3,1415...
σ2 largura ou espalhamento de uma função de base radial
τ ângulo de elevação
τr tempo de recombinação elétrons-lacunas
φ densidade do fluxo de fótons
ϕ, ϕ1 , ϕ2 funções de ativação
xi
Letras Romanas
B coeficiente de Einstein
d(n) resposta desejada para o exemplo n
e erro entre a resposta desejada e a saı́da da rede
E erro quadrático instantâneo
En nı́vel arbitrário de energia
ET E erro de teste
ET R erro de treinamento
f freqüência
fv , fc distribuições de Fermi-Dirac
g(hν) ganho entre absorção e emissão
gv , gc densidades de estados
h altura do substrato
hν energia do fóton
H, h̄ constante de Planck e esta dividida por 2π
L comprimento do ressoador retangular de microfita
mc , m v massa efetiva de elétrons nas bandas de condução e valência
m∗e massa efetiva do elétron
M SE erro médio quadrático
n número do exemplo de treinamento
N número total de exemplos de treinamento
Ne número de entradas da rede
netj potencial de ativação
Nh número de unidades ocultas
Ns número de saı́das
p, q, g, i medidas da célula PBG
r, s medidas do guia de onda UC-PBG
Sij parâmetro de espalhamento
t época de treinamento
T temperatura
Te dados de teste
Tr dados de treinamento
Vd dados de validação
vkj peso da camada de saı́da da rede
xi entrada da rede neural
yj saı́da da camada oculta
w largura da linha de microfita
wji peso da camada oculta de uma MLP
wj centro de uma função de base radial
W largura do ressoador retangular de microfita
zk saı́da da rede neural
Lista de Siglas e Acrônimos
xv
SLA Semiconductor Laser Amplifier
SM-ANN Space Mapping - Artificial Neural Network
TE Transverse Electric
TEM Transverse Electromagnetic
TM Transverse Magnetic
UC-PBG Uniplanar Compact - Photonic Bandgap
VLSI Very Large Scale Integration
Resumo
xvii
Abstract
xix
Capı́tulo 1
Introdução
1.1 Motivação
O uso constante de ferramentas computacionais para o desenvolvimento de proje-
tos de dispositivos, para sistemas de comunicações, tem gerado um novo paradigma
na modelagem e simulação destes. As ferramentas de projeto auxiliado por com-
putador (CAD) para aplicações nas faixas de rádio freqüência (RF), microondas,
ondas milimétricas e óptica receberam um maior destaque a partir da década de 90.
Algumas destas ferramentas incluem: modelagem precisa de dispositivos passivos e
ativos, simulação eletromagnética computacional e análise de circuitos não lineares
utilizando balanço harmônico e aproximações no domı́nio do tempo [1].
Simuladores eletromagnéticos (EM’s) para estruturas em altas-freqüências foram
desenvolvidos, tornando o CAD para a elaboração de circuitos e dispositivos de
RF/microondas e ópticos o estado da arte na área. Isto se deve, em parte, à grande
demanda do mercado e da indústria por tais itens. Por exemplo, os dispositivos
ópticos possuem caracterı́sticas muito desejáveis nos sistemas de telecomunicações,
tais como baixo custo, ampla largura de banda, atenuação relativamente reduzida,
2 CAPÍTULO 1. INTRODUÇÃO
baixo peso e tamanho e imunidade contra interferências externas [2]. Já os circuitos
de RF/microondas tiveram um grande avanço, permitindo, com a tecnologia planar,
a confecção de circuitos hı́bridos, circuitos integrados monolı́ticos de microondas
(MMIC) para aplicações em arranjos de fase e sistemas de comunicações sem fio [3].
A análise estatı́stica e otimização baseada em modelos fı́sicos rigorosos - eletro-
magnéticos - de componentes ativos e passivos pode ser uma boa solução. No en-
tanto, tais métodos em geral são muito complexos, com um grande custo com-
putacional e geralmente necessitam de uma poderosa plataforma de hardware. Al-
ternativamente, modelos empı́ricos são usados em alguns simuladores, mas, estes
apresentam limitações na faixa de aplicação, bem como deixam a desejar quanto
a precisão [4]. Na última década uma nova abordagem, baseada na tecnologia das
redes neurais artificiais (ANN), tem sido introduzida na comunidade cientı́fica para
a elaboração de modelos para dispositivos e circuitos [5].
A modelagem baseada em redes neurais artificiais tem sido utilizada no que
se refere a aproximação, simulação e otimização de parâmetros fı́sicos, elétricos e
ópticos [3, 6]. Os modelos neurais são muito mais rápidos do que os modelos fı́sicos
rigorosos ou modelos eletromagnéticos e são mais precisos do que modelos empı́ricos
ou polinomiais. Além disso, são mais flexı́veis do que tabelas de consulta no que se
refere à problemas multi-dimensionais e são mais fáceis de implementar quando um
novo dispositivo ou circuito é introduzido [7]. Neste tipo de modelagem, as ANNs
são treinadas com dados medidos ou simulados de forma off-line. Uma vez treinados,
os modelos neurais podem ser usados on-line durante a fase de projeto, calculando
de forma eficiente as respostas, ou dados desejados.
Teoricamente, os modelos neurais são do tipo “caixa preta”, onde a precisão
depende dos dados apresentados durante o treinamento. Um bom conjunto de dados
de treinamento, isto é, um conjunto de dados bem distribuı́do, quantitativamente
suficiente e preciso em relação aos dados medidos e/ou simulados, é o requisito básico
para a obtenção de um modelo neural exato [5].
A escolha dos algoritmos de treinamento constitui a parte principal de um modelo
neural. Uma estrutura neural apropriada pode vir a falhar na obtenção de um
modelo desde que o algoritmo de treinamento não seja eficiente. Um bom algoritmo
é aquele que combina baixo custo computacional sem, no entanto, perder sua eficácia.
Nos modelos neurais utilizados na área de microondas e óptica, o algoritmo mais
aplicado é o backpropagation ou retropropagação do erro [1]. No entanto, outros
algoritmos têm sido propostos na literatura para uso nas aplicações acima citadas.
Na aplicação como modelos na área de microondas/óptica, as redes neurais têm
CAPÍTULO 1. INTRODUÇÃO 3
como conexões ou sinapses. Cada conexão tem um peso ou parâmetro livre asso-
ciado. Este peso é usado para amplificar ou atenuar o sinal que chega à conexão.
Os neurônios recebem estı́mulos a partir dos outros neurônios conectados a eles. Os
que recebem sinais de fora da rede são chamados de neurônios de entrada, os que
fornecem sinais para fora da rede são chamados neurônios de saı́da e os que recebem
estı́mulos de outros neurônios são conhecidos como neurônios ocultos. Por sua vez,
diferentes estruturas de redes neurais podem ser construı́das utilizando diferentes
tipos de elementos de processamento e com formas de conexão diferentes [1, 31].
Uma propriedade importante das redes neurais é a sua habilidade para aprender
a partir do ambiente na qual está inserida, ou ambiente de aprendizado, e melhorar
seu desempenho através da aprendizagem [30]. A aprendizagem, conforme Mendel
e Maclaren, é um processo pelo qual os parâmetros livres de uma rede neural são
adaptados através de um processo de estimulação pelo ambiente no qual a rede está
inserida, sendo seu tipo determinado pela maneira na qual se dá a modificação dos
parâmetros livres da rede [33].
Esta forma de funcionamento de uma ANN é responsável não só por sua capaci-
dade de aprendizagem a partir de exemplos, mas principalmente por sua habilidade
para generalizar respostas quando ativada com novos exemplos - uma propriedade
muito difı́cil de se obter a partir de sistemas de computação convencional [26].
atraso unitário
Quanto aos processos de aprendizado das redes neurais, podemos destacar dois
paradigmas principais: aprendizado supervisionado, ou com um “professor”, e o
aprendizado não-supervisionado, ou sem um “professor”. No aprendizado supervi-
sionado, processo utilizado em todo este trabalho, o conhecimento do ambiente é
transferido para a rede neural através de exemplos de entrada-saı́da. O sinal erro é
a diferença entre a resposta desejada e a saı́da da rede. O ajuste dos pesos da rede
é proporcional ao sinal erro. Este tipo de aprendizado é definido de forma mais de-
talhada adiante. No processo não-supervisionado, não existe a figura do “professor”.
O conhecimento é transferido com a ajuda de um “crı́tico” ou através de sistemas
auto-organizáveis [30].
10 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA
Redes Neurais
Redes de Alimentação
Redes Recorrentes
Direta
Figura 2.3: Taxonomia utilizada para as redes de alimentação direta e redes recor-
rentes.
Nas áreas da engenharia de microondas e óptica, o uso das ANNs é motivado por
serem versáteis, apresentarem eficiência computacional, reduzido uso de memória,
estabilidade e uma boa capacidade de aprendizado e generalização [1]. Podem ser
citados ainda outras caracterı́sticas das ANNs [30]:
• Não linearidade. Como suas unidades são não lineares, a rede como um todo
é não linear;
• Mapeamento de Entrada-Saı́da. Através da aprendizagem supervisionada que
será tratada adiante;
• Adaptabilidade. Os pesos são adaptados de acordo com modificações no ambi-
ente;
• Informação Contextual. Cada neurônio é afetado pela atividade de todos os
outros neurônios da rede;
• Tolerância a Falhas. A natureza distribuı́da da rede faz com que ela venha a
suportar falhas em neurônios individuais, sem prejudicar seriamente a resposta;
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 11
x0 wj0
x1 wj1
netj
S j(netj) yj
xi wji
xNi wjNh
Figura 2.4: Modelo de neurônio artifical (perceptron) utilizado nas redes MLPs.
Exemplos de funções de ativação utilizadas nas redes MLPs são a sigmóide, (2.1),
a tangente hiperbólica, (2.2) e a linear,(2.3):
1
ϕ(net) = (2.1)
1 + exp(−net)
12 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA
em que ϕ(r) é uma função contı́nua em (0, ∞) e suas k-ésimas derivadas são com-
pletamente monotônicas em (0, ∞) para todo k. Enquanto as unidades ocultas das
redes MLPs trabalham com o produto interno das saı́das das camadas anteriores
e os pesos, as redes RBFs utilizam uma métrica (||.||) que é, usualmente, a norma
Euclidiana, ou a distância de Mahalanobis. O parâmetro w, para as redes RBFs,
representa o centro ou meio da base radial. Uma das funções de base radial mais
utilizadas é a Gaussiana, (2.5):
1
ϕ(x, w) = exp − 2 ||x − w|| (2.5)
σ
sendo que σ 2 é o desvio padrão (uma medida de espalhamento dos centros) de cada
função de base radial utilizada por cada neurônio da camada oculta da rede RBF.
Do mesmo modo que foi provado para as redes MLPs, Park e Sandberg demons-
traram o teorema da aproximação universal para as redes RBFs [38]. De acordo
com tal trabalho, uma rede RBF com um número suficiente de neurônios na camada
oculta é capaz de aproximar uma função não linear arbitrária, com qualquer grau
de precisão.
Por terem caracterı́sticas diferentes, as redes MLP e RBF apresentam compor-
tamentos diferentes. As MLP constróem aproximações globais para mapeamentos
não lineares de entrada-saı́da. Conseqüentemente elas são capazes de generalizar
em regiões do espaço de entrada nas quais existe pouco ou nenhum conhecimento
do comportamento da resposta esperada. De maneira inversa, as RBF usam não
14 CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA
1 1 sen(||x − w||)
ϕ(x, w) = sample(||x − w||) = (2.6)
σ2 σ 2 ||x − w||
em que x são as entradas, w se refere aos centros das funções sample e σ 2 ao es-
palhamento. Estes parâmetros influenciam significativamente a forma desta função,
fazendo que ela se torne mais flexı́vel no emprego em uma ampla classe de mapea-
mentos não lineares. A escolha da função sample foi originalmente motivada pela
constatação das propriedades da função sinc na reconstrução e processamento de
sinais. Feita a escolha, os outros parâmetros foram adicionados, assim como nas re-
des RBFs. Através da distância euclidiana entre os vetores de entrada x e os centros
w, as funções sample são deslocadas, ao passo que σ 2 determina as suas larguras. A
Figura 2.5 apresenta algumas formas da função sample com variações dos centros e
das larguras.
0.6 (s 2,w)=(3,3)
sample(x) 0.4
0.2 (s 2,w)=(1,9)
-0.2
-0.4
-10 -5 0 5 10
x
Figura 2.5: Formas da função sample com variações dos centros e das larguras.
uma máquina de comitê [30]. As máquinas de comitê podem ser classificadas em:
Neste trabalho, para obtenção dos resultados foi empregada a mistura de es-
pecialistas. O modelo utilizado é composto de três redes: duas especialistas e uma
rede de passagem (saı́da). A Figura 2.6 ilustra graficamente a configuração utilizada.
Duas configurações diferentes para a rede modular são adotadas neste trabalho. No
primeiro caso, as três redes são do tipo SFNN. No segundo caso, as duas redes es-
pecialistas são do tipo RBF e a de saı́da é uma rede MLP. Estas duas configurações
são mostradas na Figura 2.7.
PARÂMETRO
VALOR INICIAL
REDE
ESPECIALISTA 1
REDE
ENTRADA DE SAÍDA
SAÍDA
REDE
ESPECIALISTA 2
PARÂMETRO
VARIÁVEL
PARÂMETRO
VALOR FINAL
Os parâmetros valor inicial, valor final e variável estão relacionados com a região
de interesse definida pelos parâmetros de entrada do modelo. A Figura 2.8 apresenta
um exemplo de região de interesse e os parâmetros utilizados no treinamento da rede
modular.
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 17
PARÂMETRO PARÂMETRO
VALOR INICIAL VALOR INICIAL
SFNN RBF
SFNN RBF
PARÂMETRO PARÂMETRO
VARIÁVEL VARIÁVEL
PARÂMETRO PARÂMETRO
VALOR FINAL VALOR FINAL
(a) (b)
d
Valor Final
+ +
+ +
Valor + +
+ +
Variável
x
Valor Inicial
Região de Interesse
Dados de Treinamento
+ Dados de Teste
Aproximação do Modelo Neural
Generalização do Modelo Neural
x(n) d(n)
Professor
w(n) z(n) - ++
Rede Neural
e(n)
Algoritmo de
Treinamento
1
Ns
E(n) = [e(n)]2 (2.8)
2Ns k=1
Para uma análise geral do treinamento, se utiliza a média dos erros quadráticos
das amostras de todo o conjunto de treinamento. Esta medida, denominada MSE é
dada por:
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 19
1
N
E(t) = E(n) (2.9)
N n=1
1,5 x 1,5 x
1 1
Saída (y)
Saída (y)
0,5 0,5
x x
x x
0 0
x x
(a) (b)
1,5 x
1
Saída (y)
0,5
x
x
0
x
Entrada (x)
(c)
Outro fato que deve ser levado em consideração é a relação entre o erro de treina-
mento, o erro de teste e o número de épocas de treinamento. A Figura 2.11 ilustra
uma curva tı́pica de aprendizado [8]. Embora a minimização do erro de treinamento
seja desejável, deve-se achar o ponto ótimo de minimização das duas curvas de erro
para que não ocorra overlearning nem underlearning. Isto é conseguido através da
monitoração do erro de teste ETe gerado no fim da etapa de treinamento.
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 21
ETr , ETe
ETe
ETe
ETr
Épocas
Ponto de
Melhor Aprendizado
∂E(n) ∂E
∇E(n)|w = = (n) (2.10)
∂w(n) ∂w
em que, E foi definido em (2.8). Especificamente, o valor do ajuste aplicado a cada
peso está no sentido oposto ao do gradiente, pelo fato de que este aponta para a
direção de maior crescimento de uma função. A adaptação dos pesos da rede é
efetuada de uma forma iterativa através da seguinte relação recursiva:
Embora este algoritmo tenha sido concebido para o treinamento de redes MLP,
sua derivação a partir do método do gradiente permite que o mesmo seja estendido
para a adaptação dos parâmetros livres das redes RBF e SFNN, como é mostrado
no capı́tulo posterior.
Embora seja de fácil compreensão, o BP apresenta uma convergência lenta. Ja-
cobs identificou duas causas fundamentais para isto [48]:
A Figura 2.12 mostra que uma má escolha da taxa de aprendizado global e a
influência da magnitude das derivadas em relação a superfı́cie de erro pode aumentar
o tempo de convergência do algoritmo.
Região “Sharp”
D(w)
κ
η(t) = (2.12)
t
em que, κ é uma constante e t é o número da época atual de treinamento. Outras
adaptações para otimização do método do gradiente estão disponı́veis na literatura,
CAPÍTULO 2. REDES NEURAIS ARTIFICIAIS DE ALIMENTAÇÃO DIRETA 23
⎧
⎪ (t) ∂E (t)
⎨ −∆ji ,
⎪ se ∂wji
>0
(t) (t) ∂E (t)
∆wji = +∆ji , se <0 (2.14)
⎪
⎪
∂wji
⎩ 0, demais casos
⎧
⎪ (t−1) ∂E (t) ∂E (t−1)
⎨ η ∗ ∆ji ,
⎪ ∗
+
se ∂w ji ∂w ji
>0
(t) (t) (t−1)
η − ∗ ∆ji ,
(t−1)
∆ji = ∂E
se ∂w ∗ ∂w
∂E
<0 (2.15)
⎪
⎪ ji ji
⎩ (t−1)
∆ji , demais casos
em que, E é o erro médio quadrático de uma época de treinamento t e η + = 1,2 e
η − = 0,5 são constantes escolhidas empiricamente [53].
As equações (2.14) e (2.15) significam que cada vez que a derivada parcial do
erro correspondente muda de sinal, indica que a última atualização foi muito grande,
ou seja, o algoritmo saltou o mı́nimo local. Sendo assim, o valor de adaptação é
diminuı́do pelo fator η − . Se o sinal da derivada permanece o mesmo, indica que
o valor de adaptação deve ser aumentado, acelerando a convergência mesmo em
regiões suaves da superfı́cie de erro [52].
Este algoritmo tem se mostrado robusto quanto a escolha dos parâmetros de
treinamento e eficiente, mesmo se comparado com outros algoritmos similares, como
o BP, o SuperSAB e o QuickProp [46]. Além disso, ele tem sido usado em aplicações
de neuromodelagem no treinamento de redes MLP, RBF e SFNN [26, 27, 28, 39, 54].
A menos que haja outra indicação, o Rprop é o algoritmo de treinamento utilizado
nos modelos neste trabalho.
Capı́tulo 3
1
E(n) = [e(n)]2 (3.3)
2
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 27
y0
x0 w1,0
Ne
w1,Ne
vk,0
wj,0 vk,1
Ne vk,j Nh
xi
wj,i net j = å w j ,i xi y j = j1 (net j ) netk = å vk , j y j z k = j 2 (netk ) zk
i =0 j =0
wj,Ne vk,Nh
wNh,0
wNh,i Ne
net Nh = å wNh ,i xi y Nh = j1 (net Nh )
i =0
xNe wNh,Ne
Figura 3.1: Configuração de uma rede MLP com uma camada de neurônios ocultos
e um neurônio na camada de saı́da.
1
N
M SE = E(n) (3.4)
N n=1
Ne
netj (n) = wji (n)xi (n) (3.5)
i=0
Nh
netk (n) = vkj (n)yj (n) (3.6)
j=0
1
ϕ1 (netj (n)) = , para neurônios na camada oculta (3.7)
1 + exp(−netj (n))
Nh
zk (n) = ϕ2 (netk (n)) = netk (n) = vkj (n)yj (n), k = 1 (3.9)
j=0
1
yj (n) = ϕ1 (netj (n)) = netk (n) = , j = 1 , 2 , ...Nh (3.10)
1 + exp(−netj (n))
Ne
netj (n) = wji (n)xi (n), j = 1 , 2 , ...Nh (3.11)
i=0
x 0 = y0 = θ (3.12)
∂E(n)
∆wji (n) = −η∇wji (n)E(n) = −η (3.15)
∂wji (n)
∂E(n)
∆vkj (n) = −η∇vkj (n)E(n) = −η (3.16)
∂vkj (n)
em que, η é a taxa de aprendizado global.
∂E(n) ∂ 1 ∂zk (n)
= (dk (n) − zk (n)) = −e(n)
2
∂vkj (n) ∂vkj (n) 2 ∂vkj (n)
∂E(n) ∂ 1 ∂zk (n)
= (dk (n) − zk (n)) = −e(n)
2
∂wji (n) ∂wji (n) 2 ∂wji (n)
Nh
∂
= −e(n) vkj (n)yj (n)
∂wji (n) j=0
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
30 GRADIENTE
Nh
∂
= −e(n) vkj (n)ϕ1 (netj (n))
∂wji (n) j=0
∂ϕ1 (netj (n)) ∂ 1
= =
∂netj (n) ∂netj (n) 1 + exp(−netj (n))
de neurônios ocultos, diferente das redes MLP. Além disto, para simplificação da
notação, será considerado apenas um neurônio na camada de saı́da. A Figura 3.2
apresenta a configuração da rede RBF, bem como a notação adotada.
Durante a fase de treinamento é analisado o desempenho através do valor MSE,
(3.4). A atualização dos parâmetros livres é feita objetivando sua minimização.
y0
x1
vk,0
vk,1
vk,j Nh
xi netj = ||x-wj|| yj = j1(netj) netk = å vk , j y j z k = j 2 (netk ) zk
j =0
vk,Nh
xNe
Figura 3.2: Configuração de uma rede RBF com um neurônio na camada de saı́da.
Usando a notação da Figura 3.2 temos que, para um dado exemplo de treina-
mento n, yj (n) = ϕ1 (netj (n)) e zk (n) = ϕ2 (netk (n)) nas quais:
netj (n) = ||x(n) − wj (n)|| = (x(n) − wj (n)) .(x(n) − wj (n)), j = 1 , 2 , ...Nh
Nh
netk (n) = vkj (n)yj (n) (3.24)
j=0
em que, wj não representa mais os pesos da camada oculta, como na rede MLP, e
sim o centro da função de base radial associada a cada neurônio oculto. Este centro é
um vetor, de mesma dimensão que x(n). No entanto, vkj continua representando os
pesos da camada de saı́da. Como mostrado na Figura 3.2, netj e netk são aplicados
às funções ϕ1 (.) e ϕ2 (.) existentes na camada oculta e de saı́da, respectivamente, e
são dadas por:
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
32 GRADIENTE
1
ϕ1 (netj (n)) = exp − 2 netj (n) , para neurônios na camada oculta
σ j (n)
(3.25)
Nh
zk (n) = ϕ2 (netk (n)) = netk (n) = vkj (n)yj (n), k = 1 (3.27)
j=0
1
yj (n) = ϕ1 (netj (n)) = exp − 2 netj (n) (3.28)
σ j (n)
= (x(n) − wj (n)) .(x(n) − wj (n)), j = 1 , 2 , ...Nh (3.29)
y0 = θ (3.30)
∂E(n)
∆wj (n) = −ηw ∇wj (n)E(n) = −ηw (3.34)
∂wj (n)
∂E(n)
∆σ 2 j (n) = −ησ ∇σ 2 j (n)E(n) = −ησ (3.35)
∂σ 2 j (n)
∂E(n)
∆vkj (n) = −ηv ∇vkj (n)E(n) = −ηv (3.36)
∂vkj (n)
em que, ηw , ησ e ηv são as taxas de aprendizado para os centros e larguras (camada
oculta) e pesos (camada linear), respectivamente. A atualização do parâmetro v,
pelo fato de utilizar a mesma função de ativação da rede MLP, é obtida igualmente
à Equação (3.19). Partindo de (3.34) e de (3.35), obtém-se:
yj (n)
= −e(n)vkj (n) [2(x(n) − wj (n))]
σj 2 (n)
(3.37)
yj (n)
∆wj (n) = 2e(n)vkj (n) [(x(n) − wj (n))] (3.38)
σj 2 (n)
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
34 GRADIENTE
yj (n)
wj (n + 1) = wj (n) + 2e(n)vkj (n) [(x(n) − wj (n))] (3.39)
σj 2 (n)
∂ exp − σ2 j1(n) netj (n)
= −e(n)vkj (n)
∂σj 2 (n)
1 ∂ −||x(n) − wj (n)||
= −e(n)vkj (n) exp − 2 netj (n) (3.40)
σ j (n) ∂σ 2 j (n) σ 2 j (n)
Pelo fato de que a rede SFNN é uma variação da rede RBF, as considerações
que foram feitas para esta última também valem para a primeira. A configuração
ilustrada na Figura 3.2 aplica-se igualmente para a SFNN.
Como mostrado na Figura 3.2, netj e netk são aplicados às funções ϕ1 (.) e ϕ2 (.)
existentes na camada oculta e de saı́da, respectivamente, e na rede SFNN são dadas
por:
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 35
1 sen(||x(n) − wj (n)||)
ϕ1 (netj (n)) = , para neurônios na camada oculta
σ2 j (n) ||x(n) − wj (n)||
(3.43)
nas quais, σ 2 representa o espalhamento ou largura das funções de base radial asso-
ciadas a cada neurônio da camada oculta, e w os centros destas funções. Em suma,
os parâmetros a serem otimizados numa rede SFNN, assim como na rede RBF, são
os centros w e as larguras σ 2 .
Nh
zk (n) = ϕ2 (netk (n)) = netk (n) = vkj (n)yj (n), k = 1 (3.45)
j=0
1 sen(netj (n)
yj (n) = ϕ1 (netj (n)) = (3.46)
σ2 j (n) netj (n)
= (x(n) − wj (n)) .(x(n) − wj (n)), j = 1 , 2 , ...Nh (3.47)
y0 = θ (3.48)
em que, ∆w(n), ∆σ 2 (n) e ∆v(n) são os valores de ajuste. De acordo com o método
do gradiente e expandindo as Equações (3.39), (3.42) e (3.51), chegam-se às seguintes
expressões para otimização de tais parâmetros:
∂E(n)
∆wj (n) = −ηw ∇wj (n)E(n) = −ηw (3.52)
∂wj (n)
∂E(n)
∆σ 2 j (n) = −ησ ∇σ 2 j (n)E(n) = −ησ (3.53)
∂σ 2 j (n)
∂E(n)
∆vkj (n) = −ηv ∇vkj (n)E(n) = −ηv (3.54)
∂vkj (n)
em que, ηw , ησ e ηv são as taxas de aprendizado para os centros e larguras (camada
oculta) e pesos (camada linear), respectivamente. A atualização do parâmetro v,
pelo fato de utilizar a mesma função de ativação da rede MLP e da RBF é obtida
igualmente à Equação (3.19). Partindo de (3.52) e de (3.53), obtém-se:
cos(netj (n) yj (n)
∆wj (n) = 2ηw e(n)vkj (n) − (x(n) − wj (n)) (3.56)
σ 2 j (n) netj (n)
cos(netj (n) yj (n)
wj (n + 1) = wj (n) + 2ηw e(n)vkj (n) − (x(n) − wj (n)) (3.57)
σ 2 j (n) netj (n)
−yj (n)
∆σ 2 j (n) = ησ e(n)vkj (n) (3.59)
(σ 2 j (n))2
Obtém-se, portanto, a equação final de ajuste para σ 2 :
−yj (n)
σ 2 j (n + 1) = σ 2 j (n) + ησ e(n)vkj (n) (3.60)
(σ 2 j (n))2
otimização dos pesos em uma rede MLP, ou os centros e larguras, em uma rede RBF
ou SFNN. As equações de ajuste das taxas de aprendizado são dadas por:
∂E(n)
∆ηvj (n) = −δ (3.61)
∂ηvj (n)
∂E(n)
∆ηwji (n) = −δ (3.62)
∂ηwji (n)
em que δ é a taxa de aprendizado proveniente da regra geral do método do
gradiente, em substituição do próprio η que está sendo otimizado. Através de (3.61),
obtém-se:
∂E(n − 1)
vkj (n) = vkj (n − 1) − ηvj (n) (3.64)
∂vkj (n − 1)
∂E(n)
= −e(n) (3.65)
∂zk (n)
∂zk (n)
=1 (3.66)
∂netk (n)
Nh
∂netk (n) ∂
= vj (n)yj (n) (3.67)
∂ηvkj (n) ∂ηvkj (n) j=0
∂E(n) ∂E(n − 1)
∆ηvj (n) = δ (3.69)
∂vj (n) ∂vj (n − 1)
Para a otimização das taxas de aprendizado da camada oculta, parte-se da
equação (3.62), tem-se que:
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
GRADIENTE 39
∂E(n − 1)
wji (n) = wji (n − 1) − ηwji (n) (3.71)
∂wji (n − 1)
∂E(n)
= e(n)(−vkj (n)) (3.72)
∂yj (n)
∂E(n) ∂E(n − 1)
∆ηwji (n) = δ (3.77)
∂wji (n) ∂wji (n − 1)
As equações (3.69) e (3.77) não são utilizadas diretamente como ajuste das taxas
de aprendizado. Suas deduções foram realizadas para justificá-las nas equações pro-
postas por Riedmiller, e que já foram definidas no capı́tulo anterior.
CAPÍTULO 3. DERIVAÇÃO DAS EQUAÇÕES DE AJUSTE A PARTIR DO MÉTODO DO
40 GRADIENTE
Capı́tulo 4
Modelos de Dispositivos de
Microondas
Patch Condutor
Plano Terra
Substrato Dielétrico
A radiação a partir de uma antena de microfita pode ser determinada pela dis-
tribuição do campo elétrico entre o patch e o plano terra ou pela distribuição de
corrente na superfı́cie condutora. Uma análise detalhada do comportamento e do
cálculo da radiação em uma antena de microfita é feita por Garg et al. e Itoh [55, 56].
O primeiro passo no projeto de uma antena de microfita é a escolha de um subs-
trato apropriado. Este é principalmente necessário para o suporte mecânico da parte
metálica. Para isto, o substrato deve consistir de um material dielétrico, o que geral-
mente afeta o desempenho elétrico da antena. Muitos fatores devem ser levados em
consideração na escolha do substrato: permissividade elétrica relativa, tangente de
perdas e sua variação com a temperatura e freqüência, homogeneidade, anisotropia,
flexibilidade, resistência a impactos e tensões, para citar alguns. Os substratos
dividem-se em cinco categorias principais: cerâmicos, semicondutores, ferrimagnéti-
cos, sintéticos e compostos. Os semicondutores, como o silı́cio (Si) ou arseneto de
gálio (GaAs), podem ser utilizados para circuitos passivos e antenas. Entretanto, o
tamanho dos substratos semicondutores disponı́veis restringem seu uso para a faixa
superior de microondas englobando também a faixa de ondas milimétricas [55].
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 43
t Difração de
Reflexão Borda
Total
æ 1 ö
arcsen ç ÷
ç e ÷
è rø
Uma solução para a redução das ondas de superfı́cie foi proposta por Garg et
al. e Almeida et al. [55, 57]. Estes propuseram uma estrutura do tipo PBG na
fabricação do substrato dielétrico. Basicamente, as estruturas PBG são feitas de
materiais dielétricos (ou metais) distribuı́dos periodicamente ao longo de uma região
[57]. Quando estas regiões são submetidas à propagação de ondas eletromagnéticas,
uma caracterı́stica apresentada pelo material é a existência de bandas de freqüência
onde as ondas eletromagnéticas são refletidas e não se propagam no seu interior.
Um exemplo de uma antena de microfita com substrato PBG é ilustrado na Figura
4.3.
44 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS
Substrato
W
Conector para
Alimentação
L
Patch Condutor
Plano Terra
Rede MLP
Algoritmo de Treinamento RProp
Aproximação das curvas W = [20 15 5 2] mm
Neurônios na camada oculta 10
Épocas de treinamento 3000
Exemplos de treinamento 24
Exemplos de teste 1000
MSE final 8, 17E − 006
Tempo total de treinamento 16, 53 s
Tempo de obtenção de saı́da com conjunto de teste 0, 093 s
1.6
1.3
freqüência (GHz)
1.2
W = 2 mm
1.1 5
10
15
1
20
0.9
0.8
35 40 45 50 55 60
L (mm)
Neste caso, o método utilizado para a geração dos dados do conjunto de treinamento
foi o FDTD. Este método é utilizado para solucionar diretamente as equações de
Maxwell no domı́nio do tempo. Apesar de ser um método eletromagnético rigoroso
e preciso, o FDTD apresenta um custo computacional elevado, que, em geral, torna
proibitiva a sua utilização em aplicações CAD [57]. Uma explanação completa sobre
a formulação e aplicações do FDTD é feita por Sadiku [59].
No modelo elaborado, o sinal de controle considerado foi a altura do substrato
h, na faixa de h = [0, 794 0, 953 1, 429 1, 588]mm. A faixa de freqüência (f )
considerada foi de 2,5 a 20 GHz. As entradas da rede são representadas por h e f e
a saı́da por S11 . A configuração da rede modular é apresentada na Figura 4.6. As
principais caracterı́sticas da antena modelada estão contidas na Tabela 4.3.
h=0,794 mm
REDE
ESPECIALISTA 1
RBF
h=1,588 mm
Rede Especialista 1
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva h = 0, 794 mm
Neurônios na camada oculta 15
Épocas de treinamento 10000
Exemplos de treinamento 47
Exemplos de teste 200
MSE final 1, 87E − 004
Tempo total de treinamento 118 s
Tempo de obtenção de saı́da com conjunto de teste 0, 35 s
Rede Especialista 2
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva h = 1, 588 mm
Neurônios na camada oculta 15
Épocas de treinamento 10000
Exemplos de treinamento 46
Exemplos de teste 200
MSE final 1, 478E − 004
Tempo total de treinamento 121, 359 s
Tempo de obtenção de saı́da com conjunto de teste 0, 36 s
-5
S11 (dB)
-10
-15
Figura 4.7: Resposta das redes especialistas 1 e 2 - Antena de microfita com substrato
PBG.
Rede Saı́da
Configuração MLP
Algoritmo de Treinamento RProp
Aproximação da curva h = [0,794 0,9528 1,588] mm
Neurônios na camada oculta 12
Épocas de treinamento 30000
Exemplos de treinamento 139
Exemplos de teste 1000
MSE final 2, 06E − 004
Tempo total de treinamento 885, 063 s
Tempo de obtenção de saı́da com conjunto de teste 1, 75 s
0 0
-5
-5
-10
-10
-15
S11 (dB)
S11 (dB)
-15
-20
-20
-25
-30 -35
2 4 6 8 10 12 14 16 18 20 2 4 6 8 10 12 14 16 18 20
freqüência (GHz) freqüência (GHz)
(a) (b)
-5
-10
S11 (dB)
-15
-20
Dados de Treino - FDTD
Modular RBF/MLP - Aproximação
-25
2 4 6 8 10 12 14 16 18 20
freqüência (GHz)
(c)
Figura 4.8: Respostas da rede modular para: (a) h = 0,794 mm; (b) h = 0,9528
mm; (c) h = 1,588 mm - Antena de microfita com substrato PBG.
-6
-8
S11 (dB)
-10
-12
-14
-16
-18
-20
2 4 6 8 10 12 14 16 18 20 22
freqüência (GHz)
0,07
RBF Simples
0,06 RBF/MLP Modular
MLP Simples
0,05
0,04
MSE
0,03
0,02
0,01
0
5 6 7 8 9 10 11 12 13 14 15 20 30 40 50
# Neurônios na Camada Oculta
Figura 4.10: Análise comparativa dos modelos para a antena de microfita através
das redes RBF, MLP e Modular RBF/MLP.
Itoh et al. propuseram uma nova estrutura PBG para circuitos integrados de
microondas: o uniplanar compact photonic bandgap (UC-PBG) [60]. Esta nova
estrutura consiste em blocos e fendas bi-dimensionais na parte metálica de uma
placa utilizada para confecção de circuitos e dispositivos planares. Neste trabalho,
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 51
esta estrutura foi utilizada como plano terra para linhas de microfita, guias de ondas
coplanares e filtros passa-faixa planares. No entanto, Yang et al. propuseram [61]
esta mesma estrutura para o uso em paredes de uma guia de ondas retangular,
como mostrado na Figura 4.11. Como foi apresentado anteriormente, o material
PBG tem a capacidade rejeitar certas freqüências, nos locais onde sua superfı́cie
varia entre superfı́cies metálicas (vistas pelo circuito como impedâncias) e fendas
(vistas como condições de circuito aberto). Este novo guia de ondas com material
PBG é um candidato promissor como uma estrutura de alimentação em arranjos de
amplificadores quasi-ópticos [61].
z Placas de Cobre
x
Padrões PBG
Placas de Cobre
(a) (b)
Figura 4.11: Guia de ondas UC-PBG: (a) Diagrama esquemático; (b) Material PBG.
r
s
g
p i q
y g
er er
h
x
p
0 1/3 2/3 1
(a) (b)
Figura 4.12: Guia de ondas UC-PBG: (a) Dimensões e locais de medição do campo
elétrico; (b) Dimensões da célula PBG.
x=0
REDE
ESPECIALISTA 1
RBF
x=1
Rede Especialista 1
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva x=0
Neurônios na camada oculta 10
Épocas de treinamento 10000
Exemplos de treinamento 37
Exemplos de teste 1001
MSE final 2, 06E − 006
Tempo total de treinamento 100, 32 s
Tempo de obtenção de saı́da com conjunto de teste 0, 105 s
Rede Especialista 2
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva x=1
Neurônios na camada oculta 10
Épocas de treinamento 10000
Exemplos de treinamento 37
Exemplos de teste 1001
MSE final 1, 138E − 005
Tempo total de treinamento 100, 59 s
Tempo de obtenção de saı́da com conjunto de teste 0, 105 s
-2
-4
Campo Elétrico (dBm)
-6
-8
-10
-12
-14
RBF - Especialista 1
-16
RBF - Especialista 2
-18 Dados de Treino - x = 0
Dados de Treino - x = 1
-20
9 9.2 9.4 9.6 9.8 10 10.2 10.4 10.6 10.8 11
freqüência (Ghz)
Rede Saı́da
Configuração MLP
Algoritmo de Treinamento RProp
Aproximação da curva x = [0 1/3 1]
Neurônios na camada oculta 10
Épocas de treinamento 10000
Exemplos de treinamento 111
Exemplos de teste 1001
MSE final 9, 32E − 005
Tempo total de treinamento 228, 57 s
Tempo de obtenção de saı́da com conjunto de teste 0, 984 s
-2
-4 (a)
-6 (b)
Campo Elétrico (dBm)
-8
( c)
-10
-12
(d)
-14 (a) x = 0
(b) x = 1/4
(c) x = 1/3 Modular RBF/MLP - Generalização
-16
(e) (d) x = 2/3 Modular RBF/MLP - Aproximação
(e) x = 1 Dados de Treino - Medidos
-18
Dados de Teste - Medidos
-20
9 9.2 9.4 9.6 9.8 10 10.2 10.4 10.6 10.8 11
freqüência (Ghz)
Figura 4.15: Resposta da rede modular hı́brida RBF/MLP Rprop - Guia de Ondas
UC-PBG.
CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS 55
0,06
RBF Simples
MLP Simples
MSE 0,04
0,03
0,02
0,01
0
5 6 7 8 9 10 11 12 13 14 15
# Neurônios na Camada Oculta
Figura 4.16: Análise comparativa dos modelos para o guia de ondas UC-PBG através
das redes RBF, MLP e Modular RBF/MLP.
GaAs 100 mm
Plano Terra
12 mm Au
Rede Especialista 1
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva w = 10 µm
Neurônios na camada oculta 2
Épocas de treinamento 1000
Exemplos de treinamento 4
Exemplos de teste 801
MSE final 2, 06E − 006
Tempo total de treinamento 7, 57 s
Tempo de obtenção de saı́da com conjunto de teste 0, 075 s
Rede Especialista 2
Configuração RBF
Algoritmo de Treinamento RProp
Aproximação da curva w = 350 µm
Neurônios na camada oculta 2
Épocas de treinamento 1000
Exemplos de treinamento 4
Exemplos de teste 511
MSE final 1, 138E − 005
Tempo total de treinamento 5, 12 s
Tempo de obtenção de saı́da com conjunto de teste 0, 075 s
w = 10 mm
REDE
ESPECIALISTA 1
RBF
w = 350 mm
Ainda na Figura 4.21 é descrita a saı́da de uma rede MLP simples para a resolução
do mesmo problema. Ela foi elaborada com 6 neurônios ocultos e foi treinada com
as curvas w = [10 20 130 350] µm durante 5000 épocas. Embora tenha atingido
58 CAPÍTULO 4. MODELOS DE DISPOSITIVOS DE MICROONDAS
0.16
0.14
0.12
Perdas (dB/mm)
0.1
0.04
0.02
5 10 15 20 25 30 35 40
freqüência (Ghz)
Figura 4.19: Resposta das redes especialistas 1 e 2 - Linha de microfita com substrato
de GaAs.
{
0.16
w = 10 m m
20 m m
Dados Medidos:
0.14 130 m m
350 m m
RBF/MLP
0.12
Perdas (dB/mm)
0.1
0.08
0.06
0.04
0.02
5 10 15 20 25 30 35 40
freqüência (Ghz)
Figura 4.20: Resposta da rede modular hı́brida RBF/MLP Rprop - Linha de mi-
crofita com substrato de GaAs.
0.08
0.07
0.06
Perdas (dB/mm)
0.05
0.02
5 10 15 20 25 30 35 40
freqüência (Ghz)
f f +df
Luz de
Entrada Luz de
Saída
0 s s+ds d
• Amplificador de fibra
• Amplificador a laser semicondutor
Fibra Dopada
Entrada:
Estado arbitrário lp
de polarização
Saída
LD
Bombeamento
(a)
Transição
Transição
Camada de
Antireflexão
(b)
Figura 5.2: Dois tipos de amplificadores ópticos. (a) Amplificador de fibra. (b)
Amplificador a laser semicondutor.
apropriada de x e y, um laser pode ser projetado para operar em 1,3 µm, faixa não-
dispersiva da fibra, ou projetado para operar em 1,55 µm, onde ocorrem as menores
perdas na fibra. Geralmente, o laser semicondutor é referido como diodo laser ou
simplesmente LD [64].
1
fc (E2 ) = (5.3)
e(E2 −Ec )/kT +1
sendo que a Equação (5.3) pode igualmente ser aplicada para a obtenção da
distribuição de Fermi-Dirac para elétrons na banda de valência, fv .
Como visto, a expressão final para o coeficiente de ganho apresenta um conside-
rável custo computacional e mostra-se dependente de vários outros parâmetros não
considerados aqui, como nı́veis de energia, temperatura e caracterı́sticas intrı́nsecas
CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS 65
Dn=1,2E18 cm-3
REDE
ESPECIALISTA 1
SFNN
ENTRADA REDE SAÍDA
DE SAÍDA
[Dn,hn] SFNN [g0]
REDE
ESPECIALISTA 2
SFNN
Dn=[1,2 1,6 1,8]
E18 cm-3
Dn=1,8E18 cm-3
Rede Especialista 1
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2 × 1018 cm−3
Neurônios na camada oculta 4
Épocas de treinamento 5000
Exemplos de treinamento 35
Exemplos de teste 597
MSE final 1, 2563E − 005
Tempo total de treinamento 66, 18s
Tempo de obtenção de saı́da com conjunto de teste 0, 14s
Rede Especialista 2
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 8 × 1018 cm−3
Neurônios na camada oculta 4
Épocas de treinamento 5000
Exemplos de treinamento 58
Exemplos de teste 1001
MSE final 1, 3648E − 005
Tempo total de treinamento 96, 65s
Tempo de obtenção de saı́da com conjunto de teste 0, 187s
50
Modelo Físico - D n = 1.2E18/cm3
SFNN - D n = 1.2E18/cm3
Coeficiente de Ganho, (cm-1) 0
-50
-100
-150
-200
-250
0.915 0.92 0.925 0.93 0.935 0.94 0.945 0.95 0.955 0.96
Energia de Foton, (eV)
300
Modelo Físico - Dn = 1.8E18/cm3
250 SFNN -Dn = 1.8E18/cm3
Coeficiente de Ganho, (cm-1)
200
150
100
50
-50
-100
-150
0.91 0.92 0.93 0.94 0.95 0.96 0.97 0.98
Energia de Foton, (eV)
Rede Saı́da
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2, 1, 6 e 1, 8 × 1018 cm−3
Neurônios na camada oculta 15
Épocas de treinamento 10000
Exemplos de treinamento 146
Exemplos de teste 190
MSE final 8, 58E − 005
Tempo total de treinamento 505, 3s
Tempo de obtenção de saı́da com conjunto de teste 0, 23s
300
200
Coeficiente de Ganho, (cm-1)
100
0
Dn=1,8E18 cm-3
-100
100
MSE - Erro Medio Quadratico
-1
10
MSE - Erro Medio Quadratico
10-2
10-3
10-4
-5
10
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000
# epocas
Dn=1,2E18 cm-3
REDE
ESPECIALISTA 1
SFNN
ENTRADA REDE SAÍDA
DE SAÍDA
[Dn,hn] SFNN [g0]
REDE
ESPECIALISTA 2
SFNN
Dn=[1,2 1,8 2,0]
E18 cm-3
Dn=2,0E18 cm-3
Tabela 5.6: Informações de treinamento das redes especialistas SFNN para modela-
gem do SLA de GaAs.
70 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS
50
35
30
25
20
15
10
0
1.35 1.36 1.37 1.38 1.39 1.4 1.41 1.42 1.43 1.44 1.45
Energia de Foton, (eV)
350
250
200
150
100
50
0
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Foton, (eV)
Rede Saı́da
Configuração SFNN
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2, 1, 8 e 2, 0 × 1018 cm−3
Neurônios na camada oculta 15
Épocas de treinamento 5000
Exemplos de treinamento 83
Exemplos de teste 132
MSE final 8, 22E − 005
Tempo total de treinamento 135, 1s
Tempo de obtenção de saı́da com conjunto de teste 0, 23s
350
200
150
100
Dn=2,0E18 cm-3
50
0
1,2 1,4 1,6 1,8
-50
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Foton, (eV)
10 -2
10-3
10 -4
-5
10
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000
# epocas
400
Dados de Treino 350
Dados de Teste
350
SFNN Modular - Generalização
300
250
250 200
200 150
150 100
50
100
0
50 2E18
1.8E18
0 1.6E18 1.44
1.38 1.39 1.4 1.41 1.42 1.43 1.44 1.43
1.4E18 1.42
Energia de Foton (eV) Concentração de 1.41
1.4
Portadoras, (cm-3) 1.2E18 1.38 1.39 Energia de Foton, (eV)
(a) (b)
350
Referência - (Saleh e Teich, 1991)
SFNN Modular - Estimação
Valores de Pico do Coeficiente de Ganho, (cm-1)
300
250
200
150
100
50
0
0.8 1 1.2 1.4 1.6 1.8 2
Concentração de Portadoras Injetadas (1E18 cm-3)
Figura 5.14: Estimativa dos valores de pico do coeficiente de ganho do SLA de GaAs
- Rede modular e referência.
Tabela 5.8: Informações de treinamento das redes especialistas RBF para modelagem
do SLA de GaAs.
350
RBF especialista 2 -Dn = 2E18 cm -3
200
150
100
50
-50
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Fóton (eV)
Generalização da RBF/MLP
250
200 Dn = 2E18 cm -3
1.8
150
1.6
100
1.4
50 1.2
-50
1.34 1.36 1.38 1.4 1.42 1.44 1.46
Energia de Foton, (eV)
Rede Saı́da
Configuração MLP
Algoritmo de Treinamento RProp
Aproximação da curva ∆n = 1, 2, 1, 8 e 2, 0 × 1018 cm−3
Neurônios na camada oculta 15
Épocas de treinamento 5000
Exemplos de treinamento 83
Exemplos de teste 132
MSE final 5, 11E − 005
Tempo total de treinamento 44, 76s
Tempo de obtenção de saı́da com conjunto de teste 0, 265s
350
300
Coeficiente de Ganho, (cm-1)
250
200
150
100
50
0
2
1.8
1.6 1.44
1.43
Portadoras Injetadas (1E18 cm-3) 1.4 1.42
1.41
1.4
1.2 1.39
1.38 Energia de Fóton (eV)
350
Referência (Saleh and Teich, 1991)
Estimação da RBF/MLP Modular
300
Pico do Coeficiente de Ganho, (cm-1)
250
200
150
100
50
0
0.8 1 1.2 1.4 1.6 1.8 2
Portadoras Injetadas (1E18 cm-3)
Figura 5.18: Estimativa dos valores de pico do coeficiente de ganho do SLA de GaAs
através da rede RBF/MLP - Rede modular e referência.
76 CAPÍTULO 5. MODELOS DE DISPOSITIVOS ÓPTICOS BASEADOS EM GAAS
Capı́tulo 6
Conclusões
[3] K. C. Gupta and P. S. Hall. Analysis and Design of Integrated Circuit - Antenna
Modules, chapter Preface, 2, pages xi–xiii, 32. John Wiley and Sons, Inc., 2000.
[8] Q. J. Zhang and K. C. Gupta. Neural Networks for RF and Microwave Design.
Artech House, 2000.
81
82 REFERÊNCIAS BIBLIOGRÁFICAS
[9] M. Chai, S. Song, and N. Li. A Review of Some Main Improved Models for
Neural Network Forecasting on Time Series. In Proceedings of Intelligent Vehi-
cles Symposium, pages 866–868. IEEE, Jun. 2005.
[10] J. Hwang, S. Kung, M. Nirajan, and J. C. Principe. The Past, Present and
Future of Neural Networks for Signal Processing. Signal Processing Magazine,
14(6):28–48, Nov. 1997.
[19] R. K. Mishra and A. Patnaik. Designing Rectangular Patch Antenna Using the
Neurospectral Method. IEEE Trans. on Antennas and Propagation, 51(8):1914–
1921, Ago. 2003.
[20] V. Dragos, V. Dan, and R. Kovacevic. Prediction of the Laser Sheet Bending
Using Neural Network. In Proceedings of IEEE Int. Symposium on Circuits and
Systems, volume III, pages 686–689, Switzerland, Maio 2000.
[21] L. Jiusheng and B. Zhenwu. The Neural Network Model of Optical Fiber
Direction Coupler. In Proceedings of IEEE Int. Conf. Neural Networks and
Signal Processing, pages 71–74, 2003.
[23] W. Weis. Processing of Optical Sensor Data for Tool Monitoring with Neural
Networks. In Proceedings of Conference Record WESCON/94, pages 351–355,
Set. 1994.
[37] M. Carlin. Radial Basis Function Networks and Nonlinear Data Modelling. In
Proceedings of Neuro-Nimes’92, pages 623–633, 1992.
[40] P. M. Watson and K. C. Gupta. EM-ANN Models for Microstrip Vias and Inter-
connects in Datasets Circuits. IEEE Trans. Microwave Theory and Techniques,
MTT-44:2495–2503, 1996.
[42] F. Wang and Q. J. Zhang. Knowledge Based Neuromodels for Microwave De-
sign. IEEE Trans. Microwave Theory and Techniques, MTT-45:2333–2343,
1997.
[43] J. E. Rayas-Sanchez. Neural Space Mapping Methods for Modeling and Design
of Microwave Circuits. Tese de doutorado, McMaster University, 2001.
[50] C. Darken, J. Chang, and J. Moody. Learning Rate Schedules for Faster Sto-
chastic Gradient Search. In Proceedings of IEEE Workshop on Neural Network
for Signal Processing, volume 2, pages 3–12, 1992.
[52] M. Riedmiller and H. Braun. A Direct Adaptive Method for Faster Back-
propagation Learning: The RPROP Algorithm. In Proceedings of the IEEE
International Conference on Neural Networks, volume 1, pages 586–591, 1993.
[61] F. Yang, K. Ma, Y. Qian, and T. Itoh. A Novel TEM Waveguide Using Uni-
planar Compact Photonic-Bandgap (UC-PBG) Structure. IEEE Trans. on Mi-
crowave Theory and Techniques, 47(11):2092–2098, 1999.
[62] K. C. Gupta, R. Garg., I. Bahl, and P. Bhartia. Microstrip Lines and Slotlines.
Artech House, 1996.
REFERÊNCIAS BIBLIOGRÁFICAS 87
[64] K. Iizuka. Elements of Photonics. John Wiley and Sons, Inc., 2002.
Overlearning, 20
PBG, 43
Perceptron, 11
Rede MLP
configuração, 11
funções não lineares, 11
88