Você está na página 1de 6

TÉCNICA DE IDENTIFICAÇÃO DE MODELOS DE SÉRIES TEMPORAIS

Ivette Luna∗, Secundino Soares∗, Rosangela Ballini†



DENSIS–FEEC–UNICAMP
Campinas, São Paulo, Brasil

DTE–IE–UNICAMP
Campinas, São Paulo, Brasil

Emails: iluna@cose.fee.uicamp.br, dino@cose.fee.unicamp.br, ballini@eco.unicamp.br

Abstract— In this paper, a strategy for modelling temporal time series is proposed. The proposed technique
is based on two other approaches, the False Nearest Neighborhood algorithm (FNN), and the Partial Mutual
Information Criterion (PMI). First, an initial set z, of possible inputs is determined via the FNN algorithm.
Then, the PMI criterion is evaluated for each component in z, in order to eliminate redundant information, and
only the most relevant inputs are considered for building an adequate time series model. The methodology is
applied to identify a non-linear model based on artificial neural networks. This model is used for modelling
Brazilian weekly streamflow series, which is an important task for planning and operation activities of water
resources and energy systems. Moreover, the performance of the model proposed is compared with time series
models. Simulation results show the usefulness of the method.
Key Words— False Nearest Neighborhood, Partial mutual information, input selection, time series forecast-
ing, neural networks.

Resumo— Este trabalho apresenta uma técnica de modelagem de séries temporais. A abordagem é baseada no
algoritmo dos Falsos Vizinhos mais Próximos (FNN) e no Critério de Informação Mútua Parcial (PMI). Primeiro,
um conjunto inicial z de possı́veis entradas é determinado através do algoritmo FNN. Logo, o critério PMI é
avaliado para cada componente de z, com o objetivo de eliminar informações redundantes e apenas utilizar as
variáveis de maior relevância para o modelo de série temporal. A proposta é aplicada na identificação de um
modelo não-linear baseado em redes neurais artificiais. O modelo obtido é utilizado na previsão de uma série
de vazões semanais do Brasil, a qual é uma tarefa importante e necessária para as atividades de planejamento e
operação dos recursos hı́dricos e energéticos do paı́s. Além disso, o desempenho do modelo é comparado com um
modelo estocástico para previsão. Os resultados ilustram a eficiência do método proposto.

Key Words— Falsos Vizinhos mais Próximos, Informação Mútua Parcial, seleção de entradas, previsão de
séries temporais, redes neurais.

1 Introdução pouca importância. Outra forma de determinar as


variáveis de entrada é através de critérios de in-
A área de identificação de sistemas é tratada, formação tais como de informação Bayesiana, de
muitas vezes, como um problema de otimização Akaike ou Minimum Description Lenght, os quais
que envolve algumas medidas para adequação de combinam a variância residual e a ordem do mod-
modelos matemáticos candidatos a representar um elo, para estabelecer a necessidade de adequação
processo real, sendo que a seleção de modelos e o do modelo com princı́pio da parcimônia (Haber e
ajuste dos parâmetros são influenciados por diver- Unbehauen, 1990) (Ljung, 1999).
sos fatores, tais como: (i) conhecimento a priori No caso de modelos paramétricos não-
do sistema (linearidade, grau de não-linearidade, lineares, como redes neurais artificiais, a escolha
atrasos); (ii) propriedades do modelo (complexi- do número de entradas define parcialmente a es-
dade); (iii) seleção da medida de erro a ser mini- trutura da rede, conduzindo a modelos mais com-
mizada; (iv) presença de ruı́dos (Johansson, 1993), plexos à medida que o número de entradas au-
(Coelho e dos Santos Coelho, 2004). menta (Narendra e Parthasarathy, 1990). Além
Este trabalho se concentra na determinação disso, quanto maior o número de entradas, maior
da estrutura do modelo matemático para previsão será o número de parâmetros a serem ajusta-
de séries temporais. Com este propósito, o pro- dos, aumentando a complexidade computacional,
cesso de identificação das variáveis que definem o perı́odo de treinamento, e diminuindo o de-
um sistema é uma das etapas mais importantes na sempenho do modelo, devido a inclusão de en-
construção de um modelo, pois este deve represen- tradas pouco relevantes e ao aumento do número
tar de maneira eficiente a dinâmica do sistema e, de mı́nimos locais na superfı́cie de erro (Zheng e
no caso especı́fico de previsão de séries temporais, Billings, 1995).
encontrar um eficiente modelo de previsão, con- Quando se trata de problemas lineares, a
siderando sempre os objetivos da análise da série. análise do sistema através de medidas de relações
As variáveis de entrada de um modelo são es- lineares, como critérios de informação ou coe-
colhidas através de informação conhecida a priori ficiente de correlação serão suficientes (Sharma,
ou de forma empı́rica, via tentativa e erro, acar- 2000). Se o sistema envolve relações não-lineares,
retando na escolha de variáveis redundantes ou de como acontece na maioria dos problemas reais,
uma aproximação linear pode fornecer como re- temas representados por:
sultado modelos pouco eficientes. Assim, se faz
y(t) = G[y(t − τ ), y(t − 2τ ), . . . , y(t − pτ )] (1)
necessário utilizar medidas que considerem es-
tas caracterı́sticas na escolha das variáveis, para sendo G uma função desconhecida que descreve o
definir os estados associados, ou pelo menos, a sistema, τ os atrasos e p o número de entradas.
maior parte destes. Contudo, nada garante que entre estas p entradas
Este trabalho apresenta uma combinação de não exista redundância ou entradas pouco impor-
duas abordagens da literatura, para a seleção de tantes para a construção de um modelo para G,
entradas para os modelos de previsão de séries pois conta-se unicamente com um conjunto ou
temporais. O algoritmo dos Falsos Vizinhos mais série de dados.
Próximos (False Nearest Neighbors - FNN), inspi- Este algoritmo foi desenvolvido como alterna-
rado no Teorema de Takens (Takens, 1981), de- tiva para determinar o menor número de atrasos
termina o número mı́nimo de atrasos necessários possı́veis p a serem utilizados, com a finalidade de
para representar cada um dos dados da série. Já o determinar a saı́da y(t) diretamente de um con-
critério de Informação Mútua Parcial (Partial Mu- junto de dados que representa a trajetória do sis-
tual Information - PMI) determina os atrasos rel- tema.
evantes e não necessariamente consecutivos, que A reconstrução do espaço de estado é inspi-
forneçam a maior quantidade de informação do rada no Teorema de Imersão de Takens (Takens,
sistema, para reconstruir a série, a partir de um 1981), que permite reconstruir um espaço de es-
número mı́nimo de entradas. A quantidade de in- tado p-dimensional similar ao espaço de estado
formação que cada entrada armazena é represen- original d-dimensional, a partir de uma única var-
tada pelo valor da informação mútua parcial asso- iável de estado, ou seja, a variável medida.
ciada. Ambos algoritmos são combinados, visando Para uma dada dimensão p muito pequena,
obter o menor número de entradas possı́veis, sem tem-se que, pontos próximos no espaço p-
comprometer o desempenho do modelo de pre- dimensional podem parecer próximos devido à
visão. projeção e não pela dinâmica do sistema. As-
O algoritmo proposto é aplicado na con- sim, embora estes pontos estejam próximos, as
strução de um modelo neural de previsão de suas saı́das podem ser bastante diferentes. Estes
vazões semanais. A previsão de vazões aflu- pontos que aparentam ser próximos são denomina-
entes, tanto semanais como mensais para os reser- dos de “falsos vizinhos” (Rhodes e Morari, 1997).
vatórios de diferentes regiões do Brasil, é uma Se p é suficientemente grande para representar a
tarefa necessária para efetuar a programação men- dinâmica do sistema, então os pontos próximos
sal da operação energética do Setor Elétrico, a sempre terão saı́das próximas. Neste caso, avalia-
qual vem sendo realizada pelo ONS. É por este se se um vizinho é “verdadeiro” ou “falso” apenas
motivo que é interessante aprimorar modelos de em virtude da projeção do sistema em uma deter-
previsão baseados em redes neurais, através da minada dimensão.
seleção das entradas, a modo de obter modelos
eficientes e compactos, sem comprometer o desem- 2.1 Algoritmo FNN
penho dos mesmos. Matemáticamente, o algoritmo FNN pode ser de-
A seguir é apresentado o Algoritmo (FNN). scrito como segue:
Na seção 3 o critério de Informação Mútua Parcial 1. Dada uma dimensão p, para cada ponto
(PMI) é descrito. A combinação das duas abor- z(k) = [y(k − τ ), . . . , y(k − pτ )], com k =
dagens é resumida na seção 4. Os resultados de 1, . . . , N , determinar o ponto mais próximo
simulação são descritos na seção 5, onde a pro- z(j), denominado de vizinho.
posta é aplicada na construção de um modelo neu-
ral de previsão de vazões semanais. Além disso, 2. Determinar se a seguinte expressão é ver-
nesta seção é feita a comparação do desempenho dadeira:
do modelo neural com o modelo PREVIVAZ, us- |y(k) − y(j)|
ado pelo setor elétrico brasileiro para previsão de ≤R (2)
kzp (k) − zp (j)k2
vazões semanais. As conclusões são apresentadas
na seção 6. sendo k·k2 a distância euclidiana e R um lim-
iar previamente definido. (Rhodes e Morari,
1997) mostram que, para valores de R no in-
2 Falsos Vizinhos mais Próximos (FNN) tervalo [10, 30], o número de falsos vizinhos se
mantém quase constante. Nesse mesmo tra-
O algoritmo FNN foi inicialmente proposto com balho, critérios teóricos de seleção deste lim-
o objetivo de determinar a dimensão de imer- iar podem ser encontrados. Se a Eq. (2) é
são mı́nima para reconstruir o espaço de esta- verdadeira, então, zp (j) é um verdadeiro vi-
dos d-dimensional, a partir de dados observados zinho. Caso contrário, zp (j) é um falso vizi-
(Abarbanel e Kennel, 1993), para tipos de sis- nho.
3. Após determinar os vizinhos para cada ponto, estimar de forma precisa x0 e y 0 (Sharma, 2000),
calcular o percentual de pontos com falsos (Bowden et al., 2005).
vizinhos. Em (Sharma, 2000) foi assumida uma dis-
tribuição normal dos dados para aproximar as
4. Continuar o algoritmo, com p = p + 1 para probabilidades. Já em (Bowden, 2003) foi pro-
cada iteração, até que o percentual de fal- posto a utilização de uma rede neural de re-
sos vizinhos seja zero ou um valor pequeno gressão (Specht, 1991) para estimar os valores
aceitável. condicionais esperados.
Para eliminar as variáveis menos relevantes do Neste trabalho é utilizada a função de kernel
conjunto inicial gerado pelo algoritmo FNN, este do tipo city-block ou distância absoluta para esti-
trabalho propõe a aplicação do Critério de Infor- mar as funções de probabilidades marginais e con-
mação Mútua Parcial, descrito a seguir. juntas, assim como na aproximação dos valores es-
perados condicionais, através de estimadores não
paramétricos de Nadaraya-Watson (Scott, 1992),
3 Informação Mútua Parcial (PMI)
(Luna et al., 2006).
A informação mútua é uma medida bastante us- Utilizando a função distância absoluta nas
ada para análise de dependência estocástica de aproximações, não é necessário assumir nenhum
variáveis aleatórias discretas (Cover e Thomas, tipo de distribuição dos dados, como considerado
1991), (Soofi, 2000). Este critério fornece uma me- em (Akaho, 2002) ou em (Sharma, 2000). Além
dida do grau de dependência entre variáveis, sendo disso, elimina-se a necessidade de calcular as re-
um indicador importante na análise de séries tem- spectivas matrizes de covariança e as suas inversas.
porais. Assim, se duas variáveis são indepen- Seja r(x) = E(Y |X = x). Uma aproximação
dentes, o critério de informação mútua será zero, de r(x) é definida por (Scott, 1992):
se duas variáveis são fortemente dependentes, a
N
informação mútua terá um valor alto. X
A informação mútua pode também ser consid- r̂(x) = wλx (x, xi )yi (5)
i=1
erada como uma medida da quantidade de infor-
mação armazenada em uma variável com relação sendo,
a outra, sendo por este motivo, interessante na es-
colha de entradas para modelos de sistemas não- Kλ (x − xi )
wλx (x, xi ) = PN x (6)
lineares, principalmente de redes neurais, onde j=1 Kλx (x − xj )
o processo de aprendizado pode ser considerado
como um mecanismo de extração de conhecimento e Kλx (x − xi ) a função de kernel para x. Diversos
(Zheng e Billings, 1995). tipos de funções de kernel podem ser encontrados
O critério de informação mútua parcial (PMI) em (Silverman, 1986).
proposto por (Sharma, 2000), é uma medida da re- Sejam N amostras [x(k), y(k)], k = 1, . . . , N ,
dução da incerteza em y devido ao conhecimento com x(k) sendo uma variável de entrada e y(k)
de x, ou seja, o PMI mede a informação mútua a correspondente saı́da que, sem perda de gen-
entre a variável independente x e a variável de- eralidade, neste caso é um escalar. O estimador
pendente y, a partir de um conjunto de entradas não-paramétrico de densidade de probabilidade é
z previamente selecionado. Dado que z existe, é dado por:
necessário extrair a influência de z dos dados, para
N N
calcular a real contribuição de x.
µ ¶
1 X x − xi 1 X
Assim, a formulação discreta do PMI é dada fˆ(x) = K = Kλ (x − xi )
N λ i=1 λ N i=1
por: (7)
N no qual Kλ (t) é a função de kernel, e λ é o
f (x0i , yi0 )
· ¸
1 X
PMI = loge (3) parâmetro de dispersão.
N i=1 fx (x0i )fy (yi0 ) Como discutido em (Bowden et al., 2005), uti-
lizando a função distância absoluta como função
na qual:
de kernel, a Eq. (7) pode ser re-escrita como:
x0i = xi − E(xi |z) yi0 = yi − E(yi |z) (4) N Y p
1
fˆx (x) =
X
sendo x0i e yi0 os valores residuais correspondentes exp−|xj −xij |/λ (8)
N (2λ)p i=1 j=1
ao i−ésimo par de dados e E(·) o valor esperado
associado. As definições dadas na Eq. (4) garan- ou seja,
tem que as variáveis x0 e y 0 representem a infor-  
mação restante, uma vez que o efeito das entradas N p
1 1
fˆx (x) =
X X
escolhidas presentes em z foi considerado. exp − |xj − xij |
N (2λ)p i=1 λ j=1
Para o cálculo do PMI, é necessário ter uma
boa estimativa do valor esperado E(·), para assim, (9)
sendo p a dimensão de cada xi , i = 1, . . . , N . O 2. Aplicar o algoritmo PMI, tendo como con-
parâmetro de dispersão λ é calculado por: junto inicial de possı́veis entradas, o conjunto
µ ¶1/(p+4) obtido no passo anterior.
4
λ= N −1/(p+4) (10)
p+2 5 Aplicação do Algoritmo FNN-PMI
Embora Eq. (10) seja uma estimação de λ con- Nesta seção, o algoritmo FNN-PMI é aplicado a
siderando uma distribuição normal, esta é ampla- uma série temporal para a seleção das entradas
mente utilizada na literatura, devido à sua eficiên- de um modelo de rede neural. Posteriormente,
cia e simplicidade (Bowden et al., 2005). os parâmetros do modelo identificado serão ajus-
Finalmente, a aproximação da probabilidade tados, com o intuito de se realizar previsão um
conjunta de x e y é dado por (Akaho, 2002): passo a frente.
N
O algoritmo proposto é usado na análise
1 X x − xj y − yj de dados de vazões afluentes semanais da usina
fˆxy (x, y) = Kλ ( )Kλy ( ) (11)
N i=1 λ λy de Furnas, localizada na bacia do Rio Grande,
região sudeste do Brasil, os quais compõem uma
sendo λy o parâmetro de dispersão associado à série histórica que abrange o perı́odo a partir da
função de kernel para y. primeira semana de Janeiro de 1931 à última se-
Uma vez que as funções de probabilidades e mana de Dezembro de 2000.
valores esperados são definidos, é necessário es- Como o objetivo desta seção consiste tanto
tabelecer um critério de parada. Como uma al- em identificar, estimar os parâmetros e realizar a
ternativa à construção de um limiar de confiança, previsão, o conjunto de dados foi dividido em dois
pode-se estabelecer um mı́nimo de PMI (limiar), subconjuntos: um conjunto de treinamento, us-
para aceitar a entrada avaliada. Caso o valor do ado para a identificação e estimação do modelo; e
PMI seja menor a este valor mı́nimo estabelecido, um conjunto de teste, usado para a previsão. O
a entrada é rejeitada. Neste caso, uma visualiza- conjunto de teste corresponde ao perı́odo a partir
ção gráfica facilita a análise. da semana 45 (primeira de Novembro) do ano de
1999 até a semana 17 (última de Abril) do ano
3.1 Algoritmo PMI 2000. Para tal, o conjunto de treinamento corre-
O algoritmo para selecionar as entradas para mod- sponde ao histórico de dados até a semana anterior
elar um sistema, utilizando o algoritmo PMI, é à previsão (Janeiro/1931 a Outubro/1999).
resumido nos passos seguintes:
5.1 Identificação e Estimação do Modelo Neural
1. Construir um conjunto de possı́veis entradas
ao sistema, denominado z∗ . Definir o con- O algoritmo FNN-PMI foi aplicado para a con-
junto de entradas selecionadas como z = 0; strução de um modelo neural multicamadas
(MLP), sendo os parâmetros do modelo ajusta-
2. Calcular o PMI entre cada uma das variáveis dos via o algoritmo de retropropagação do erro.
em z∗ e y, dado que existe um conjunto de en- Neste caso, a análise da série foi feita assumindo a
tradas já selecionadas z, utilizando a Eq. (3); construção de um único modelo de previsão para
a série de vazões semanais.
3. Identificar a entrada com o maior PMI; Inicialmente o algoritmo FNN é aplicado a
4. Estimar o limiar de confiança para a entrada série de dados para a determinação do conjunto
selecionada; inicial de entradas para o critério PMI. A Figura
1 ilustra o logaritmo do número de falsos vizinhos
5. Se o PMI da entrada for superior ao limiar obtidos a medida que o número de atrasos é incre-
pré-definido para o PMI, incluir a entrada em mentado ao conjunto inicial de possı́veis entradas.
z e retirá-la de z∗ . Caso contrário, fim do Observa-se que, para um número de atrasos igual
algoritmo. a 7, o número de falsos vizinhos é zero ou próx-
imo a zero, sendo portanto, o conjunto inicial para
6. Repetir os passos 2-5 tantas vezes quanto
o algoritmo PMI, composto pelos sete primeiros
necessário.
atrasos da série. Nesta figura foi considerado o
logaritmo para que fosse possı́vel a visualização do
4 Algoritmo FNN-PMI resultado da aplicação do algoritmo FNN, já que
A metodologia proposta neste trabalho para a se- o número de dados para identificação corresponde
leção das entradas a serem utilizadas pelos mode- a 3580 semanas.
los de previsão é como segue: Após a obtenção do conjunto inicial z, utiliza-
se o algoritmo PMI para a determinação das atra-
1. Aplicar o algoritmo FNN sobre a série de da- sos relevantes para a identificação do modelo. A
dos, para assim, obter um conjunto inicial de Figura 2 ilustra os valores de PMI obtidos para
entradas z. cada atraso do conjunto inicial de entradas. O
9
taxa de aprendizado foi igual a 0,25 e o número
8
máximo de iterações igual a 1000.
7
É interessante observar que a utilização do
6
critério PMI para podar o conjunto de entradas
selecionado inicialmente pelo algoritmo FNN con-
Log(Num. Falsos Vizinhos)

duz a construção de modelos neurais de previsão


4

com menor número de parâmetros a serem ajusta-


dos e, portanto, menor número de mı́nimos locais
3

2
na superfı́cie de erro. Além disso, o algoritmo PMI
1
fornece as entradas, de acordo com a relevância
0
0 2 4 6
atrasos
8 10 12 destas na identificação da dinâmica da série.

Figura 1: Logaritmo do número de falsos vizinhos


5.2 Previsão e Análise do Desempenho
para cada atraso.
Após o ajuste do modelo neural, segue a fase
de previsão no perı́odo da primeira semana de
limiar para decidir se uma entrada é relevante ou Novembro de 1999 até a última semana de Abril
não para a modelagem da série temporal foi esta- de 2000 (total de 45 semanas). Este perı́odo cor-
belecido como sendo igual a 0,05, e é representado responde ao perı́odo de cheia, onde os dados ap-
pela linha tracejada. A Tabela 5.1 apresenta os resentam maior variabilidade.
valores de PMI ilustrados na Figura 2. Os resultados obtidos são comparados aos
do modelo PREVIVAZ (modelo estocástico de
previsão de vazões semanais), utilizado pelo se-
tor elétrico brasileiro e desenvolvido pelo Cen-
0.25

tro de Pesquisas em Energia Elétrica - CEPEL


0.2
(CEPEL, 1997).
O sistema PREVIVAZ consiste no ajuste de
94 modelos com diferentes combinações de séries
PMI

0.15

0.1
temporais, estrutura estacionária ou periódica,
métodos de estimação de parâmetros e diferentes
0.05 transformações, selecionando o melhor modelo
dentre os 94 para realizar a previsão de vazões
semanais (Ballini et al., 2005).
0
0 1 2 3 4 5 6 7 8
atrasos

A análise do desempenho dos modelos de


Figura 2: PMI para o conjunto de atrasos sele-
previsão foi avaliada através da raı́z do erro
cionados via FNN.
quadrático médio (REQM), erro absoluto médio
(EAM), erro relativo percentual médio (ERM(%))
Tabela 1: Valores de PMI para o conjunto de pos- e erro relativo percentual máximo (ERmax(%)).
sı́vies entradas determinado via o algoritmo FNN. A Tabela 2 mostra os erros obtidos para os
Entrada PMI modelos MLP e PREVIVAZ. Analisando a tabela,
1 0,2849 pode-se observar que o modelo MLP, com entradas
7 0,1539 ou regressores selecionados via o algoritmo FNN-
4 0,1219 PMI, apresentou um desempenho eficiente quando
2 0,0873 comparado ao modelo de previsão PREVIVAZ.
5 0,0554 Ainda deve ser observado que foi ajustado um
6 0,0431 único modelo neural MLP para a previsão da série
3 0,0353 de vazões semanais, enquanto que o modelo PRE-
VIVAZ seleciona, dentre os 94 modelos ajustados
para cada semana, o que apresenta melhor desem-
Observa-se que, os atrasos de maior relevância penho no conjunto de validação.
para a construção de um modelo de previsão para
Tabela 2: Erros Globais de Previsão.
a série em estudo são os atrasos 1, 7, 4, 2, e 5. Já Modelo REQM EAM ERM ERmax
a contribuição dos atrasos 6 e 3 não é significativa, (m3 /s) (%) (%)
ou seja, os valores do PMI para esses atrasos são MLP 620,48 370,51 31,65 137,05
inferiores ao limiar de PMI previamente estabele- PREVIVAZ 747,66 471,50 40,90 156,70
cido.
O próximo passo consiste na estimação dos 6 Conclusões
parâmetros da rede neural. A rede neural ajus-
tada tem uma camada intermediária com 10 Neste trabalho foi proposto o algoritmo FNN-PMI
neurônios e função de ativação sigmóide. Na ca- para determinar as entradas de um modelo de pre-
mada de saı́da a função de ativação é linear. A visão de séries temporais. A proposta surge da
combinação de duas abordagens: os algoritmos Haber, R. e Unbehauen, H. (1990). Structure
FNN e PMI. Primeiro, um conjunto inicial de en- identification of nonlinear dynamic systems
tradas é definido pelo algoritmo FNN. Logo, este – a survey on input/output approaches, Au-
conjunto é analisado utilizando o critério PMI. tomatica 26: 651–677.
No final do processo, as entradas com maior grau
de relevância são escolhidas e utilizadas na con- Johansson, R. (1993). System Modeling and Iden-
strução dos modelos de previsão. tification, Prentice-Hall, Upper Saddle River,
Além disso, o algoritmo FNN-PMI foi apli- NY.
cado na modelagem de um modelo neural MLP, Ljung, L. (1999). System Identification: The-
para a previsão de vazões semanais da usina de ory for the User, Prentice-Hall, Upper Saddle
Furnas. O desempenho do modelo de previsão River, NJ.
foi comparado com o modelo estocástico PRE-
VIVAZ, usado pelo setor elétrico brasileiro. O Luna, I., Soares, S. e Ballini, R. (2006). Partial
desempenho da rede neural foi superior ao de- Mutual Information Criterion For Modelling
sempenho do modelo PREVIVAZ, com erro rel- Time Series Via Neural Networks. The 11th
ativo percentual médio 22% menor que o modelo Information Processing and Management of
estocástico. Uncertainty in Knowledge-Based Systems -
Agradecimentos IPMU’06.

Os autores agradecem à Fundação de Ampara à Narendra, K. e Parthasarathy, K. (1990). Iden-


Pesquisa do Estado de São Paulo (FAPESP), ao tification and Control of Dynamical Systems
Conselho Nacional de Desenvolvimento Cientı́fico using Neural Networks, IEEE Transactions
e Tecnológico (CNPq) e à Financiadora de Estu- on Neural Networks 1(1): 4–27.
dos e Projetos (FINEP), pelo auxı́lio. Rhodes, C. e Morari, M. (1997). False-nearest-
Referências neighbors algorithm and noise-corrupted
time series, Physical Review E 55(5): 6162–
Abarbanel, H. D. I. e Kennel, M. B. (1993). Lo- 6170.
cal false nearest neighbors and dynamical di-
Scott, D. W. (1992). Multivariate Density Esti-
mensions from observed chaotic data, Physi-
mation: Theory, Practice an Visualization,
cal Review E 47: 3057–3068.
John Wiley & Sons Inc.
Akaho, S. (2002). Conditionally independent com-
Sharma, A. (2000). Seasonal to internannual rain-
ponent analysis for supervised feature extrac-
fall probabilistic forecasts for improved wa-
tion, Neurocomputing 49: 139–150.
ter supply management: Part 1 – A strategy
Ballini, R., Soares, S., Guilhon, L. G. F. e Gomide, for system predictor identification, Journal of
F. (2005). Previsão de Vazões Semanais Uti- Hydrology (239): 232–239.
lizando Redes Neurais Nebulosas. Congresso
Silverman, B. W. (1986). Density Estimation for
Brasileiro de Redes Neurais - CBRN’05.
Statistics and Data Analysis, Chapman and
Bowden, G. J. (2003). Forecasting Water Re- Hall.
sources Variables Using Artificial Neural Soofi, E. S. (2000). Principal information theoretic
Networks, Phd Thesis, University of Ade- approaches, Journal of the American Statis-
laide, Australia. tical Association pp. 1349–1353.
Bowden, G. J., Maier, H. R. e Dandy, G. C. Specht, D. F. (1991). A General Regression Neu-
(2005). Input determination for neural net- ral Network, IEEE Transactions on Neural
work models in water resources applications. Networks 2(6): 568–576.
Part 1–background and methodology, Jour-
nal of Hydrology (301): 75–92. Takens, F. (1981). Detecting strange attrac-
tors in turbulence, Proceedings of Dynamical
CEPEL (1997). Modelo de Previsão de Vazões Systems and Turbulence - Lecture Notes in
Semanais Aplicado ao Sistema Hidroelétrico Mathematics 898: 366–381.
Brasileiro - PREVIVAZ. Relatório Técnico,
número 125/97. Zheng, G. L. e Billings, S. A. (1995). Radial
Basis Function Network Configuration Us-
Coelho, A. A. R. e dos Santos Coelho, L. (2004). ing Mutual Information and the Orthogonal
Identificação de Sistemas Dinâmicos Lin- Least Squares Algorithm, Neural Networks
eares, Editora da UFSC. 9(9): 1619–1637.
Cover, T. e Thomas, J. (1991). Elements of In-
formation Theory, John Wiley & Sons.

Você também pode gostar