Você está na página 1de 4

1 Modelo de Mínimos Quadrados Parciais

A pesquisa em Ciência e Engenharia envolve muitas vezes o uso de variáveis (fatores) para explicar, regulamentar, ou prever o comport amento de outras variáveis (respostas). Quando os fatores, também conhecidos como var iáveis independentes, são limitados em número, não colineares, e possuem certa rel ação conhecida com as respostas (ou variáveis dependentes), então um modelo de regressão linear múltiplo poderá ser utilizado. No entanto, se qualquer uma dessas condições não for satisfeita, tal modelo será ineficiente e inapropriado Geladi (1986).

Dentro deste contexto, o modelo de mínimos quadrados (ou em inglês, Partial Least Square - PLS ) é um método utilizado para construir modelos preditivos quando se possui muitas variáveis independentes colineares. É imp ortante destacar que tal método enfatiza a predição das respostas, sem necessariame nte entender a relação entre as variáveis dependentes e independentes.

Segundo Geladi (1986) o PLS é uma técnica que generaliza e combina as características de uma Análise de Componentes Principais e um Modelo de Regressão Múltipla. É particularmente útil quando é necessário predizer uma série de variáveis dependentes a partir de uma grande base de dados de variáveis independentes.

De outra forma, Saigo et al. (2008) diz que o método PLS têm como principal característica a troca das variáveis independentes originais por um sub-conjunto truncado de variáveis latentes dos dados originais. Neste caso, as variáveis latentes podem ser vistas como as projeções das variáveis independentes de entrada e são utilizadas para construir o modelo de regressão relacionan do a entrada à saída.

Já Abdi (2007), considera o PLS como um método estatístico qu e busca encontrar um modelo de regressão linear a partir da projeção das variáveis independentes e

1. Modelo de Mínimos Quadrados Parciais

ii

dependentes a um novo espaço.

Considerando um exemplo geral para a determinação de mais de uma classe de

interesse, seja Y uma matriz de variáveis dependentes de dimensão (n × z) e X a

matriz de variáveis independentes de dimensão (n × m) , onde z é o número de colunas

de Y , m é o número de colunas de X e n é o número de dados de treinamento. Têm-se

a seguinte decomposição de ambas as matrizes utilizando-se o método PLS:

X = TP T +E x = t a p T +E x

a

a

Y = UQ T +E y = u a q T +E y ,

a

a

(1.1)

onde T e U são as matrizes denominadas scores das variáveis X e Y , respectivamente,

P e Q são as matrizes de pesos (ou loadings ) de cada modelo respectivamente, a é o

número de variáveis latentes, e E x e E y são os respectivos resíduos compostos pelas

variáveis latentes descartadas, ou seja, as matrizes que co ntêm a parte não modelada.

Assim, uma relação linear é, então, estabelecida entre os scores de X e Y para

cada variável latente:

u a =b a t a ,

(1.2)

em que b a é o vetor de regressão do modelo linear para cada variável lat ente, obtido

por:

b a = u T

a

t

a

t

T

a

t

a

.

(1.3)

A decomposição das matrizes X e Y , ou seja, o cálculo das matrizes T , U, P e Q,

pode ser realizada através de diversos algoritmos, como o NI PLAS, do inglês, Nonlinear

Iterative Partial Least Squares ou SIMPLS, do inglês, Straightforward Implementation

of Statistical Inspired Modification of the PLS, sendo a principal diferença entre eles

dada pelo tempo de convergência, porém, ambos chegam ao mesm o resultado Abdi

(2007). Neste trabalho, foi utilizado o algoritmo NIPLAS.

O número de variáveis latentes pode ser encontrado de várias maneiras distintas,

1. Modelo de Mínimos Quadrados Parciais

iii

porém, a mais comum é através de um procedimento de validação cruzada, baseada no

menor erro de predição Saigo et al. (2008).

Uma vez obtidas todas as variáveis necessárias, pode-se est imar (predizer) o vetor

de classes (ou classe) Y = TBQ T , onde B é uma matriz cuja diagonal é formada pelos

pesos de regressão do modelo linear para cada variável latente encontrada pela equação

1.3.

ˆ

O treinamento dos modelos de predição de categorias baseado no PLS foi feito

utilizando-se a estratégia de treinamento do modelo SVM (Fi gura 1). No primeiro

método de treinamento também foi utilizado o algoritmo de Pl att para encontrar

a distribuição de probabilidades das classes preditas. Já no segundo, o vetor de

distribuição de probabilidade é obtido diretamente, sendo realizada uma simples

normalização.

diretamente, sendo realizada uma simples normalização. Figura 1: Treinamento adotado para as SVMs. Exemplo

Figura 1:

Treinamento adotado para as SVMs. Exemplo utilizando um vetor de

características formado por duas categorias anteriores para a língua portuguesa.

Referências Bibliográficas

Abdi, H. (2007). Partial Least Squares (PLS) Regression. Thousand Oaks.

Geladi, P. (1986). Partial least-squares regression: a tut orial. Analytica Chimica Acta,

185(1):1–17.

Saigo, H., Krämer, N., e Tsuda, K. (2008). Partial least squa res regression for graph

´

mining. Em KDD 08: Proceeding of the 14th ACM SIGKDD international conference

on Knowledge discovery and data mining, páginas 578–586, New York, NY, USA.

ACM.