Você está na página 1de 136

Universidade Federal do Cear UFC

Departamento de Engenharia de Teleinformtica


Programa de Ps-Graduao em Engenharia de Teleinformtica

Davyd Bandeira de Melo

ALGORITMOS DE APRENDIZAGEM PARA APROXIMAO DA CINEMTICA


INVERSA DE ROBS MANIPULADORES: UM ESTUDO COMPARATIVO

Fortaleza/CE
2015
Davyd Bandeira de Melo

ALGORITMOS DE APRENDIZAGEM PARA APROXIMAO DA CINEMTICA INVERSA


DE ROBS MANIPULADORES: UM ESTUDO COMPARATIVO

Dissertao submetida Coordenao do


Curso de Ps-Graduao em Engenharia de
Teleinformtica, da Universidade Federal do
Cear, como parte dos requisitos exigidos
para obteno do grau de Mestre em Enge-
nharia de Teleinformtica.

Prof. Dr. Guilherme de Alencar Barreto

Fortaleza/CE
2015
Dados Internacionais de Catalogao na Publicao
Universidade Federal do Cear
Biblioteca de Ps-Graduao em Engenharia - BPGE

M477a Melo, Davyd Bandeira de.


Algoritmos de aprendizagem para aproximao da cinemtica inversa de robs manipuladores: um
estudo comparativo / Davyd Bandeira de Melo. 2015.
133 f. : il. color.

Dissertao (mestrado) Universidade Federal do Cear, Centro de Tecnologia, Departamento de


Engenharia de Teleinformtica, Programa de Ps-Graduao em Engenharia de Teleinformtica,
Fortaleza, 2015.
rea de concentrao: Sinais e Sistemas.
Orientao: Prof. Dr. Guilherme de Alencar Barreto.

1. Teleinformtica. 2. Redes neurais. 3. Mquinas - Aprendizagem. 4. Cinemtica. I. Ttulo.

CDD 621.38
UNIVERSIDADE FEDERAL Do CEARA
CENTRO DE Th'CNOLOGIA
PROGRAMA DE PS-GRADUAOEM ENGENHARIADE TELEJNFORMTICA
CAMPUS DO PIC', CAIXA POS"AI, "7 CEP 1.738-640
FORTALEZA - - BRASIL
FONE (+55)85 3366-9467- FAX (+55)85 3366-9468

DAVYD BANDEIRA DE MELO

ALGORITMOS DE APRENDIZADODE MQUINASPARA APROXIMAO


DA CINEMTICA INVERSA DE ROBS MANIPULADORES:UM ESTUDO
COMPARATIVO

Dissertao submetida Coordenao do Programa de Ps-


Graduao em Engenharia de Teleinformtica, da Universidade
Federal do Cear, como requisito parcial para a obteno do grau
de Mestre em Engenharia de Teleinformtica.
rea de concentrao: Sinais e Sistemas.

Aprovada em: 06/07/2015.

BANCA EXAMINADORA

clx
Prof. Dr. GUI ERME DE ALENCAR BARRETO (Orientador)
Universidade Federal do Cear

Ero
rof. r. ANSELMOFRIZERA NETO
Universidade Federal do Esprito Santo

Prof. Dr. UZUI RIPARDO DE ALEXANDRIA


Instituto Federal de Educao, Cincia e Tecnologia do Cear
Este trabalho dedicado minha famlia,
que sempre me ajudou e incentivou a trilhar uma vida
aplicada aos estudos.
Agradecimentos

Agradeo primeiramente a Deus por todas as oportunidades e benos concedidas.


Certamente, Ele foi o maior responsvel por iluminar o caminho, retirando obstculos
muitas vezes considerados intransponveis.
Agradeo a minha famlia, especialmente as minhas mes Maria Serly Bandeira
Bezerra e Cndida Maria Bandeira Bezerra, pelo amor incondicional, pela dedicao e por
toda educao que no se encontra em nenhum livro. Elas constituem os pilares da minha
vida e os maiores exemplos de carter e superao que conheo. Fao delas um espelho
todos os dias.
Agradeo ao amor da minha vida, Samara Semio Freitas, pelo amor, compreenso,
confiana e cumplicidade. Nos momentos em que mais precisei, ela sempre esteve l, me
aconselhando, incentivando e sendo, certamente, a maior fonte inspiradora no apenas
desta dissertao mas de toda minha vida. Sua presena possibilitou uma trajetria leve,
tranquila e recompensadora.
Agradeo ao meu orientador, Prof. Guilherme de Alencar Barreto, pelas valiosas
lies transmitidas. Por vrias vezes sua compreenso e pacincia foram essenciais durante
a minha jornada de conciliao entre emprego e pesquisa acadmica.
Aos professores e colegas do grupo de pesquisa do Centro de Referncia em Auto-
mao e Robtica (CENTAURO), que sempre estiveram disponveis para sanar dvidas e
transmitir conhecimento.
Aos colegas de trabalho do Departamento de Engenharia de Teleinformtica (DETI),
que de diversas formas contriburam para o desenvolvimento deste trabalho.
No vos amoldeis s estruturas deste mundo,
mas transformai-vos pela renovao da mente,
a fim de distinguir qual a vontade de Deus:
o que bom, o que Lhe agradvel, o que perfeito.
(Bblia Sagrada, Romanos 12, 2)
Resumo
Nesta dissertao so reportados os resultados de um amplo estudo comparativo envolvendo
sete algoritmos de aprendizado de mquinas aplicados tarefa de aproximao do modelo
cinemtico inverso de 3 robs manipuladores (planar, PUMA 560 e Motoman HP6). Os
algoritmos avaliados so os seguintes: Perceptron Multicamadas (MLP), Mquina de
Aprendizado Extremo (ELM), Regresso de Mnimos Quadrados via Vetores-Suporte
(LS-SVR), Mquina de Aprendizado Mnimo (MLM), Processos Gaussianos (PG), Sistema
de Inferncia Fuzzy Baseado em Rede Adaptativa (ANFIS) e Mapeamento Linear Local
(LLM). Estes algoritmos so avaliados quanto acurcia na estimao dos ngulos das
juntas dos robs manipuladores em experimentos envolvendo a gerao de vrios tipos
de trajetrias no volume de trabalho dos referidos robs. Uma avaliao abrangente do
desempenho de cada algoritmo feito com base na anlise dos resduos e testes de hipteses
so executados para verificar se h diferenas significativas entre os desempenhos dos
melhores algoritmos.

Palavras-chaves: Cinemtica Inversa, Robs Manipuladores, Redes Neurais Artificiais,


Least Squares Support Vector Regression, Minimal Learning Machine, Extreme Learning
Machine.
Abstract
In this dissertation it is reported the results of a comprehensive comparative study
involving seven machine learning algorithms applied to the task of approximating the
inverse kinematic model of 3 robotic arms (planar, PUMA 560 and Motoman HP6).
The evaluated algorithm are the following ones: Multilayer Perceptron (MLP), Extreme
Learning Machine (ELM), Least Squares Support Vector Regression (LS-SVR), Minimal
Learning Machine (MLM), Gaussian Processes (GP), Adaptive Network-Based Fuzzy
Inference Systems (ANFIS) and Local Linear Mapping (LLM). Each algorithm is evaluated
with respect to its accuracy in estimating the joint angles given the cartesian coordinates
which comprise end-effector trajectories within the robot workspace. A comprehensive
evaluation of the performances of the aforementioned algorithms is carried out based
on correlation analysis of the residuals. Finally, hypothesis testing procedures are also
executed in order to verifying if there are significant differences in performance among the
best algorithms.

Key-words: Inverse Kinematics, Manipulators, Artificial Neural Networks, Least Squares


Support Vector Regression, Minimal Learning Machine, Extreme Learning Machine.
Lista de ilustraes

Figura 1 Diagrama de blocos ilustrando os tipos de estratgias de controle de


robs manipuladores. Adaptado de Oliveira (2007). . . . . . . . . . . . 30
Figura 2 Ponto relativo a um sistema de referncia {A}. . . . . . . . . . . . . . 38
Figura 3 Sistema de referncia definindo a orientao do manipulador. . . . . . . 39
Figura 4 Representao de um sistema de referncia {B} em relao a um sis-
tema {A}. Um ponto P qualquer tambm ilustrado, demonstrando a
possibilidade de se ter mais de uma representao. . . . . . . . . . . . . 41
Figura 5 Ponto P originalmente descrito em um sistema {C} representado em
um sistema {A} atravs de um sistema intermedirio {B}. . . . . . . . 43
Figura 6 Elo genrico ilustrando o tamanho e a toro de elo, denotados res-
pectivamente por a e , que relaciona o movimento de duas juntas
rotacionais. Adaptado de Craig (2005) . . . . . . . . . . . . . . . . . . 44
Figura 7 Deslocamento de link, d, e ngulo de junta, , descrevendo a conexo
entre dois elos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Figura 8 Sistemas de referncia anexados aos elos de acordo com a notao adotada. 46
Figura 9 Manipulador planar de dois links. . . . . . . . . . . . . . . . . . . . . . 48
Figura 10 Manipulador PUMA 560 disposto com seus ngulos de juntas zerados. 49
Figura 11 Manipulador Motoman HP6. . . . . . . . . . . . . . . . . . . . . . . . 50
Figura 12 Rede MLP com uma camada oculta para aprendizado da cinemtica
inversa. A figura exibe o vetor de entrada com trs componentes para
garantir uma maior generalidade do problema. A sada da rede fornece
uma estimativa ou predio do valor do ngulo da junta i do manipulador. 56
Figura 13 Entradas e sadas dos neurnios da (a) camada oculta e (b) da camada
sada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Figura 14 Componentes de um Sistema de Inferncia Fuzzy (do ingls, FIS). . . . 70
Figura 15 Diagrama de blocos do ANFIS. Os blocos retangulares dispem de
parmetros que so adaptados durante a fase de treinamento. . . . . . 72
Figura 16 Problema de multilaterao para S = 2. . . . . . . . . . . . . . . . . . 76
Figura 17 Representao da arquitetura do modelo LLM. . . . . . . . . . . . . . 81
Figura 18 Regresso das funes de cinemtica inversa a partir de dados gerados
por modelos de simulao. . . . . . . . . . . . . . . . . . . . . . . . . . 85
Figura 19 Pontos do conjunto de dados do rob planar exibidos no espao cartesiano. 87
Figura 20 Dados do rob PUMA 560:(a) Pontos submetidos ao modelo inverso do
manipulador PUMA 560 para a remoo de singularidades. (b) Espao
da tarefa do manipulador aps a remoo das singularidades. . . . . . 88
Figura 21 Dados do rob Motoman HP6:(a) Pontos submetidos ao modelo inverso
do manipulador para a remoo de singularidades. (b) Espao da tarefa
do manipulador aps a remoo das singularidades. . . . . . . . . . . . 89
Figura 22 ANFIS: Variaes dos valores mdios dos EQM de treinamento com o
aumento da quantidade de neurnios ocultos: (a) ngulo 1 (b) ngulo
2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Figura 23 ANFIS: Variaes dos desvios padres dos EQM de treinamento com o
aumento da quantidade de neurnios ocultos: (a) ngulo 1 (b) ngulo
2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Figura 24 ngulo 4 (b) apresentando pouca variabilidade em suas amostras
quando comparado com o ngulo de junta 1 (a). . . . . . . . . . . . . 96
Figura 25 ngulo 4 (b) apresentando pouca variabilidade em suas amostras
quando comparodo com o ngulo de junta 1 (a). . . . . . . . . . . . . 98
Figura 26 Rob Planar - LS-SVR: (a) e (b) mostram a variao do ngulos
de junta ao desenvolver uma trajetria circular. (c) e (d) mostram a
variao do ngulos de junta ao desenvolver uma trajetria espiral. . . 101
Figura 27 Rob Planar - ANFIS: (a) e (b) mostram a variao do ngulos
de junta ao desenvolver uma trajetria circular. (c) e (d) mostram a
variao do ngulos de junta ao desenvolver uma trajetria espiral. . . 102
Figura 28 Rob Planar - (a) e (b) mostram os grficos dos valores desejados
contra os valores estimados dos ngulos de junta para o modelo LS-SVR.
As Figuras (c) e (d) mostram o mesmo grfico para o modelo ANFIS. . 103
Figura 29 Rob Planar - Resultado da estimao de trajetrias pelos os algorit-
mos LS-SVR (Figuras (a) e (b)) e ANFIS (Figuras (c) e (d)). . . . . . 104
Figura 30 Manipulador PUMA 560 - LS-SVR: (a), (c) e (e) mostram a
variao do ngulos de junta ao desenvolver uma trajetria circular. (b),
(d) e (f) mostram a variao do ngulos de junta ao desenvolver uma
trajetria senoidal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
Figura 31 Manipulador PUMA 560 - PG: (a), (c) e (e) mostram a variao
do ngulos de junta ao desenvolver uma trajetria circular. (b), (d) e (f)
mostram a variao do ngulos de junta ao desenvolver uma trajetria
senoidal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Figura 32 Manipulador PUMA 560 - As Figuras (a), (c) e (e) mostram os
grficos dos valores desejados contra os valores estimados dos ngulos
de junta para o modelo LS-SVR. As Figuras (b), (d) e (f) mostram o
mesmo grfico para o modelo de regresso baseado em PG. . . . . . . . 110
Figura 33 Manipulador PUMA 560 - Trajetrias tericas e estimadas pelos
modelos LS-SVR (Figuras (a) e (c)) e PG (Figuras (b) e (d)). . . . . . 111
Figura 34 Manipulador Motoman HP6 - LS-SVR: (a), (c) e (e) mostram a
variao do ngulos de junta ao desenvolver uma trajetria circular. (b),
(d) e (f) mostram a variao do ngulos de junta ao desenvolver uma
trajetria senoidal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Figura 35 Manipulador Motoman HP6 - PG: (a), (c) e (e) mostram a variao
do ngulos de junta ao desenvolver uma trajetria circular. (b), (d) e (f)
mostram a variao do ngulos de junta ao desenvolver uma trajetria
senoidal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Figura 36 Manipulador Motoman HP6 - As Figuras (a), (c) e (e) mostram os
grficos dos valores desejados contra os valores estimados dos ngulos
de junta para o modelo LS-SVR. As Figuras (b), (d) e (f) mostram o
mesmo grfico para o modelo de regresso baseado em PG. . . . . . . . 114
Figura 37 Manipulador Motoman HP6 - Trajetrias tericas e estimadas pelos
modelos LS-SVR (Figuras (a) e (c)) e PG (Figuras (b) e (d)). . . . . . 115
Figura 38 Rob Planar - FDAs empricas dos resduos gerados pelos modelos
LS-SVR e ANFIS para os ngulos (a) 1 e (b) 2 . . . . . . . . . . . . . 119
Figura 39 FDAs empricas dos resduos gerados pelos modelos LS-SVR e PG para
os trs primeiros ngulos de junta para os manipuladores PUMA 560 -
Figuras (a),(c) e (e) - e para o Manipulador Motoman HP6 - Figuras
(b), (d) e (f). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
Figura 40 Grfico de autocorrelao dos resduos de 1 para os robs planar
(Figuras (a) LS-SVR e (b) ANFIS) , PUMA 560 (Figuras (c) LS-SVR e
(d) PG) e Motoman HP6 (Figuras (e) LS-SVR e (f) PG) . . . . . . . . 123
Lista de tabelas

Tabela 1 Parmetros de Denavit-Hartenberg para o manipulador PUMA 560. . . 49


Tabela 2 Parmetros de Denavit-Hartenberg para o manipulador Motoman HP6. 51
Tabela 3 Tipos comuns de funo de kernel. . . . . . . . . . . . . . . . . . . . . 64
Tabela 4 Rob Planar - Parmetros selecionados para os diversos modelos de
regresso que estimaram os ngulos de junta. . . . . . . . . . . . . . . 94
Tabela 5 Manipulador PUMA 560 - Parmetros selecionados para os diversos
modelos de regresso que estimaram os ngulos das juntas 1 , 2 , . . . , 6 . 95
Tabela 6 Manipulador Motoman HP6 - Parmetros selecionados para os
diversos modelos de regresso que estimaram os ngulos de junta
1 , 2 , . . . , 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Tabela 7 Rob Planar - Erros quadrticos mdios de teste e mtricas de seleo
para as variveis de sada dos modelos de regresso. . . . . . . . . . . . 100
Tabela 8 Rob Planar - Mdias das distncias entre os pontos das trajetrias
tericas e estimadas, e as mtricas de seleo correspondentes. . . . . . 100
Tabela 9 Manipulador PUMA 560 - Erros mdios quadrticos de teste e
mtricas de seleo para as variveis de sada dos modelos de regresso. 104
Tabela 10 Manipulador PUMA 560 - Mdias das distncias entre os pontos das
trajetrias tericas e estimadas, e as mtricas de seleo correspondentes.105
Tabela 11 Manipulador Motoman HP6 - Erros mdios quadrticos de teste e
mtricas de seleo para as variveis de sada dos modelos de regresso. 106
Tabela 12 Manipulador Motoman HP6 - Mdias das distncias entre os pontos
das trajetrias tericas e estimadas, e as mtricas de seleo correspon-
dentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Tabela 13 Resultados dos testes de Kolmogorov-Smirnov para os resduos gerados
pelos melhores modelos de cada manipulador. . . . . . . . . . . . . . . 119
Lista de abreviaturas e siglas

ANFIS Adaptive Network Fuzzy Inference System

ARX AutoRegresive model with eXternal input

DH Parmetros de Denavit-Hartenberg

DOF Degrees of Freedom

ELM Extreme Learning Machine

EQM Erro Quadrtico Mdio

FAC Funo de Autocorrelao

FDA Funo de Distribuio Acumulada

FIS Fuzzy Inference System

ISO International Organization for Standardization

KS Teste de hipteses de Kolmogorov-Smirnov

LBG Algoritmo de Linde-Buzo-Gray

LLM Linear Local Mapping

LMS Least Mean Squares

LS-SVR Least-Squares Support Vector Regression

MIMO Multiple Input Multiple Output

MISO Multiple Inputs Single Outputs

MLM Minimal Learning Machine

MLP Multi Layer Perceptron

MS Mtrica de Seleo

PG Processo Gausiano

PUMA Programmable Universal Machine for Assembly

SOM Self-Organizing Map

IFR International Federation of Robotics


Lista de smbolos

C Espao de configuraes

W Espao da tarefa

nDOF Nmeros de graus de liberdade


(w)
nDOF Nmeros de graus de liberdade antes do pulso

Vetor cujas componentes so os ngulos de juntas

f Mapeamento no-linear desconhecido

f 1 Mapeamento inverso no-linear desconhecido

xd Posio do efetuador utilizado como padro de treinamento

{A} Sistema de referncia A

A
P Descrio de um ponto P com respeito a um sistema de referncia {A}

A
BR Matriz de rotao que descreve a orientao de {B} em relao a {A}

A
PBORG Vetor que localiza a origem do sistema {B} em relao ao sistema {A}

A
BT Matriz de transformao homognea

si Seno do ngulo i

ci Cosseno do ngulo i

sij Seno do ngulo i + j

cij Cosseno do ngulo i + j

wij Peso sinptico da j-sima entrada do i-simo neurnio oculto

wi Vetor de pesos do i-simo neurnio oculto

W Matriz dos pesos da camada oculta

mij Peso sinptico da j-sima entrada do i-simo neurnio de sada

m Vetor de pesos do neurnio de sada

x Padro de entrada
X Matriz reunindo N1 padres de entrada

h Nmero de neurnios na camada oculta

d Dimenso dos padres de entrada

g Nmero de neurnios na camada de sada

ui Ativao do i-simo neurnio

() Funo de ativao

zi Sada do i-simo neurnio oculto

yk Sada do k-simo neurnio de sada

Taxa de aprendizagem

Fator de momento

k(xi , xj ) Funo de kernel

= Espao das caractersticas (feature space)

() Mapeamento para o espao das caractersticas

Dx Matriz de distncias no espao de entrada

y Matriz de distncias no espao de sada

J() Funo de custo

Vi i-sima regio de Voronoi

ai Vetor de coeficientes do i-simo modelo linear

nq Quantidade de elementos do conjunto de parmetros

nr Nmero de rodadas de treinamento

ij EQM da i-sima rodada para o j-simo valor do hiperparmetro q

j ndice de coluna que representa os parmetros de menor mdia sobre as


nr rodadas de treinamento

i ndice de linha que representa a melhor rodada de treinamento para os


parmetros escolhidos por j

i j Menor valor de erro de treinamento para o melhores conjuntos de


parmetros e rodadas de treinamento
d Distncia mdias entre os pontos das as trajetrias desejadas e estimadas

H0 Hiptese nula

F Funo de Distribuio Acumulada emprica


Sumrio

1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.1 Contextualizao do Problema . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.2 Motivao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3 Objetivos Gerais e Especficos . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4 Produo Cientfica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5 Resumo dos Captulos Restantes . . . . . . . . . . . . . . . . . . . . . . . . 35
2 Introduo Cinemtica de Manipuladores . . . . . . . . . . . . . . . . . . 37
2.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Descries Espaciais e Transformaes . . . . . . . . . . . . . . . . . . . . 37
2.2.1 Descrio da Posio . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.2 Descrio da Orientao . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.3 Descrio de Sistemas de Referncia . . . . . . . . . . . . . . . . . . 40
2.2.4 Transformaes Entre Sistemas de Referncia . . . . . . . . . . . . 40
2.3 Cinemtica dos Manipuladores . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.2 Descrio de um Elo . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.3.3 Descrio da Conexo dos Elos . . . . . . . . . . . . . . . . . . . . 44
2.3.4 Fixando Sistemas de Referncia aos Elos . . . . . . . . . . . . . . . 45
2.3.5 Cinemtica Direta dos Manipuladores . . . . . . . . . . . . . . . . . 47
2.3.5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.3.5.2 Cinemtica Direta do Rob Planar . . . . . . . . . . . . . 47
2.3.5.3 Cinemtica Direta do Rob PUMA 560 . . . . . . . . . . 48
2.3.5.4 Cinemtica Direta do Rob Motoman HP6 . . . . . . . . 50
2.3.6 Cinemtica Inversa dos Manipuladores . . . . . . . . . . . . . . . . 51
2.4 Concluso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3 Algoritmos de Aprendizagem de Mquina . . . . . . . . . . . . . . . . . . . 55
3.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2 Redes Neurais Artificiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2.1 A Rede MLP e o Algoritmo de Retropropagao dos Erros . . . . . 55
3.2.1.1 Algoritmo de Retropropagao do Erro . . . . . . . . . . . 58
3.2.2 A Rede ELM: Arquitetura e Treinamento . . . . . . . . . . . . . . . 60
3.2.2.1 Treinamento da Rede ELM . . . . . . . . . . . . . . . . . 60
3.2.2.1.1 Passo 1: Inicializao Aleatria dos Pesos da Ca-
mada Oculta . . . . . . . . . . . . . . . . . . . . 60
3.2.2.1.2 Passo 2: Acmulo das Sadas dos Neurnios Ocultos 61
3.2.2.1.3 Passo 3: Determinao dos Pesos do Neurnio de
Sada . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.2.1.4 Uso da Rede ELM Aps o Treinamento . . . . . 63
3.3 Modelos de Regresso Baseados em Mtodos de Kernel . . . . . . . . . . . 63
3.3.1 O Modelo LS-SVR . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.1.1 Aplicao em Problemas de Regresso . . . . . . . . . . . 65
3.3.2 Modelo de Regresso Baseado em Processos Gaussianos (PG) . . . 67
3.3.2.1 Estimao dos Hiperparmetros . . . . . . . . . . . . . . . 68
3.4 Sistemas Neuro-Fuzzy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4.1 Adaptive-Network-Based Fuzzy Inference System (ANFIS) . . . . . 69
3.5 Regresso Baseada em Distncia . . . . . . . . . . . . . . . . . . . . . . . . 74
3.5.1 Minimal Learning Machine (MLM) . . . . . . . . . . . . . . . . . . 74
3.6 Modelos Lineares Locais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.6.1 Linear Local Models (LLM) . . . . . . . . . . . . . . . . . . . . . . 77
3.6.1.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6.1.2 Algoritmo K-mdias Batch . . . . . . . . . . . . . . . . . 77
3.6.1.3 Modelos Lineares Locais com Quantizador K-mdias . . . 78
3.7 Concluso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4 Simulaes e Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2 Metodologia de Trabalho . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3 Definio do Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.4 Gerao dos Conjuntos de Dados . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.1 Dados para o Rob Planar . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.2 Gerao dos Dados para o Manipulador PUMA 560 . . . . . . . . . 86
4.4.3 Gerao dos Dados para o Manipulador Motoman HP6 . . . . . . . 88
4.5 Particionamento dos Dados . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.6 Seleo de Hiperparmetros e Treinamento . . . . . . . . . . . . . . . . . . 90
4.6.1 Rbo Planar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.6.2 Manipulador PUMA 560 . . . . . . . . . . . . . . . . . . . . . . . . 94
4.6.3 Manipulador Motoman HP6 . . . . . . . . . . . . . . . . . . . . . . 96
4.7 Teste dos Modelos Selecionados . . . . . . . . . . . . . . . . . . . . . . . . 98
4.7.1 Rob Planar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.7.2 Manipulador PUMA 560 . . . . . . . . . . . . . . . . . . . . . . . . 102
4.7.3 Manipulador Motoman HP6 . . . . . . . . . . . . . . . . . . . . . . 105
4.8 Concluso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5 Anlise dos Resduos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.2 Testes de Hipteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.2.1 Teste de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . 118
5.3 Anlise de Correlao dos Resduos . . . . . . . . . . . . . . . . . . . . . . 120
5.3.1 Resultados da FAC: Rob Planar . . . . . . . . . . . . . . . . . . . 120
5.3.2 Resultados da FAC: Manipulador PUMA 560 . . . . . . . . . . . . 120
5.3.3 Resultados da FAC: Manipulador Motoman HP6 . . . . . . . . . . 121
5.4 Concluso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6 Concluses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.2 Resumo das Contribuies da Dissertao . . . . . . . . . . . . . . . . . . 126
6.3 Trabalhos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

Referncias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
29

1 Introduo

A International Federation of Robotics (IFR) estima que o ano de 2014 foi de longe
aquele que apresentou o maior volume de vendas de robs industriais, contabilizando mais
de 200 mil robs instalados em todo o mundo (IFR, 2013 (Acessado em 27/06/2015)). Isso
representa em torno de 15% a mais do que o ano anterior, que j tinha sido considerado
recorde aps uma leve desacelerao nos investimentos no setor em 2012. Todo este cresci-
mento foi alavancado principalmente pelas indstrias automobilstica e eletro-eletrnica.
A mesma federao estimou que, no final do ano de 2013, estariam funcionando aproxi-
madamente 1,5 milhes de unidades ao redor do mundo. Tambm de acordo com esta
pesquisa, nosso pas lidera na aquisio de robs industriais no continente sul-americano,
adquirindo cerca de 1300 unidades at o final de 2013. A IFR tambm disponibiliza
estatsticas bastante promissoras para o mercado de robs de servio presentes tanto no
mbito pessoal quanto profissional. Estes nmeros demonstram, de forma concreta, o quo
promissor tem sido o setor de robtica e apontam para um contnuo avano na pesquisa e
no desenvolvimento de tecnologia para esta rea.
Um manipulador industrial pode ser pensado como um conjunto de corpos rgidos,
denominados elos, ligados atravs de juntas rotacionais ou prismticas. Ao final da cadeia
de elos, em um regio chamada de pulso, normalmente est acoplado um efetuador que
desempenha de fato as atividades para as quais aquele rob foi designado. Por exemplo,
uma atividade comum na indstria a soldagem de chapas metlicas que realizada
atravs de um efetuador que produz um arco eltrico e que est acoplado ao pulso. Outro
exemplo clssico de efetuador aquele que apresenta formato de pina, sendo til para
posicionar ou acoplar objetos. Em muitos casos, o efetuador pode ser substitudo na medida
que o manipulador poder realizar atividades diferentes ao longo do tempo. Normalmente
esta capacidade de atender mltiplos propsitos uma caracterstica desejvel de um
manipulador e sua importncia comprovada na definio dada pela ISO 8373 (ISO, 2012).
Para uma atividade especfica, definido para um manipulador industrial um
espao no qual ele realizar esta tarefa, chamado de espao da tarefa (task space). Dentro
deste espao, o efetuador segue trajetrias pr-determinadas que so executadas dentro de
um intervalo de tempo. Para realizar o planejamento destas trajetrias, faz-se necessrio
ter conhecimento das relaes entre os atuadores presentes nas juntas e posio resultante
do efetuador no seu espao de trabalho (workspace). Por exemplo, para um rob de trs
graus de liberdade (degrees of freedom - DOF) pode-se ter trs motores fazendo o papel
das juntas rotacionais e a posio atual do eixo de rotao (ngulo de junta) de cada um
dos motores resulta em uma posio cartesiana diferente.
30 Captulo 1. Introduo

(a) Esquema de controle no espao operacional.

(b) Esquema de controle no espao das juntas.

Figura 1 Diagrama de blocos ilustrando os tipos de estratgias de controle de robs


manipuladores. Adaptado de Oliveira (2007).

1.1 Contextualizao do Problema

Em robtica, Cinemtica o estudo do movimento de robs sem levar em conta


as foras e torques que o geram. Um dispositivo eletrnico chamado controlador realiza
o movimento do manipulador atravs da gerao do sinal de controle (i.e., comando dos
atuadores) que tem origem na diferena entre a posio desejada e a posio atual do rob.
Dessa forma, so necessrias leituras do estado do sistema para fins de controle.
As medidas fundamentais de um sistema robtico so as posies das juntas do
rob, tambm chamadas de variveis de junta. No caso de uma junta rotacional, a varivel
corresponde ao deslocamento angular (ou ngulo de rotao). No caso de uma junta
prismtica, a varivel o deslocamento linear.
A tarefa de interesse para um sistema de controle de robs consiste na gerao da
trajetria das juntas, i.e. determinar uma sequncia de posies e orientaes ao longo do
tempo que permitam a realizao adequada de uma dada tarefa. Uma particularidade no
controle de robs manipuladores que este pode ser realizado em dois espaos distintos,
ou seja, no espao das juntas ou no espao operacional. Na Figura 1 so mostrados os
diagramas de bloco para estes dois esquemas de controle.
Quando o controle se d no espao operacional (Figura 1a), as aes de controle so
realizadas em relao posio cartesiana da extremidade do manipulador (i.e., efetuador).
Desta forma, os controladores corrigem os sinais de posio. J para o controle no espao
das juntas (Figura 1b), as aes de controle so realizadas neste espao de tal modo que
os controladores corrigem sinais de posio angular.
Porm, independente do esquema de controle utilizado, o acionamento efetivo do
manipulador sempre acontece no espao das juntas, pois so os atuadores (e.g. motores
eltricos) que realizam os movimentos em ltima instncia, tornando necessria uma
1.1. Contextualizao do Problema 31

transformao que relaciona as variveis do espao operacional (i.e. coordenadas cartesianas)


s variveis no espao das juntas. Contudo, mesmo que os acionamentos sejam realizados
no espao das juntas, faz-se necessrio converter as posies angulares das juntas de volta
para o espao operacional do rob, onde a trajetria do efetuador efetivamente realizada
e avaliada.
Determinar as transformaes entre os espaos operacional e das juntas o objetivo
da cinemtica de robs. A depender do sentido da transformao tem-se dois tipos de
cinemtica: direta e inversa. Posto de modo simples, a cinemtica direta transforma do
espao das juntas ao espao operacional, ou seja, permite a converso de ngulos das
juntas em posio cartesiana e orientao do efetuador do rob. A converso oposta
chamada de cinemtica inversa.
De modo mais formal, quando se necessita obter a posio cartesiana do efetuador
a partir das variveis de junta, tem-se um problema de cinemtica direta. A funo de
cinemtica direta um mapeamento contnuo

f : C n W X m (1.1)

que mapeia um conjunto de n variveis das juntas no espao C (espao de configuraes)


no espao da tarefa W de dimenso m. Se m n, o rob dito redundante1 .
Como ilustrado na Figura 1, metas de controle, tais como posicionamento e ori-
entao do efetuador so especificadas em termos de coordenadas no espao de tarefas.
Contudo, o manipulador tipicamente controlado no espao das juntas. Desta forma,
importante ser capaz de encontrar algum C tal que f () resulte na posio e orientao
desejada xd do efetuador no espao da tarefa. Este o problema da cinemtica inversa.
O problema da cinemtica inversa mal-posto2 (ill-posed) (OGAWA; KANADA,
2010; DeMers; Kreutz-Delgado, 1992). Se h DOFs redundantes, ento o problema
localmente mal-posto, porque a soluo no nica e consiste em uma variedade3 no-
trivial em C. Com ou sem DOFs redundantes, o problema em geral globalmente mal-posto
por causa da existncia de um conjunto finito de ramos (branches) de soluo, o que implica
que existiro mltiplas configuraes que resultaro na mesma localizao no espao de
tarefas. Desta forma, a determinao de uma nica funo inversa problemtica devido
natureza muitos-para-um do mapeamento f .
O problema inverso pode ser resolvido explicitamente, ou seja, em forma fechada,
apenas para certos tipos de manipuladores. So deste tipo, por exemplo, manipuladores
1
Rob como mais graus de liberdade que o estritamente necessrio realizao de uma dada tarefa
2
De acordo com Tikhonov e Arsenin (1977), para um problema ser bem-posto deve ter as seguintes
propriedades: (i) Existncia de soluo. (ii) Unicidade da soluo. (iii) A soluo depende continua-
mente das condies iniciais e de contorno, ou seja, pequenas mudanas nas condies iniciais e de
contorno devem causar pequenas mudanas na soluo.
3
Geralmente de dimenso n m.
32 Captulo 1. Introduo

do tipo antropomrficos de 6 DOFs e com efetuador separvel do brao/antebrao, em que


as primeiras trs juntas so usadas para posicionamento e as trs ltimas para orientao,
tal como o rob PUMA 560 (CRAIG, 2005).
Uma primeira alternativa a uma soluo em forma fechada a soluo numrica,
geralmente usando ou o inverso da matriz jacobiana, que , na verdade, uma abordagem do
tipo Newton, ou gradiente descendente (tambm um mtodo baseado na matriz jacobiana).
Estes mtodos, chamados de iterativos, so ensinados em livros-texto introdutrios na rea
de robtica de manipuladores (CRAIG, 2005; SPONG; HUTCHINSON; VIDYASAGAR,
2006), tendo como principal desvantagem o fato de possuir custo elevado devido deter-
minao da matriz jacobiana (e de sua inversa) ou do vetor gradiente da funo f . Por
este motivo, tais mtodos no se adequam bem a aplicaes de controle em tempo real.
Uma segunda alternativa, que vem sendo explorada desde o final da dcada de
1980 at os dias atuais, o uso de redes neurais artificiais (RNAs) (HORNE; JAMSHIDI;
VADIEE, 1990; PRABHU; GARG, 1996; BARRETO; ARAJO; RITTER, 2003). Mo-
delos de RNAs, devido a bem conhecidas propriedades de aproximao universal de
funes (HAYKIN, 2009) podem ser usadas para estimar diretamente a funo inversa f 1 .
Isto realizado por meio da gerao de um conjunto de dados contendo um nmero elevado
de posturas aleatrias no espao de configurao do rob de interesse, armazenando-se
os pares {(, xd )} C W para posterior treinamento dos modelos de RNAs escolhidos.
Usando xd como vetor de entrada da rede e como vetor de sada, pode-se treinar um
modelo de rede neural para aproximar a funo de cinemtica inversa com grau de preciso
arbitrrio. Tipicamente os dados so gerados restringido-se a solues nicas: para cada
xd ) existe uma nica soluo , a fim de sobrepujar o problema das mltiplas solues
possveis4 .
Uma das vantagens do uso de redes neurais em problemas de controle de robs
reside na possibilidade de dot-los de maior autonomia. Em outras palavras, pode-se
fazer com que robs sejam capazes de interpretar dados sensoriais adquiridos no ambiente
de trabalho, interpret-los e reagir de forma apropriada, seja em operao normal ou
em situaes inesperadas. Para que um dado manipulador seja autnomo, este deve ser
capaz de aprender atravs dos dados coletado no ambiente. Tal aprendizado garantir
que mudanas nas condies ambientais sero percebidas e o manipulador se ajustar
s novas condies de operao. Atravs do aprendizado permanente, problemas tais
como envelhecimento de componentes eletrnicos, desgaste das juntas, dentre outros; so
naturalmente includas no novo modelo que deve ser reestimado periodicamente.
Uma desvantagem consiste na dificuldade de se gerar um conjunto de dados com
4
Tal restrio pode no ser possvel ou desejvel em algumas aplicaes, e pode reduzir consideravelmente
a destreza e a manipulabilidade do brao robtico. Para os leitores interessados no tratamento simultneo
de mltiplas solues usando RNAs, recomenda-se a leitura do trabalho de DeMers e Kreutz-Delgado
(1992). O tratamento deste tipo de situao est fora do escopo desta dissertao.
1.2. Motivao 33

amostras em quantidade suficiente grande para representar adequadamente o volume do


trabalho do rob e que evite ao mesmo tempo situaes com mltiplas solues e que
contenham singularidades.

1.2 Motivao
Embora o uso de redes neurais no controle de robs manipuladores seja prtica
relativamente bem disseminada na rea de sistemas inteligentes, e seja fcil encontrar
referncias atuais nesta rea de estudo, raro encontrar na literatura especializada estudos
comparativos de desempenho que envolvam as diversas arquiteturas de redes neurais
disponveis, sejam clssicas ou novas. Este fato foi um dos principais motivadores para o
desenvolvimento da presente dissertao.
Outro motivo para o desenvolvimento deste trabalho foi a possibilidade de avaliar
diferentes paradigmas de construo do modelo neural, a saber, global e local. A diferena
entre estas abordagens ficar mais clara nos prximos captulos, mas pode-se adiantar que
a principal diferena reside no fato de o paradigma local particiona o espao operacional
em subregies, sendo que a cada subregio associa-se um modelo mais simples (e.g. linear)
que usa apenas os dados relativos quela subregio. Modelos globais aproximam a funo
f 1 usando todo o conjunto de dados.
A fim de dar um carter mais amplo e abrangente a este trabalho de pesquisa,
resolveu-se por no s comparar os desempenhos de alguns modelos de RNAs clssi-
cos, tais como a rede perceptron multicamadas (multilayer perceptron, MLP) (RUME-
LHART; HINTON; WILLIAMS, 1985) e o mapa auto-organizvel (self-organizing map,
SOM) (KOHONEN, 2013), mas tambm os de arquiteturas de redes neurais mais recentes,
tal como a mquina de aprendizado extremo (extreme learning machine, ELM) (HU-
ANG; ZHU; SIEW, 2006), assim como os desempenhos de algoritmos mais modernos de
aprendizado de mquinas, tais como modelos de processos gaussianos ( Gaussian process
models, GP) (RASMUSSEN, 2006), regresso de mnimos quadrados via vetores-suporte
(least-squares support vector regression, LS-SVR) (SUYKENS et al., 2002), e a recente
mquina de aprendizado mnimo (minimal learning machine, MLM) (JUNIOR et al.,
2013). Para fins de completude, inclui-se tambm nos estudos comparativos um modelo
neurofuzzy de amplo uso na comunidade de inteligncia computacional, que o sistema de
inferncia fuzzy baseado em rede adaptativa (Adaptive network fuzzy inference system,
ANFIS) (JANG, 1993).
Os sete modelos mencionados no pargrafo anterior cobrem diferentes paradigmas de
aprendizado de mquinas. Por exemplo, os modelos MLP, ELM e LLM so arquiteturas de
redes neurais artificiais, enquanto o modelo ANFIS uma arquitetura hbrida neurofuzzy.
J os modelos GP, LS-SVR e MLM podem ser enquandrados como pertencentes ao
34 Captulo 1. Introduo

paradigma de mquinas de kernel.


Por fim, vale ressaltar que um diferencial do estudo comparativo a ser reportado
nesta dissertao em relao seguir uma abordagem ao problema de aproximao de
um mapeamento MIMO (multi-input, multi-output) distinta da comumente usada para
aprendizado da cinemtica inversa via RNAs e outros mtodos de aprendizado de mquinas.
Em vez de usar uma nica rede com mltiplas sadas, optou-se por treinar um modelo
por varivel de junta. Ou seja, se o manipulador tiver n = 6 graus de liberdade, sero
treinadas 6 redes MLP, uma por junta de sada. Assim, o problema MIMO decomposto
em n subproblemas MISO (multi-input, single-output).
Nesta abordagem, embora aumente o custo de seleo dos modelos em alguns
casos, ou seja, preciso estimar os hiperparmetros (e.g. nmero de neurnios ocultos)
e parmetros (pesos sinpticos e limiares) de cada submodelo, a complexidade de cada
submodelo tende a diminuir porque a complexidade da tarefa diminui. Isto est em
sintonia com abordagens mais modernas para controle neural em tempo-real de robs
manipuladores, tal como o controle descentralizado (JIN, 1998; LIU, 1999; HUANG; TAN;
LEE, 2003).

1.3 Objetivos Gerais e Especficos


Em virtude do exposto na seo anterior, o objetivo principal desta dissertao
promover um amplo estudo comparativo de desempenho entre modelos de aproximao
universal de funes construdos a partir de diferentes paradigmas de aprendizado (e.g.
neural, neurofuzzy e mquinas de kernel) visando a estimao da cinemtica inversa de
robs manipuladores.
Quanto aos objetivos especficos desta dissertao, podem-se listar os seguintes
itens:

Gerar conjuntos de dados para fins de treinamento dos modelos de aprendizado


de mquina cujo os desempenhos sero avaliados nesta dissertao na tarefa de
aproximao da cinemtica inversa de trs robs manipualdores: planar, PUMA 560
e Motoman HP6.

Comparar o desempenho dos modelos de aprendizado de mquina supracitados


com base nos erros mdios quadrticos gerados no espao das juntas dos robs
manipuladores planar, PUMA 560 e Motoman HP6.

Identificar os modelos mais adequados para aproximao da cinemtica inversa


atravs de uma combinao de erros mdios quadrticos que representar o compor-
tamento global dos algoritmos.
1.4. Produo Cientfica 35

Avaliar os desempenhos dos modelos supracitados em tarefas que envolvam a realiza-


o de trajetrias especficas.

Realizar uma anlise estatstica dos resduos gerados pelos melhores modelos para
fins de validao dos modelos.

Realizar testes de hipteses estatsticos a fim de avaliar quo diferentes so os


desempenhos dos melhores modelos encontrados.

1.4 Produo Cientfica


Ao longo do desenvolvimento desta dissertao, foram publicados ou submetidos a
congressos ou peridicos os seguintes artigos:

1. Melo, D. B. & Barreto, G. A. (2014). Algoritmos de Aprendizagem para Aproxi-


mao da Cinemtica Inversa de Estruturas Robticas: Um Estudo Comparativo,
Anais do XXXV Ibero Latin American Congress on Computational Methods in
Engineering (CILAMCE2014), Fortaleza-CE, pginas 1-22.

2. Fontinele, H. I. P., Melo, D. B. & Barreto, G. A. (2015). Local Models for Learning
Inverse Kinematics of Redundant Robots: A Performance Comparison, submetido
ao 11th Workshop on Self-Organizing Maps (WSOM2016).

1.5 Resumo dos Captulos Restantes


O restante deste documento est organizado segundo a lista de captulos apresentada
abaixo:

Captulo 2 - Este captulo descreve os fundamentos que compem a robtica dos


manipuladores industriais e mveis. Sero apresentados os parmetros de Denavit-
Hartenberg (DH), que descrevem a arquitetura geomtrica de um manipulador
industrial, e uma conveno atravs da qual estes parmetros podem ser obtidos.
Alm disso, sero apresentados os conceitos de cinemtica direta e inversa, que,
juntamente com os algoritmos de aprendizagem de mquina, formam a base desta
dissertao.

Captulo 3 - Neste captulo sero apresentados os diversos modelos de regresso


adotados. Estes algoritmos advm das mais variadas naturezas apresentando desta
forma formulaes e caractersticas bem distintas. So elas as redes neurais, as
arquiteturas neuro-fuzzy, as mquinas de kernel e os mtodos baseados em distncias.
36 Captulo 1. Introduo

Captulo 4 - Neste momento do trabalho, uma ponte criada entre os tpicos


apresentados nos Captulos 2 e 3. Descrevem-se as simulaes realizadas bem
como o conjunto de passos sistemticos adotados para obteno dos resultados,
incluindo a descrio dos conjuntos de dados extrados das equaes cinemticas dos
manipuladores. Tabelas e grficos ilustram o desempenho dos modelos de regresso
adotados para cada conjunto de dados apresentados.

Captulo 5 - Este captulo apresenta os resultados dos testes de hipteses aplicados


aos resduos gerados pelos melhores modelos de regresso escolhidos no Captulo 4.
Alm do mais, so apresentados grficos da funo de autocorrelao dos resduos
com o objetivo de validar estatisticamente tais modelos.

Captulo 6 - Este captulo finaliza o presente trabalho resumindo os resultados


obtidos e apresentando as principais contribuies a dissertao. Alm do mais,
aponta uma srie de possveis direes e trabalhos futuros que seguem a mesma linha
de pesquisa e podero contribuir com o enriquecimento deste trabalho.
37

2 Introduo Cinemtica de Manipuladores

2.1 Introduo
Este captulo trata das noes bsicas e dos elementos matemticos essenciais
ao estudo da cinemtica de manipuladores. Nele apresentada a conveno de Dena-
vitHartenberg, uma metodologia amplamente adotada pela literatura que permite a
obteno de parmetros numricos que descrevem a estrutura geomtrica dos manipulado-
res. A aplicao sistemtica dessa notao juntamente com as transformaes de sistemas
de referncia possibilita a escrita de equaes que relacionem variveis de junta posio
e orientao do efetuador. Por fim, tambm so apresentados os modelos cinemticos dos
robs usados na gerao dos conjuntos de dados utilizados nesta dissertao. O mate-
rial exposto neste captulo baseado nos livros de Craig (2005), Spong, Hutchinson e
Vidyasagar (2006) e Corke (2011).

2.2 Descries Espaciais e Transformaes


O estudo da robtica rene em torno de si uma srie de conhecimentos acessrios
que formam as bases matemticas e fsicas necessrias ao seu completo entendimento.
So exemplos destes conhecimentos a lgebra linear e o movimento dos corpos rgidos.
Tais reas de estudo se fazem necessrias devido ao fato de os manipuladores industriais
serem composies ou cadeias de corpos rgidos que precisam se localizar e orientar no
espao, tanto em relao a um sistema universal de coordenadas, bem como em relao
aos componentes da cadeia. Alm do mais, muitas vezes os operadores ou programadores
destes dispositivos definem a tarefa a ser executada em um sistema de coordenadas de
trabalho que no o mesmo sistema sobre o qual a cinemtica do manipulador foi definida.
Para isso, definem-se ferramentas matemticas que possibilitem realizar converses entre
sistemas de coordenadas diferentes, bem como localizar de maneira mais simples e amigvel
o espao de trabalho a ser utilizado.
Nas sees seguintes sero definidos os elementos geomtricos bsicos que sero
utilizados no estudo da robtica, tais como pontos, sistemas de referncia, elos, dentre
outros. Alm do mais, so apresentadas as formas pelas quais estes elementos so descritos
juntamente com a notao associada essas descries. Outro assunto abordado nesta seo
so as transformaes que os elementos geomtricos podem sofrer quando representados em
um espao cartesiano: translaes e rotaes. Por fim, exposto o conceito de transformao
homognea que unifica as operaes de translao e rotao em uma nica operao
matricial. Tal ferramenta ser de grande valia nas sees posteriores que tratam de
38 Captulo 2. Introduo Cinemtica de Manipuladores

cinemtica de manipuladores.

2.2.1 Descrio da Posio


Dado um sistema de coordenadas, podemos localizar um ponto no espao atravs
de um vetor P que tem sua base posicionada sobre a origem do sistemas de coordenadas e
sua extremidade orientada posicionada sobre o ponto que se deseja representar. Este ponto
poder localizar diversos elementos tais como a ponta do efetuador, uma extremidade de
um corpo rgido, a extremidade de um objeto localizado no espao de trabalho, dentre
outros. A quantidade de componentes utilizadas para definir estes vetores depender da
regio em que o manipulador est definido, ou seja, se sua operao se d num plano de
trabalho ou em um espao de trabalho. A Equao (2.1) apresenta a descrio matemtica
de um ponto no espao cartesiano tridimensional:


p
x
A
P = py (2.1)


pz

Para uma descrio mais precisa da posio faz-se necessrio explicitar sobre qual
sistema de coordenadas um determinado ponto est definido. Para isso ser utilizada a
notao A P , explicitando que as coordenadas do ponto P esto sendo tomadas sobre os
eixos do sistema de referncia {A}. A Figura 2 apresenta um sistema de coordenadas {A},
seus vetores unitrios e o ponto A P :
{A}
A

A
P

A
X

Figura 2 Ponto relativo a um sistema de referncia {A}.

Um mesmo ponto no espao pode ser descrito com respeito a mais de um sistema de
coordenadas. Por exemplo, pode-se supor a existncia de um segundo sistema de referncia
{B} que pode estar transladado e/ou rotacionado em relao ao sistema de referncia {A}.
Neste caso, o mesmo ponto P ter duas representaes, uma tomada sobre eixos de {A} e
outra tomada sobre os eixos de {B}.
2.2. Descries Espaciais e Transformaes 39

Uma das operaes mais comuns que podem ser realizadas sobre as descries
dos pontos a mudana do sistema de referncia no qual ele est representado. Esta
transformao da representao definida atravs da localizao e da orientao relativas
entre os dois sistemas de coordenadas em questo. As duas sees seguintes detalham como
descrever a orientao dos elementos robticos bem como a descrio dos sistemas de refe-
rncia. Elas reunem as ferramentas matemticas necessrias converso da representao
de um ponto nos diversos sistemas coordenados.

2.2.2 Descrio da Orientao


Para fornecer a localizao completa de um corpo no espao so necessrias duas
informaes: a posio do corpo e sua orientao. A posio, como descrito anteriormente,
ser dada por um vetor posio. Para que as orientaes dos elos sejam representadas,
so anexados a eles sistemas de referncia locais. Estes sistemas de referncia locais
podem sofrer transformaes em relao ao sistema de referncia universal. Uma dessas
transformaes a rotao. A Figura 3 exibe um efetuador cuja posio dada por um
ponto entre suas garras. Neste efetuador foi anexado um sistema de eixos coordenados
local que fornece a orientao relativa ao um sistema de referncia universal:

{B}

{A}
B
AP

Figura 3 Sistema de referncia definindo a orientao do manipulador.

Dada a necessidade de um componente de orientao, faz-se necessrio definir uma


descrio matemtica genrica, que no gere nem ambiguidades nem descontinuidades.
Este trabalho adotar como descrio a projeo dos vetores unitrios do sistema de
referncia de origem sobre os eixos coordenados do sistema de referncia de destino.
Desta forma, supem-se dois sistemas de referncia {A} e {B} que se diferem
apenas por suas orientaes. Os vetores unitrios que compe o sistema {B} so denotados
por XB , YB e ZB . Quando estes vetores so representados no sistemas de coordenadas {A}
40 Captulo 2. Introduo Cinemtica de Manipuladores

ele podem ser escritos como A XB , A YB e A ZB , respectivamente. As duas representaes


podem ser relacionadas atravs de operaes de produto escalar como ilustrado pela
equao abaixo:


h i
X XA
B
YB XA ZB XA
A A A A
BR = XB YB ZB = X YA YB YA ZB YA (2.2)

B
XB ZA YB ZA ZB ZA

2.2.3 Descrio de Sistemas de Referncia


Frequentemente para descrever determinados elementos em robtica deve-se levar
em conta a localizao destes elementos juntamente com sua orientao. Anexar um
sistema de referncia sobre um determinado ponto de um corpo uma maneira consistente
de agrupar essas duas informaes. Por exemplo, este tipo de abordagem pode ser utilizada
para definir um ponto entre as garras de um efetuador do tipo pina, informando a
localizao da pina juntamente com a sua orientao relativa a um sistema universal de
coordenadas.
Um sistema de coordenadas completamente especificado ao se fornecer quatro
vetores: uma para a localizao da origem do sistemas de coordenadas e outros trs para
sua orientao. Outra forma de representar a orientao se d atravs do uso de uma
matriz de rotao, que define a orientao do sistema que se quer definir em relao a um
sistema universal de coordenadas. Isto posto, adota-se um sistema de coordenadas {A}
que servir de sistema de referncia universal para um sistema {B} que se quer definir.
O vetor que localiza a origem denotado por A PBORG e a matriz de rotao por A B R.
De maneira mais compacta tem-se {B} = {A A
B R, PBORG }. A Figura 4, ilustra como um
sistema de referncia {B} pode ser representado com respeito a um referencial {A}:

2.2.4 Transformaes Entre Sistemas de Referncia


Como explicitado anteriormente, em diversas situaes no estudo da robtica, um
ponto representado em um sistema de referncia {B} deve ter sua descrio convertida
para outra em um sistemas de referncia {A} no coicidente com ele. Estes sistemas de
referncia podem estar tanto transladados bem como rotacionados um em relao ao outro.
Sendo assim, deseja-se converter a representao do ponto B P em uma descrio A P no
sistema {A}. A Figura 4 ilustrou este caso geral para dois sistemas {A} e {B}.
Como exposto por Craig (2005), para converter a descrio do ponto B P deve-se
primeiramente lev-lo a um sistema de referncia intermedirio que possua a mesma
orientao de {A}. Este primeiro passo realizado atravs da multiplicao da matriz de
rotao pelo ponto B P . Aps a operao de rotao, aplica-se a soma vetorial com vetor
2.2. Descries Espaciais e Transformaes 41

B
{B}

{A}
A
AB
X B
P

A
P

A
PBORG

B
A

A
X

Figura 4 Representao de um sistema de referncia {B} em relao a um sistema {A}.


Um ponto P qualquer tambm ilustrado, demonstrando a possibilidade de se
ter mais de uma representao.

que localiza a origem do sistema {B} em relao ao sistema {A}, A PBORG . Neste ponto,
vale a pena ressaltar novamente a importncia da notao adotada, visto que esta facilita
o cancelamento dos sobrescritos e subscritos. A Equao (2.3) descreve o mapeamento
entre as duas representaes:

A
P =A B A
B R P + PBORG (2.3)

Nos casos mais especficos, em que apenas translaes ou rotaes esto presentes,
algumas consideraes podem ser feitas. No primeiro caso, a matriz de rotao envolvida
a matriz identidade, ou seja, A
B R = I. No segundo caso, o vetor posio envolvido o
A
vetor nulo, ou seja, PBORG = 0.
A Equao (2.3) pode ser representada de forma mais simples e clara ao se definir
um operador T que agrupe as operaes de rotao e translao em uma nica matriz. Este
operador matricial chamado de transformao homognea e pode expresso da seguinte
forma:

A
P =A B
B T P (2.4)

Para aplicar a matriz da transformao homognea T sobre um vetor representado


no sistema de referncia {B}, expresso por B P , e represent-lo no sistema de referncia
{A}, obtendo-se A P , realiza-se os seguintes passos:

1. Adicionar uma quarta componente ao vetores B P e A P com valor 1;


42 Captulo 2. Introduo Cinemtica de Manipuladores

2. Concatenar lateralmente o vetor A PBORG direta da matriz A


B R gerando uma matriz
intermediria de dimenso 3 4;

3. Adicionar uma linha [0 0 0 1] matriz intermediria obtida no passo anterior.


Neste ponto obtm-se a matriz de transformao homognea.

Aps a aplicao destas regras chega-se Equao (2.5). Pode-se notar que ao
executar a multiplicao dos blocos de T pelo vetor B P expandido, esta equao realiza
conjuntamente as operaes de rotao e translao como nas Equaes (2.3) e (2.4).


A A A B
P BR PBORG P
= (2.5)
1 0 0 0 1 1

Alm de realizar converses entre sistemas de referncia diferentes, as transformaes


homogneas podem ser utilizadas e interpretadas de outras maneiras. Elas tambm podem
ser interpretadas como a descrio de um sistema de referncia em relao outro. Por
exemplo, podemos enxergar a matriz A B T como a descrio do sistema de referncia {B}
em relao ao sistema {A}, onde as colunas de A B R definem os vetores unitrios de {B}
A
projetados sobre {A} e PBORG localiza a origem de {B} em relao {A}.
Uma terceira maneira de se utilizar as transformaes homogneas aplic-las
como operadores de transformao. Neste tipo de aplicao, pontos so rotacionados e
transladados em relao a um nico sistema de referncia. Por exemplo, um ponto A P1 ,
representado em {A}, pode ser rotacionado e/ou transladado para um ponto A P2 , tambm
representado em {A}. Craig (2005) e Spong, Hutchinson e Vidyasagar (2006) trazem mais
detalhes sobre este tipo de interpretao sobre as transformaes homogneas.
Quando mais de dois sistemas de referncia esto envolvidos, as transformaes
homogneas podem ser compostas para desenvolver converses de pontos mais complexas.
Por exemplo, a Figura 5 ilustra um ponto C P descrito em {C}.
O sistema {C} descrito em relao {B} atravs de B C T e o sistema {B}
A C
descrito em relao {A} atravs de B T . Para se representar P no sistema de referncia
{A} aplica-se a Equao (2.6):

A
P =A B C A C
B TC T P =C T P (2.6)
A
CT =A B
B TC T (2.7)

Mais uma vez, a notao utilizada por Craig (2005) facilita o cancelamento dos
sobrescritos e subscritos, tornando a manipulao das equaes mais simples.
2.3. Cinemtica dos Manipuladores 43

{C}
C

C
P C
{B}
B

{A}
A A
P

AC
X
A

AB
X

A
X

Figura 5 Ponto P originalmente descrito em um sistema {C} representado em um


sistema {A} atravs de um sistema intermedirio {B}.

2.3 Cinemtica dos Manipuladores

2.3.1 Introduo
A Cinemtica a cincia que estuda o movimento sem se preocupar com as suas
causas, ou seja, as foras ou torques que levam um determinado corpo adquirir acelerao.
Basicamente ela consiste no estudo da posio dos corpos e de suas derivadas de ordem mais
elevada, podendo ser estas em relao ao tempo ou qualquer outra grandeza (CRAIG, 2005).
Neste trabalho, um estudo sobre a cinemtica dos manipuladores realizado em condies
estticas, ou seja, na ausncia de velocidades ou aceleraes. Atrvs deste estudo, sero
obtidas relaes matemticas entre os diversos sistemas de referncia anexados aos elos
dos manipuladores, possibilitando a descrio da localizao e da orientao do efetuador
em funo da posio relativa dos elos da cadeia cinemtica.
Desta forma, ser apresentado um procedimento sistemtico atravs do qual ser
possvel descrever, de forma precisa e sucinta, o arranjo geomtrico dos manipuladores
industriais. Este procedimento tem como arcabouo os conceitos apresentados nas sees
anteriores, notadamente as que tratam de sistemas de referncia e suas transformaes.
Atravs destes conceitos, sero descritos individualmente os elos, que compem as cadeias
robticas, bem como suas relaes, que so definidas atravs das juntas que os unem.
Alm do mais, ser extrado, das definies de elos e juntas, um conjunto de
parmetros geomtricos denominados parmetros de Denavit-Hartenberg. Atravs destes
parmetros, sero desenvolvidas as equaes cinemticas que relacionam a localizao e a
orientao do efetuador com as variveis de junta do manipulador. Neste trabalho, foram
adotadas apenas cadeias de corpos rgidos ligados atravs de juntas rotacionais, o que
limita as variveis de junta apenas ao tipo rotacional.
44 Captulo 2. Introduo Cinemtica de Manipuladores

2.3.2 Descrio de um Elo


De acordo com Craig (2005), um elo, ou link, um corpo rgido que define a
relao entre os eixos de duas juntas, vizinhas, de um manipulador. A conexo em cadeia
destes elos atravs de juntas o que define um manipulador robtico. Cada junta possui
um eixo de junta sobre o qual o elo pode rotacionar. A Figura 6 ilustra um elo com duas
juntas rotacionais, {i 1} e {i}, e seus respectivos eixos de junta, juntamente com a linha
mutuamente perpendicular aos eixos das juntas:

Figura 6 Elo genrico ilustrando o tamanho e a toro de elo, denotados respectivamente


por a e , que relaciona o movimento de duas juntas rotacionais. Adaptado de
Craig (2005)

Para especificar completamente um elo, duas quantidades devem ser especificadas:


o comprimento de elo e a toro de elo. O comprimento de elo, denotado por ai1 para
a junta {i 1}, definido pelo comprimento medido sobre a linha que mutuamente
perpendicular aos eixos de junta {i 1} e {i}. J a toro de elo, denotado por i1 ,
definida pelo ngulo formado entre os eixos {i} e {i 1} sobre o plano cuja a normal
dada pela linha em que se toma o valor de ai1 . A Figura 6 tambm exibe estes dois
valores.

2.3.3 Descrio da Conexo dos Elos


As juntas so os elementos que conectam dois elos, possibilitando o movimento
relativo entre eles. A Figura 7 ilustra dois elos intermedirios da cadeia conectados atravs
de um junta rotacional, juntamente com os eixos de junta {i 1} e {i}. Esta ilustrao
tambm exibe as linhas sobre as quais so medidos os comprimentos de elo ai1 e ai .
Para descrever esta conexo duas quantidades devem ser especificadas: o desloca-
mento de elo e o ngulo da junta. O deslocamento de elo, denotado por di , a distncia,
2.3. Cinemtica dos Manipuladores 45

Figura 7 Deslocamento de link, d, e ngulo de junta, , descrevendo a conexo entre dois


elos.

ao longo do eixo de junta {i}, da reta que define ai1 at a reta que define ai . O ngulo de
junta, denotado por i , a medida do ngulo de rotao, ao longo do eixo {i}, da reta que
define ai em relao a reta que define ai1 .
Para as juntas da extremidade da cadeia ser convencionado atribuir zero as
comprimentos de elo, ou seja, a0 = an = 0. Alm do mais, para os casos deste trabalho, os
valores do deslocamento de elo da primeira e da ltima junta tambm sero considerados
nulos, isto , d0 = dn = 0. Esta conveno permite clculos mais simples devido a uma
maior quantidade de valores nulos.

2.3.4 Fixando Sistemas de Referncia aos Elos


De forma a localizar os elos em relao aos seu vizinhos, fixam-se sistemas de
referncia sobre cada um deles. De posse da descrio matemtica destes sistemas de
referncia e do uso de transformaes compostas, constri-se uma representao matricial
que relacione o posicionamento do efetuador com o sistema de referncia da base. Como
exemplificado nas sees anteriores, esta notao possibilita a rpida manipulao dos
ndices que indicam um elo e seu antecessor.
Com o objetivo de unir a capacidade de manipulao matemtica e a obteno dos
parmetros de Denavit-Hartemberg, faz-se necessria a adoo de convenes que padroni-
zem o processo de construo das matrizes de transformao homogneas. A numerao
dos sistemas de referncias seguir a mesma adotada para os elos correspondentes.

Passo 1: Identificar os eixos de rotao {i} e {i + 1} das juntas e represent-los


como linhas infinitas.
46 Captulo 2. Introduo Cinemtica de Manipuladores

Passo 2: Para cada par de juntas, identificar a linha perpendicular comum a ambas
as linhas infinitas.

Passo 3: Definir o eixo Zi do sistema de referncia {i} apontando ao longo do eixo


de sua junta.

Passo 4: Definir o eixo Xi do sistema de referncia {i} apontando na direo da


linha perpendicular comum aos eixos {i} e {i + 1}

Passo 5: Definir o eixo Yi atravs da regra da mo direita entre Xi e Zi .

Passo 6: Definir o sistema de referncia {0} de forma que este se igualhe a {1}
quando a primeira varivel de junta for zero. Para {N }, XN de livre escolha porm,
deve-se escolher uma posio que anule uma maior quantidade de parmetros de
acoplamento.

A Figura 8 ilustra o posicionamentos dos frames {i 1} e {i} sobre dois elos de


um manipulador genrico seguindo os passos definidos.

Figura 8 Sistemas de referncia anexados aos elos de acordo com a notao adotada.

Com os sistemas de referncia devidamente numerados e dispostos na cadeia de


elos do manipulador, define-se formalmente os parmetros de Denavit-Hartemberg da
seguinte maneira:

Comprimento de elo (ai ): distncia de Zi a Zi+1 medida ao longo de Xi

Toro de elo (i ): ngulo de Zi a Zi+1 medido ao longo de Xi

Deslocamento de elo (di ): distncia de Xi1 a Xi medida ao longo de Zi

ngulo de junta (i ): ngulo de Xi1 a Xi medido ao longo de Zi


2.3. Cinemtica dos Manipuladores 47

Aps a obteno dos parmetros de Denavit-Hartemberg, derivam-se transformaes


homogneas de cada um dos seus elos em relao aos seus vizinhos. Isto feito atravs
de sistemas de referncia auxiliares que possibilitam escrever as transformaes de elo
como uma multiplicao sucessiva de transformaes que so funes de apenas de um
dos parmetros de elo (CRAIG, 2005). Com isso, chega-se a seguinte expresso para a
transformao de um elo {i} em relao ao elo {i 1}:



ci si 0 ai1
si ci1 ci ci1 si1 si1 di

i1
i T = (2.8)

si si1 ci si1 c c d

i1 i1 i

0 0 0 1

Aps isto, compem-se estas transformaes individuais para que se obtenha a


posio do efetuador em relao base.

1
0
NT =01 T21 T32 T . . .N
N T (2.9)

em que 0N T funo das variveis de juntas. As sees seguintes apresentaram os parmetros


de DH e descrever as equaes de cinemtica direta manipuladores utilizados neste
trabalho, a saber, o rob planar, o manipulador PUMA 560 e o manipulador Motoman
HP6.

2.3.5 Cinemtica Direta dos Manipuladores


2.3.5.1 Introduo

A cinemtica direta se ocupa em descobrir a posio e a orientao finais do


efetuador a partir de um conjunto de ngulos de junta. De forma alternativa, dados um
vetor = [1 , . . . , n ]T das variveis de junta, a cinemtica direta estuda mecanismos que
possibilitem encontrar um funo T = f () que localize o efetuador atravs de uma matriz
de transformao homognea. Esta matriz T formada por uma submatriz de rotao R,
que orienta o efetuador, e um vetor r que d a sua posio. Para as simulaes executadas
neste trabalho, a orientao foi previamente fixada e somente a posio foi levada em
conta.

2.3.5.2 Cinemtica Direta do Rob Planar

O rob planar uma estrutura robtica do tipo 2R, ou seja, composto de duas
juntas rotacionais cujos os eixos so paralelos e perpendiculares ao plano de atuao do
rob. Cada elo deste manipulador forma com o plano de trabalho e com o elo anterior
ngulos de junta 1 e 2 , respectivamente. A Figura 9 ilustra os elementos que definem a
geometria deste manipulador
48 Captulo 2. Introduo Cinemtica de Manipuladores

Figura 9 Manipulador planar de dois links.

Devido a simplicidade da cadeia cinemtica deste rob, uma abordagem geomtrica


pode ser utilizada para definir as equaes que governam a sua cinemtica direta. Os
valores de x e y podem ser obtidos atravs das somas das projees dos elos sobre os eixos
x0 e y0 , respectivamente. Atravs da anlise da Figura 9, conclui-se que

x = L1 cos(1 ) + L2 cos(1 + 2 ) (2.10)


y = L1 sen(1 ) + L2 sen(1 + 2 ) (2.11)

em que 1 e 2 so os ngulos das juntas e x e y so as coordenadas cartesianas que


localizam o efetuador.

2.3.5.3 Cinemtica Direta do Rob PUMA 560

O rob PUMA 560 um mecanismos robtico com seis graus de liberdade e todas
as juntas rotacionais, ou seja, um mecanismo do tipo 6R. A Figura 10 ilustra a cadeia
robtica com todos os ngulos de junta iguais a zero e com os alguns sistemas de referncia
fixados aos elos.
A Tabela 1 rene de forma esquematizada os parmetros de DH extrados da Figura
10
Em seguida, os parmetros de DH so aplicados seis vezes na Equao (2.8) de forma
a se obter seis matrizes que relacionam um elo especfico ao seu correspondente anterior.
Atravs da composio destas transformaes, obtm-se a transformao homognea que
2.3. Cinemtica dos Manipuladores 49

Figura 10 Manipulador PUMA 560 disposto com seus ngulos de juntas zerados.

i i 1 ai 1 di i
1 0 0 0 1
2 90 0 0 2
3 0 a2 d3 3
4 90 a3 d4 4
5 90 0 0 5
6 90 0 0 6

Tabela 1 Parmetros de Denavit-Hartenberg para o manipulador PUMA 560.

expressa a localizao do manipulador em relao ao sistema de referncia fixado base.


Atravs da anlise dos componentes desta transformao, temos:
50 Captulo 2. Introduo Cinemtica de Manipuladores

r11 = c1 [c23 (c4 c5 c6 s4 s5 ) s23 s5 c5 ] + s1 (s4 c5 c6 + c4 s6 ) (2.12)


r21 = s1 [c23 (c4 c5 c6 s4 s6 ) s23 s5 c6 ] c1 (s4 c5 c6 + c4 s6 ) (2.13)
r31 = s23 (c4 c5 c6 s4 s6 ) c23 s5 c6 (2.14)
r12 = c1 [c23 (c4 c5 s6 s4 c6 ) + s23 s5 s6 ] + s1 (c4 c6 + s4 c5 s6 ) (2.15)
r22 = s1 [c23 (c4 c5 s6 s4 c6 ) + s23 s5 s6 ] c1 (c4 c6 + s4 c5 s6 ) (2.16)
r32 = s23 (c4 c5 s6 s4 c6 ) + c23 s5 s6 (2.17)
r13 = c1 (c23 c4 s5 + s23 c5 ) s1 s4 s5 (2.18)
r23 = s1 (c23 c4 s5 + s23 c5 ) + c1 s4 s5 (2.19)
r33 = s23 c4 s5 c23 c5 (2.20)
px = c1 [a2 c2 + a3 c23 d4 s23 ] d3 s1 (2.21)
py = s1 [a2 c2 + a3 c23 d4 s23 ] + d3 c1 (2.22)
pz = a3 s23 a2 s2 d4 c23 (2.23)

onde 1 , 2 , . . . , 6 so os ngulos de junta. Alm do mais, si = sen i , ci = cos i , sij =


sen (i + j ) e cij = cos(i + j ).

2.3.5.4 Cinemtica Direta do Rob Motoman HP6

Assim como o manipulador PUMA 560, o rob Motoman HP6 (Figura 11) uma
cadeia robtica do tipo 6R indicando que todos os seus graus de liberdade so compostos
por juntas rotacionais. Devido a este fato, tem-se seis variveis de junta denotadas por i ,
onde i = 1, . . . , 6. A Tabela 2 rene de forma esquematizada os parmetros DH extrada
do modelo de simulao fornecido pelo Robotic Toolbox para Matlab (CORKE, 1996):

Figura 11 Manipulador Motoman HP6.


2.3. Cinemtica dos Manipuladores 51

i i 1 ai 1 di i
1 1,571 0,15 0 1
2 3,142 0,57 0 2
3 1,571 0,155 0 3
4 1,571 0 0,635 4
5 1,571 0 0 5
6 3,142 0 0,095 6

Tabela 2 Parmetros de Denavit-Hartenberg para o manipulador Motoman HP6.

Atravs dos parmetros DH, aplica-se a Equao (2.8) juntamente com o procedi-
mento de composio expresso em (2.9) para se obter a matriz 60 T que determina a postura
final do manipulador:


n ox ax px
x
n y o y ay p y

0 0 1 2 3 4 5
6 T =1 T2 T3 T4 T5 T6 T = (2.24)

n z o z az p z


0 0 0 1

nx = c1 [c23 (c4 c5 c6 s4 s6 ) s23 s5 c6 ] + s1 (s4 c5 c6 + c4 s6 ) (2.25)


ny = s1 [c23 (c4 c5 c6 s4 s6 ) s23 s5 c6 ] c1 (s4 c5 c6 + c4 s6 ) (2.26)
nz = s23 (c4 c5 c6 s4 s6 ) c23 s5 c6 (2.27)
ox = c1 [c23 (c4 c5 s6 s4 c6 ) + s23 s5 s6 ] + s1 (c4 c6 s4 c5 s6 ) (2.28)
oy = s1 [c23 (c4 c5 s6 s4 c6 ) + s23 s5 s6 ] c1 (c4 c6 s4 c5 c6 ) (2.29)
oz = s23 (c4 c5 s6 s4 c6 ) c23 s5 s6 (2.30)
px = c1 (a2 c2 + a3 c23 d4 s23 ) d2 s1 (2.31)
py = s1 (a2 c2 + a3 c23 d4 s23 ) d2 c1 (2.32)
pz = a3 s23 a2 s2 d4 c23 (2.33)
ax = c1 (c23 c4 s5 + s23 c5 ) s1 s4 s5 (2.34)
ay = s1 (c23 c4 s5 + s23 c5 ) + c1 s4 s5 (2.35)
az = s23 c4 s5 c23 c5 (2.36)

2.3.6 Cinemtica Inversa dos Manipuladores


Ao lidar com o problema da cinemtica inversa deve-se levar em considerao
alguns aspectos de sua soluo tais como sua existncia, sua multiplicidade e seus mtodo
de obteno.
Primeiramente, devemos considerar a existncia ou no de solues para posio
e orientao dadas. Esta anlise bem particular de cada manipulador pois envolve um
52 Captulo 2. Introduo Cinemtica de Manipuladores

estudo detalhado de seu workspace. Este workspace depende de diversos fatores tais como
a quantidade de graus de liberdade do manipulador, os valores dos parmetros DH e os
limites impostos aos ngulos de junta.
Considerando a existncia de uma soluo especfica, deve-se verificar sua multi-
plicidade. Alguns manipuladores podem atingir a mesma posio e orientao atravs de
conjuntos diferentes de ngulos de junta. Por exemplo, o PUMA 560 pode alcanar certos
alvos utilizando oito solues diferentes. Em aplicaes prticas, normalmente adotam-se
critrios de seleo das solues tais como a proximidade em relao a posio atual
do efetuador ou a ausncia de obstculos durante o trajeto at uma nova posio. Para
manipuladores mais complexos (com muitos parmetros DH diferentes de zero) o nmero
de solues pode ser bastante alto.
Uma outra questo a ser levada em conta o mtodo utilizado para se obter as
solues. Craig (2005) adverte o fato de no existirem mtodos gerais para se resolver
um conjunto de equaes no lineares. Alm disso, Craig (2005) considera em sua obra,
atravs da definio dada em Roth (1976), que um manipulador solucionvel aquele em
que possvel encontrar todos os conjuntos de variveis de junta associadas a uma posio
e orientao dadas. Logo so citados neste trabalho apenas os mtodos que so capazes de
obter todas as solues.
A literatura normalmente divide as solues em duas classes: solues de forma
fechada e solues numricas. Esta ltima so bem mais custosas do ponto de vista
computacional devido a sua natureza iterativa. Alm do mais, so bem mais lentas do
que as verses correspondentes de forma fechada. Para mais informaes sobre solues
numricas, consultar Tsai e Morgan (1985),Nakamura e Hanafusa (1986) e Baker e Wampler
(1988).
As solues de forma fechada so aquelas que obtm como soluo equaes
analticas para os ngulos das juntas em funo da posio e da orientao. Normalmente,
dentro desta categoria podem ser identificados dois tipos de mtodos bem similares: o
algbrico e o geomtrico. O primeiro manipula algebricamente as equaes obtidas na
anlise da cinemtica direta para chegar nas solues. J a segunda faz intenso uso de
tcnicas de geometria planar para obter as solues. Geralmente, as expresses envolvidas
durante ambos os procedimento so do tipo trancendentais. Por exemplo, muitas dessas
expresses so funes de sen() e cos() mas no como funes diretas de .
Um resultado conhecido acerca da obteno das solues da cinemtica inversa
que manipuladores com trs eixos de junta vizinhos que se cruzam sempre tem uma
soluo de forma fechada. Este resultado chamado de Soluo de Pieper e pode ser
consultado em Peiper (1968). O manipulador PUMA 560, utilizado neste trabalho, um
exemplo clssico deste resultado. As referncias Craig (2005), Lee e Ziegler (1984) e Feng,
Hu e Shen (2011) trazem as solues da cinemtica inversa para os robs utilizados neste
2.4. Concluso 53

trabalho, a saber, o rob planar, o PUMA 560 e o Motoman HP6.

2.4 Concluso
Este captulo apresentou os elementos matemticos fundamentais necessrios ao
estudo das cinemticas direta e inversa dos manipuladores industriais. Tambm foram
apresentadas as cinemticas diretas para trs robs manipuladores comumente citados
na literatura. Alm disso, foram abordados alguns aspectos importantes da soluo para
o problema da cinemtica inversa bem como os desafios relacionados sua obteno. O
prximo captulo apresenta os mtodos de regresso no-linear aplicados a este trabalho.
55

3 Algoritmos de Aprendizagem de Mquina

3.1 Introduo
Neste captulo so descritos as arquiteturas e os mecanismos de treinamento dos
modelos de regresso no-linear aplicados ao problema de aprendizado da cinemtica
inversa de robs manipuladores. So apresentados modelos de diversas classes sendo estas
as Redes Neurais Artificiais, Modelos de Regresso Baseados em Mtodos de Kernel,
Sistemas Neuro-Fuzzy, Modelos de Regresso Baseados em Distncia e os Modelos Lineares
Locais.

3.2 Redes Neurais Artificiais


Haykin (2009) define uma rede neural como um processador maciamente pa-
ralelamente distribudo constitudo de unidades de processamento simples, que tm a
propenso natural para armazenar conhecimento experimental e torn-lo disponvel para
uso. Este conhecimento armazenado nas conexes interneuronais e que so representadas
atravs de pesos sinpticos. A atualizao destes pesos sinpticos, atravs de uma regra
de aprendizagem, o que possibilita as redes neurais a desenvolverem um aprendizado e
serem aplicadas em tarefas de generalizao. As duas prximas sees abordam duas redes
neurais utilizadas neste trabalho: o Perceptron Multicamadas (Multi Layer Perceptron,
MLP) e a Mquina de Aprendizado Extremo (Extreme Learning Machine, ELM).

3.2.1 A Rede MLP e o Algoritmo de Retropropagao dos Erros


Basicamente uma rede MLP constituda de um conjunto de unidades de entrada,
uma ou mais camadas ocultas (ou escondidas) compostas por neurnios no-lineares, e
uma camada de sada composta por um ou mais neurnios que podem ser lineares ou
no. Os neurnios das camadas intermedirias so chamados de neurnios ocultos ou
escondidos pelo fato de no terem acesso direto sada da rede. Embora a rede MLP
possa ter qualquer nmero de camadas ocultas, o enfoque nesta dissertao a rede MLP
com apenas uma camada de neurnios ocultos.
A Figura 12 mostra a arquitetura de uma rede MLP feedforward com uma camada
oculta e totalmente conectada, j adaptada ao problema de aprendizado da cinemtica
inversa de um manipulador qualquer. Isto significa que um neurnio em qualquer camada
da rede conectado a todas as unidades/neurnios da camada anterior, e que um sinal de
entrada propaga-se na rede para frente, da esquerda para direita e de camada em camada
56 Captulo 3. Algoritmos de Aprendizagem de Mquina

Unidadesfde Camada Camadafde


entrada oculta sada

-1 -1

px
Vetorfde
2 ^
entradafx py yf=fi
(posiofdo
efetuador) pz

Pesosfdafcamada Pesosfdafcamada
ocultaf(matrizfW) sadaf(vetorfm)

Figura 12 Rede MLP com uma camada oculta para aprendizado da cinemtica inversa.
A figura exibe o vetor de entrada com trs componentes para garantir uma
maior generalidade do problema. A sada da rede fornece uma estimativa ou
predio do valor do ngulo da junta i do manipulador.

x 0 = 1 z 0 = 1

m l0
wi0 ml1
x1 wi1 z1
...
...

wij i zi = (ui) m li l yl = (ul)


xj zi
wid m lh
...
...

xd zh
Figura 13 Entradas e sadas dos neurnios da (a) camada oculta e (b) da camada sada.

(HAYKIN, 2009). A Figura 13 destaca os sinais intermedirios produzidos pela camada


oculta que servem de entrada para os neurnios da camada de sada. Nesta arquitetura
x1 , x2 , . . . , xd so as componentes do vetor de entrada x o qual deve ser acrescido da
componente fixa x0 = 1, correspondente ao limiar (bias). Portanto, o vetor de entrada da
rede MLP, de dimensionalidade d + 1 (com a incluso do limiar), pode ento ser definido
3.2. Redes Neurais Artificiais 57

como:


1 1

x1 p1


x= = p2
x2 (3.1)

.. ..

. .

xd pd

em que d = 3 para um rob movendo-se no espao e d = 2 para um rob planar.


possvel definir a matriz X R(d+1)N1 reunindo todos os vetores de entrada
correspondendo s N1 amostras do conjunto de dados utilizado na etapa de treinamento
da rede. A matriz X pode ento ser escrita como

X = [x(1)|x(2)| . . . |x(N1 )]. (3.2)

Na Figura 12, h (2 h < ) representa o nmero de neurnios da camada oculta,


os quais desempenham um papel crucial na rede MLP porque realizam uma projeo
no-linear cuja meta promover uma mudana na representao do problema de um
espao de dimenso d + 1 para outro de dimenso h de modo a facilitar a resoluo do
problema pelo neurnio de sada (HAYKIN, 2009). Conforme o processo de aprendizagem
da rede avana, estes neurnios comeam gradualmente a descobrir as caractersticas
salientes presentes nos dados de treinamento. Da ento realizam uma transformao
no-linear nos dados de entrada para um novo espao, chamado espao oculto ou espao
de caractersticas.
Na camada de sada de cada rede MLP, a quantidade de neurnios igual a unidade
(g = 1) pois, para a tarefa de regresso no-linear, a rede neural aplicada requer somente
um nico elemento, cuja funo de ativao do tipo linear, a fim de estimar o valor para
cada ngulo de junta.
A matriz W Rh(d+1) formada por todas as conexes (ou pesos) sinpticas
entre as unidades de entrada e o neurnio da camada oculta. Portanto, cada elemento wij
de W na Figura 12 representa a conexo sinptica entre a j-sima entrada e o i-simo
neurnio da camada oculta. A matriz W pode ento ser representada por


wT
1
T
w2
W=
..
(3.3)
.

whT1
58 Captulo 3. Algoritmos de Aprendizagem de Mquina

em que cada linha wiT = [wi0 wi0 . . . wid ] corresponde aos pesos sinpticos que conectam
as d + 1 unidades de entrada ao i-simo neurnio oculto.
Seguindo o mesmo princpio, define-se m R(h+1) como o vetor formado pelas
conexes sinpticas que conectam os neurnios da camada oculta ao neurnio de sada:


m
10
m11

m= .
(3.4)
..


m1h

em que cada componente m1i de m representa a conexo sinptica entre o i-simo neurnio
oculto e o neurnio de sada. A presena de apenas um neurnio de sada devida adoo
de uma abordagem MISO (Multiple Inputs Single Outputs) em que cada varivel de junta
estimada por uma instncia de arquitetura MLP.
Uma vez definida a arquitetura da rede MLP com uma camada oculta e apresentados
os principais parmetros, faz-se necessria uma discusso sobre o algoritmo a ser utilizado
no treinamento da rede. Para esta finalidade escolheu-se o algoritmo de retropropagao
do erro (Error Backpropagation) que o tipo mais comum entre os artigos vistos na
literatura. Na seo seguir descreve-se este algoritmo para o caso mais geral, ou seja, para
a arquitetura MLP(d, h, m).

3.2.1.1 Algoritmo de Retropropagao do Erro

Os neurnios da rede neural MLP so treinados atravs do algoritmo de retro-


propagao do erro (error backpropagation) que foi introduzido por Rumelhart, Hinton
e Williams (1988). O algoritmo consiste em duas fases de propagao de sinais: sentido
direto e sentido inverso.
Sentido direto: Nesta fase um vetor de entrada x apresentado rede e os sinais
de entrada gerados por esse vetor percorrem as camadas ocultas da rede neural rumo
camada de sada. Aps a apresentao do padro de entrada, as ativaes dos neurnios
da camada oculta so calculadas como:
d
wij xj = wiT x,
X
ui = i = 1, . . . , h (3.5)
j=0

em que h indica o nmero de neurnios da camada escondida. Em seguida, as sadas


correspondentes so calculadas por


p
wij xj = (wiT x)
X
zi = (ui ) = (3.6)
j=0
3.2. Redes Neurais Artificiais 59

A funo de ativao (.) assume geralmente uma das seguintes formas:


1
(ui ) = , (Sigmide Logstica) (3.7)
1 + exp[ui ]

1 exp[ui ]
(ui ) = , (Tangente Hiperblica) (3.8)
1 + exp[ui ]
O domnio destas funes a reta dos nmeros reais. Contudo, a imagem da
funo sigmide logstica est restrita ao intervalo [0, 1], enquanto a imagem da tangente
hiperblica est restrita a [1, 1]. De um extremo a outro ambas so sempre crescentes.
Procedimento similar realizado para a camada de sada, onde as entradas desta
camada so as sadas dos neurnios da camada anterior, ou seja:
h
X
uk = mki zi , k = 1, . . . , m, (3.9)
i=0

em que m o nmero de neurnios na camada de sada. Em seguida, as sadas dos


neurnios da camada de sada so calculadas como
q
X
!
yk = (uk ) = mki zi . (3.10)
i=0

As funes de ativao (.) dos neurnios de sada assumem a forma linear, pois a
sada pode assumir qualquer valor entre menos infinito e mais infinito. Aps a determinao
das sadas yk para os m neurnios da camada de sada, calculam-se os erros entre a sadas
desejadas dk e yk :
ek = dk yk , k = 1, . . . , m. (3.11)

Sentido inverso: Aps o clculo do erro na fase anterior, os pesos sinpticos de


todos os neurnios so atualizados atravs da retropropagao dos gradientes locais dos
erros da camada de sada. Estes so calculados da seguinte forma:

k = ek 0 (uk ) = ek yk0 , k = 1, . . . , m, (3.12)

em que
dyk
yk0 = 0 (uk ) = . (3.13)
duk
Aps o clculo do gradiente local para a camada de sada, este retropropagado
recursivamente para a camada oculta:

i = 0 (ui ) (3.14)
P
k mki k , i = 1, . . . , h.

Aps o trmino do clculo dos gradientes locais, estes so utilizados para atualizar
os pesos sinpticos de ambas as camadas. Para a camada oculta tem-se
wij (n + 1) = wij (n) + wij (n),
(3.15)
= wij (n) + i (n)xj (n).
60 Captulo 3. Algoritmos de Aprendizagem de Mquina

e para a camada a regra de atualizao dada por

mki (n + 1) = mki (n) + mki (n),


(3.16)
= mki (n) + k (n)zi (n).

em que a constante chamada de taxa de aprendizagem ou passo de adaptao, e


normalmente assume valores entre 0 e 1.
Durante o uso da rede aps a etapa de treinamento, espera-se que a mesma
seja capaz de generalizar o conhecimento adquirido para novos dados de entrada. Por
generalizao entende-se a habilidade da rede em utilizar o conhecimento armazenado
nos seus pesos e limiares para gerar sadas coerentes para novos vetores de entrada. A
generalizao considerada boa quando a rede, durante o treinamento, foi capaz de
capturar (aprender) adequadamente a relao entrada-sada do mapeamento de interesse.
As aplicaes da rede MLP para aprendizado da cinemtica direta/inversa de robs
manipuladores podem ser encontradas nas seguintes referncias: Yldrm e Eski (2006),
Hasan et al. (2006) e Duka (2014).

3.2.2 A Rede ELM: Arquitetura e Treinamento


Esta arquitetura de rede neural conhecida como rede ELM (HUANG; ZHU; SIEW,
2006) tem a mesma arquitetura de uma rede MLP de uma camada oculta, porm apresenta
uma fase de aprendizado mais rpida que a da rede MLP. Cada neurnio da camada oculta
representado conforme mostrado na Figura 13(a), enquanto os neurnios da camada de
sada so representados conforme mostrado na Figura 13(b).

3.2.2.1 Treinamento da Rede ELM

A rede ELM no possui uma etapa de treinamento semelhante ao da rede MLP,


cuja atualizao dos pesos sinpticos feita atravs do algoritmo backpropagation por
vrias pocas de treinamento. No caso da rede ELM o aprendizado executado de forma
no recursiva atravs de trs passos que contribuiro conjuntamente para obteno dos
pesos sinpticos das camadas oculta e de sada. Estes passos so descritos a seguir.

3.2.2.1.1 Passo 1: Inicializao Aleatria dos Pesos da Camada Oculta

Esta etapa de projeto da rede ELM envolve a especificao aleatria dos pesos
wij , i = 1, . . . , h e j = 0, . . . , d que conectam as (d + 1) entradas aos h neurnios ocultos.
Formalmente, pode-se escrever:

wij U (a, b) ou wij N (0, 2 ) (3.17)


3.2. Redes Neurais Artificiais 61

em que U (a, b) um nmero uniformemente distribudo no intervalo (a, b), enquanto


N (0, 2 ) um nmero normalmente distribudo com mdia zero e varincia 2 .
Em ambientes de programao tais como Matlab c
e Octave, esta fase facilmente
implementada em apenas uma linha de cdigo. Para isso, precisamos definir uma matriz
de pesos W, com h linhas e d + 1 colunas:


w w11 . . . w1d wT
10 1
T
w20 w21 . . . w2d w2

W=
.. .. .. ..
= ..
(3.18)
. . . . .

wh0 wh1 . . . whd h(d+1) whT

onde nota-se que a i-sima linha da matriz W composta pelo vetor de pesos do i-simo
neurnio oculto.

3.2.2.1.2 Passo 2: Acmulo das Sadas dos Neurnios Ocultos

Este passo corresponde etapa de treinamento da rede, em que so calculadas as


ativaes dos neurnios ocultos e suas respectivas sadas. Este passo destina-se gerao
de uma matriz formada pelas sadas dos neurnios ocultos para cada vetor de treinamento.
O fluxo de sinais se d dos neurnios de entrada para os neurnios de sada,
passando obviamente pelos neurnios da camada oculta. Por isso, diz-se que a informao
est fluindo no sentido direto (forward), ou seja,

Entrada Camada Oculta Camada de Sada

Em notao matricial, a Equao (3.6) pode ser escrita como:

z = (u) = (Wx) (3.19)

em que a funo de ativao () aplicada a cada um dos h componentes do vetor u.


Para cada vetor de entrada x(n), n = 1, . . . , N1 , tem-se um vetor y(n) correspon-
dente, que deve ser organizado como uma coluna de uma matriz Y. Esta matriz ter h1
linhas por N1 colunas:


y (1) y1 (2) . . . y1 (N1 )
1
y2 (1) y2 (2) . . . y2 (N1 )

Z = [z(1)|z(2)| . . . |z(N1 )] = .

.. .. .. (3.20)
.. . . .


yh (1) yh (2) . . . yh (N1 ) hN
1
62 Captulo 3. Algoritmos de Aprendizagem de Mquina

Uma linha de 1 deve ser adicionada matriz Y, correspondendo ativao


constante associada ao limiar do neurnio de sada, passando a ser escrita como:


1 1 ... 1

y1 (1) y1 (2) . . . y1 (N1 )



Z = [z(1)|z(2)| . . . |z(N1 )] =

y (1) y2 (2) . . . y2 (N1 ) (3.21)
2

.. .. .. ..
. . . .


yh (1) yh (2) . . . yh (N1 ) hN
1

A matriz Y ser usada no Passo 3 para determinar os valores dos pesos do neurnio
de sada da rede ELM usando o mtodo dos mnimos quadrados.

3.2.2.1.3 Passo 3: Determinao dos Pesos do Neurnio de Sada

Para o problema de interesse, cada vetor de entrada x(n), n = 1, . . . , N1 , tem-se


um escalar de sada desejada (n) correspondente. Ao organizar estes N1 escalares como
um vetor-coluna , tem-se ento um vetor com N1 componentes:


(1)


(2)

=
.. (3.22)
.



(N1 ) N1 1

J que a ativao do neurnio de sada linear, pode-se entender o clculo dos


pesos da camada de sada como o clculo dos parmetros de um mapeamento linear entre a
camada oculta e a camada de sada. O papel de vetor de entrada para a camada de sada
na iterao n desempenhado pelo vetor z(n), enquanto a sada representada pelo
escalar (t). Assim, busca-se determinar o vetor m que melhor represente a transformao

(n) = mT z(n) (3.23)

Para isso, pode-se usar o mtodo dos mnimos quadrados, tambm conhecido como
mtodo da pseudoinversa (PRINCIPE; EULIANO; LEFEBVRE, 2000). Assim, de posse da
matriz Z e do vetor , o vetor de pesos m determinado por meio da seguinte expresso:

m = (ZZT )1 Z = Z (3.24)

importante destacar que a matriz inversa (ZZT )1 na Equao (3.24) no depende


do tamanho do conjunto de treinamento (N1 ), mas sim do nmero de neurnios ocultos
(h).
3.3. Modelos de Regresso Baseados em Mtodos de Kernel 63

Antes de estimar o vetor m, faz-se necessria uma avaliao do posto da matriz Z


pois normalmente esta de posto incompleto, ou seja, o nmero de colunas linearmente
independentes diferente do nmero de neurnios ocultos. Para estes casos, recomenda-se
utilizar a funo pinv do Matlab/Octave a fim de utilizar a Decomposio em Valores
Singulares (SVD, sigla em ingls) que torna a obteno da pseudo-inversa numericamente
mais estvel. Para maiores informaes sobre a SVD pode-se consultar Lay, Camelier e
Irio (1997).

3.2.2.1.4 Uso da Rede ELM Aps o Treinamento

Uma vez determinada a matriz W e o vetor m de pesos, tem-se a rede ELM pronta
para uso. Como o neurnio de sada linear, sua sada calculada como

(n) = mT z(n) (3.25)

em que o vetor de sadas dos neurnios ocultos, z(n), calculado como na Equao (3.6).
A grande vantagem da rede ELM a ser destacada a reduo do tempo de projeto
da rede, pois para este modelo no h treinamento dos pesos dos neurnios ocultos, uma
vez que so definidos aleatoriamente (ver Equao (3.17)), enquanto o vetor de pesos da
camada de sada (m) obtido atravs do mtodo da pseudoinversa (ver Equao (3.24)),
tornando o projeto da rede ELM bem mais veloz que o da rede MLP.
Uma aplicao da rede ELM para aprendizado da cinemtica direta/inversa de
robs manipuladores pode ser encontrada em Feng, Yao-nan e Yi-min (2014).

3.3 Modelos de Regresso Baseados em Mtodos de Kernel


Durante a descrio matemtica de alguns algoritmos de aprendizado de mquina
aparecem operaes envolvendo produtos escalares de funes cuja a propriedade principal
realizar um mapeamento de um espao de menor dimenso, em que as variveis de
entrada e sada esto relacionadas de modo no-linear, em um espao de caracterstica de
maior dimenso, em que uma relao linear entre as variveis estabelecida. Estes produtos
escalares de funes so chamadas de funes de kernel e o mapeamento no-linear
realizado por meio do chamado truque do kernel (kernel trick). Por serem um produto
escalar, os kernels podem ser utilizados como um medida de similaridade entre os pontos
e/ou funes aplicadas a eles. Na prxima seo so descritos dois modelos de regresso que
fazem uso intensivo de funes de kernel: (1) Regresso de Mnimos Quadrados Baseada
em Vetores-Suporte (LS-SVR, sigla em ingls) e os Processos Gaussiano (PG).
64 Captulo 3. Algoritmos de Aprendizagem de Mquina

3.3.1 O Modelo LS-SVR


Mquinas de Vetores de Suporte (Support Vector Machines, SVMs), constituem um
arcabouo de algoritmos de aprendizado de mquina cuja formulao matemtica advm
da Teoria do Aprendizado Estatstico desenvolvida por Vapnik (2000).
SVM foram introduzidas inicialmente na resoluo de problemas de classificao
binria onde demonstra-se a formulao bsica de problemas de otimizao envolvidos na
obteno de um modelo a partir de um conjunto de treinamento. Burges (1998) apresenta
este desenvolvimento bem como outros tipos de aplicaes deste modelo tais como regresso
linear e no-linear. Mais recentemente, foram desenvolvidas diversas extenses das SVMs
destinadas a soluo de problemas de classificao multiclasses e aproximao de funes.
Informaes sobre estes ltimos tpicos podem ser obtidas em Hsu e Lin (2002) e em
Smola e Schlkopf (2004), respectivamente.
Uma destas extenses de grande interesse para este trabalho e se concentra em
uma verso no-linear da aplicao do algoritmo das SVMs, possibilitando a obteno
de modelos capazes de aproximar as funes de interesse para este trabalho. Para isso,
realiza-se um pr-processamento sobre os dados chamado de Truque do Kernel. Seja X o
espao de entrada de onde so obtidos os exemplos de treinamento e um mapeamento
tal que : X =, onde = o espao das caractersticas (feature space). A transformao
leva os dados de treinamento em um espao de maior dimensionalidade no qual existe
uma alta probabilidade de que uma SVM linear seja capaz de realizar a aproximao da
funo neste espao. O truque do Kernel consiste em utilizar o mapeamento de forma
implcita atravs de um tipo especial de funo denominada Kernel, denotada por K(., .),
que definida atravs do produto escalar entre dois pontos do conjunto treinamento que
so previamente aplicados ao mapeamento :

K(xi , xj ) = (xi ) (xj ) (3.26)

As funes de kernel facilitam a obteno dos modelos SVM devido simplicidade


envolvida nos clculos dos problemas de optimizao quadrtica na fase treinamento da
SVMs, onde muitas vezes se desconhece o mapeamento (.) diretamente. So exemplos
de kernels utilizados na prtica os polinomiais, os gaussianos e os sigmoidais. A Tabela 3
lista estes kernels e os parmetros envolvidos em sua utilizao:

Tipo de Kernel Funo K(xi , xj ) Parmetros


Polinomial ((xi xj ) + )d , e d
Gaussiano exp(kxi xj k2 )
Sigmoidal tanh((xi xj ) + ) e

Tabela 3 Tipos de funo de kernel.


3.3. Modelos de Regresso Baseados em Mtodos de Kernel 65

Haykin (2009), Suykens et al. (2002) e Scholkopf e Smola (2001) trazem mais
informaes acerca das propriedades das funes de kernel e suas aplicaes.
Para o caso da aproximao de funes no lineares atravs de SVM uma modificao
foi proposta por Suykens et al. (2002) na formulao do problema primal de otimizao.
Esta modificao tem como objetivo simplificar a formulao da SVM sem que esta perca
algumas de suas vantagens j conhecidas e bastante exploradas, tal como a convexidade
da soluo. Atravs de alguns ajustes na formulao do problema primal, resolve-se um
conjunto de equaes lineares ao invs de um problema de programao quadrtica (PQ).

3.3.1.1 Aplicao em Problemas de Regresso

Dado um conjunto X com N dados de treinamento tal que X = {xk , yk }N k=1 ,


procura-se atravs do uso deste conjunto de dados obter um modelo de regresso no
linear no qual o truque do Kernel aplicado, ou seja, o conjunto de dados mapeado
em um espao de maior de dimensionalidade no qual uma relao linear suficiente para
estimar com acurcia a varivel de sada. Considerando um modelo deste tipo tem-se:

y(x) = wT (x) + b (3.27)

onde x Rd e : Rd Rh a transformao que mapeia o espao de entrada no espao


de caractersticas. Formula-se ento o problema primal de minimizao no espao dos
pesos:

PN
min
Jp (w, e) = 12 wT w + 12 kek2 = 12 wT w + 12 2
k=1 ek
w,b,e (3.28)
Tal que yk = wT (xk ) + b + ek , k = 1, . . . , N

Em determinadas situaes a dimenso do vetor de parmetros w pode ter dimenso


infinita, o que impede a soluo direta do problema primal. Logo, a formulao do problema
dual e a derivao do Lagrangiano tornam-se necessrias. O Lagrangiano assume a seguinte
forma:

N
k {wT (xk ) + b + ek yk }
X
L(w, b, e, ) = JP (w, e) (3.29)
k=1

onde k so os multiplicadores de Lagrange. As condies para encontrar o timo do


66 Captulo 3. Algoritmos de Aprendizagem de Mquina

problema so as seguintes:







L PN
=0w=




w k=1 k (xk )








PN
L

=0 k = 0


k=1
b



(3.30)



L
= 0 k = ek , k = 1, . . . , N





ek








L
= 0 wT (xk ) + b + ek yk = 0, k = 1, . . . , N



k






Aps a eliminao de w e e tem-se a seguinte soluo dual:






Resolver para , b





(3.31)


0 1Tv b 0
=




1v + I/ y

onde y = [y1 ... yN ]T , 1v = [1 ... 1]T e = [1 ... N ]T . O truque de Kernel sendo aplicado,
resulta em:
kl = (xk )T (xl )
(3.32)
= K(xk , xl ) k, l = 1, . . . , N

O modelo LS-SVR resultante para estimao de funes ento dado por:


N
X
y(x) = k K(x, xk ) + b (3.33)
k=1

onde k e b so a soluo do sistema linear da Equao (3.31).


O modelo apresentado acima conserva a convexidade do problema de otimizao
pois apresenta apenas um mnimo global, porm a esparsidade da soluo foi perdida
devido ao fato de todos os pontos do conjunto de treinamento contriburem para a obteno
do modelo. Suykens et al. (2002) propem a utilizao de mtodos clssicos de poda,
tais como o Optimal Brain Damage (LECUN et al., 1989) e o Optimal Brain Surgeon
(HASSIBI; STORK et al., 1993) para que a esparsidade da soluo seja retomada atravs
da escolha dos vetores suporte que tem maior contribuio para os ndices de performance
adotados. Detalhar este tipo de procedimento de poda, porm, est fora do escopo deste
trabalho.
3.3. Modelos de Regresso Baseados em Mtodos de Kernel 67

3.3.2 Modelo de Regresso Baseado em Processos Gaussianos (PG)


Seja um vetor y = [y1 |y2 | . . . |yN ]T composto de N sadas ruidosas que correspondem
a um conjunto de vetores de entrada X = [x1 |x2 | . . . |xN ]. De acordo com Murphy (2012),
Regresso baseada em Processo Gaussiano um mtodo de aprendizagem supervisionada
no-paramtrico que assume o vetor y como um ponto N -dimensional amostrado de uma
distribuio gaussiana multivariada de dimenso N . Para este trabalho, considera-se que
as sadas do modelo so contaminadas por rudo, ou seja, o modelo obtido atravs dos
dados descreve o comportamento global da nuvem de pontos e no uma interpolao dos
dados de treinamento. Para cada sada, tem-se:

yn = f (xn ) + n (3.34)

em que n N (0, y2 ), em que y2 a varincia da sada. A presena de rudo descrita


pela Equao (3.34) pode ser expressa em termos de uma distribuio gaussiana sobre os
valores das componentes dos vetores alvos (targets) cuja mdia a sada ruidosa yn . Em
termos vetoriais, tem-se:

p(f |y) = N (f |y, y2 IN ) (3.35)

onde IN a matriz identidade de dimenso N e f = [f (x1 ) f (x2 ) . . . f (xN )]. Por simpli-
cidade, adota-se a seguinte densidade a priori para o vetor de sada:

p(y) = N (y|0, Ky ) (3.36)

em que a matrix de covarincia das sadas ruidosas Ky dada por

Ky = K + y2 IN (3.37)

em que


k(x1 , x1 ) k(x1 , x2 ) . . . k(x1 , xN )

k(x2 , x1 ) k(x2 , x2 ) . . . k(x2 , xN )


K = k(X, X) = .. .. .. .. (3.38)
. . . .



k(xN , x1 ) k(xN , x2 ) . . . k(xN , xN )

onde a matriz K = k(X, X) e k(, ) chamada de funo de covarincia ou kernel. Esta


funo de covarincia expressa a relao de similaridade entre os dois vetores sobre os quais
ela aplicada. Para valores xi e xj prximos, espera-se que os componentes da matriz K
que correspondam a estes vetores apresentem valores de maior magnitude, indicando uma
68 Captulo 3. Algoritmos de Aprendizagem de Mquina

maior semelhana entre os valores de yi e yj . Isto vai ao encontro da percepo intuitiva que
se tem a priori da possveis funes que realizaro a regresso dos dados. Esta percepo
indica que, para pontos prximos no espao de entrada, deve-se ter variaes suaves na
sada. Diversas funes podem ser utilizadas para este fim, cada uma com o objetivo de
capturar certos aspectos da dinmica de variao dos dados. Uma funo de covarincia
bastante utilizada o kernel gaussiano ou RBF (Radial Basis Functions), definida como

1
 
k(xi , xj ) = f2 exp 2 (kxi xj k2 ) + y2 ij (3.39)
2l
Nota-se que a primeira parte do segundo membro da equao, ao se desconsiderar
brevemente os hiperparmetros f e l, tende para o valor unitrio quando os vetores xi e
xj so prximos e para o valor nulo quando os vetores esto mais distantes.
Consideremos agora o problema de se estimar a sada para um novo padro de
entrada. Seja x um padro de entrada para o qual se quer determinar o valor de sada,
f . Devido suposio que os dados de sada, inclusive o novo valor f , advir de uma
distribuio gaussiana, toma-se tambm um distribuio gaussiana conjunta para o vetor
composto por y e f :

!
y K K
= N 0, y (3.40)
f KT K

onde a mdia zero foi assumida por questes de simplicidade. Utilizando resultados j
conhecidos pela literatura para obteno da distribuio condicional a partir de uma
distribuio gaussiana conjunta, temos:

p(f |X , X, t) = N (f | , ) (3.41)
= KT K1
y y (3.42)
= K KT K1
y K (3.43)

nos quais K = k(X , X) e K = k(X , X ).

3.3.2.1 Estimao dos Hiperparmetros

Como dito anteriormente, a funo de covarincia tem papel fundamental na


predio de novos valores de entrada pois o processo de aprendizagem do PG corresponde a
obteo dos valores adequados dos hiperparmetros atravs dos dados de treinamento. Por
exemplo, para o caso em que a sada ruidosa, a Equao (3.39) possui trs parmetros,
reunidos em um vetor = {f2 , l, y2 }. Estes parmetros definem, respectivamente, a
mxima variao vertical da funo que estima os dados, o parmetro de escala horizontal
do kernel e a varincia do rudo.
3.4. Sistemas Neuro-Fuzzy 69

Uma das tcnicas mais utilizadas para a obteno dos hiperparmentos a maxi-
mizao da funo log-verossimilhana, definida como (3.44):

1 1 N
log p(y|X) = log N (y|0, Ky ) = yK1
y y log |Ky | log (2) (3.44)
2 2 2

A maximizao desta funo pode ser realizada atravs de algortimos de otimizao


baseados em gradiente. Fletcher (2013) e Wright e Nocedal (1999) apresentam alguns
destes algoritmos. Para a otimizao no linear, precisa-se tambm do gradiente da funo
de verossimilhana logartmica com respeito ao vetor de parmetros :

1 Ky 1 1 Ky
log p(y|X) = yT K1
y Ky y tr(K1
y ) (3.45)
i 2 i 2 i
Aps a aplicao de mtodos de otimizao, obtm-se um vetor timo de parmetros
optim cujas componentes so empregadas nas funes de kernel gaussianos adotadas para
o processo de regresso.
Aplicaes de modelos de processos gaussianos no aprendizado de mapeamentos
inversos em robtica, dentre eles so ainda escassos na literatura. As poucas referncias
encontradas so Danafar, Gretton e Schmidhuber (2010) e Grochow et al. (2004) e so
voltadas para a rea de computao grfica. Estes trabalhos apresentam um sistema de
cinemtica inversa baseado em modelos de aprendizado de posturas (i.e. poses) humanas.
Dado um conjunto de restries, o sistema proposto pode produzir, em tempo real, a
postura que mais provavelmente satisfaa quelas restries. O modelo representado
como uma distribuio de probabilidade sobre um espao de posturas, sendo usado uma
variante de processos gaussianos. A abordagem proposta visa substituir a abordagem
clssica de cinemtica inversa em problemas de animao e viso computacional.

3.4 Sistemas Neuro-Fuzzy


De acordo com Jang e Sun (1996), os sistemas Neuro-Fuzzy so aqueles que unem
a adaptabilidade das redes neurais nas tarefas de reconhecimento de padres com a
capacidade dos sistemas de inferncia fuzzy de incorporar conhecimento humano e realizar
tomadas de decises. Esta seo apresenta o ANFIS (Adaptive Network-based Fuzzy
Inference System), uma classe de redes adaptativas que funcionam de maneira equivalente
a um sistema de inferncia fuzzy.

3.4.1 Adaptive-Network-Based Fuzzy Inference System (ANFIS)


Muitos problemas computacionais podem ser bem caracterizados e resolvidos
atravs de conjuntos que representam a pertinncia de seus elementos de forma binria.
70 Captulo 3. Algoritmos de Aprendizagem de Mquina

Estas pertinncias so tratadas de forma precisa e isenta de incertezas, ou seja, pode-se


afirmar com exatido se um elemento pertence ou no a determinado conjunto atravs
de valores verdadeiros ou falsos. Por exemplo, pode-se considerar que um homem alto
quando sua altura maior ou igual a 1,75 m. Neste caso, todos os homens que possuir
uma altura maior ou igual a 1,75 m sero ditos altos, caso contrrio sero ditos baixos.
Tais conjuntos formam a base daquilo que se denomina raciocnio exato.
O raciocnio exato se demonstra ineficiente ao tentar caracterizar grandezas impre-
cisas ou vagas devido ao fato de nem sempre estas grandezas podem ser atribudas a valores
verdadeiros ou falsos. Alm do mais, necessita-se tratar formalmente expresses lingusticas
complexas que relacionem as grandezas envolvidas. Neste contexto, a Lgica Fuzzy e a
Teoria dos Conjuntos Fuzzy fornecem todos os mecanismos formais para descrever estes
tipos de variveis. Todo raciocnio envolvido nestes casos dito aproximado, devido a
sua similaridade ao modo de raciocnio humano. Para o exemplo citado anteriormente, a
Lgica Fuzzy definir graus de pertinncia aos elementos do conjunto de homens altos.
Por exemplo, um homem com 1,70 m pertence ao conjunto dos homens altos com grau de
pertinncia 0,9.
Uma das aplicaes da Lgica Fuzzy a de se estimar sadas atravs de um conjunto
de entradas fornecidas. Sistemas que realizam estes mapeamentos so denominados Sistemas
de Inferncia Fuzzy e suas sadas podem ter diversas finalidades, desde auxlio na tomada
de decises, em problemas de classificao, dentre outros. A Figura 14 ilustra um sistema
de inferncia fuzzy que constitudo das seguintes partes:

Entradas Sadas
Determinsticas Determinsticas

Regras
Fuzzy

Fuzzicao Defuzzicao

Inferncia
Conjuntos Fuzzy Conjuntos Fuzzy
de Entrada de Sada

Figura 14 Componentes de um Sistema de Inferncia Fuzzy (do ingls, FIS).

Fuzzificador ou Processo de Fuzzificao: realiza a transformao de uma


varivel no-fuzzy em variveis fuzzy atravs da aplicao de funes de pertinncia.
Este estgio tambm responsvel pela remoo de rudo que contamina as variveis
de entrada.
3.4. Sistemas Neuro-Fuzzy 71

Regras Fuzzy: so relaes entre variveis lingusticas que definem, em conjunto


com a base de dados, o comportamento dinmico do sistema de inferncia fuzzy.
Elas so baseadas no conhecimento e experincia de especialistas no domnio do
problema. Estas regras possuem o formato:

SE premissa(s) ENTO consequncias (3.46)

A parte das premissas normalmente envolve mais de uma varivel lingustica que so
combinadas atravs de operadores lgicos. Estas variveis podem vir acompanhadas
de modificadores de vrios tipos cuja funo a de intensificar determinado aspecto
destas variveis. Por exemplo, pode-se aplicar um modificador de contraste para
aumentar a diferena de grau de pertinncia entre os valores mais baixos e mais
altos do espao de discurso de um conjunto fuzzy. Engelbrecht (2007) traz maiores
detalhes acerca de modificadores lingusticos. J a parte consequente das regras
normalmente utilizam apenas uma varivel lingustica porm mltiplas variveis
podem estar presentes.

Banco de Dados: define as funes de pertinncia dos conjuntos fuzzy utilizados


no conjunto de regras.

Mecanismo de Inferncia: processo pelo qual as entradas fuzzyficadas so utiliza-


das para gerar as sadas para cada regra. Esta sada chamada de fora de disparo
da regra. Aps o clculo de todas as foras de disparo, estas so acumuladas gerando
apenas uma sada fuzzy. Nesta fase possvel atribuir pesos que a priori quantificam
o grau de confiana da regra. Esta anlise de confiana tambm feita por um
especialista no domnio do problema.

Defuzzificador ou Processo de Defuzzificao: realiza a operao inversa do es-


tgio fuzzyficador, ou seja, transforma a sada fuzzy do FIS em um ponto pertencente
a um conjunto ordinrio (tambm conhecido como crisp). As referncias Engelbrecht
(2007) e Jang e Sun (1996) apresentam alguns dos tipos de defuzzificadores mais
utilizados, suas vantagens e desvantagens.

Como exposto em Lee (1990), Sistemas de Inferncia Fuzzy foram aplicados com
sucesso em diversas reas tais como controle, predio e inferncia. Porm, existem algumas
questes que so inerentes aplicao destes sistemas. Uma delas inexistncia de um
mtodo padronizado de se mapear o conhecimento e experincia de um especialista em
um banco de dados de regras e seus conjuntos Fuzzy associados. Alm do mais, faz-se
necessrio um mtodo efetivo de ajustar os parmetros das funes de pertinncia de forma
a minimizar o erro de mapeamento do Sistema de Inferncia Fuzzy. Isto posto, Jang (1993)
props uma arquitetura feedfoward hbrida denominada ANFIS (Adaptive-Network-Based
72 Captulo 3. Algoritmos de Aprendizagem de Mquina

Fuzzy Inference System), cujas as caractersticas so endereadas soluo dos entraves


citados anteriormente.
Como uma forma de simplificar a descrio da arquitetura do ANFIS, sero utilizado
como exemplo um sistema de duas entradas, denominadas x e y, e uma sada z. Alm do
mais, sero utilizadas regras fuzzy do tipo Takagi e Sugeno (TK) (TAKAGI; SUGENO,
1985), onde as sadas de cada regra so determinadas por uma combinao linear das
variveis de entrada mais uma constante. A Figura 15 ilustra a arquitetura do ANFIS,
onde os sistemas retangulares so sistemas adaptativos, ou seja, possuem parmetros
ajustveis que determinam suas relaes entrada-sada. As funes de cada n na mesma
camada so descritas em seguida:

A1

w1 w1
w 1 f1
A2 N
x
y
f

B1 w2 N w2
w 2 f2

B2

Figura 15 Diagrama de blocos do ANFIS. Os blocos retangulares dispem de parmetros


que so adaptados durante a fase de treinamento.

Camada 1: tem como funo encontrar uma representao fuzzy dos valores de
entrada no fuzzy. Isto realizado atravs da aplicao da funo de pertinncia a um
valor obtido do universo de discurso. Qualquer funo que siga as restries bsicas
de uma funo de pertinncia pode ser aplicada desde que esta seja diferencivel por
partes. Em Jang (1993), funes com formato de sino foram utilizadas. medida
que o treinamento supervisionado se desenrola, os parmetros so atualizados e,
consequentemente, o formato das funes alterado. Por exemplo, a funo:

1
(x) = (3.47)
1+ [( xc
ai
i 2 bi
)]

altera o seu formato medida que ai , bi e ci so atualizados. Como tais parmetros


definem a interface entre o espao de entrada no-fuzzy e o espao fuzzy, ou seja,
a parte SE de uma regra SE-ENTO fuzzy, ele so chamados de parmetros de
premissa, onde i denota uma regra fuzzy.

Camada 2: realiza uma operao E lgica caso uma das regras fuzzy possua mais
de uma varivel lingustica associada parte da premissa de uma regra fuzzy. A
3.4. Sistemas Neuro-Fuzzy 73

operao de interseo de duas variveis fuzzy A e B pode ser realizada atravs de


operaes matemticas chamadas T -normas, porm a mais comumente utilizada a
multiplicao:

wi = A (x) B (x) (3.48)

Este bloco tem como sada o que se chama fora de disparo da regra.

Camada 3: esta camada realiza uma normalizao com respeito ao somatrio das
foras de ativao de todas as regras:
wi
wi = PN (3.49)
i=1 wi

onde N o nmero de regras. Os novos valores produzidos so chamados de foras


de disparo normalizadas.

Camada 4: aps o processo de normalizao esta camada aplica a parte consequente


da regra SE-ENTO fuzzy. Em (JANG, 1993) a parte consequente do tipo Takagi-
Sugeno (TS), ou seja, a sada de cada regra uma combinao linear das variveis
de entrada mais um termo constante:

Oi = wi fi = wi (pi x + qi y + + ri ) (3.50)

onde o conjunto pi , qi , ri chamado de parmetros consequentes.

Camada 5: camada de n nico que realiza a acumulao das sadas da camada


anterior:
N
X
O= w i fi (3.51)
i

A partir da descrio da arquitetura fica clara a necessidade de ajustar os parmetros


dos ns adaptativos. Para isso, um algoritmo de treinamento hbrido empregado, onde
a primeira fase dita foward e a segunda dita backward, de forma similar quela
apresentadas para as redes neurais MLP. Na primeira fase o fluxo de sinais se propaga
da camada de entrada at a camada de sada, enquanto os parmetros das premissas so
mantidos fixos e os parmetros da parte conseqente so ajustados atravs do algoritmo
Least Mean Squares (LMS). Na segunda fase, aps a determinao dos parmetros da
parte consequente, o fluxo de sinais se propaga da camada de sada em direo a camada
de entrada e os parmetros da premissa so ajustados atravs de error backpropagation.
Devido fixao de parte dos parmetros, o algoritmo converge mais rapidamente, pois
reduz a dimenso do espao de busca do algoritmo de retropropagao do erro (JANG;
SUN, 1996).
74 Captulo 3. Algoritmos de Aprendizagem de Mquina

As aplicaes do modelo ANFIS para aprendizado da cinemtica direta/inversa


de robs manipuladores podem ser encontradas nas seguintes referncias: Mashhadany e
MIEEE (2012), Alavandar e Nigam (2008) e Duka (2015).

3.5 Regresso Baseada em Distncia


O algoritmo apresentado nesta seo supe a existncia de um mapeamento entre
as configuraes geomtricas dos pontos do espao de entrada e as configuraes geom-
tricas dos respectivos pontos no espao de sada. Estas configuraes geomtricas so
representadas atravs de matrizes de distncias em relao a pontos de referncia tomados
de ambos os espaos. A capacidade destes modelos de generalizar a partir de novos pontos
advm de um mapeamento linear entre as matrizes de distncia. A prxima seo detalhar
o Minimal Learning Machine (MLM), a formao das matrizes de distncia e a obteno
do mapeamento entre elas.

3.5.1 Minimal Learning Machine (MLM)


De acordo com Junior et al. (2013), o modelo MLM consiste de um mtodo de
aprendizagem supervisionado em que se assume um mapeamento geomtrico entre os pontos
do espao de entrada e os pontos do espao de sada. Este mapeamento representado
por matrizes de distncia de entrada e sada que so calculadas com respeito aos padres
de entrada e sadas desejadas e dois conjuntos de pontos de referncia tomados nos espao
de entrada e sada respectivamente. O aprendizado da rede MLM se desenvolve atravs
da determinao de um modelo de regresso linear entre as duas matrizes de distncia.
Ento, dado um ponto no espao de entrada podemos estimar a localizao do ponto de
sada atravs do modelo de regresso aprendido.
Dado um conjunto, com xi RD , dos padres de entrada e um conjunto, com
yi RS , das sadas correspondentes. Tem-se como objetivo encontrar o mapeamento
f : X Y a partir dos dados utilizando-se o seguinte modelo:

Y = f (X) + R, (3.52)

tal que as matrizes X = [x1 , ..., xD ] e Y = [y1 , ..., yD ] so construdas atravs da concate-
nao vertical dos padres de entrada e sada respectivamente. A matriz R de dimenso
N S denota os resduos.
Para incluir a noo de mapeamento geomtrico entre o espao de entrada e sada,
a MLM define um modelo de regresso linear auxiliar que baseado em matrizes de
distncia. Dois conjuntos de K pontos de referncia, R = {mk }K K
k=1 e T = {tk }k=1 , so
tomados do conjunto de entrada e do conjunto de sada respectivamente. As matrizes
3.5. Regresso Baseada em Distncia 75

de distncia relativas a esses pontos de referncia so Dx e y , respectivamente, e se


relacionam atravs do seguinte mapeamento linear:

y = Dx B + E, (3.53)

em que a matriz B de dimenses K K deve ser estimada a partir dos dados. A matriz
E armazena os resduos.
Normalmente, tem-se K < N , ou seja, o nmero de pontos de referncia tomados
menor do que o nmero de padres fornecidos pelo conjunto de dados. Baseando-se nesta
afirmativa utiliza-se o mtodo dos mnimos quadrados para estimar o mapeamentoB, ou
seja

B = (DTx Dx )1 DTx y , (3.54)

Dado um ponto de teste x RD no espao de entrada, calcula-se o vetor d(x, R) =


[d(x, m1 ), ..., d(x, mK )] que composto pelas distncias do ponto x ao conjunto R dos
pontos de referncia mk do espao de entrada. Aplicando o mapeamento B tem-se:

(y, T ) = d(x, R)B (3.55)

em que (y, T ) uma estimativa das distncias do ponto y ao conjunto T dos pontos tk
de referncia do espao de sada.
Neste ponto, tem-se um problema de multilaterao que consiste encontrar uma
estimativa da posio de um ponto y, denominada y, dados pontos fixos no espao
e as distncias at o ponto desejado. Dado que o ponto y RS , podemos solucionar
este problema resolvendo um conjunto sobredeterminado de K equaes no lineares
correspondendo a hiperesferas de dimenso (S + 1) centradas em tk passando atravs de
y. A Figura 16 ilustra esta situao para S = 2
Dado o conjunto de k = 1, . . . , K esferas com cada raio igual a (y, tk ), temos a
seguinte relao:

(y tk )0 (y tk ) = 2 (y, tk ) (3.56)

Atravs da Equao (3.56) podemos estimar a sada minimizando a seguinte funo


de custo:

K
0
((y tk ) (y tk ) 2 (y, tk ))2
X
J(y) = (3.57)
k=1
76 Captulo 3. Algoritmos de Aprendizagem de Mquina

tk t2
^
^ (y,t2)
(y,tk)
y ^
^
(y,t3)
^
(y,t1)
t3
t1

Figura 16 Problema de multilaterao para S = 2.

O problema de minimizao da funo de custo pode ser resolvido utilizando


algoritmos de gradiente descendente. Neste trabalho, foi aplicado o algoritmo de Levenberg-
Marquardt para encontrar a sada estimada:

K
0
((y tk ) (y tk ) 2 (y, tk ))2
X
y = argmin (3.58)
y k=1

Como o modelo MLM foi recentemente proposto na literatura, esta a primeira


vez que o modelo MLM est sendo aplicado no aprendizado dos modelos cinemticos de
robs manipuladores.

3.6 Modelos Lineares Locais

Modelos locais so aqueles que particionam o domnio do problema em regies


menores de modo que um modelo mais estruturalmente simples seja adotado para cada
regio. Para o caso especial de aproximao de funes deste trabalho, quantiza-se o
domnio do problema e atribui-se um modelo linear a cada uma das regies obtidas. A
seo seguinte dedicada ao estudo do algoritmo Mapeamento Linear Local (Linear
Local Mapping, LLM) bem como o quantizador vetorial K-mdias associado a ele. O
algoritmo que ser apresentado foi adaptado de Walter, Riter e Schulten (1990) atravs da
substituio do quantizador SOM pelo quantizador K-mdias.
3.6. Modelos Lineares Locais 77

3.6.1 Linear Local Models (LLM)


3.6.1.1 Introduo

O algoritmo apresentado nesta seo conhecido como modelos locais, pois partici-
onam os espaos de entrada e de sada em regies especficas, que so parametrizadas pelo
uso de modelos lineares que estimam a dinmica existente em cada partio. Tais modelos
lineares atuam conjuntamente com os vetores-prottipos obtidos atravs um algoritmo
de quantizao vetorial chamado K-mdias. Estes vetores-prottipos so responsveis por
mapear os vetores de entrada ao modelo local adequado. As duas prxima sees descrevem
o processo de quantizao vetorial atravs do algoritmo K-mdias e o precedimento de
treinamento dos Modelos Lineares Locais, respectivamente.

3.6.1.2 Algoritmo K-mdias Batch

O primeiro algoritmo baseado em prottipos a ser descrito o amplamente co-


nhecido algoritmo K-mdias (MACQUEEN et al., 1967), tambm conhecido no campo
de quantizao vetorial como algoritmo de Linde-Buzo-Gray (LBG) ou algoritmo de
Lloyd generalizado (VASUKI; VANATHI, 2006). A aplicao do algoritmo K-mdias a um
conjunto de N1 vetores visa encontrar um conjunto de g prottipos, {wi }gi=1 , g  N1 , que
particione os dados de entrada em exatamente g grupos distintos.
A regio de influncia de determinado prottipo chamada de partio de Voronoi
(ou Dirichlet) daquele prottipo, sendo definida como

Vi = {x Rd | kx wi k < kx wj k, j 6= i} (3.59)

em que || || denota a norma euclidiana. Assim, com g prottipos o espao de entrada


particionado em g regies de Voronoi.
O algoritmo K-mdias prov um mtodo simples para a obteno de g prottipos
que minimizem a seguinte funo-custo:

g X
kx wi k2
X
D= (3.60)
i=1 xVi

tambm conhecida pelos seguintes nomes: erro de quantizao, erro de reconstruo ou


ainda distoro. Esta minimizao realizada atravs da implementao da seguinte
sequncia de passos:

Passo 1 - Seleo aleatria de g vetores do conjunto de dados para funcionar como


prottipos iniciais;
78 Captulo 3. Algoritmos de Aprendizagem de Mquina

Passo 2 - Separao do conjunto de dados em g regies de Voronoi Vi , i = 1, . . . , g,


de acordo com a Equao (3.59);

Passo 3 - Os novos prottipos so recalculados como as mdias aritmticas (centri-


des) dos dados alocados a cada regio de Voronoi Vi , ou seja

1 X
wi = x, (3.61)
Ni xVi

em que Ni o nmero de vetores pertencentes clula de Voronoi do i-simo prottipo;


ou equivalentemente, o nmero de vetores de dados para os quais o prottipo wi o
mais prximo, segundo a mtrica euclidiana.
Os passos 2 e 3 devem ser repetidos at que no haja mudanas substanciais no
valor de D (Equao (3.60)) ou um determinado nmero mximo de iteraes tenha sido
alcanado. Um critrio de parada comumente usado verifica se a taxa de variao da
distoro D est abaixo de um limiar de distoro 0 <   1 preestabelecido, ou seja


D(t + 1) D(t)



< (3.62)
D(t + 1)

em que o operador | | denota o valor absoluto, e D(t) corresponde ao valor do erro de


quantizao na t-sima rodada de ajuste dos prottipos.

3.6.1.3 Modelos Lineares Locais com Quantizador K-mdias

Grosso modo, a ideia bsica do modelo LLM associar cada prottipo do algoritmo
K-mdias a um modelo linear ARX treinado pelo algoritmo LMS (Least-Mean Squares). O
algoritmo K-mdias usado para quantizar o espao de entrada em um nmero reduzido
de prottipos (e, assim, de clulas de Voronoi), enquanto o preditor linear associado a
cada neurnio fornece uma estimativa local da sada do mapeamento a ser aproximado.
De maneira mais formal, seja d a dimenso do espao cartesiano sobre o qual
incidir uma operao de quantizao vetorial. O valor apropriado de d ser definido de
acordo com o modelo cinemtico que se quer aproximar. Por exemplo, o rob PUMA 560
possui seu espao de trabalho definido em trs dimenses, implicando d = 3. Um elemento
qualquer deste espao definido como o vetor de entrada x X Rd , tambm chamado
de vetor de regressores.
3.6. Modelos Lineares Locais 79

Para a tarefa de aproximao das funes cinemticas dos manipuladores robticos,


cada vetor de entrada x Rd definido como


p
1
p2

x(t) =
.. .
(3.63)
.

pd

Para realizar a quantizao vetorial do espao X , cada prottipo i de um algoritmo


K-mdias qualquer possui um vetor de pesos wi , definido como


w
i1
wi2

x(t) =
.. ,
(3.64)
.

wid

na qual g o nmero total de prottipos do algoritmo. Associado a cada vetor de pesos


existe um vetor de coeficientes ai X Rd contendo os coeficientes do i-simo modelo
ARX, dado por


a
i1
ai2

ai (t) =
.. ,
(3.65)
.

aid

em que d a dimenso do modelo ARX correspondente. Assim, os parmetros ajustveis


do modelo LLM so os conjuntos de vetores de pesos wi e seus respectivos vetores de
coeficientes ai , para i = 1, . . . , g.
Seguindo a lgica competitiva do algoritmo K-mdias, somente um neurnio por
vez pode ser usado para estimar a sada do modelo LLM. A seleo do neurnio vencedor
se d com base na distncia euclidiana do seu vetor de pesos ao vetor de entrada, ou seja,

i (t) = arg min kx(t) wi (t)k (3.66)


iA

Uma vez determinado o neurnio vencedor, a sada do modelo LLM calculada da


seguinte maneira:

y(t) = aiT (t)x(t) (3.67)

Resta, portanto, descrever o processo de aprendizagem do modelo LLM. Diferente


da rede neural SOM, o algoritmo K-mdias no apresenta relaes de vizinhana entre seus
80 Captulo 3. Algoritmos de Aprendizagem de Mquina

prottipos, logo a regra de atualizao dos coeficientes dos modelos lineares no leva em
considerao nenhuma funo de vizinhana. A cada poca em que os vetores prottipos
so recalculados e as regies de Voronoi ajustadas, o mtodo da pseudo-inversa aplicado
novamente para obter novos modelos lineares. A Equao (3.68) resume este procedimento:

A = YXT (XXT )1 (3.68)

onde a matriz X formada pela concatenao lateral dos vetores coluna de entrada
associados a uma regio de Voronoi especfica e Y a matriz formada pela concatenao
lateral dos vetores de sada.
Neste trabalho, o treinamento finalizado ao final das ne pocas fixadas nas
simulaes, porm pode-se parar o treinamento em um ponto no qual as mtricas de
desempenho tenham sido satisfeitas. O erro de quantizao, obtido atravs da Equao
(3.62), pode ser utilizado para este propsito.
Uma vez apresentado o modelo LLM, importante e construtivo tecer alguns
comentrios sobre as principais caractersticas deste algoritmo, que o diferencia das
abordagens lineares tradicionais.

O modelo LLM pode ser entendido como um banco de modelos lineares do tipo ARX,
um para cada neurnio, cujo o modelo local a ser usado no instante t escolhido entre
os g modelos locais disponveis. A escolha de qual modelo local e, consequentemente,
de qual vetor de coeficientes usar definida pela Equao (3.66). Se a rede possuir
apenas um neurnio (i.e. g = 1), o modelo LLM se torna equivalente ao modelo
ARX/LMS convencional.

Do ponto de vista computacional, pode-se dizer que o algoritmo LLM implementa


uma aproximao linear por regio da funo no-linear que se deseja aproximar, ou
seja, o sinal de entrada vetorizado e o conjunto de vetores resultantes quantizado
pelo algoritmo K-mdias atravs de seus vetores-prottipos {wi }gi=1 . Estes prottipos
definem as coordenadas dos centrides de g regies do espao de entrada X, chamadas
de clulas de Voronoi (PRINCIPE; EULIANO; LEFEBVRE, 2000) (ver Figura 17).
Por sua vez, cada clula de Voronoi define o campo receptivo ou regio de atrao
do i-simo neurnio, ou seja, a regio do espao de entrada para a qual o neurnio
i sempre escolhido vencedor. O que o modelo LLM faz associar um vetor de
coeficientes ai a cada clula de Voronoi, tal que cada conjunto de coeficientes define
um hiperplano aproximador da funo no-linear de interesse.

As primeiras aplicaes bem sucedidas de redes neurais auto-organizveis do tipo


Mapa de Kohonen no aprendizado de mapeamentos inversos em robtica, entre eles
3.7. Concluso 81

Figura 17 Representao da arquitetura do modelo LLM.

a cinemtica inversa, datam do final da dcada de 1980 (ANGULO; TORRAS, 1997),


(MARTINETZ; RITTER; SCHULTEN, 1990) e (RITTER; MARTINETZ; SCHULTEN,
1989). Uma ampla reviso deste tipo de aplicao pode ser encontrada em Barreto, Arajo
e Ritter (2003).

3.7 Concluso
Este captulo apresentou os diversos modelos de regresso no-linear utilizados por
este trabalho na obteno das funes que realizam o mapeamento inverso da cinemtica
dos manipuladores. Para cada modelo, foram apresentadas as particularidades relativas
ao treinamento e utilizao de um modelo j ajustado aos dados. O prximo captulo
apresenta a metodologia adotada para a justa comparao dos melhores modelos obtidos
para trs conjuntos de dados gerados pelas cinemticas diretas de trs manipuladores
industriais diferentes.
83

4 Simulaes e Resultados

4.1 Introduo
Este captulo tem como objetivo apresentar os resultados obtidos a partir de
simulaes realizadas sobre trs conjuntos de dados para fins de aproximao das funes
que governam a cinemtica inversa do rob planar, do manipulador PUMA 560 e do
manipulador Motoman HP6. Tais resultados serviro de base para uma anlise comparativa
entre os desempenhos de modelos no-paramtricos que cobrem diferentes paradigmas de
aprendizagem de mquina na tarefa de aprendizado da cinemtica inversa.
Ser apresentada, de forma geral, a metodologia utilizada na obteno dos resultados
bem como os devidos detalhamentos de cada um dos passos que a compe. Esta metodologia,
atravs dos resultados da fase de testes, ajudar na escolha dos melhores algoritmos para
cada um dos manipuladores supracitados.
A validao dos modelos escolhidos para cada paradigma ser realizada atravs da
anlise dos resduos, i.e. erros de predio, para uma grande quantidade de realizaes
de treinamento, validao e teste. Figuras de mrito, tais como o valor mdio ((k )) e
o desvio padro ((k )) dos erros quadrticos mdios (EQM) das diversas realizaes,
fornecero meios quantitativos para as comparaes entre os modelos.
Por fim, sero realizados testes de hipteses a fim de comparar as distribuies
acumuladas empricas dos resduos obtidos para cada conjunto de funes estimadas
pelos modelos. Tais testes visam avaliar se h diferenas estatsticas significantes entre os
desempenhos dos melhores modelos.
A seguir descrita a metodologia adotada que norteou o desenvolvimento das
simulaes realizadas neste trabalho, bem como a coleta de seus resultados.

4.2 Metodologia de Trabalho


Ao se realizar estudos comparativos entre diferentes algoritmos de aprendizado de
mquina de suma importncia a utilizao de uma metodologia que fornea resultados
no enviesados, garantindo assim uma base justa de comparao entre as execues dos
diversos algoritmos. Neste trabalho foi adotado um conjunto de atividades ordenadas
que orientaram a obteno dos resultados. Estas atividade foram executadas na seguinte
ordem:

1. Definio do problema: foi realizado um profundo estudo dos conceitos de rob-


84 Captulo 4. Simulaes e Resultados

tica envolvidos no problema de aproximao da cinemtica inversa bem como os


modelos de simulao que representam as estruturas robticas utilizadas para gerar
os conjuntos de dados empregados nas simulaes. O Captulo 2 traz um apanhado
de tais conceitos.

2. Gerao dos conjuntos de dados: utilizando os conceitos absorvidos no passo


anterior, foram gerados trs conjuntos de dados contendo pontos gerados no volume
de trabalho e que foram escolhidos arbitrariamente, um para cada estrutura robtica.
Alm do mais, tambm criou-se conjuntos especficos que correspondem a trajetrias
fixas dentro do volume de trabalho dos robs. A Seo 4.4 descrever a estrutura
destes conjuntos em maiores detalhes.

3. Particionamento dos dados: para cada algoritmo, foram executadas nr = 50


rodadas independentes de treinamento. Em cada uma destas rodadas, os conjuntos
principais de dados foram divididos em conjuntos de treinamento, validao e teste.
Os dois primeiros foram utilizados para estimar os hiperparmetros dos modelos
de cada algoritmo enquanto o ltimo foi utilizado para obter valores de EQMs
para pontos realmente no vistos durante as fases de treinamento e validao. Os
EQMs tambm foram utilizados para gerar uma mtrica que serviu como critrio de
avaliao de desempenho e seleo dos melhores algoritmos no espao das juntas. Na
Seo 4.5 descrever-se- em maiores detalhes a finalidade deste particionamento.

4. Seleo de parmetros: os parmetros livres de cada algoritmo sero selecionados


atravs dos conjuntos de treinamento e validao advindos da fase anterior. Ao final
deste passo, cada varivel de junta ter associada a ela sete modelos de regresso,
um para cada algoritmo, que aproximam a respectiva funo de cinemtica inversa.
Isto ocorre devido ao fato deste trabalho utilizar uma abordagem MISO, ou seja,
as variveis de sada dos modelos de regresso so estimados de forma separada.
Na Seo 4.6 so detalhados os critrios que foram adotados para a escolha dos
melhores parmetros dos regressores. Alm do mais, desenvolve-se nesta parte do
texto o conceito de erro quadrtico mdio que a base do processo comparativo
deste trabalho.

5. Teste dos modelos: os conjuntos de teste so apresentados a todos os algoritmos


e as mtricas de comparao so reunidas. Ser apresentado o conceito de Mtrica
de Seleo que d uma noo quantitativa do desempenho global das estimativas
entregues pelos modelos, ou seja, quando se considera o desempenho da estimao
dos ngulos de junta que mais contribuem para o posionamento do manipulador.
Estas mtricas so usadas para selecionar os dois melhores algoritmos para cada
conjunto de dados. Os algoritmos de melhor desempenho (i.e. de menor Mtrica
de Seleo) so submetidos fase seguinte, em que os resduos de estimao so
4.3. Definio do Problema 85

analisados. Alm do mais, so apresentados grficos de estimao das trajetrias


de teste que ilustram de forma qualitativa o quo boas foram as estimativas para
os ngulos de junta que os atuadores rotacionais precisam posicionar para que elas
sejam completadas. Na Seo 4.7 so detalhados os resultados obtidos nessa fase.

6. Anlise dos resduos: No Captulo 5 sero executados dois tipos de anlise: (i)
anlise da autocorrelao dos resduos e (ii) testes de hiptese de Kolmogorov-
Smirnov. Para simplificar a anlise, estas duas anlises sero aplicadas somente aos
dois algoritmos que apresentaram menor mtrica de seleo na fase de testes.

4.3 Definio do Problema


Como dito anteriormente no Captulo 2, a cinemtica inversa de vital importncia
para a tarefa de controle de um rob manipulador. Porm, a obteno de uma expresso
analtica que relacione coordenadas cartesianas com ngulos de junta no de fcil
derivao, principalmente para robs mais complexos1 . Alm do mais, a cinemtica inversa
pode apresentar mltiplas solues. Pensando na soluo deste problema decidiu-se avaliar
sete modelos de regresso na tarefa de aprendizado das funes de cinemtica inversa para
os ngulos de juntas de cada manipulador a partir de padres de treinamento amostrados
de um task space especfico. A Figura 18 ilustra como o problema foi abordado.

ModelosrderSimulao AlgoritmospModelosrderRegresso

ROB ELM
PLANAR MLM
Especificao Dados MLP Estimativas
dortaskspace MANIPULADOR (xzyzzz 1,...,kx (1,...,kx
PUMAr56c ANFIS
LS)SVR
MANIPULADOR LLM
MOTOMANrHP6 PG

Figura 18 Regresso das funes de cinemtica inversa a partir de dados gerados por
modelos de simulao.

1
Por robs mais complexos, entende-se robs que no possuem uma estrutura padro do tipo rob
manipulador industrial. O rob Big Dog (Boston Dynamics - <http://www.bostondynamics.com/
robot_bigdog.html>) um exemplo
86 Captulo 4. Simulaes e Resultados

4.4 Gerao dos Conjuntos de Dados


Nesta seo descreve-se como foram obtidos os conjuntos de dados utilizados
na aproximao das funes de cinemtica inversa para as trs estruturas robticas
escolhidas. O uso de trs conjunto de dados se deu pelo fato de os algoritmos implementados
necessitarem testes de validao da implementao, onde os conjuntos de dados menos
complexos, tais como o do rob planar, tornaram-se uma excelente arcabouo para tal fim.
Alm disso, de suma importncia apresentar dados de diferentes complexidades para
medir a capacidade de generalizao dos regressores escolhidos. As prximas subsees
detalham como foram definidos os task spaces e suas respectivas amostragens, bem como
a organizao dos conjuntos de dados que foram submetidos s simulaes nos passos
posteriores.

4.4.1 Dados para o Rob Planar


Conforme descrito na Seo 2.3.5.2, o rob planar possui duas variveis de junta
= [1 2 ]T e a localizao do seu efetuador dada por apenas duas componentes
cartesianas r = [px py ]T . Os comprimentos dos elos, denotados por l1 e l2 , determinam
como os ngulos de junta se relacionam localizao do efetuador. Obviamente, cada
ngulo de junta possui limites fsicos para suas faixas de existncia.
Com tais informaes em mente, foram escolhidas duas faixas para 1 e 2 dentro
dos limites mximos para cada ngulo. O ngulo 1 foi tomado no intervalo T1 = {1 R |
0 1 /2} e o ngulo 2 foi tomado no intervalo T2 = {2 R | 0 2 }, ambos
com um passo de discretizao de 0,1 radianos. Para determinar completamente as funes
de cinemtica direta, l1 foi definido como 10 cm e l2 com 7 cm.
Com as faixas T1 e T2 definidas, o conjunto dos pontos dos ngulos de junta foi
montado atravs do produto cartesiano dos conjuntos T1 e T2 . Tais pares (1 ,2 ) foram
aplicados s Equaes (2.10) e (2.11) para obter o vetor localizao r = (x, y). Aps a
obteno dos pares (x, y), o conjunto de dados foi montado atravs da insero de 2016
linhas que seguem o formato (x, y, 1 , 2 ). A Figura 19 ilustra no plano cartesiano os pontos
que compes o conjunto de dados.

4.4.2 Gerao dos Dados para o Manipulador PUMA 560


O manipulador PUMA 560 possui uma topologia 6R, ou seja, possui seis juntas
rotacionais que so descritas por ngulos de junta que foram reunidos em um vetor
= [1 2 . . . 6 ]T . Estes ngulos, juntamente com as caractersticas geomtricas dos elos,
determinam, atravs das Equaes (2.12) a (2.23), a posio do efetuador representada
pelo vetor r = [px py pz ]T . Assim como no rob planar, este rob possui limites fsicos sobre
as faixas de valores das componentes do vetor . Estas restries implicam diretamente no
4.4. Gerao dos Conjuntos de Dados 87

Espao de Tarefa Rob Planar


20

15

10
Y

0
10 0 10 20
X

Figura 19 Pontos do conjunto de dados do rob planar exibidos no espao cartesiano.

formato do volume de trabalho no qual o manipulador pode atuar, impossibilitando que


ele alcance certas posies no espao cartesiano.
Para gerar o conjunto de dados empregado na estimao da cinemtica inversa
do rob PUMA 560 utilizou-se o modelo de simulao fornecido pela Robotics Toolbox
para Matlab. Corke (1996) e Corke (2011) apresentam maiores detalhes acerca deste
conjunto de scripts. Neste modelo de simulao esto prontamente disponveis as equaes
de cinemtica direta e inversa, valores limites para os ngulos de juntas bem, como os
parmetros de Denavit-Hartenberg e as transformaes de elo relacionadas.
Por meio do modelo de simulao adotado, gerou-se no espao cartesiano um
conjunto de pontos que correspondem ao produto cartesiano de trs intervalos T1
T2 T3 = {r = (x, y, z) | x [0,25; 0,75] , y [0,25; 0,25] e z [0,25; 0,75]}. O
passo de amostragem foi definido com o valor 0,05 para cada um dos eixo coordenados.
Atravs da Figura 20(a) nota-se que estes pontos formam uma regio espacial em formato
de paraleleppedo. Esta regio no corresponde a um espao da tarefa completamente
vlido visto que existe a possibilidade de nem todos estes pontos serem alcanveis pelo
manipulador. Para contornar essa situao os pontos do paraleleppedo foram submetidos
s equaes da cinemtica inversa do modelo de simulao e nos casos em que os pontos se
mostraram inalcanveis, estes eram removidos da regio. A Figura 20(b) exibe a regio
obtida sem a presena de tais pontos inalcanveis.
Aps a obteno somente de pontos (x, y, z) alcanveis pelo efetuador, os valores
correspondentes dos ngulos das juntas (1 , 2 , . . . , 6 ) so anexados lateralmente aos
pontos cartesianos compondo uma nova amostra do conjunto de dados que segue o formato
(x, y, z, 1 , 2 , 3 , 4 , 5 , 6 ). Seguindo este procedimento, foram gerados 1066 amostras de
88 Captulo 4. Simulaes e Resultados

Figura 20 Dados do rob PUMA 560:(a) Pontos submetidos ao modelo inverso do


manipulador PUMA 560 para a remoo de singularidades. (b) Espao da
tarefa do manipulador aps a remoo das singularidades.

dados.
Alm do conjunto de dados principal, foram gerados dois conjuntos de teste adicio-
nais com trajetrias conhecidas para que fosse possvel avaliar o desempenho dos regressores
tambm no espao cartesiano e no apenas no espao das juntas. A gerao destes conjun-
tos passou pelos mesmo procedimento de remoo de singularidades, fornecendo apenas
trajetrias compostas de pontos alcanveis. O primeiro deles uma circunferncia de
raio R = 0,125 m e de centro Pc = [0,5 0 0,5]T . J o segundo uma funo senoidal de
amplitude A = 0,1 m e frequncia = 30 rad/s. Ambos os conjuntos tiveram seus pontos
posicionados dentro da regio na qual os regressores foram treinados, a fim de garantir
que os mesmos pudessem ser bem aproximados.

4.4.3 Gerao dos Dados para o Manipulador Motoman HP6


Para o manipulador Motoman HP6 procedeu-se de forma similar quela aplicada ao
rob PUMA 560. Tomou-se uma regio do espao atravs do produto cartesiano de trs in-
tervalos T1 T2 T3 = {r = (x, y, z) | x [0,5; 1,25] , y [0,25; 0,25] e z [0,5; 1,25]}. O
passo de discretizao dos intervalos tambm foi de 0,05. Aps a remoo das singularidades
obteve-se um conjunto de 1018 padres que seguem o formato (x, y, z, 1 , 2 , 3 , 4 , 5 , 6 ).
Nas Figuras 21(a) e 21(b) so mostrados os pontos do conjunto de dados antes e depois
da remoo das singularidades, respectivamente:
Alm do mais, tambm foram geradas trajetrias auxiliares de teste dentro do
espao definido para a tarefa. A primeira delas uma circunferncia de raio R = 0,125 m e
de centro Pc = [0,65 0 0,65]T . J a segunda uma funo senoidal de amplitude A = 0,1 m
4.5. Particionamento dos Dados 89

Figura 21 Dados do rob Motoman HP6:(a) Pontos submetidos ao modelo inverso do


manipulador para a remoo de singularidades. (b) Espao da tarefa do
manipulador aps a remoo das singularidades.

e frequncia = 30 rad/s.

4.5 Particionamento dos Dados


Aps reunir os conjuntos de dados necessrios soluo do problema de regresso,
duas operaes foram executadas sobre os conjuntos principais: embaralhamento dos
vetores de dados e particionamento em subconjuntos de treinamento, validao e testes.
A operao de embaralhamento tem por objetivo garantir que os subconjuntos de
treinamento, validao e teste contemplem amostras de todas as regies do espao. Isto
recomendado, quando as amostras no apresentam uma dependncia temporal entre
elas, uma vez que realizar esta operao antes de particionar os dados considerada uma
boa prtica inerente em aprendizado de mquina. Por exemplo, nos conjuntos de dados
usados nesta dissertao os vetores de dados foram armazenados em arquivo medida que
iam sendo gerados, causando uma ordenao no desejada que foi removida atravs do
embaralhamento das linhas dos arquivos de dados.
A operao de particionamento visa separar 60% dos vetores de dados para trei-
namento, 20% para validao e os 20% restantes para teste. A unio das duas primeiras
parcelas ser denominada conjunto de seleo de modelos e reembaralhada e redividida a
cada rodada de treinamento. Este procedimento tem como objetivo auxiliar na escolha
do melhor modelo de regresso, bem como os melhores parmetros de cada algoritmo. J
o conjunto de testes permanece intocado at a fase de testes. Ao proceder desta forma,
garante-se que o conjunto de teste no tenha envolvimento algum com a fase de seleo
90 Captulo 4. Simulaes e Resultados

de modelos, no enviesando a escolha dos hiperparmetros. Aps a escolha dos melhores


modelos, o conjunto de teste submetido aos algoritmos para fins de clculo dos respectivos
erros mdios quadrticos de teste e das mtricas de seleo.

4.6 Seleo de Hiperparmetros e Treinamento


De posse dos conjuntos de treinamento e validao os parmetros livres de cada
modelo de regresso foram variados, com o objetivo de se encontrar os seus valores timos.
Por exemplo, para o caso do rob planar tomou-se um intervalo de 5 a 250 neurnios
ocultos para a rede neural ELM em incrementos de 5 neurnios. Nestes casos, os limites
superiores para os parmetros livres foram definidos pelo alcance satisfatrio do erro
mdio quadrtico obtido por este limite sem que o desempenho do algoritmo seja muito
prejudicado ou pela pouca melhoria nos indicadores de desempenho durante o treinamento.
Quando o desempenho da rede comeou a degradar, parou-se de aumentar o limite superior
dos neurnios. Denotou-se por nq a quantidade de elementos do conjunto de parmetros
utilizado na seleo de modelos. Por exemplo, para o caso supracitado da rede neural ELM
nq = 50.
Para a seleo dos hiperparmetros dos modelos e, consequentemente, dos melhores
modelos de regresso, foi adotado o critrio do menor valor mdio do EQM obtido em
relao as nr rodadas de treinamento. Para esta dissertao adotou-se nr = 50 para todas
as simulaes. Para um determinado parmetro livre q fixo, os conjuntos de treinamento e
validao so reembaralhados e submetidos ao modelo atravs de nr rodadas, onde uma
rodada especfica ser denotada por n. A cada aplicao dos conjuntos de treinamento e
validao, novos valores do EQM de treinamento, expressos a partir de agora por , so
calculados para cada varivel de sada (ngulo de junta). Alm disso, todos os pesos e
limiares associados ao melhor resultado dentre as nr rodadas para um dado modelo so
armazenados para posterior seleo. Aps a seleo, estes pesos e limiares sero resgatados
e utilizados na fase de testes.
Ao fim da fase de treinamento obteve-se uma matriz nr nq para cada ngulo de
junta k , onde k = 1, . . . , nDOF , ou seja,


( ) 12 (k ) ... 1nq (k )
11 k
21 (k ) 22 (k ) ... 2nq (k )


EQM(k ) = .. .. .. (4.1)
. . ... .



nr 1 (k ) nr 2 (k ) . . . nr nq (k )

em que ij (k ) o EQM da i-sima rodada para o j-simo valor do hiperparmetro q para


o k-simo ngulo de junta (i = 1, . . . , nr ; j = 1, . . . , nq ; k = 1, . . . , nDOF ).
4.6. Seleo de Hiperparmetros e Treinamento 91

Aps a determinao da matriz dos erros mdios quadrticos na fase de treinamento,


calculam-se os vetores de mdia, j (k ), e de desvio padro j (k ), para j = 1, . . . , nq , ou
seja, mdias e devios padres sobre as colunas da matriz EQM(k )

h i
j (k ) = 1 (k ) 2 (k ) . . . nq (k ) (4.2)

h i
j (k ) = 1 (k ) 2 (k ) . . . nq (k ) (4.3)

em que os elemento destes vetores so definido, respectivamente, pelas equaes (4.4) e


(4.5)

nr
1 X
j (k ) = ij (k ), j = 1, . . . , nq (4.4)
nr i=1

v
nr
1 X
u
[ij (k ) j (k )]2 ,
u
j (k ) = t j = 1, . . . , nq (4.5)
nr i=1

Aps o clculo destes vetores, os melhores parmetros foram escolhidos ao se tomar


os ndices j que representam os parmetros de menor mdia j (k ) para cada varivel de
sada. De forma mais compacta tem-se

j = arg min {j (k )}. (4.6)


j

Em seguida, retorna-se matriz EQM(k ) e busca-se na coluna referenciada por


j o ndice i da rodada de treinamento que apresentou o menor valor de ij . Este

valor particular ser denotado por i j (k ). Os parmetros associados a cada modelo so


guardados, atravs de j e i , e utilizados posteriormente na fase testes. Por exemplo, no
caso das simulaes da rede ELM, j e i apontam para as matrizes dos pesos da camada
oculta e da camada de sada que obtiveram melhor resultado de acordo com o critrio
recm descrito. As prximas subsees apresentam os modelos selecionados para cada
conjunto de dados bem como os valores de i j (k ) que nortearam esta escolha.
Para os casos dos modelos de regresso baseados em LS-SVR e PG, a obteno
de hiperparmetros se d atravs de processos de otimizao subjacentes aos prprios
algoritmos. Por exemplo, no LS-SVR um procedimento de duas fases aplicado pela
toolbox LS-SVMlab2 na obteno dos hiperparmetros (BRABANTER et al., 2011). Na
primeira fase utiliza-se o mtodo de otimizao Coupled Simulated Annealing (SOUZA et
al., 2010) para se obter uma estimativa grosseira dos hiperparmetros. Na fase seguinte,
aplica-se o algoritmo simplex (NELDER; MEAD, 1965), em que as estimativas grosseiras
2
Toolbox disponvel em <http://www.esat.kuleuven.be/sista/lssvmlab/>
92 Captulo 4. Simulaes e Resultados

servem como ponto de partida para a realizao de ajustes finos. J no modelo PG, os
hiperparametros foram obtidos atravs da maximizao da funo log-verossimilhana
(Equao (3.44)).
A cada rodada de treinamento, novos conjunto de treinamento e validao so
submetidos aos algoritmos e novos hiperparmetros so calculados. Para cada conjunto de
hiperparmetros calculam-se os valores de . Desta forma, a matriz EQM(k ) d lugar a
um vetor coluna de dimenso nr 1:

h iT
EQM(j) (k ) = j1 (k ) j2 (k ) . . . jnr (k ) (4.7)

A partir deste ponto, a seleo dos melhores parmetros realizada atravs da


escolha do ndice i que representa a rodada de menor , ou seja,

i = arg min {ij (k )}, i = 1, . . . , nr (4.8)


j

As subsees seguintes renem os hiperparmetros obtidos nesta etapa do trabalho


para cada um dos manipuladores.

4.6.1 Rbo Planar


Seguindo os procedimentos descritos nas sees anteriores, foram geradas 2016
amostras de dados. Estas amostras foram subdivididas em trs partes: conjunto de treina-
mento, de validao e de teste. Os conjuntos de treinamento e validao contm 1210 e
403 amostras, respectivamente, restando 403 amostras para a fase de teste.
Para ilustrar melhor o processo de seleo de modelos e o critrio adotado para tal
fim, as Figuras 22(a)(b) e 23(a)(b) exibem, respectivamente, para cada ngulo de junta as
componentes de j (k ) e j (k ) para as faixas de parmetros adotadas para o algoritmo
ANFIS. Este algoritmo apresentou um dos melhores desempenhos globais e por isso seus
grficos so apresentados aqui. Grficos similares foram traados para os outros modelos
cujos hiperparmetros so variados empiricamente nas simulaes.
Os grficos anteriores no foram construdos para os algoritmos LS-SVR e PG
devido a inexistncia de uma fase de seleo de parmetros emprica pois os mesmos so
calculados de forma exata atravs de processos de otimizao convexa. Para estes casos,
apenas a apresentao de novos conjuntos de treinamento e validao foi realizada a cada
rodada de treinamento, possibilitando a escolha dos melhores modelos correspondentes s
rodadas de menor EQM. Estes novos conjuntos foram obtidos do reembaralhamento das
amostras dos conjuntos de treinamento e validao da rodada de treinamento anterior.
Aps o reembaralhamento, estes dados passaram por uma nova diviso, respeitando a
proporo de 80% para treinamento e 20% para validao.
4.6. Seleo de Hiperparmetros e Treinamento 93

3 Variao do MSE 1 3 Variao do MSE 2


x 10 x 10
4 4.5
3.5 4
3 3.5
2.5 3
MSE

MSE
2 2.5

1.5 2
1.5
1
1
0.5
0.5
2 3 4 5 6 2 3 4 5 6
Nmero de Neurnios Ocultos Nmero de Neurnios Ocultos

Figura 22 ANFIS: Variaes dos valores mdios dos EQM de treinamento com o au-
mento da quantidade de neurnios ocultos: (a) ngulo 1 (b) ngulo 2 .

4 Variao do MSE 1 4 Variao do MSE 2


x 10 x 10
4.5
3.5
4
3
3.5
2.5
3
MSE

MSE

2 2.5
1.5 2

1 1.5

0.5 1

0.5
2 3 4 5 6 2 3 4 5 6
Nmero de Neurnios Ocultos Nmero de Neurnios Ocultos

Figura 23 ANFIS: Variaes dos desvios padres dos EQM de treinamento com o
aumento da quantidade de neurnios ocultos: (a) ngulo 1 (b) ngulo 2 .

Ao observar os grficos anteriores, pode-se notar que medida que o nmero


de parmetros3 dos modelos aumenta, os valores de j (k ) tendem a decrescer. Neste
momento deve-se fazer uma anlise do custo-benefcio da adoo de modelos mais complexos
em relao ao custo computacional necessrio e a possibilidade de overfitting. Tambm
foram marcados por um asterisco nos grficos os pontos correspondentes aos parmetros
selecionados. Os resultados da fase de seleo de modelos so mostrados na Tabela 4.
Nesta tabela so apresentados os parmetros selecionados bem como os respectivos valores
3
Note que o nmero de neurnios ocultos um hiperparmetro, cujo o aumento, aumenta o nmero de
parmetros do modelo.
94 Captulo 4. Simulaes e Resultados

de i j (k ), j (k ) e j (k ), para k = 1, . . . , nDOF :

Modelos Parmetros Selecionados i j (k )


1 h = 40, = 0,01, = 0,1 e ne = 100 4,8302E-03
MLP
2 h = 20, = 0,01, = 0,1 e ne = 100 9,1530E-03
1 h = 245 5,4001E-04
ELM
2 h = 240 1,3308E-03
1 = 9,3089E-02, = 2,3894E+05, b = 2,1281E+00 2,3575E-05
LS-SVR
2 = 1,6698E-01, = 2,5289E+05, b = -4,9928E+00 8,9343E-05
1 r = 6, ne = 100 4,3116E-05
ANFIS
2 r = 6, ne = 100 1,4425E-04
1 k = 500 1,3778E-04
MLM
2 k = 500 4,1524E-04
1 f = 4,4001, y = 0,1 , l = 2,3453 3,8042E-05
PG
2 f = 59,3166, y = 0,1 , l = 3,8697 1,4003E-04
1 g = 100, ne = 100 3,4265E-04
LLM
2 g = 80, ne = 100 9,9170E-04

Tabela 4 Rob Planar - Parmetros selecionados para os diversos modelos de regresso


que estimaram os ngulos de junta.

Na Tabela 4 o nmero de pocas de treinamento dos algoritmos MLP, ANFIS e


LLM, denotado por ne . Para a rede neural MLP, a taxa de aprendizagem () e o fator de
momento () foram obtidos de forma emprica partindo-se de valores que so comumente
utilizados na literatura. J na rede neural ELM utilizou-se uma distribuio uniforme
U (0,1; 0,1) para iniciar os pesos da camada oculta.

4.6.2 Manipulador PUMA 560


De forma anloga ao rob planar, cada junta rotacional do manipulador PUMA 560
possuir associada a ela sete modelos de regresso, devido abordagem MISO. Grficos
similares aos das Figura 22(a)(b) e 23(a)(b) tambm foram traados para nortear a escolha
dos melhores parmetros, exceto para os modelos LS-SVR e PG, visto que nestes os
hiperparmetros no foram variados empiricamente em tempo de simulao. Estes grficos
novamente foram teis para visualizar os pontos nos quais os melhores parmentros foram
tomados. Eles sero omitidos nesta seo visto que a utilidade dos mesmos foi apresentada
na seo anterior.
Os resultados da fase de seleo de modelos so ilustrados pela Tabela 5. Nesta
tabela so apresentados os parmetros selecionados bem como os respectivos i j (k ),
j (k ) e j (k ), onde k = 1, . . . , nDOF :
Assim como no caso dos parmetros obtidos para o rob planar, o nmero de pocas
de treinamento foi escrito como ne . Alm do mais, a taxa de aprendizagem ( ) e o fator
de momento () da rede neural MLP tambm foram obtidos aps alguma experimentao.
4.6. Seleo de Hiperparmetros e Treinamento 95

( )
Modelos Parmetros Selecionados i jk
1 q = 10, = 0,01, = 0,1 e ne = 100 9,7244E-03
2 q = 250, = 0,01, = 0,1 e ne = 100 8,8151E-03
3 q = 240, = 0,01, = 0,1 e ne = 100 2,6544E-02
MLP
4 q = 240, = 0,01, = 0,1 e ne = 100 6,9911E-00
5 q = 90, = 0,01, = 0,1 e ne = 100 3,0358E-02
6 q = 30, = 0,01, = 0,1 e ne = 100 1,4114E-00
1 h = 240 2,8192E-06
2 h = 110 2,5972E-05
3 h = 100 1,1473E-04
ELM
4 h = 60 6,2437E-01
5 h = 110 2,4981E-05
6 h = 240 2,7380E-06
1 = 4,0715E-02, = 3,9944E+10, b = -4,97978E-01 1,0030E-09
2 = 2,8395E-01, = 1,9264E+13, b = 8,3677E+03 5,3970E-06
3 = 2,5554E-01, = 1,7630E+12, b = -6,3298E+03 2,4954E-05
LS-SVR
4 = 7,7530E-01, = 3,0895E+00, b = -3,4577E+00 0,0000E-00
5 = 3,1632E-01, = 1,7427E+13, b = -1,1672E+04 5,5981E-06
6 = 3,0849E-02, = 6,0429E+09, b = 1,9907E-01 9,7003E-10
1 r = 3, ne = 100 9,1912E-08
2 r = 4, ne = 100 1,3630E-05
3 r = 4, ne = 100 6,7026E-05
ANFIS
4 r = 4, ne = 100 4,8023E-07
5 r = 3, ne = 100 2,5094E-05
6 r = 3, ne = 100 1,0159E-07
1 k = 450 1,8674E-05
2 k = 450 1,0587E-04
3 k = 450 3,6224E-04
MLM
4 k = 500 3,9905E-01
5 k = 500 1,4381E-04
6 k = 450 1,8139E-05
1 f = 1,0715, y = 0,1 , l = 0,2073 1,0282E-09
2 f = 6,4245, y = 0,1 , l = 0,2791 1,0130E-05
3 f = 9,8838, y = 0,1 , l = 0,2678 4,1022E-05
PG
4 f = 2,7811, y = 0,1 , l = 0,0692 5,6190E-02
5 f = 3,8263, y = 0,1 , l = 0,2551 1,0247E-05
6 f = 0,4238, y = 0,1 , l = 0,1869 1,0840E-09
1 g = 60, ne = 100 1,5076E-04
2 g = 60, ne = 100 2,9743E-04
3 g = 50, ne = 100 1,2338E-03
LLM
4 g = 30, ne = 100 7,9785E-01
5 g = 40, ne = 100 3,5108E-04
6 g = 50, ne = 100 1,5959E-04

Tabela 5 Manipulador PUMA 560 - Parmetros selecionados para os diversos mode-


los de regresso que estimaram os ngulos das juntas 1 , 2 , . . . , 6 .
96 Captulo 4. Simulaes e Resultados

Para a inicializao dos pesos dos neurnios da camada oculta da rede ELM utilizou-se
uma distribuio uniforme U (0,1; 0,1).
Nota-se que para o ngulo de junta 4 a ordem de grandeza de i j (4 ) apresentou
valores mais elevados quando comparados aos outros ngulos de junta. Isso ocorreu devido
pouca variabilidade dos valores de 4 dentro do espao da tarefa adotado nas simulaes.
Pode-se comprovar este fato atravs da exibio de um histograma para os valores deste
ngulo. A Figura 24 exibe dois histogramas, um para 1 (Figura 24(a)) e outro para 4
(Figura 24(b)), para efeitos comparativos. Nota-se pelo histograma do ngulo 4 que a
maioria de suas ocorrncia se concentram apenas nos valores 4 = e 4 = , enquanto
os outros ngulos de junta apresentam uma maior variabilidade nos valores das amostras.

Histograma ngulo 1 Histograma ngulo 4


160 1000

140
800
120
Ocorrncias

Ocorrncias

100 600
80

60 400

40
200
20

0 0
1.5 2 2.5 3 3.5 4 2 0 2 4
Valor Valor

Figura 24 ngulo 4 (b) apresentando pouca variabilidade em suas amostras quando


comparado com o ngulo de junta 1 (a).

4.6.3 Manipulador Motoman HP6

De forma semelhante s duas subsees anteriores, esta seo apresenta os pa-


rmetros selecionados para os modelos de regresso adotados. A Tabela 6 rene estes
parmetros para cada um dos ngulo de junta do manipulador.
Pode-se notar atravs da Tabela 6 que os valores de i j (4 ) so bem pequenos
quando comparados aos valores correspondentes das outras juntas. Valores baixos i j
indicam que os dados de validao puderam ser bem aproximados durante a fase de
treinamento e seleo de parmetros. Esta qualidade mais acentuada da aproximao foi
consequncia direta da concentrao dos valores de 4 em torno de zero para o conjunto de
treinamento. A Figura 25 exibe dois histogramas, um para 1 (Figura 25(a)) e outro para
4 (Figura 25(b)), para que possa se comparar a variabilidade dos dados de treinamento
ambas as juntas
4.6. Seleo de Hiperparmetros e Treinamento 97

( )
Modelos Parmetros Selecionados i jk
1 q = 110, = 0,01, = 0,1 e ne = 100 1,8465E-03
2 q = 220, = 0,01, = 0,1 e ne = 100 1,5045E-03
3 q = 100, = 0,01, = 0,1 e ne = 100 3,3417E-03
MLP
4 q = 250, = 0,01, = 0,1 e ne = 100 2,9689E-02
5 q = 10, = 0,01, = 0,1 e ne = 100 2,7100E-00
6 q = 50, = 0,01, = 0,1 e ne = 100 3,5159E-01
1 h1 = 245 4,5640E-09
2 h1 = 245 8,9203E-08
3 h1 = 245 2,9075E-07
ELM
4 h1 = 75 2,8522E-17
5 h1 = 245 6,6834E-08
6 h1 = 235 4,3924E-09
1 = 1,1689E-01, = 9,7790E+12, b = -3,5158E-02 4,7919E-14
2 = 1,0327E-01, = 1,1821E+13, b = 5,4580E+01 4,9038E-10
3 = 1,1962E-01, = 1,0722E+13, b = 1,0124E+02 1,6512E-09
LS-SVR
4 = 4,7955E-03, = 4,4230E+01, b = 1,9493E-02 6,6782E-18
5 = 8,9956E-02, = 5,2079E+12, b = -4,5052E+01 3,7435E-10
6 = 1,0767E-01, = 1,3727E+13, b = -3,3073E-02 5,4336E-14
1 r = 3, ne = 100 1,0451E-08
2 r = 3, ne = 100 3,3021E-07
3 r = 4, ne = 100 4,7207E-07
ANFIS
4 r = 2, ne = 100 9,8592E-18
5 r = 3, ne = 100 3,3849E-07
6 r = 3, ne = 100 1,0450E-08
1 k = 500 2,7496E-06
2 k = 500 1,2300E-05
3 k = 500 3,4001E-05
MLM
4 k = 400 2,5648E-16
5 k = 500 9,5440E-06
6 k = 500 3,0279E-06
1 f = 0,9217, y = 0,1 , l = 0,3733 9,5413E-14
2 f = 7,1066, y = 0,1 , l = 0,3140 1,2437E-09
3 f = 12,6798, y = 0,1 , l = 0,3138 4,6584E-09
PG
4 f = 0,6248, y = 0,1 , l = 4,2045 1,8506E-16
5 f = 16,0605, y = 0,1 , l = 0,3557 8,8293E-10
6 f = 0,8749, y = 0,1 , l = 0,3651 1,1391E-13
1 g = 50, ne = 100 1,8455E-05
2 g = 40, ne = 100 6,0649E-05
3 g = 40, ne = 100 1,1363E-04
LLM
4 g = 100, ne = 100 6,6962E-17
5 g = 40, ne = 100 5,0276E-05
6 g = 40, ne = 100 2,1636E-05

Tabela 6 Manipulador Motoman HP6 - Parmetros selecionados para os diversos


modelos de regresso que estimaram os ngulos de junta 1 , 2 , . . . , 6 .
98 Captulo 4. Simulaes e Resultados

Histograma ngulo 1 Histograma ngulo 4


200 700

600
150
500

Ocorrncias
Ocorrncias

400
100
300

200
50
100

0 0
0.5 0 0.5 2 1 0 1 2
Valor Valor 7
x 10

Figura 25 ngulo 4 (b) apresentando pouca variabilidade em suas amostras quando


comparodo com o ngulo de junta 1 (a).

4.7 Teste dos Modelos Selecionados


Aps a seleo dos melhores modelos, os dados de teste foram submetidos aos
mesmos. A utilizao destes novos dados permite a obteno de erros quadrticos mdios
de teste, denotados por (k )teste , que serviro de base para formao de mtricas que
nortearo a anlise comparativa. Os valores de (k )teste foram calculados no espao das
juntas, ou seja, so medidos os desvios quadrticos dos ngulos estimados em relao aos
ngulos desejados, fornecendo valores em rad2 .
Para selecionar os melhores algoritmos toma-se a mdia geomtrica dos EQMs
de teste das juntas que compem a parte anterior ao punho do manipulador, obtidos do
conjunto de teste principal. Utilizou-se esta abordagem pois os ngulos que localizam o
punho so os que mais contribuem com o posicionamento do efetuador. Alm do mais,
houve situaes em que a estimao de alguns ngulos de junta localizados aps o pulso
apresentaram valores de erros to baixos que prejudicariam a mtrica caso esta levasse em
conta todos as juntas do manipulador.
(w)
Assim, optou-se por multiplicar os (k )teste , para k = 1, . . . , nDOF , onde o sobres-
crito w indica que os graus de liberdade tomados so aqueles anteriores ao punho (wrist).
(w)
Posteriormente toma-se a raz deste produtrio cujo ndice dado pelo valor de nDOF .
Matematicamente, tem-se que a mtrica de seleo dada pela mdia geomtrica dos
valores de (k )teste :

v
u (w)
un
(w)u DOF
n Y
DOF
MS = t (k )teste (4.9)
k=1

(w)
Para os manipuladores adotados neste trabalho, nDOF = 2 (rob planar) ou
(w)
nDOF = 3 (PUMA 560 e Motoman HP6).
4.7. Teste dos Modelos Selecionados 99

Alm dos conjuntos de teste principais, foram gerados conjuntos de testes que
definem trajetrias cujas equaes paramtricas so conhecidas. Deve-se notar que o
posicionamento destes locais geomtricos bem como suas dimenses foram escolhidas de
forma que os mesmos estivessem contidos na regio em que o treinamento dos modelos foi
realizado. Por exemplo, utilizou-se a equao paramtrica da circunferncia para definir
uma trajetria circular dentro do espao de treinamento do rob planar e observou-se
quo bem o modelo selecionado aproximou aquela trajetria.
Para avaliar a qualidade das aproximaes no espao cartesiano, calculam-se as
distncias mdias entre as trajetrias desejadas e estimadas, fornecidas em milmetros
foram calculadas ponto a ponto por meio
(mm). Estas distncias mdias, denotadas por d,
da seguinte equao:

N q
1 X
d= [xd (n) x(n)]T [xd (n) x(n)] (4.10)
N n=1

em que xd (n) vetor posio desejado que compe trajetria original e x(n) o seu valor
estimado correspondente. Alm disso, o valor de N define quantos pontos compem a
trajetria em questo. As sees seguintes detalham para cada estrutura robtica os
resultados obtidos na fase testes.

4.7.1 Rob Planar


Para o rob planar trs conjuntos de testes foram submetidos aos algoritmos de
aprendizagem de mquina. O primeiro deles adveio do conjunto de dados principal que foi
particionado de acordo com o esquema descrito na Seo 4.5. O segundo conjunto descreve
uma trajetria circular de centro Pc = [0,5 10]T e de raio r = 2 cm. O terceiro conjunto
de dados descreve uma espiral de Arquimedes centrada em (0, 10). Estes conjuntos so
compostos de 403, 1001 e 501 padres de teste, respectivamente.
A Tabela 7 exibe para 1 e 2 , respectivamente, os valores de (k )teste resultantes
da apresentao dos padres de teste do conjunto principal, bem como as respectivas
mtricas de seleo. Esta tabela est ordenada do menor para o maior valor da MS, ou
seja, da melhor para a pior avaliao de desempenho:
Atravs da Tabela 7 pode-se notar que os algoritmos LS-SVR e ANFIS obtiveram
os menores valores de MS, ou seja, melhores desempenhos globais para as amostras do
conjunto de teste principal. Neste ponto decidiu-se observar se um bom desempenho
no espao das juntas implicaria em um bom desempenho no espao cartesiano. Logo,
aplicou-se os conjuntos das trajetrias circular e espiral para se obter a Tabela 8, que exibe
Mais uma vez ordenou-se os resultados do menor para o maior
os respectivos valores de d.
erro.
100 Captulo 4. Simulaes e Resultados

Algoritmo (1 )teste (2 )teste MSteste


LS-SVR 2,65703096E-05 9,30629610E-05 4,97263682E-05
ANFIS 6,17448062E-05 2,34180965E-04 1,20247488E-04
PG 1,24763680E-04 3,66688781E-04 2,13891191E-04
MLM 2,04606079E-04 6,16900378E-04 3,55276747E-04
LLM 4,74189426E-04 1,85612631E-03 9,38166015E-04
ELM 8,22831035E-04 1,68373816E-03 1,17704376E-03
MLP 5,10573196E-03 1,38711572E-02 8,41560519E-03

Tabela 7 Rob Planar - Erros quadrticos mdios de teste e mtricas de seleo para
as variveis de sada dos modelos de regresso.

Algoritmo dcrculo despiral MStraj


MLM 1,79101761E-03 2,00137580E-03 1,89327740E-03
LS-SVR 4,00540802E-03 5,51389321E-03 4,69950977E-03
PG 1,19238747E-02 1,42637553E-02 1,30414428E-02
ANFIS 3,53319688E-02 3,27859043E-02 3,40351370E-02
LLM 3,07223748E-02 4,17929692E-02 3,58326564E-02
ELM 9,23026200E-02 1,04414743E-01 9,81720650E-02
MLP 4,74368067E-01 3,90647974E-01 4,30477554E-01

Tabela 8 Rob Planar - Mdias das distncias entre os pontos das trajetrias tericas
e estimadas, e as mtricas de seleo correspondentes.

Ao se comparar a ordenao dos algoritmos que obtiveram melhor desempenho no


espao juntas com aqueles que aproximaram melhor as trajetrias tericas, notou-se que
no existe uma correspondncia direta entre Tabelas 7 e 8, ou seja, um melhor desempenho
no espao das juntas no necessariamente implica em um melhor desempenho no espao
cartesiano.
Para o caso dos algoritmos LS-SVR e ANFIS, exibe-se, respectivamente, nas Figuras
26 e 27 os grficos conjuntos dos valores desejados (em linha slida) e estimados (em linha
tracejada) executados pelos ngulos de junta para percorrer as trajetrias de teste.
Os grficos apresentados nas Figuras 26 e 27 do uma noo visual da capacidade
de generalizao dos dois melhores modelos de regresso selecionados. Neste caso, a
aproximao se apresentou to fiel que mal se nota o erro de um grfico em relao ao
outro, visto que os mesmos esto praticamente sobrepostos.
Uma outra forma de visualizar o poder de generalizao dos modelos atravs da
exibio de grficos dos valores estimados contra os valores desejados. A Figura 28 exibe
tais grficos bem como as retas 1 = 1 e 2 = 2 que funcionam como guias visuais e
auxiliam na identificao visual da qualidade da aproximao dos modelos.
Em ambos os grficos pode-se notar que os pontos dos grficos esto bem concen-
trados em torno da reta estimado = desejado indicando boas estimaes das funes de
cinemtica inversa. Os espaamentos entre conjuntos de pontos ao longo da nuvem de
4.7. Teste dos Modelos Selecionados 101

Variao de 1 Trajetria Circular Variao de 2 Trajetria Circular

1.1 2.2 2 desejado

2 estimado

1.05
2.1
1
0.95 2
1

2
0.9 1.9
0.85
1.8
0.8
0.75 1.7
1 desejado
1 estimado
0.7
0 500 1000 0 500 1000
Amostra Amostra
(a) (b)
Variao de 1 Espiral de Arquimedes Variao de 2 Espiral de Arquimedes

1.1 2.3

2.2
1
2.1

0.9 2
1

1.9
0.8
1.8
0.7 1.7

0.6
1 desejado 1.6 2 desejado
1 estimado 2 estimado

0 200 400 0 200 400


Amostra Amostra
(c) (d)

Figura 26 Rob Planar - LS-SVR: (a) e (b) mostram a variao do ngulos de junta
ao desenvolver uma trajetria circular. (c) e (d) mostram a variao do ngulos
de junta ao desenvolver uma trajetria espiral.

pontos se deve ao processo de gerao de dados que realizou uma amostragem do task
space em passos fixos.
A Figura 29 exibe no plano cartesiano (em linhas tracejadas) as trajetrias desejadas,
bem como as trajetrias estimadas pelos modelos LS-SVR e ANFIS (em linhas slida).
As trajetrias estimadas foram obtidas atravs da aplicao dos valores estimados de 1
e 2 nas expresses da cinemtica direta do rob planar descritas nas Equaes (2.10) e
(2.11). Desta forma, obteve-se um conjunto de pontos x = [px py ]T que foram exibidos
juntamente como os pontos xd desejados.
102 Captulo 4. Simulaes e Resultados

Variao de 1 Trajetria Circular Variao de 2 Trajetria Circular

1.1 2.2
1.05
2.1
1
0.95 2
1

2
0.9 1.9
0.85
1.8
0.8
0.75 1.7 2 desejado
1 desejado
2 estimado
1 estimado
0.7
0 500 1000 0 500 1000
Amostra Amostra
(a) (b)
Variao de 1 Espiral de Arquimedes Variao de 2 Espiral de Arquimedes

1.1 2.3

2.2
1
2.1

0.9 2
1

1.9
0.8
1.8
0.7 1.7

0.6
1 desejado 1.6 2 desejado
1 estimado 2 estimado

0 200 400 0 200 400


Amostra Amostra
(c) (d)

Figura 27 Rob Planar - ANFIS: (a) e (b) mostram a variao do ngulos de junta ao
desenvolver uma trajetria circular. (c) e (d) mostram a variao do ngulos
de junta ao desenvolver uma trajetria espiral.

4.7.2 Manipulador PUMA 560

Assim como no caso do rob planar, trs conjuntos de testes foram submetidos aos
melhores modelos de regresso selecionados, a saber, LS-SVR e PG. O primeiro deles foi
extrado do conjunto de dados principal particionado anteriormente. O segundo conjunto
descreve uma trajetria circular no plano XY centrada no ponto Pc = [0,5 0 0,5]T e de raio
r = 0,125 m. O terceiro conjunto de dados descreve uma trajetria senoidal de amplitude
A = 0,1 m e frequncia = 30 rad/s. Estes conjuntos so compostos de 213, 100 e 28
padres de teste, respectivamente.
4.7. Teste dos Modelos Selecionados 103

1 Desejado 1 Estimado 2 Desejado 2 Estimado

3
1.5
2.5
1 Desejado

2 Desejado
1 2

1.5
0.5 1

0.5
0
0
0 0.5 1 1.5 0 1 2 3
1 Estimado 2 Estimado

(a) (b)
1 Desejado 1 Estimado 2 Desejado 2 Estimado

3
1.5
2.5
2 Desejado
1 Desejado

1 2

1.5
0.5
1

0.5
0
0
0 0.5 1 1.5 0 1 2 3
1 Estimado 2 Estimado

(c) (d)

Figura 28 Rob Planar - (a) e (b) mostram os grficos dos valores desejados contra os
valores estimados dos ngulos de junta para o modelo LS-SVR. As Figuras
(c) e (d) mostram o mesmo grfico para o modelo ANFIS.

A Tabela 9 exibe para os ngulos de junta anteriores ao punho o valor de (k )


juntamente com a mtrica de seleo. As linhas desta tabela foram ordenadas do melhor
para o pior desempenho global.
Ao se analisar a Tabela 9 pode-se notar que os modelos LS-SVR e PG apresentaram
o melhor desempenho do ponto de vista do espao das juntas. Alm do mais, realizou-se
tambm a avaliao do desempenho destes modelos perante as amostras das trajetrias
circular e senoidal. Uma mtrica similar quela utilizada na ordenao da Tabela 9 foi
tomada, M Straj . Esta mtrica obtida atravs da mdia geomtrica dos valores das
104 Captulo 4. Simulaes e Resultados

Trajetria Crculo Trajetria Espiral de Arquimedes


13 Desejado
Desejado
Estimado
Estimado
12
12

11
11

10 10
Y

Y
9
9

8
8
7
3 2 1 0 1 2 3 2 1 0 1 2 3
X X
(a) (b)
Trajetria Crculo Trajetria Espiral de Arquimedes
13 Desejado
Estimado
12
12

11
11

10 10
Y

9
9

8
8 Desejado
Estimado

7
3 2 1 0 1 2 3 2 1 0 1 2 3
X X
(c) (d)

Figura 29 Rob Planar - Resultado da estimao de trajetrias pelos os algoritmos


LS-SVR (Figuras (a) e (b)) e ANFIS (Figuras (c) e (d)).

Algoritmo (1 )teste (2 )teste (3 )teste MSteste


LS-SVR 2,53661482E-09 1,56195937E-05 7,28482109E-05 1,42379583E-06
PG 3,50392133E-09 2,02440794E-05 8,27697982E-05 1,80402032E-06
ANFIS 9,43975706E-08 2,16546027E-05 7,83295021E-05 5,43015385E-06
ELM 4,24270583E-06 5,12996448E-05 2,04147741E-04 3,54188089E-05
MLM 1,86738900E-05 1,05869200E-04 3,62240100E-04 2,19545610E-04
LLM 2,20988555E-04 6,55363126E-04 2,10820816E-03 6,73372058E-04
MLP 1,16324422E-02 9,77364812E-03 2,82910070E-02 1,47613248E-02

Tabela 9 Manipulador PUMA 560 - Erros mdios quadrticos de teste e mtricas de


seleo para as variveis de sada dos modelos de regresso.
4.7. Teste dos Modelos Selecionados 105

linhas de dcrculo e dsenide . A Tabela 10 traz um resumo dos resultados obtidos em termos
das mdias das distncias ponto-a-ponto. Esta tabela foi ordenada seguindo os valores
crescentes de M Straj .

Algoritmo dcrculo dsenide MStraj


LS-SVR 2,96659220E-04 4,78389755E-04 3,76721026E-04
PG 5,74226329E-04 6,51319066E-04 6,11559119E-04
MLM 7,86520236E-04 1,09637021E-03 9,28610444E-04
ANFIS 7,34449004E-04 1,76582056E-03 1,13881744E-03
ELM 2,13751864E-03 2,29137106E-03 2,21310830E-03
LLM 1,28162867E-02 1,06907601E-02 1,17053768E-02
MLP 5,06168876E-02 4,80449986E-02 4,93141794E-02

Tabela 10 Manipulador PUMA 560 - Mdias das distncias entre os pontos das
trajetrias tericas e estimadas, e as mtricas de seleo correspondentes.

Ao se comparar as Tabelas 9 e 10 nota-se que nem todos os algoritmos apresentaram


desempenhos similares tanto no espao das juntas como no espao cartesiano. Apesar
disto, os dois melhores modelos mantiveram a correspondncia em seus desempenhos em
ambos os espaos.
Para uma melhor visualizao do desempenho dos modelos foram traados grficos
que exibisse conjuntamente as quantidades esperadas e as quantidades estimadas. As
Figuras 30 e 31 exibem como variam os ngulos de junta para as trajetrias circular e
senoidal, respectivamente.
Ao se observar os grficos grficos apresentados nas Figuras 30 e 31 mal percebe-se a
diferena entre os valores desejados (curva slida) e os valores estimados (curva tracejada).
Foi visto antes que outra maneira de visualizar a capacidade de generalizao dos
modelos atravs de grficos dos valores desejados contra os valores estimados. A Figura
32 exibe estes grficos para as amostras de teste do conjunto principal. As retas k = k
tambm foi exibida nestes grficos para efeitos comparativos. As nuvens de pontos se
concentram de forma bastante compacta ao redor das retas auxiliares indicando uma boa
aproximao dos ngulos de junta.
Por fim, so exibidas na Figura 33 as trajetrias desejadas (linha slida) juntamente
com as trajetrias estimadas (linhas tracejadas) para os modelos LS-SVR e PG. Utilizou-se
a mesma abordagem aplicada ao rob planar para gerar as trajetrias estimadas a partir
dos ngulos estimados.

4.7.3 Manipulador Motoman HP6


Para este manipulador tambm foram aplicados trs conjuntos de teste. O primeiro
deles composto de 203 amostras remanescentes do conjunto de dados principal. O
segundo formado de 100 pontos amostrados de um lugar geomtrico circular de centro
106 Captulo 4. Simulaes e Resultados

Pc = [0,65 0 0,65]T e raior r = 0,125 m. J o terceiro conjunto desempenha uma trajetria


senoidal de amplitude A = 0,1 m e frequncia = 30 rad/s composta de 28 pontos.
A Tabela 11 exibe para os ngulos de junta anteriores ao punho, o valor de
(w)
(k ), k = 1, . . . , nDOF ), juntamente com a mtrica de seleo, para os padres de teste
do conjunto principal. As linhas desta tabela foram ordenadas do melhor para o pior
desempenho global

Algoritmo (1 )teste (2 )teste (3 )teste MSteste


LS-SVR 1,76394847E-13 3,87523660E-10 1,74668429E-09 4,92416780E-11
PG 4,15848331E-13 4,76876517E-09 1,73845954E-08 3,25463154E-10
ELM 5,59387960E-09 9,49045814E-08 3,22652239E-07 5,55364768E-08
ANFIS 1,73068206E-08 4,02234592E-06 1,10754650E-06 4,25617581E-07
MLM 4,01895046E-06 1,43546103E-05 4,39825684E-05 1,36393879E-05
LLM 1,84548071E-05 6,06491476E-05 1,13629112E-04 5,02891862E-05
MLP 2,25254518E-03 2,07549943E-03 4,85261706E-03 2,83089688E-03

Tabela 11 Manipulador Motoman HP6 - Erros mdios quadrticos de teste e mtri-


cas de seleo para as variveis de sada dos modelos de regresso.

Ao se observar a Tabela 11 pode-se notar que os algoritmos LS-SVR e PG apresen-


taram o melhor desempenho. Alm disso, verificou-se o desempenho dos modelos para as
amostras das trajetrias auxiliares. A Tabela 12 resume os resultados obtidos em termos
das mdias das distncias ponto a ponto no espao cartesiano

Algoritmo dcrculo dsenide MStraj


PG 2,66256673E-06 2,73889913E-06 2,70046324E-06
LS-SVR 2,56501913E-06 4,01236213E-06 3,20808130E-06
ELM 1,59528264E-04 2,32784244E-04 1,92706166E-04
ANFIS 2,23678397E-04 3,81685173E-04 2,92189541E-04
MLM 5,27705310E-04 4,19095318E-04 4,70275265E-04
LLM 4,99184322E-03 3,89281397E-03 4,40821018E-03
MLP 3,25065752E-02 2,67840701E-02 2,95069210E-02

Tabela 12 Manipulador Motoman HP6 - Mdias das distncias entre os pontos das
trajetrias tericas e estimadas, e as mtricas de seleo correspondentes.

Uma anlise das Tabelas 11 e 12 mostra mais uma vez que nem todos os algoritmos
mantm o mesmo desempenho do espao das juntas no espao cartesiano, situao esta
que confirmada pela ordenao das duas tabelas. Apesar deste fato, os dois melhores
modelos permaneceram nas duas primeiras posies da tabela.
Apenas como uma forma visual de ilustrar o desempenho dos dois melhores modelos
de regresso, exibe-se nas Figuras 34 e 35 os grficos conjuntos dos valores desejados (em
linha slida) e estimados (em linha tracejada) executados pelos trs primeiros ngulos de
junta durante as trajetrias de teste
4.8. Concluso 107

A partir das Figuras 34 e 35 nota-se uma sobreposio acentuada dos grficos dos
valores estimados sobre os grficos dos valores desejados, indicando aproximaes bastantes
fiis para as trajetrias simuladas.
Para completar a visualizao da capacidade de generalizao dos modelos LS-SVR
e PG, exibe-se na Figura 36 os pares de pontos formados pelas coordenadas desejadas
(w)
e estimadas, respectivamente, bem como as retas k = k , para k = 1, . . . , nDOF , que
facilitam a verificao da qualidade da aproximao dos modelos.
Observa-se nos grficos da Figura 36 que os pontos esto bem concentrados em
torno da reta de referncia indicando boas estimaes das funes de cinemtica inversa.
A Figura 37 exibe no espao cartesiano (em linhas slidas) as trajetrias que
se desejou aproximar bem como as trajetrias estimadas pelos modelos LS-SVR e PG
(em linhas tracejadas). As trajetrias estimadas foram obtidas atravs da aplicao dos
valores estimados dos ngulos de junta nas equaes da cinemtica direta do manipulador
Motoman HP6 descritas na Seo 2.3.5.4. Desta forma, obteve-se um conjunto de pontos
x = [px py pz ]T que foram exibidos juntamente como os pontos xd desejados.

4.8 Concluso
Este captulo apresentou a metodologia adotada durante o desenvolvimento das
simulaes e no processo de aquisio dos resultados, bem como foram reunidos os resultados
relativos s fases de seleo e testes dos modelos adotados. Nesta ltima fase, tambm
foi definida uma mtrica que possibilitou a escolha dos dois melhores modelos para cada
manipulador. Esta escolha norteou a apresentao de trajetrias conhecidas para estes
modelos de forma que os seus desempenhos espao das juntas e no espao cartesiano
pudesse ser comparado. O prximo captulo realiza uma anlise dos resduos gerados pelos
melhores modelos a fim de comparar seus desempenhos estatisticamente bem como uma
avaliao das funes de autocorrelao gerados por tais resduos.
108 Captulo 4. Simulaes e Resultados

Variao de 1 Trajetria Circular Variao de 1 Trajetria Senoidal


3.1

3
3

2.9
2.9
1

1
2.8
2.8

2.7
2.7
1 desejado 1 desejado
2.6 1 estimado 1 estimado
2.6
0 50 100 0 10 20
Amostra Amostra
(a) (b)
Variao de 2 Trajetria Circular Variao de 2 Trajetria Senoidal

2 2 desejado
2 estimado 1.78
1.9
1.76
1.8
1.74
2

1.7
1.72
1.6

1.5 1.7
2 desejado
2 estimado
1.4 1.68
0 50 100 0 10 20
Amostra Amostra
(c) (d)
Variao de 3 Trajetria Circular Variao de 3 Trajetria Senoidal

0
0.1
0.1

0.2 0.2
3

0.3 0.3
0.4
0.4
0.5
3 desejado
3 desejado 0.5 3 estimado
0.6 3 estimado

0 50 100 0 10 20
Amostra Amostra
(e) (f)

Figura 30 Manipulador PUMA 560 - LS-SVR: (a), (c) e (e) mostram a variao do
ngulos de junta ao desenvolver uma trajetria circular. (b), (d) e (f) mostram
a variao do ngulos de junta ao desenvolver uma trajetria senoidal.
4.8. Concluso 109

Variao de 1 Trajetria Circular Variao de 1 Trajetria Senoidal

1 desejado
3.1
1 estimado

3
3

2.9
2.9
1

1
2.8
2.8

2.7
2.7
1 desejado
2.6 1 estimado
2.6
0 50 100 0 10 20
Amostra Amostra
(a) (b)
Variao de 2 Trajetria Circular Variao de 2 Trajetria Senoidal

2 2 desejado 2 desejado
2 estimado
1.78 2 estimado

1.9
1.76
1.8
1.74
2

1.7
1.72
1.6
1.7
1.5

1.4 1.68
0 50 100 0 10 20
Amostra Amostra
(c) (d)
Variao de 3 Trajetria Circular Variao de 3 Trajetria Senoidal
0
3 desejado
0 3 estimado

0.1
0.1

0.2 0.2
3

0.3 0.3
0.4
0.4
0.5
3 desejado 0.5
0.6 3 estimado

0 50 100 0 10 20
Amostra Amostra
(e) (f)

Figura 31 Manipulador PUMA 560 - PG: (a), (c) e (e) mostram a variao do
ngulos de junta ao desenvolver uma trajetria circular. (b), (d) e (f) mostram
a variao do ngulos de junta ao desenvolver uma trajetria senoidal.
110 Captulo 4. Simulaes e Resultados

1 Desejado 1 Estimado 1 Desejado 1 Estimado

3.5 3.5
1 Desejado

1 Desejado
3 3

2.5 2.5

2 2

2 2.5 3 3.5 2 2.5 3 3.5


1 Estimado 1 Estimado

(a) (b)
2 Desejado 2 Estimado 2 Desejado 2 Estimado

2.6
2.5
2.4
2.2
2 Desejado

2 Desejado

2 2
1.8
1.6
1.5
1.4
1.2
1 1

1 1.5 2 2.5 1 1.5 2 2.5


2 Estimado 2 Estimado

(c) (d)
3 Desejado 3 Estimado 3 Desejado 3 Estimado

0.5
0.5
3 Desejado

3 Desejado

0 0

0.5 0.5

1 1

1.5 1.5
1 0 1 1.5 1 0.5 0 0.5
3 Estimado 3 Estimado

(e) (f)

Figura 32 Manipulador PUMA 560 - As Figuras (a), (c) e (e) mostram os grficos
dos valores desejados contra os valores estimados dos ngulos de junta para o
modelo LS-SVR. As Figuras (b), (d) e (f) mostram o mesmo grfico para o
modelo de regresso baseado em PG.
4.8. Concluso 111

Trajetria Crculo Trajetria Crculo


Desejado Desejado
Estimado Estimado

0.51 0.51

0.505 0.505

0.5 0.5
Z

Z
0.495 0.495

0.49 0.49
0.1 0.1

0 0
0.5 0.5
Y 0.1 0.4 X Y 0.1 0.4 X

(a) (b)
Trajetria Funo Seno Trajetria Funo Seno
Desejado Desejado
Estimado Estimado

0.6 0.6

0.55 0.55

0.5 0.5
Z

0.45 0.45

0.4 0.4
0.1 0.1
0.52 0.52
0 0
0.5 0.5
Y 0.1 0.48 X Y 0.1 0.48 X

(c) (d)

Figura 33 Manipulador PUMA 560 - Trajetrias tericas e estimadas pelos modelos


LS-SVR (Figuras (a) e (c)) e PG (Figuras (b) e (d)).
112 Captulo 4. Simulaes e Resultados

Variao de 1 Trajetria Circular Variao de 1 Trajetria Senoidal


0.2
1 desejado 1 desejado
1 estimado 1 estimado

0.15 0.15

0.1 0.1

0.05 0.05
1

1
0 0

0.05 0.05

0.1 0.1

0.15
0.15

0.2
0 20 40 60 80 100 0 5 10 15 20 25
Amostra Amostra

(a) (b)
Variao de 2 Trajetria Circular Variao de 2 Trajetria Senoidal

2 desejado 2 desejado
1.6 2 estimado 2 estimado
1.73
1.65 1.74

1.7 1.75

1.76
1.75
1.77
2

1.8
1.78

1.85 1.79

1.8
1.9
1.81
1.95
1.82
2
0 20 40 60 80 100 0 5 10 15 20 25
Amostra Amostra

(c) (d)
Variao de 3 Trajetria Circular Variao de 3 Trajetria Senoidal
0.05
3 desejado

0 3 estimado

0.05
0.05

0.1 0.1
3

0.15 0.15

0.2
0.2

0.25
0.25
0.3
3 desejado

0.3 3 estimado

0.35
0 20 40 60 80 100 0 5 10 15 20 25
Amostra Amostra

(e) (f)

Figura 34 Manipulador Motoman HP6 - LS-SVR: (a), (c) e (e) mostram a variao
do ngulos de junta ao desenvolver uma trajetria circular. (b), (d) e (f)
mostram a variao do ngulos de junta ao desenvolver uma trajetria senoidal.
4.8. Concluso 113

Variao de 1 Trajetria Circular Variao de 1 Trajetria Senoidal


0.2
1 desejado
1 estimado

0.15 0.15

0.1 0.1

0.05 0.05
1

1
0 0

0.05 0.05

0.1 0.1

0.15
0.15
1 desejado
1 estimado

0.2
0 20 40 60 80 100 0 5 10 15 20 25
Amostra Amostra

(a) (b)
Variao de 2 Trajetria Circular Variao de 2 Trajetria Senoidal

2 desejado 2 desejado
1.6 2 estimado 2 estimado
1.73
1.65 1.74

1.7 1.75

1.76
1.75
1.77
2

1.8
1.78

1.85 1.79

1.8
1.9
1.81
1.95
1.82
2
0 20 40 60 80 100 0 5 10 15 20 25
Amostra Amostra

(c) (d)
Variao de 3 Trajetria Circular Variao de 3 Trajetria Senoidal
0.05
3 desejado

0 3 estimado

0.05
0.05

0.1 0.1
3

0.15 0.15

0.2
0.2

0.25
0.25
0.3
3 desejado

0.3 3 estimado

0.35
0 20 40 60 80 100 0 5 10 15 20 25
Amostra Amostra

(e) (f)

Figura 35 Manipulador Motoman HP6 - PG: (a), (c) e (e) mostram a variao do
ngulos de junta ao desenvolver uma trajetria circular. (b), (d) e (f) mostram
a variao do ngulos de junta ao desenvolver uma trajetria senoidal.
114 Captulo 4. Simulaes e Resultados

1 Desejado 1 Estimado 1 Desejado 1 Estimado

0.6 0.6

0.4 0.4
1 Desejado

1 Desejado
0.2 0.2

0 0

0.2 0.2

0.4 0.4

0.6 0.6

0.5 0 0.5 0.5 0 0.5


1 Estimado 1 Estimado

(a) (b)
2 Desejado 2 Estimado 2 Desejado 2 Estimado

0.8 0.8
1 1
1.2 1.2
2 Desejado

2 Desejado

1.4 1.4
1.6 1.6
1.8 1.8

2 2

2.2 2.2

2 1.5 1 2 1.5 1
2 Estimado 2 Estimado

(c) (d)
3 Desejado 3 Estimado 3 Desejado 3 Estimado

0.8 0.8

0.6 0.6

0.4 0.4
3 Desejado

3 Desejado

0.2 0.2

0 0

0.2 0.2

0.4 0.4
0.6
0.6
0.8
0.8
0.5 0 0.5 0.5 0 0.5
3 Estimado 3 Estimado

(e) (f)

Figura 36 Manipulador Motoman HP6 - As Figuras (a), (c) e (e) mostram os grficos
dos valores desejados contra os valores estimados dos ngulos de junta para o
modelo LS-SVR. As Figuras (b), (d) e (f) mostram o mesmo grfico para o
modelo de regresso baseado em PG.
4.8. Concluso 115

Trajetria Crculo Trajetria Crculo


Desejado Desejado
Estimado Estimado

0.649998 0.6499977

0.649999 0.6499979

0.649999 0.6499978
Z

Z
0.649998 0.6499979

0.6499980
0.1
0.1
0.75
0 0.7 0 0.7
0.65 0.65
0.1 0.6 0.6
Y 0.55 X Y 0.1 0.55 X

(a) (b)
Trajetria Funo Seno Trajetria Funo Seno
Desejado Desejado
Estimado Estimado

0.75 0.75

0.7 0.7

0.65 0.65
Z

0.6 0.6

0.55 0.55
0.2 0.2
0.7740 0.7727
0 0 0.7740
0.7747 0.7747
Y 0.2 0.7750 X Y 0.2 0.7750 X

(c) (d)

Figura 37 Manipulador Motoman HP6 - Trajetrias tericas e estimadas pelos


modelos LS-SVR (Figuras (a) e (c)) e PG (Figuras (b) e (d)).
117

5 Anlise dos Resduos

5.1 Introduo
Este captulo apresenta os resultados dos testes de hipteses aplicados aos resduos
gerados pelos melhores modelos de regresso que foram escolhidos no captulo anterior.
Estes testes tm como objetivo comparar estatisticamente o desempenho destes algoritmos.
Alm do mais, sero apresentadas as funes de autocorrelao dos resduos para fins de
verificar o quo bem os modelos apreenderam as relaes entrada/sada fornecidas pelos
dados de treinamento.

5.2 Testes de Hipteses


Muitas vezes pretende-se realizar afirmaes sobre as caractersticas de uma deter-
minada populao. Em alguns casos, a comprovao dessas afirmaes de maneira direta
invivel devido ao fato de existirem diversos elementos na populao ou o processo
comprobatrio ser destrutivo. Por exemplo, no se pode verificar o percentual de defeitos
de todas as lmpadas de um lote pois o procedimento consiste em um ensaio destrutivo.
Para solucionar este problema, adota-se uma pequena parcela da populao ( amostra) e
espera-se que as anlises estatsticas realizadas sobre ela correspondam s caractersticas
de toda a populao. Este processo de generalizar a populao a partir das amostras
chamado de Inferncia Estatstica (BUSSAB; MORETTIN, 2010). Outros tipos de
problemas tratados pela inferncia estatstica so os Testes de Hipteses. Grosso modo, um
teste de hiptese uma afirmao sobre a populao que testada contra uma amostra,
possibilitando sua confirmao ou refutao baseando-se em parmetros populacionais.
Testes de hipteses podem ser classificados de acordo com a quantidade de amostras
utilizadas. Nos casos mais simples as anlises estatsticas so realizadas apenas sobre uma
amostra buscando-se, por exemplo, identificar se a amostra em questo possui determinada
mdia, varincia ou advm de uma distribuio de probabilidade especfica. J os testes de
amostra dupla realizam indagaes sobre a similaridade de uma amostra contra a outra.
Por exemplo, procura-se identificar se duas amostras advm da mesma distribuio de
probabilidade ou se elas so ambas amostras de uma distribuio normal de mesma mdia.
Neste trabalho, foram realizados testes de hipteses apenas para os dois modelos
que obtiveram melhor desempenho global atravs da avaliao da mtrica de seleo. O
teste de hipteses adotado foi o teste de Kolmogorov-Smirnov de duas amostras, que ser
detalhado adiante.
118 Captulo 5. Anlise dos Resduos

5.2.1 Teste de Kolmogorov-Smirnov


Por meio do teste de hipteses de Kolmogorov-Smirnov (KS) (JR, 1951) ser
verificado se as amostras de resduo geradas pelos modelos analisados so provenientes
de uma mesma distribuio de probabilidade desconhecida. Devido ao fato de o teste KS
no assumir nenhuma distribuio especfica para os resduos, ele classificado com teste
no paramtrico. A resposta positiva corresponde a aceitao da hiptese nula (H0 ), caso
contrrio ocorre a rejeio. Considerando duas amostras A1 e A2 , tem-se:


H0

: As amostras A1 e A2 advm da mesma distribuio de probabilidade.
H1 : As amostras A1 e A2 advm de distribuies de probabilidade diferentes.

(5.1)
O teste KS quantifica a distncia entre as Funes de Distribuio Acumuladas
(FDA) empricas de duas sequncias de resduos e atravs disso busca averiguar se h
ou no diferenas significativas do ponto de vista estatstico entre desempenhos dos os
diferentes modelos de regresso. Sejam F1 (e) e F2 (e) as FDAs empricas das duas amostras
comparadas, calcula-se a mxima diferena absoluta entre estas funes:

 
D = max |F1 (e) F2 (e)| (5.2)
e

Atravs do valor calculado de D , juntamente com o nvel da significncia adotado


no teste (5%), obtm-se um outro valor denominado valor-p. O valor-p definido como
a probabilidade de se obter valores iguais ou maiores do que aquele fixado para uma
estatstica utilizada na hiptese nula (H0 ), neste caso, a mxima diferena absoluta entre
as FDAs empricas. Para valores-p maiores que o nvel de significncia adotado no teste
KS, a hiptese nula aceita, caso contrrio, rejeitada.
A Tabela 13 apresenta os resultados dos testes KS para os resduos de estimao
dos trs manipuladores testados.
Para os resduos dos ngulos de junta do rob planar, todos os testes KS rejei-
taram a hiptese nula, ou seja, os resduos gerados pelos algoritmos LS-SVR e PG no
seguem a mesma distribuio de probabilidade. Logo, possvel inferir que estes modelos
tm desempenhos estatisticamente distintos. Em outras palavras, pode-se afirmar que a
diferena entre os desempenhos dos dois modelos significativa.
J para os manipuladores PUMA 560 e Motoman HP6, alguns conjuntos de resduos
apresentaram equivalncia estatstica. Para estes casos de equivalncia, recomenda-se ao
usurio escolher o algoritmo que apresente menor (k )teste .
Uma forma bastante til de visualizao dos testes acima a exibio conjunta
dos grficos das FDAs empricas dos modelos comparados pelos testes KS. Atravs destes
5.2. Testes de Hipteses 119

Rob Planar - LS-SVR ANFIS


ngulo de Junta Hiptese Nula Valor-p
1 Rejeitada 3,3258E-05
2 Rejeitada 6,4144E-05
PUMA 560 - LS-SVR PG
1 Rejeitada 2,6300E-02
2 Aceita 2,3890E-01
3 Aceita 2,9060E-01
4 Rejeitada 1,5563E-30
5 Aceita 7,7200E-02
6 Aceita 9,8990E-01
Motoman HP6 - LS-SVR PG
1 Rejeitada 1,3624E-06
2 Aceita 6,5600E-02
3 Aceita 4,5830E-01
4 Rejeitada 1,3929E-46
5 Rejeitada 1,1300E-02
6 Aceita 1,0880E-01

Tabela 13 Resultados dos testes de Kolmogorov-Smirnov para os resduos gerados pelos


melhores modelos de cada manipulador.

grficos torna-se possvel visualizar as diferenas entre cada par de distribuies bem como
as mximas distncias entre elas. As Figuras 38 e 39 trazem estes grficos para os ngulos
de junta anteriores ao pulso dos manipuladores robticos.

FDA Resduos de 1 FDA Resduos de 2


1 1

0.8 0.8

0.6 0.6
F(x)

F(x)

0.4 0.4

0.2 0.2
LSSVR LSSVR
ANFIS ANFIS

0 0
0.02 0 0.02 0.04 0.1 0.05 0 0.05 0.1
x x
(a) (b)

Figura 38 Rob Planar - FDAs empricas dos resduos gerados pelos modelos LS-SVR
e ANFIS para os ngulos (a) 1 e (b) 2 .
120 Captulo 5. Anlise dos Resduos

5.3 Anlise de Correlao dos Resduos


Grosso modo, pode-se enxergar os resduos de estimao como um subproduto
no capturado pelos modelos regresso. Para modelos bem ajustados aos dados espera-se
que os resduos sejam descorrelacionados, ou seja, ao se exibir os grficos da funo de
autocorrelao (FAC) para os resduos espera-se que eles apresentem valores no nulos
apenas para o primeiro lag, enquanto os outros valores apresentem amplitudes que residem
entre os limiares de confiana estabelecidos em 95%. Dentro deste intervalo de confiana
as estimativas das funes de autocorrelao so consideradas estatisticamente nulas.
Matematicamente, a FAC definida como


1,

se = 0.
ee ( ) = E{e(t )e(t)} = ( ) = (5.3)
0,

caso contrrio.

onde E() o operador valor esperado e ( ) a funo delta de Dirac. As sees seguintes
apresentam para cada manipulador os grficos da FAC dos resduos dos dois melhores
modelos.

5.3.1 Resultados da FAC: Rob Planar

Para o rob planar, a anlise de autocorrelao dos resduos do ngulo 1 para os


algoritmos LS-SVR e ANFIS so mostrados na Figura 40. Por questes de simplicidade,
apenas os grficos para ngulo 1 foram apresentados. Ao analisar todos os grficos gerados
pelas simulaes constatou-se que os dois melhores modelos so estatisticamente vlidos
visto que apenas o lag zero apresentou-se fora do intervalo de confiana e com valor unitrio.
Alguns poucos lags apresentaram amplitudes fora do intervalo de confiana de 95%, mas
este comportamento parece ser fruto do acaso.

5.3.2 Resultados da FAC: Manipulador PUMA 560

De forma similar ao rob planar, adotou-se o critrio da Equao (5.3) para


validar estatisticamente os dois melhores modelos (LS-SVR e PG) para o manipulador
PUMA 560. A Figura 40 ilustra a anlise de autocorrelao para os resduos do ngulo
de junta 1 . Atravs dos grficos gerados pelas simulaes, conclui-se novamente que
os dois melhores modelos novamente so estatisticamente vlidos. Alguns poucos lags
apresentaram amplitudes fora do intervalo de confiana de 95%, mas este comportamento
parece ser fruto do acaso.
5.4. Concluso 121

5.3.3 Resultados da FAC: Manipulador Motoman HP6


Para o manipulador Motoman HP6 procedeu-se de forma similar aos robs planar
e PUMA 560. A anlise de autocorrelao dos resduos do ngulo 1 para os algoritmos
LS-SVR e PG so mostrados na Figura 40. Adotando-se o mesmo critrio anterior, conclui-
se, atravs de todos os grficos gerados pelas simulaes, que os dois melhores modelos
tambm so estatisticamente vlidos. Alguns poucos lags apresentaram amplitudes fora
do intervalo de confiana de 95%, mas este comportamento parece ser fruto do acaso.

5.4 Concluso
Este captulo apresentou os resultados dos testes de hipteses de Kolmogorov-
Smirnov aplicados s amostras dos resduos gerados pelos dois melhores modelos de
regresso. Foram exibidos grficos das FDAs empricas a fim de evidenciar a mxima
distncia entre as distribuies. Alm do mais, foram exibidos tambm os grficos de
autocorrelao dos resduos com o objetivo de validar estatisticamente os modelos.
No prximo captulo so apresentadas as principais concluses desta dissertao e
tambm so sugeridos temas para pesquisas futuras na rea regresso no-linear aplicada
ao aprendizado da cinemtica inversa de robs manipuladores.
122 Captulo 5. Anlise dos Resduos

FDA Resduos de 1 FDA Resduos de 1


1 1

0.8 0.8

0.6 0.6
F(x)

F(x)
0.4 0.4

0.2 0.2
LSSVR LSSVR
PG PG

0 0
5 0 5 10 10 5 0 5
x x 10
4 x x 10
6

(a) (b)
FDA Resduos de 2 FDA Resduos de 2
1 1

0.8 0.8

0.6 0.6
F(x)
F(x)

0.4 0.4

0.2 0.2
LSSVR
LSSVR
PG
PG

0 0
0.04 0.02 0 0.02 0.04 5 0 5 10
x x x 10
4

(c) (d)
FDA Resduos de 3 FDA Resduos de 3
1 1

0.8 0.8

0.6 0.6
F(x)
F(x)

0.4 0.4

0.2 0.2
LSSVR
LSSVR
PG
PG

0 0
0.1 0.05 0 0.05 0.1 1 0 1 2
x x x 10
3

(e) (f)

Figura 39 FDAs empricas dos resduos gerados pelos modelos LS-SVR e PG para os
trs primeiros ngulos de junta para os manipuladores PUMA 560 - Figuras
(a),(c) e (e) - e para o Manipulador Motoman HP6 - Figuras (b), (d) e (f).
5.4. Concluso 123

Resduos 1 Resduos 1
1.2 1.2

1 1
Autocorrelao Amostral

Autocorrelao Amostral
0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

0.2 0.2
0 5 10 15 20 0 5 10 15 20
Lag Lag

(a) Rob Planar - LS-SVR (b) Rob Planar - ANFIS


Resduos 1 Resduos 1
1.2 1.2

1 1
Autocorrelao Amostral

Autocorrelao Amostral

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

0.2 0.2
0 5 10 15 20 0 5 10 15 20
Lag Lag

(c) Manipulador PUMA 560 - LS-SVR (d) Manipulador PUMA 560 - PG


Resduos 1 Resduos 1
1.2 1.2

1 1
Autocorrelao Amostral

Autocorrelao Amostral

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0

0.2 0.2
0 5 10 15 20 0 5 10 15 20
Lag Lag

(e) Manipulador Motoman HP6 - LS-SVR (f) Manipulador Motoman HP6 - PG

Figura 40 Grfico de autocorrelao dos resduos de 1 para os robs planar (Figuras


(a) LS-SVR e (b) ANFIS) , PUMA 560 (Figuras (c) LS-SVR e (d) PG) e
Motoman HP6 (Figuras (e) LS-SVR e (f) PG)
125

6 Concluses

6.1 Introduo

Nesta dissertao, foram realizadas simulaes que objetivaram o estudo com-


parativo de modelos de regresso de diversas classes aplicados tarefa de aprendizado
da cinemtica inversa de manipuladores. Tais classes compreendem as Redes Neurais
Artificiais (MLP e ELM), Regresso Baseada em Mtodos de Kernel (LS-SVR e PG),
Modelos Lineares Locais (LLM), Sistemas Neuro-Fuzzy (ANFIS) e Regresso Baseada em
Distncias (MLM).
No Captulo 4, foram apresentados os passos que constituram a metodologia
adotada nas simulaes e aquisio dos resultados que permitiram o estudo comparativo
dos modelos de regresso. Esta metodologia tem como um dos fundamentos a utilizao
do erro quadrtico mdio calculado sobre as amostras do conjunto de treinamento e de
teste. Por meio dos valores EQMs de treinamento, foi possvel selecionar os parmetros dos
modelos de regresso. J os EQMs de teste deram origem a uma mtrica de seleo que
possibilitou a escolha dos dois melhores modelos para cada um dos robs manipuladores.
Esta mtrica forneceu uma noo de desempenho global pois incorporava os EQMs dos
ngulos mais relevantes para o posicionamento do efetuador. Desta forma, a anlise
aplicada fez uma comparao justa entre os modelos, no beneficiando nenhum algoritmo
em particular.
Conforme a mtrica de seleo adotada, os modelos LS-SVR e ANFIS apresentaram
melhores desempenhos globais para os dados do rob planar, enquanto os modelos LS-
SVR e PG foram os que apresentaram os menores valores de erro para os dados dos
Manipuladores PUMA 560 e Motoman HP6. Vale ressaltar que o modelo PG tambm
apresentou excelentes resultados para os dados do rob planar, aparecendo na terceira
posio com respeito a mtrica de seleo de teste.
Foram aplicados aos modelos de regresso algumas trajetrias conhecidas dentro do
espao de trabalho dos robs. Por meio destras trajetrias, procurou-se observar se haveria
uma correspondncia direta entre os desempenhos no espao cartesiano e no espao das
juntas. Observou-se que a ordenao dos algoritmos baseada na mtrica de seleo no
correspondeu a ordenao baseada na distncia mdia observada para todos os pontos
das trajetria aplicadas. Logo, para as simulaes realizadas, um bom desempenho global
no espao das juntas no necessariamente corresponde a um bom desempenho do espao
cartesiano e vice-versa.
Testes de hipteses foram realizados sobre os resduos gerados pelos melhores
126 Captulo 6. Concluses

modelos de regresso para cada manipulador. Para o caso do rob planar, as hipteses nulas
foram rejeitadas para todos os ngulos de junta estimado, indicando que os desempenhos
dos modelos LS-SVR e ANFIS so estatisticamente distintos. J para os manipuladores
PUMA 560 e Motoman HP6 os testes de hipteses apresentaram resultados mistos,
indicando que os modelos LS-SVR e PG so equivalentes apenas para um conjunto de
ngulos. Nos casos em que a equivalncia estatstica ocorre recomenda-se escolher o modelo
que apresentou menor erro quadrtico mdio de teste ((k )teste ).
Ao se analisar os grficos das funes de autocorrelao dos resduos gerados pelos
modelos de regresso, notou-se que todos eles apresentaram validade estatstica visto que
apenas o lag zero apresentou-se fora do intervalo de confiana estipulado de 95%.
A seguir, apresenta-se um resumo das principais contribuies desta tese e discutem-
se as concluses que se pode tirar delas.

6.2 Resumo das Contribuies da Dissertao


De modo mais especfico as principais contribuies da tese foram as seguintes:

1. Oferecer comunidade cientfica, por meio de uma ampla reviso bibliogrfica


sobre o tema, uma panorama geral das abordagens disponveis na literatura sobre o
aprendizado da cinemtica inversa de robs manipuladores.

2. Amplo estudo comparativo envolvendo modelos no-paramtricos de diferentes


paradigmas de aprendizado na tarefa de aproximao de mapeamentos inversos em
robtica, em particular da cinemtica inversa.

3. Proposio de uma mtrica de seleo que possibilitou a caracterizao do desempe-


nho global dos modelos de regresso em estimar os ngulos de junta das estruturas
robticas em tarefas de cinemtica inversa.

4. Incluso de testes de desempenho que envolvessem no s transformaes pontuais


isoladas, mas tambm de uma seqncia de pontos (i.e. trajetrias) a fim de ter uma
viso mais global do resultado da aproximao.

5. Validao sistemtica dos desempenhos por meio de anlise de correlao de resduos


e de testes de hipteses.

6. Aplicao indita de dois modelos de aprendizado na aproximao da cinemtica


inversa de robs manipuladores, a saber: MLM e LS-SVR.

7. Disponibilizao em repositrios dos conjuntos de dados dos trs robs avaliados


para uso pblico por parte da comunidade nacional e internacional.
6.3. Trabalhos Futuros 127

6.3 Trabalhos Futuros


Um grande nmero de propostas de trabalhos na linha de pesquisa desenvolvida
nesta dissertao pode ainda ser desenvolvida. Dentre os potenciais temas de pesquisa
futura podem ser listadas as seguintes direes:

1. Realizao de testes sistemticos com diferentes nveis e tipos de rudo nas medidas
de posio de entrada e consequente anlise do efeito na estimao dos ngulos das
juntas.

2. Testes em robs reais disponveis no CENTAURO (Centro de Referncia em Auto-


mao e Robtica), da UFC, como por exemplo: Rob planar (Quanser) e Rob
Humanide NAO.

3. Estudo comparativo dos modelos avaliados nesta dissertao em problemas de


aprendizado da dinmica direta e inversa de robs manipuladores para fins de
controle de posio.

4. Estudo comparativo dos modelos avaliados nesta dissertao em no aprendizado


de outros mapeamentos cinemticos inversos de interesse em robtica, tal como
coordenao visuomotora (mapeamento cmeras -> ngulos das juntas).
129

Referncias

ALAVANDAR, S.; NIGAM, M. Inverse kinematics solution of 3dof planar robot using
anfis. Int. J. of Computers, Communication & Control, v. 3, p. 150155, 2008. Citado na
pgina 74.

ANGULO, V. R. de; TORRAS, C. Self-calibration of a space robot. Neural Networks,


IEEE Transactions on, IEEE, v. 8, n. 4, p. 951963, 1997. Citado na pgina 81.

BAKER, D. R.; WAMPLER, C. W. On the inverse kinematics of redundant manipulators.


The International Journal of Robotics Research, Sage Publications, v. 7, n. 2, p. 321,
1988. Citado na pgina 52.

BARRETO, G. D. A.; ARAJO, A. F.; RITTER, H. J. Self-organizing feature maps for


modeling and control of robotic manipulators. Journal of Intelligent and Robotic Systems,
Springer, v. 36, n. 4, p. 407450, 2003. Citado 2 vezes nas pginas 32 e 81.

BRABANTER, K. D. et al. Ls-svmlab toolbox users guide. ESAT-SISTA Technical


Report, p. 10146, 2011. Citado na pgina 91.

BURGES, C. J. A tutorial on support vector machines for pattern recognition. Data


mining and knowledge discovery, Springer, v. 2, n. 2, p. 121167, 1998. Citado na pgina
64.

BUSSAB, W. d. O.; MORETTIN, P. A. Estatstica bsica. [S.l.]: Saraiva, 2010. Citado


na pgina 117.

CORKE, P. A robotics toolbox for matlab. Robotics & Automation Magazine, IEEE,
IEEE, v. 3, n. 1, p. 2432, 1996. Citado 2 vezes nas pginas 50 e 87.

CORKE, P. Robotics, vision and control: fundamental algorithms in MATLAB. [S.l.]:


Springer Science & Business Media, 2011. Citado 2 vezes nas pginas 37 e 87.

CRAIG, J. J. Introduction to robotics: mechanics and control. [S.l.]: Pearson/Prentice Hall


Upper Saddle River, NJ, USA:, 2005. Citado 9 vezes nas pginas 15, 32, 37, 40, 42, 43,
44, 47 e 52.

DANAFAR, S.; GRETTON, A.; SCHMIDHUBER, J. Characteristic kernels on structured


domains excel in robotics and human action recognition. In: Machine Learning and
Knowledge Discovery in Databases. [S.l.]: Springer, 2010. p. 264279. Citado na pgina 69.

DeMers, D.; Kreutz-Delgado, K. Learning global direct inverse kinematics. In: MOODY,
J.; HANSON, S.; LIPPMANN, R. (Ed.). Advances in Neural Information Processing
Systems 4. [S.l.]: Morgan-Kaufmann, 1992. p. 589594. Citado 2 vezes nas pginas 31
e 32.

DUKA, A.-V. Neural network based inverse kinematics solution for trajectory tracking of
a robotic arm. Procedia Technology, Elsevier, v. 12, p. 2027, 2014. Citado na pgina 60.
130 Referncias

DUKA, A.-V. ANFIS based solution to the inverse kinematics of a 3DOF


planar manipulator. Procedia Technology, v. 19, n. 0, p. 526 533, 2015. ISSN
2212-0173. 8th International Conference Interdisciplinarity in Engineering,
INTER-ENG 2014, 9-10 October 2014, Tirgu Mures, Romania. Disponvel em:
<http://www.sciencedirect.com/science/article/pii/S2212017315000766>. Citado na
pgina 74.
ENGELBRECHT, A. P. Computational intelligence: an introduction. [S.l.]: John Wiley &
Sons, 2007. Citado na pgina 71.
FENG, S.; HU, S.; SHEN, J. Kinematic study on motoman hp6 arc welding robot based
on unigraphics. Transactions of Tianjin University, Springer, v. 17, p. 199202, 2011.
Citado na pgina 52.
FENG, Y.; YAO-NAN, W.; YI-MIN, Y. Inverse kinematics solution for robot manipulator
based on neural network under joint subspace. International Journal of Computers
Communications & Control, v. 7, n. 3, p. 459472, 2014. Citado na pgina 63.
FLETCHER, R. Practical methods of optimization. [S.l.]: John Wiley & Sons, 2013.
Citado na pgina 69.
GROCHOW, K. et al. Style-based inverse kinematics. In: ACM. ACM Transactions on
Graphics (TOG). [S.l.], 2004. v. 23, n. 3, p. 522531. Citado na pgina 69.
HASAN, A. T. et al. An adaptive-learning algorithm to solve the inverse kinematics
problem of a 6 DOF serial robot manipulator. Advances in Engineering Software, Elsevier,
v. 37, n. 7, p. 432438, 2006. Citado na pgina 60.
HASSIBI, B.; STORK, D. G. et al. Second order derivatives for network pruning: Optimal
brain surgeon. Advances in neural information processing systems, Citeseer, p. 164164,
1993. Citado na pgina 66.
HAYKIN, S. S. Neural networks and learning machines. [S.l.: s.n.], 2009. Citado 5 vezes
nas pginas 32, 55, 56, 57 e 65.
HORNE, B.; JAMSHIDI, M.; VADIEE, N. Neural networks in robotics: A survey. Journal
of Intelligent and Robotic Systems, v. 3, p. 5166, 1990. Citado na pgina 32.
HSU, C.-W.; LIN, C.-J. A comparison of methods for multiclass support vector machines.
Neural Networks, IEEE Transactions on, IEEE, v. 13, n. 2, p. 415425, 2002. Citado na
pgina 64.
HUANG, G.-B.; ZHU, Q.-Y.; SIEW, C.-K. Extreme learning machine: theory and
applications. Neurocomputing, Elsevier, v. 70, n. 1, p. 489501, 2006. Citado 2 vezes nas
pginas 33 e 60.
HUANG, S.; TAN, K. K.; LEE, T. H. Decentralized control design for large-scale systems
with strong interconnections using neural networks. IEEE Transactions on Automatic
Control, v. 48, n. 5, p. 805810, 2003. Citado na pgina 34.
IFR. International Federation of Robotic, IFR. [S.l.], 2013 (Acessado em 27/06/2015).
Disponvel em: <http://www.ifr.org/industrial-robots/statistics/>. Citado na pgina 29.
ISO. ISO 8373 Robots and robotic devices - Vocabulary. [S.l.], 2012. Citado na pgina 29.
Referncias 131

JANG, J.-S. Anfis: adaptive-network-based fuzzy inference system. Systems, Man and
Cybernetics, IEEE Transactions on, IEEE, v. 23, n. 3, p. 665685, 1993. Citado 4 vezes
nas pginas 33, 71, 72 e 73.

JANG, J.-S. R.; SUN, C.-T. Neuro-fuzzy and soft computing: a computational approach to
learning and machine intelligence. [S.l.]: Prentice-Hall, Inc., 1996. Citado 3 vezes nas
pginas 69, 71 e 73.

JIN, Y. Decentralized adaptive fuzzy control of robot manipulators. IEEE Transactions on


Systems, Man, and Cybernetics - Part B, v. 28, n. 1, p. 4757, 1998. Citado na pgina 34.

JR, F. J. M. The kolmogorov-smirnov test for goodness of fit. Journal of the American
statistical Association, Taylor & Francis Group, v. 46, n. 253, p. 6878, 1951. Citado na
pgina 118.

JUNIOR, A. H. de S. et al. Minimal learning machine: a new distance-based method for


supervised learning. In: Advances in Computational Intelligence. [S.l.]: Springer, 2013. p.
408416. Citado 2 vezes nas pginas 33 e 74.

KOHONEN, T. Essentials of the self-organizing map. Neural Networks, v. 37, p. 5265,


2013. Citado na pgina 33.

LAY, D. C.; CAMELIER, R.; IRIO, V. de M. lgebra linear e suas aplicaes. [S.l.]:
LTC, 1997. Citado na pgina 63.

LECUN, Y. et al. Optimal brain damage. In: NIPs. [S.l.: s.n.], 1989. v. 2, p. 598605.
Citado na pgina 66.

LEE, C. Fuzzy logic in control systems: fuzzy logic controller. i. Systems, Man and
Cybernetics, IEEE Transactions on, v. 20, n. 2, p. 404418, Mar 1990. ISSN 0018-9472.
Citado na pgina 71.

LEE, C. G.; ZIEGLER, M. Geometric approach in solving inverse kinematics of puma


robots. Aerospace and Electronic Systems, IEEE Transactions on, IEEE, n. 6, p. 695706,
1984. Citado na pgina 52.

LIU, M. Decentralized control of robot manipulators: Nonlinear and adaptive approaches.


IEEE Transactions on Automatic Control, v. 44, n. 2, p. 357363, 1999. Citado na pgina
34.

MACQUEEN, J. et al. Some methods for classification and analysis of multivariate


observations. In: OAKLAND, CA, USA. Proceedings of the fifth Berkeley symposium on
mathematical statistics and probability. [S.l.], 1967. v. 1, n. 14, p. 281297. Citado na
pgina 77.

MARTINETZ, T. M.; RITTER, H. J.; SCHULTEN, K. J. Three-dimensional neural net


for learning visuomotor coordination of a robot arm. Neural Networks, IEEE Transactions
on, IEEE, v. 1, n. 1, p. 131136, 1990. Citado na pgina 81.

MASHHADANY, Y. I. A.; MIEEE, H. ANFIS-inverse-controlled PUMA 560 workspace


robot with spherical wrist. Procedia Engineering, Elsevier, v. 41, p. 700709, 2012. Citado
na pgina 74.
132 Referncias

MURPHY, K. P. Machine learning: a probabilistic perspective. [S.l.]: MIT press, 2012.


Citado na pgina 67.

NAKAMURA, Y.; HANAFUSA, H. Inverse kinematic solutions with singularity


robustness for robot manipulator control. Journal of dynamic systems, measurement, and
control, American Society of Mechanical Engineers, v. 108, n. 3, p. 163171, 1986. Citado
na pgina 52.

NELDER, J. A.; MEAD, R. A simplex method for function minimization. The computer
journal, Br Computer Soc, v. 7, n. 4, p. 308313, 1965. Citado na pgina 91.

OGAWA, T.; KANADA, H. Solution for ill-posed inverse kinematics of robot arm by
network inversion. Journal of Robotics, v. 2010, n. ID 870923, p. 19, 2010. Citado na
pgina 31.

OLIVEIRA, A. S. Retrofitting de Robs Manipuladores com Incorporao de Controle


de Posio e Fora: Aplicao em um Rob Industrial. Dissertao (Mestrado)
Universidade Federal de Santa Catarina, Programa de Ps-Gradua em Engenharia
Mecnica, 2007. Citado 2 vezes nas pginas 15 e 30.

PEIPER, D. L. The kinematics of manipulators under computer control. [S.l.], 1968.


Citado na pgina 52.

PRABHU, S. M.; GARG, D. P. Artificial neural network based robot control: An overview.
Journal of Intelligent and Robotic Systems, v. 15, n. 4, p. 333365, 1996. Citado na
pgina 32.

PRINCIPE, J. C.; EULIANO, N. R.; LEFEBVRE, W. C. Neural and Adaptive Systems:


Fundamentals Through Simulations. [S.l.]: John Wiley and Sons, 2000. Citado 2 vezes nas
pginas 62 e 80.

RASMUSSEN, C. E. Gaussian processes for machine learning. Citeseer, 2006. Citado na


pgina 33.

RITTER, H. J.; MARTINETZ, T. M.; SCHULTEN, K. J. Topology-conserving maps for


learning visuo-motor-coordination. Neural networks, Elsevier, v. 2, n. 3, p. 159168, 1989.
Citado na pgina 81.

ROTH, B. Performance evaluation of manipulators from a kinematic viewpoint. NBS


Special Publication, v. 459, p. 3962, 1976. Citado na pgina 52.

RUMELHART, D. E.; HINTON, G. E.; WILLIAMS, R. J. Learning internal


representations by error propagation. [S.l.], 1985. Citado na pgina 33.

RUMELHART, D. E.; HINTON, G. E.; WILLIAMS, R. J. Learning representations by


back-propagating errors. Cognitive modeling, v. 5, 1988. Citado na pgina 58.

SCHOLKOPF, B.; SMOLA, A. J. Learning with kernels: support vector machines,


regularization, optimization, and beyond. [S.l.]: MIT press, 2001. Citado na pgina 65.

SMOLA, A. J.; SCHLKOPF, B. A tutorial on support vector regression. Statistics and


computing, Springer, v. 14, n. 3, p. 199222, 2004. Citado na pgina 64.
Referncias 133

SOUZA, S. Xavier-de et al. Coupled simulated annealing. Systems, Man, and Cybernetics,
Part B: Cybernetics, IEEE Transactions on, IEEE, v. 40, n. 2, p. 320335, 2010. Citado
na pgina 91.

SPONG, M. W.; HUTCHINSON, S.; VIDYASAGAR, M. Robot modeling and control.


[S.l.]: Wiley New York, 2006. Citado 3 vezes nas pginas 32, 37 e 42.

SUYKENS, J. A. et al. Least squares support vector machines. [S.l.]: World Scientific,
2002. Citado 3 vezes nas pginas 33, 65 e 66.

TAKAGI, T.; SUGENO, M. Fuzzy identification of systems and its applications to


modeling and control. Systems, Man and Cybernetics, IEEE Transactions on, IEEE, n. 1,
p. 116132, 1985. Citado na pgina 72.

TIKHONOV, A. N.; ARSENIN, V. Y. Solutions of Ill-Posed Problems. [S.l.]: Winston,


New York, 1977. Citado na pgina 31.

TSAI, L.-W.; MORGAN, A. P. Solving the kinematics of the most general six-and
five-degree-of-freedom manipulators by continuation methods. Journal of Mechanical
Design, American Society of Mechanical Engineers, v. 107, n. 2, p. 189200, 1985. Citado
na pgina 52.

VAPNIK, V. The nature of statistical learning theory. [S.l.]: Springer Science & Business
Media, 2000. Citado na pgina 64.

VASUKI, A.; VANATHI, P. A review of vector quantization techniques. Potentials, IEEE,


IEEE, v. 25, n. 4, p. 3947, 2006. Citado na pgina 77.

WALTER, J.; RITER, H.; SCHULTEN, K. Nonlinear prediction with self-organizing


maps. In: IEEE. Neural Networks, 1990., 1990 IJCNN International Joint Conference on.
[S.l.], 1990. p. 589594. Citado na pgina 76.

WRIGHT, S. J.; NOCEDAL, J. Numerical optimization. [S.l.]: Springer New York, 1999.
Citado na pgina 69.

YILDIRIM, .; ESKI, . A QP artificial neural network inverse kinematic solution for


accurate robot path control. Journal of mechanical science and technology, Springer, v. 20,
n. 7, p. 917928, 2006. Citado na pgina 60.