Você está na página 1de 6

RELATÓRIO DE ATIVIDADES – PROGRAMAS DE INICIAÇÃO CIENTÍFICA DA UFPI

PARTE I – IDENTIFICAÇÃO

Tipo do Relatório: ( ) Parcial ( X ) Final


( X ) PIBIC/CNPq/UFPI
( ) PIBIC-Af/CNPq/UFPI
Programa:
( ) ICV/UFPI
( ) PIBIC-EM/CNPq/UFPI
Titulo do Plano de Trabalho: Estudo teórico e computacional do método do ponto proximal para
programação DC multiobjtivo.
Nome do Orientador(a): João Carlos de Oliveira Souza
Nome do Orientando(a): Carlos Eduardo Noleto de Sousa Ximenes

PARTE II – RELATO TÉCNICO-CIENTÍFICO

1. Introdução

Um dos principais focos no nosso estudo de Otimização Contínua, o Método do Ponto Proximal busca resolver
o problema de minimização de uma função, em particular, na Otimização Convexa, uma função
𝑛
convexa 𝑓: ℝ → ℝ, e pode ser denotado matematicamente por:
𝑚𝑖𝑛 𝑓 (𝑥)
𝑥∈ℝ𝑛

O método, de forma mais geral, busca gerar uma sequência de pontos mínimos da função objetivo acrescida
de uma regularização (quadrado da função distância), a partir de um ponto inicial dado. Ainda assim, há
extensões do método que podem ser utilizadas em funções não necessariamente convexa.

Por sua vez, Otimização multiobjetivo é o nome dado ao processo de otimizar simultaneamente duas ou mais
funções reais objetivo. Pois geralmente, um único ponto não minimiza todas as funções objetivo ao mesmo
tempo, ou seja, não há um minimizador ideal, e nesse caso o conceito de otimalidade é substituído pelo
conceito de Pareto otimalidade. Assim, em um problema de Otimização multiobjetivo em que buscamos
minimizar várias funções escalares dependentes de um mesmo argumento, chamamos de ótimo de Pareto
um argumento que é o único que diminui o valor de uma das funções sem aumentar o valor das restantes.

Podemos ainda utilizar o método do ponto proximal funções escalares no contexto vetorial. E nesse caso, o
foco é utilizar um algoritmo proximal para encontrar um ponto Pareto crítico de uma função vetorial
𝑛 𝑚 𝑛
DC 𝐹: ℝ → ℝ que se restrinja a um conjunto (não vazio) convexo e fechado 𝐷 ⊂ ℝ , assim, temos o
problema:
𝑚𝑖𝑛𝐹(𝑥)
𝑥∈𝐷

2. Revisão de Literatura

Os trabalhos a seguir foram estudados e são a base para o desenvolvimento do projeto, tanto no que diz
respeito aos trabalhos clássicos sobre o tema como os trabalhos mais recentes desenvolvidos.

1) BENTO, G.C., BITAR, S.D.B., CRUZ NETO, J.X., SOUBEYRAN, A., SOUZA, J.C.O., A proximal point
method for difference of convex functions in multi-objective optimization with application to gruop
dynamic problems. Computational Optimization and Applications, v. 75, pp. 263-290, 2020.

2) CRUZ NETO, J. X., BENTO, G. C., LÓPEZ, G., SOUBEYRAN, A., SOUZA, J.C.O., The proximal point
method for locally Lipschitz functions in multiobjective optimization with application to the compromize
problem. SIAM Journal on Optimization, v. 28(2), pp. 1104-1120, 2018.

3) CRUZ NETO, J. X., OLIVEIRA, P. R., SOUBEYRAN, A., SOUZA, J. C.O., A generalized proximal
linearized algorithm for DC functions with application to the optimal size of the firm problem, Annals of
Operations Research, v. 289, pp. 313-339, 2020.

Relatório. Iniciação Científica UFPI. 1/6


RELATÓRIO DE ATIVIDADES – PROGRAMAS DE INICIAÇÃO CIENTÍFICA DA UFPI

4) SOUZA, J. C.O., OLIVEIRA, P. R., A proximal point algorithm for DC functions on Hadamard
manifolds, J. Glob. Optim., v. 63, pp. 797–810, 2015.

5) SOUZA, J. C.O., OLIVEIRA, P. R., SOUBEYRAN, A., Global convergence of a proximal linearized
algorithm for difference of convex functions, Optim. Lett., v. 10(7), pp. 1529– 1539, 2016.

6) SOUZA, J.C.O., Proximal Point Methods for Lipschitz Functions on Hadamard Manifolds: Scalar and
Vectorial Cases, Journal of Optimization Theory and Applications, v. 179, pp. 745-760, 2018.

7) SUN, W., SAMPAIO, R.J.B., CANDIDO, M.A.B.: Proximal point algorithm for minimization of DC
Functions. Journal of Computational Mathematics 21, 451--462 (2003).

8) WEN, B., CHEN, X., PONG, T.K.: A proximal difference-of-convex algorithm with
extrapolation.Comput Optim Appl. 69, 297--324 (2018).

3. Metodologia

Como principal forma de aprendizagem e aprofundamento teórico, focamos em ler artigos, realizar
seminários e grupos de discussões que abordam desde a base de análise real até as definições e
propriedades dos métodos de otimização contínua e convexa. Mais detalhadamente, estudamos as definições
e propriedades de funções convexas, diferenças de funções convexas e boa definição e convergência do
Método do Ponto Proximal (MPP). Por fim, buscamos implementar na prática os principais resultados e
métodos de otimização em algoritmos computacionais no ambiente MATLAB.

4. Resultados e discussão

Os resultados apresentados nessa seção foram propostos em Bento et al. [1].

4.1 O algoritmo
𝑚
Consideremos 𝐺, 𝐻: ℝ𝑛 → ℝ𝑚 são ℝ+ -convexas e H continuamente diferenciável. Assim, considere a
função vetorial 𝐹: 𝑅𝑛 → 𝑅𝑚 uma função DC dada pela diferença de 𝐺 e 𝐻: 𝐹 (𝑥): = 𝐺(𝑥) − 𝐻 (𝑥). Agora,
algoritmo a seguir, iremos tomar 𝑧 ∈ ℝ𝑚
+ {0} fixo e as sequências auxiliares {𝛽𝑘 } ⊂ ℝ++ e {𝛾𝑘 } ⊂ ℝ++ tais
que ‖𝛾 ‖ = 1, para todo 𝑘 ≥ 0 e {𝛽𝑘 } é uma sequência limitada satisfazendo 𝑙𝑖𝑚 𝑖𝑛𝑓𝛽𝑘 ⟨𝛾 𝑘 , 𝑧⟩ > 0
𝑘
𝑘∈𝑁
Algoritmo. Passo 1: Escolha 𝑥 0 ∈ 𝐷.
Passo 2: Dado 𝑥 𝑘 , se 𝑥 𝑘 é um ponto Pareto crítico, então faça 𝑥 𝑘+𝑝 = 𝑥 𝑘 , para todo 𝑝 ∈ 𝑁 .
Passo 3: Caso contrário, tome como próxima iterada 𝑥 𝑘+1 ∈ 𝐷 tal que
𝛽𝑘 2
𝑥 𝑘+1 ∈ 𝑎𝑟𝑔𝑚𝑖𝑛 {⟨𝐺(𝑥) − 𝐽𝐻(𝑥 𝑘 )(𝑥 − 𝑥 𝑘 ) + 2
‖𝑥 − 𝑥 𝑘 ‖ 𝛾 𝑘 , 𝑧⟩ : 𝑥 ∈ 𝛺𝑘 },
onde 𝛺𝑘 = {𝑥 ∈ 𝐷: 𝐹 (𝑥) ≼ 𝐹(𝑥 𝑘 )}.

Note que o algoritmo resolve em cada iteração um problema escalar. Essa é uma abordagem muito utilizada
na matemática e é chamada de escalarização, não existe uma diferença significativa entre a apresentação
vetorial e a apresentação escalarizada, pois toda solução do subproblema escalar é uma solução Pareto fraca
do subproblema vetorial com 𝐹(𝑥) = 𝐺 (𝑥) − 𝐽𝐻(𝑥 𝑘 )(𝑥 − 𝑥 𝑘 ). Além disso, note que se 𝐻 ≡ 0, o Algoritmo
coincide (no cenário multiobjetivo de dimensão finita) com algoritmo para otimização vetorial convexa. Vale a
pena mencionar também que no Algoritmo, temos que 𝑥 𝑘+1 ∈ 𝛺𝑘 , para todo 𝑘 ≥ 0, isto é, 𝐹(𝑥 𝑘+1 ) ≼ 𝐹(𝑥 𝑘 ),
que é uma propriedade importante para algumas aplicações.

Proposição 4.1 O algoritmo está bem definido

Note que se o algoritmo termina em uma quantidade finita de passos, o mesmo termina em um ponto Pareto
Crítico. Com isso, iremos supor que a sequência {𝑥 𝑘 } gerada pelo Algoritmo é infinita. Logo, iremos assumir
que 𝑥 𝑘+1 ≠ 𝑥 𝑘 e 𝑢𝑘 ≠ 0, para todo 𝑘 ∈ 𝑁 .

Proposição 4.2 As seguintes propriedades se verificam:

Relatório. Iniciação Científica UFPI. 2/6


RELATÓRIO DE ATIVIDADES – PROGRAMAS DE INICIAÇÃO CIENTÍFICA DA UFPI

i) A sequência {〈𝐹(𝑥 𝑘 ), z〉 é estritamente decrescente;


ii) 𝑙𝑖𝑚 ‖𝑥 𝑘+1 − 𝑥 𝑘 ‖ = 0
𝑘→∞

Teorema: Todo ponto de acumulação de {𝑥 𝑘 }, caso exista, é um ponto Pareto crítico de F.

4.2 Experimentos numéricos

Apresentaremos os resultados numéricos importantes para verificar a eficiência prática do método proposto.
Iremos considerar alguns problemas acadêmicos diferenciáveis e não diferenciáveis que são funções DC. Os
experimentos foram escritos em MATLAB. No algoritmo, usamos 𝐷 = 𝑅2 , 𝑞(𝑥, 𝑦) = ‖𝑥 − 𝑦‖, 𝜆𝑘 = 1 e o
critério de parada foi ‖𝑥 𝑘+1 − 𝑥 𝑘 ‖ < 10−4 .

Exemplo 1: Seja 𝐹: ℝ2 → ℝ2 uma função DC multiobjetivo não suave definida por 𝐹(𝑥, 𝑦 ) = 𝐺 (𝑥, 𝑦) −
𝐻 (𝑥, 𝑦), onde
𝐺 (𝑥, 𝑦) = ((𝑥 − 3)2 + (𝑦 − 4)2 + 4, √(𝑥 + 6)2 + (𝑦 + 5)2 + 4)e
𝐻(𝑥, 𝑦) = (0.3(𝑥 − 3)2 + 0.2(𝑦 − 4)2 , 0.01[(𝑥 + 6)2 + (𝑦 + 5)2 ]).

Exemplo 2: Seja 𝐹: ℝ2 → ℝ2 uma função DC multiobjetivo definida por 𝐹(𝑥, 𝑦) = 𝐺 (𝑥, 𝑦) − 𝐻 (𝑥, 𝑦), onde
1
𝐺 (𝑥, 𝑦) = ( (𝑥 2 + 𝑦 2 )2 , 𝑥 2 + 𝑦 2 )
2
e
1
𝐻 (𝑥, 𝑦) = ( (𝑥 4 + 𝑦 4 ), 0.5𝑥 2 + 𝑥𝑦 + 0.5𝑦).
2

Exemplo 3: Seja 𝐹: ℝ2 → ℝ2 uma função DC multiobjetivo definida por 𝐹(𝑥, 𝑦) = 𝐺 (𝑥, 𝑦) − 𝐻 (𝑥, 𝑦), onde
𝐺 (𝑥, 𝑦) = (𝑥 2 + 𝑦 2 , 𝑥 2 + 𝑦 2 )
e
𝐻 (𝑥, 𝑦) = (𝑥 2 + 𝑦 2 − 𝑥𝑦, 0.5𝑥 2 + 𝑥𝑦 + 0.5𝑦 2 ).

Figura 1: Dados obtidos pelo Algoritmo no Exemplo 1.

Fonte: BENTO, BITAR, CRUZ NETO, SOUBEYRAN E SOUZA (no prelo), s. d., p. 20.

Relatório. Iniciação Científica UFPI. 3/6


RELATÓRIO DE ATIVIDADES – PROGRAMAS DE INICIAÇÃO CIENTÍFICA DA UFPI

Figura 2: Dados obtidos pelo Algoritmo no Exemplo 2.

Fonte: BENTO, BITAR, CRUZ NETO, SOUBEYRAN E SOUZA (no prelo), s. d., p. 21.

Figura 3: Dados obtidos pelo Algoritmo no Exemplo 3.

Relatório. Iniciação Científica UFPI. 4/6


RELATÓRIO DE ATIVIDADES – PROGRAMAS DE INICIAÇÃO CIENTÍFICA DA UFPI

Fonte: BENTO, BITAR, CRUZ NETO, SOUBEYRAN E SOUZA (no prelo), s. d., p. 22.

5. Conclusão

Como importante área de estudo científico, a otimização se mostra como principal ferramenta para encontrar
soluções ótimas de problemas do dia a dia, principalmente em empresas e grandes organizações de qualquer
área. Assim, frisamos a importância de imergir-se nesse projeto e buscar entender os principais pontos aqui
propostos. Concluímos que neste trabalho utilizamos um método de minimização por pontos proximais onde
a função objetivo é dada por uma diferença de duas funções convexas.

6. Referências

[1] BENTO, G.C., BITAR, S.D.B., CRUZ NETO, J.X., SOUBEYRAN, A., SOUZA, J.C.O., A proximal point
method for difference of convex functions in multi-objective optimization with application to gruop dynamic
problems. Computational Optimization and Applications, v. 75, pp. 263-290, 2020.
[2] SOUBEYRAN, A., “Variational rationality, a theory of individual stability and change: worthwhile and
ambidextry behaviors”, GREQAM, Aix Marseillle University, 2009.
[3] SOUBEYRAN, A., “Variational rationality and the ”unsatisfied man”: routines and the course pursuit
between aspirations, capabilities and beliefs”, GREQAM, Aix Marseillle University, 2010.
[4] SOUBEYRAN, A., “Variational rationality, Part 1. A theory of worthwhile stay and change approach
avoidance transitions ending in traps”, GREQAM, Aix Marseillle University, 2016.

PARTE III – RELATO DE DEMAIS ATIVIDADES

Relatório. Iniciação Científica UFPI. 5/6


RELATÓRIO DE ATIVIDADES – PROGRAMAS DE INICIAÇÃO CIENTÍFICA DA UFPI

Descrição Local Período


(Seminários, Congressos, Artigos publicados, e
(Realizado ou publicado) (Data realizado ou publicado)
outros)

Relatório. Iniciação Científica UFPI. 6/6

Você também pode gostar