Você está na página 1de 124

Machine Translated by Google

———————————————————————————————————————

Sobre Métodos Inexatos de Newton para Problemas

Inversos em Espaços de Banach

——————————————————–

Para obter um grau académico

DOUTORES DE CIÊNCIA

da Faculdade de Matemática
Karlsruhe Instituto de Tecnologia (KIT).

DISSERTAÇÃO

a partir de

M.Sc. F´abio J. Margotti de


Nova Veneza

————————————————————————————————————————

Data da prova oral: 15 de julho de 2015

Referente: Prof. Dr. Andreas Rieder Prof.


Correspondente: Dr. Andreas Kirsch
Machine Translated by Google
Machine Translated by Google

Dedico este trabalho a minha


amada esposa PATR´ICIA
Machine Translated by Google
Machine Translated by Google

Conteúdo

1. Introdução 1

2 Geometria dos Espaços de Banach 7


2.1 O subdiferencial . . . . . . . . . . . . . . ......... . . . . . . . . . 8
2.2 Suavidade dos espaços de Banach. . . . . . . . . . . . ....... . . . . . . . 11
2.3 Convexidade dos espaços de Banach. . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.4 Relações entre suavidade e convexidade. ....... . . . . . . . . . 14
2.5 Mapeamento de dualidade. . . . . . . . . . . . . . . . . . ...... . . . . . . . . . 14 17
2.6 Distâncias de Bregman . . . . . . . . . . . . . . . . ....... . . . . . . . . .

3 O Método Inexato de Newton K-REGINN 3.1 21


Resolvendo a iteração interna . . . . . . . . . . ....... . . . . . . . . . . . 24
3.1.1 Métodos de gradiente primal. . . . . . . . ......... . . . . . . . 26
3.1.2 Métodos de gradiente duplo. . . . . . . . . . ....... . . . . . . . . . 30
3.1.3 Métodos de Tikhonov . . . . . . . . . . . . ......... . . . . . . . 39
3.1.4 Métodos de gradiente-Tikhonov mistos. . . ......... . . . . . . . 47

4 Análise de Convergência de K-REGINN 4.1 53


Terminação e resíduo decrescente qualificado . ....... . . . . . . . . . 53
4.2 Diminuição do erro e convergência fraca. . . . . ....... . . . . . . . . . 58
4.3 Convergência sem ruído. . . . . . . . . . . . ....... . . . . . . . . . 62
4.4 Propriedade de regularização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

5 experimentos numéricos 75
5.1 Modelo EIT-Continuum. . . . . . . . . . . . . ....... . . . . . . . . . 76
5.1.1 Diferenciabilidade de Fr´echet do operador direto . . . . . . . . . . . . 77 .
5.1.2 Implementação computacional . . . . . ......... . . . . . . 79
5.2 EIT - Modelo de Eletrodo Completo . . . . . . . . ....... . . . . . . . . . 89
5.2.1 Diferenciabilidade de Fr´echet do operador direto . . . . . . . . . . . . 92
5.2.2 Implementação computacional . . . . . ......... . . . . . . . 95

6 Conclusões e Considerações Finais 103

Uma propriedade de estabilidade das sequências de regularização 107


Machine Translated by Google
Machine Translated by Google

Reconhecimentos
É com muita satisfação que expresso a mais sincera gratidão ao meu orientador Prof. Dr. Andreas Rieder por
ter confiado em meu trabalho desde o início. Suas excelentes habilidades matemáticas contribuíram fortemente
para o aprimoramento de meus conhecimentos e suas constantes explicações sobre a língua e a cultura alemã
facilitaram muito meu dia a dia. Eu também gostaria de agradecer ao Prof. Dr. Andreas Kirsch, por ser um
árbitro deste trabalho, por gentilmente escrever recomendações para apoiar a extensão de minha bolsa de
estudos em duas ocasiões e por ajudar a complementar minha formação matemática com suas palestras úteis,
bem como com suas frutíferas discussões em nosso grupo de trabalho sobre problemas inversos.

Este trabalho teria sido impossível sem o importante apoio financeiro fornecido pelo Deutscher
Akademischer Austauschdienst. Sou muito grato ao DAAD por me apresentar à interessante cultura alemã
também. Em particular, gostaria de agradecer à Sra. Maria Salgado por me apoiar sempre que precisei. Sou
muito grato ao meu orientador anterior Prof. Dr. Antonio Leitão, que me apresentou a esta fascinante área de
problemas inversos e forneceu um forte apoio para minha vinda para a Alemanha.

É muito necessário agradecer a todos os meus colegas do meu grupo de pesquisa de computação
científica IANM3 por criar um ambiente de trabalho muito agradável e produtivo. Agradecimentos especiais a
Sonja Becker, Nathalie Sonnefeld, Johannes Ernesti, Julian Kr¨ammer, Daniel Weiß, Mar cel Mikl, Ramin S.
Nejad, Lydia Wagner, professores Tobias Jahnke e Christian Wieners e meus ex-colegas Tudor Udrescu e Tim
Kreutzmann.
Minha gratidão também é dirigida ao meu colega Robert Winkler por suas discussões sempre úteis sobre
o problema inverso da Tomografia de Impedância Elétrica, bem como por me fornecer seu código de EIT-CEM
muito organizado e bem escrito. Além disso, quero agradecer a Ekkachai Thawinan e Andreas Schulz por
serem bons amigos nesses últimos quatro anos.

Por último, mas não menos importante, agradeço profundamente à minha querida esposa Patrícia, que
sempre foi muito atenciosa e compreensiva e com quem compartilhei cada pequeno momento desta incrível
experiência na Alemanha. Muito obrigado!
Machine Translated by Google
Machine Translated by Google

Resumo

Esta monografia trata da investigação de um algoritmo de Newton inexato e sua adaptação aos métodos
de Kaczmarz. Os novos métodos iterativos visam a construção de soluções regularizadas para
problemas não lineares mal-postos inversos em espaços de Banach.
Para executar uma iteração, o algoritmo do tipo Newton lineariza o problema original em torno da
iteração atual e, em seguida, aplica uma técnica de regularização para resolver de forma estável o
sistema linear resultante. Vários métodos são propostos para a tarefa de resolver o sistema linear
gerado e uma análise de convergência completa é realizada. Além disso, as propriedades de estabilidade
e regularização das soluções computadas são estabelecidas.
Os novos métodos são testados no problema inverso não linear e altamente mal-posto da Tomografia
por Impedância Elétrica em algumas implementações numéricas realizadas ao final do trabalho. Os
experimentos simultaneamente fornecem o suporte necessário aos resultados teóricos e contribuem
para uma melhoria relevante nas soluções do referido problema inverso.

———————————————————————

Palavras-chave: Problemas inversos, Problemas mal-postos, Teoria da regularização, Métodos


iterativos, Métodos inexatos de Newton, Tomografia por impedância elétrica, Espaços de Banach.
Machine Translated by Google
Machine Translated by Google

Capítulo 1

Introdução

Este trabalho é dedicado ao estudo de métodos de regularização para obtenção de soluções


estáveis de problemas não lineares mal-postos inversos em espaços de Banach. Ele é focado em
métodos iterativos e coloca ênfase particular em algoritmos do tipo Newton. Além disso, uma análise
de convergência dos métodos investigados é fornecida e algumas implementações numéricas
suportam os resultados teóricos.
Para introduzir adequadamente a definição clássica de mal-posto devido a Hadamard,
começamos por definir um problema de avanço como uma função que associa a causa de um
fenômeno específico com o efeito produzido por ele. O efeito desse fenômeno é geralmente
chamado de solução do problema direto. A cada problema direto pertence um problema inverso
correlacionado.
Os problemas inversos consistem em um conjunto de problemas matemáticos onde se busca
determinar a causa de um determinado fenômeno (solução do problema inverso) por meio da
observação do efeito produzido por ele (dados). Este tipo de procedimento abrange uma extensa
quantidade de problemas reais descritos por modelos matemáticos nas mais diversas áreas como
medicina, astronomia, engenharia, geologia, meteorologia e uma grande variedade de problemas
físicos, bem como restauração de imagens e diversas outras aplicações [30, 45, 48].
O maior desafio na resolução de tais problemas está relacionado ao fato de serem frequentemente
mal colocados no sentido de Hadamard.
O matemático francês Jacques Hadamard [19] definiu um problema bem posto se para este
problema:

1. Existe uma solução (existência);

2. Existe no máximo uma solução (unicidade);

3. A solução depende continuamente dos dados (estabilidade).

Um problema que não está bem colocado é chamado de mal colocado.


Se o espaço de dados for definido como o conjunto das soluções do problema direto, a existência
de uma solução do problema inverso é clara. No entanto, uma solução correspondente a um dado
medido pode não existir se esses dados forem corrompidos por ruído. Neste caso, o espaço de
solução deve ser ampliado para garantir a existência de solução. Exemplos típicos de ampliação do
espaço de solução são construídos usando o inverso generalizado de Moore-Penrose para
problemas lineares inversos e aceitando soluções distribucionais de equações diferenciais parciais
em espaços de Sobolev.
Em contraste, uma restrição no conjunto de soluções admissíveis pode ser imposta com o
objetivo de garantir a unicidade de uma solução (o uso de uma solução de norma mínima é um
exemplo comum). Nesse caso, algumas informações a priori sobre a solução devem estar
disponíveis. A não exclusividade das soluções também pode significar que dados insuficientes
foram coletados e, consequentemente, mais dados precisam ser observados.

1
Machine Translated by Google

2 CAPÍTULO 1 INTRODUÇÃO

O terceiro item da definição de Hadamard é certamente o mais delicado de se tratar. O não cumprimento
da declaração de estabilidade implica que erros inevitáveis de medição e arredondamento podem ser
amplificados por um fator arbitrariamente grande, comprometendo severamente a confiabilidade das
soluções computadas. Além disso, em contraste com os dois primeiros itens da definição de Hadamard,
uma reformulação do problema para alcançar a estabilidade não é uma questão trivial. A propriedade de
estabilidade depende da topologia dos espaços envolvidos e uma alteração dessas topologias muitas
vezes modifica as características originais do problema e o despoja de suas características fundamentais,
ou seja, o problema reformulado torna-se sem sentido.

A observância do item 3 da definição de Hadamard, por outro lado, significa que a solução do problema
inverso correspondente aos dados corrompidos por um ruído de baixo nível não pode estar distante da
solução procurada. Hadamard acreditava, assim como muitos de seus contemporâneos, que um modelo
matemático só poderia representar corretamente um fenômeno natural se o problema inverso associado
fosse bem colocado (natura non facit saltum).
Caso contrário, o modelo foi considerado incorretamente formulado e o problema relacionado foi chamado
de mal-posto. Essa foi uma percepção controversa até o início do século passado, quando finalmente se
percebeu que uma enorme quantidade de problemas reais são realmente mal-postos se traduzidos em
qualquer modelo matemático razoável. Esta conclusão iniciou na segunda metade do século passado uma
enorme quantidade de pesquisas visando métodos capazes de resolver problemas inversos mal-postos de
forma estável. Nessa época, nasceu a teoria da regularização.
Em situações práticas, costuma-se ter acesso apenas a uma versão perturbada dos dados,
invariavelmente contaminada por ruído. Como consequência, a reconstrução exata de uma solução é
inatingível e, portanto, o melhor que pode ser feito é encontrar uma solução aproximada. No entanto, a
menos que um método de regularização1 seja empregado, o fenômeno de má colocação combinado com
níveis de ruído muito baixos pode arruinar facilmente o processo de computação de uma solução.
Devido tanto à sua relevância tecnológica quanto às dificuldades desafiadoras que envolvem o
desenvolvimento de métodos de regularização, os problemas inversos ainda são uma área ativa de
pesquisa. Este fato se reflete no grande número de revistas, livros e monografias dedicadas a este assunto.
Um grupo particularmente interessante, amplamente aplicado na resolução de problemas mal-postos
inversos de grande escala, são os métodos de regularização iterativos. A literatura nesta área é vasta e os
livros [30, 15, 45] podem ser devidamente incluídos nas referências mais completas sobre o assunto em
espaços de Hilbert. A obra [29] também merece ser mencionada. Para progressos mais recentes, incluindo
a teoria da regularização em espaços de Banach, consulte [48] e as referências nele contidas.

Conhecidos por suas propriedades de convergência rápida, os métodos do tipo Newton são
frequentemente considerados como algoritmos robustos para resolver problemas inversos não lineares.
Dentre todos os integrantes desse grande grupo de notáveis métodos iterativos, destacamos o método
REGINN. Introduzida em 1999 por A. Rieder [43], a REGularização baseada na iteração INexata de Newton
é uma classe de métodos inexatos de Newton, que resolve problemas inversos mal-postos não lineares
por meio da resolução de uma sequência de linearizações do problema original. Este algoritmo lineariza o
problema original em torno do iterado atual e então aplica uma técnica de regularização iterativa na
chamada iteração interna para encontrar e aproximar a solução do sistema linearizado resultante.
Posteriormente, essa solução aproximada é adicionada à iteração atual na iteração externa para gerar uma
atualização. Finalmente, o princípio da discrepância é empregado para terminar a iteração externa.

As propriedades de REGINN em espaços de Hilbert são bem conhecidas. Resultados de convergência,


propriedade de regularização e taxas de convergência foram estabelecidos sob requisitos padrão e com
diferentes métodos de regularização iterativos na iteração interna [43, 44, 46, 25]. UMA

1
Se para cada sequência de níveis de ruído positivos convergindo para zero, a sequência correspondente de
soluções aproximadas converge para uma solução exata do problema, então o método relacionado é chamado de
método de regularização e, portanto, diz-se que satisfaz a propriedade de regularização.
Machine Translated by Google

alguns exemplos de possíveis iterações internas são dados por métodos de gradiente como os métodos
Conjugate Gradient, Steepest Descent e Landweber e por métodos semelhantes a Tikhonov, como os
métodos Iterated-Tikhonov e Tikhonov-Phillips.
Talvez a maior desvantagem dos métodos do tipo Newton seja a necessidade de calcular a derivada
do problema direto. Este é normalmente um processo caro e geralmente é o gargalo em implementações
numéricas. Uma abordagem sábia para superar esse obstáculo é a utilização de uma estratégia de
salto. Este procedimento, proposto por S. Kaczmarz em [27], divide o problema em um número finito de
subproblemas, que são processados ciclicamente, usando um subproblema de cada vez, a fim de
encontrar uma solução para o problema original. A técnica de Kaczmarz reduz drasticamente o esforço
computacional necessário para realizar uma única iteração. O efeito esperado é a aceleração do método
original com consequente ganho na velocidade de convergência. Os métodos de Kaczmarz têm uma
vantagem adicional: eles descrevem mais adequadamente os problemas cujos dados são coletados por
um conjunto de medições individuais, como é o caso da Tomografia por Impedância Elétrica, por
exemplo (ver os experimentos numéricos no Capítulo 5).

Existem muitos artigos sobre métodos de Kaczmarz no contexto de problemas mal colocados, mas
semelhante ao REGINN, a maioria dos resultados são comprovados na estrutura de espaços de Hilbert
[31, 4, 20, 7]. Vários problemas inversos, no entanto, são naturalmente descritos em contextos mais
gerais do que os espaços de Hilbert. Os espaços de Lebesgue L p (ÿ), assim como os espaços de
Sobolev Wn,p (ÿ) e o espaço das pÿsummable sequences p (N) para diferentes
exemplos
valores
clássicos
de p ÿde[1,Banach
ÿ] são
espaços, que modelam mais adequadamente problemas inversos numerosos. Além disso, descrever um
problema inverso em espaços de Banach mais adequados contribui com benefícios suplementares,
como a não destruição das características de esparsidade da solução procurada e o aumento da precisão
dos dados ao lidar com ruído impulsivo2 . Essas melhorias são comumente obtidas alterando nos
espaços de solução e dados, o parâmetro p = 2, comumente usado para caracterizar os espaços de
Hilbert, com p ÿ 1, ver Daubechies et al [12].

A Figura 1.1 ilustra a vantagem de usar espaços de Banach mais gerais na descrição de problemas
inversos. A condutividade elétrica procurada (esparsa) é reconstruída no problema da Tomografia de
Impedância Elétrica usando 1% de ruído impulsivo e compara duas estruturas diferentes: no primeiro
caso, o espaço de solução X e o espaço de dados Y são ambos o espaço de Hilbert L Banach espaços
X=Y=L 2 , enquanto no segundo, a condutividade é reconstruída no

1.01 .

Para mais exemplos de problemas inversos modelados em espaços de Banach, veja os experimentos
numéricos no Capítulo 5 e o livro de Schuster et al [48].
As dificuldades de realizar uma análise de convergência em espaços de Banach aumentam
enormemente se a solução e os espaços de dados tiverem propriedades de suavidade/convexidade
ruins. Não é direto modificar métodos clássicos de espaços de Hilbert para ajustá-los a espaços de
Banach mais complicados. Pelo que sabemos, a primeira versão do REGINN em espaços de Banach foi
publicada por Q. Jin em [24], onde foi comprovado um fraco resultado de convergência.
O primeiro resultado de convergência forte foi inicialmente obtido com sucesso para a combinação
Kaczmarz/espaços inexatos-Newton/Banach em nosso trabalho anterior [40], onde o método de
Landweber foi empregado como iteração interna. O progresso mais recente foi feito usando o método
Iterated-Tikhonov como iteração interna [39].
A presente tese contribui para expandir os resultados acima mencionados, fornecendo uma análise
de convergência geral relativa de uma versão Kaczmarz de REGINN (abreviadamente K-REGINN) em
espaços de Banach, válida ao mesmo tempo para diferentes métodos na iteração interna. Este trabalho
está estruturado da seguinte forma:

• No Capítulo 2, as preliminares necessárias sobre a geometria dos espaços de Banach


2
Ruído impulsivo é um tipo de ruído esparsamente distribuído, comum em muitas aplicações práticas, veja por exemplo
[11].
Machine Translated by Google

4 CAPÍTULO 1 INTRODUÇÃO

Exato X=Y=L 2 1,01 X=Y=L

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

Figura 1.1: Condutividade esparsa (imagem à esquerda) reconstruída no problema da Tomografia de impedância
elétrica com 1% de ruído impulsivo. Os espaços de Hilbert X = 2 Y = L foram usados para reconstruir as imagens
1.01
e os espaços de Banach X = Y = L exibidos
no meio e à direita, respectivamente.

são apresentados. Primeiramente, são discutidos os conceitos de convexidade e suavidade.


Esses conceitos determinam “quão favorável” é a geometria de um espaço de Banach. Os
espaços de Hilbert são geralmente considerados como os espaços de Banach com as
características geométricas mais favoráveis, sendo ao mesmo tempo os espaços de Banach mais convexos e suaves.
Após uma discussão sobre as conexões entre convexidade e suavidade, é apresentada a definição de
mapeamento de dualidade. Inspirado no Teorema de Representação de Riesz, este mapeamento associa
cada elemento x no espaço de solução com um subconjunto Jp (x) de seu espaço dual de modo que o
ÿ ÿ
, y,interno
pareamento de dualidade resultante x ÿ Jp (x), imite as propriedades do produto com x x, y emdeespaços
Hilbert.
No final deste capítulo, a distância de Bregman é apresentada. Serve para simular nos espaços de
Banach a identidade de polarização e substitui a norma em algumas situações específicas. Finalmente,
usando os famosos Teoremas de Xu-Roach [53], algumas conexões entre a distância de Bregman e a
norma padrão são provadas.

• A versão Kaczmarz de REGINN é apresentada no Capítulo 3. Para resolver a iteração interna em espaços
de Banach, realizamos na Seção 3.1 uma adaptação de diferentes técnicas de regularização de Hilbert
para espaços de Banach mais gerais. Os métodos de gradiente são considerados primeiro. Em espaços
de Hilbert, esses algoritmos atualizam a iteração atual adicionando um múltiplo do gradiente do funcional
de norma quadrada residual. Os métodos primal e dual gradient, apresentados respectivamente nas
Subseções 3.1.1 e 3.1.2, são as versões do espaço de Banach. A diferença fundamental entre esses
dois tipos de métodos de gradiente é o espaço onde ocorre a iteração: enquanto os métodos de gradiente
primal têm uma iteração ocorrendo no espaço original, a versão dual realiza essa iteração no espaço
dual. Dentre todos os métodos de gradiente dual da Subseção 3.1.2, destacamos os importantes métodos
Landweber, Modified Steepest Descent e Decreasing Error, sendo este último uma nova estratégia,
apresentada pela primeira vez neste trabalho. Na Subseção 3.1.3 são apresentados os métodos do tipo
Tikhonov e é dada atenção especial ao estudo dos métodos Iterated-Tikhonov e Tikhonov-Phillips
relevantes. É bem conhecido que os métodos do tipo Tikhonov fornecem maior estabilidade aos cálculos,
porém, a necessidade de minimizar as funções para realizar a iteração interna aumenta substancialmente
o esforço desses métodos. Para simplificar esta tarefa, uma versão mista de Tikhonov e método de
gradiente duplo
Machine Translated by Google

ods é sugerido na Subseção 3.1.4. Este novo algoritmo produz estabilidade extra para os cálculos
da iteração interna sem exigir a solução de um problema de otimização.

• A maioria dos métodos apresentados na Seção 3.1 tem natureza semelhante e compartilham
propriedades semelhantes. Este aspecto particular possibilita uma análise de convergência geral,
que é implementada no Capítulo 4. A análise de convergência de K-REGINN apresentada no
Capítulo 4 é realizada sem considerar nenhum método específico na iteração interna. Ela é feita
assumindo apenas propriedades específicas da sequência gerada na iteração interna, o que torna
esta análise de convergência válida para todo método que possua as propriedades requeridas. Uma
vez que muitas das propriedades solicitadas já foram comprovadas para os métodos apresentados
na Seção 3.1, os resultados do Capítulo 4 são verdadeiros em particular para esses métodos.
Destacamos os principais resultados: Na Seção 4.1 é provado que REGINN termina e tem um
comportamento residual decrescente sempre que um método de gradiente primal ou um método
Tikhonov-Phillips-like é usado como iteração interna. Para os métodos restantes, fornecemos nas
seções subseqüentes as provas de forte convergência de REGINN na situação sem ruído e da
propriedade de regularização, ver Teoremas 43 e 47. Além disso, um comportamento de erro
decrescente e uma convergência fraca resultam para o Kaczmarz versão são fornecidas no Teorema
38 e no Corolário 41, respectivamente. Além disso, para o método de Landweber de gradiente duplo,
os métodos Iterated-Tikhonov e Tikhonov-Phillips, a forte convergência na situação sem ruído e a
propriedade de regularização também são comprovadas para as versões de Kaczmarz.

• No Capítulo 5, o desempenho do K-REGINN é testado para resolver o problema inverso da Tomografia


de Impedância Elétrica. A Seção 5.1 apresenta o Modelo Contínuo [8] e o Modelo Completo de
Eletrodos [50] é apresentado na Seção 5.2. No início de cada seção é dada uma breve explicação
do modelo matemático e na subseção seguinte é discutida a avaliação das derivadas. Além disso,
alguns experimentos numéricos são realizados nas Subseções 5.1.2 e 5.2.2 e os respectivos
resultados discutidos.
Machine Translated by Google

6 CAPÍTULO 1 INTRODUÇÃO
Machine Translated by Google

Capítulo 2

Geometria dos Espaços de Banach

Este primeiro capítulo lista os conceitos e fatos mais relevantes sobre a geometria dos espaços de Ba nach. Os
principais objetivos são apontar e explicar os principais resultados sobre convexidade e suavidade dos espaços
de Banach, mapeamentos de dualidade, distâncias de Bregman e as propriedades que conectam essas noções.
Provamos apenas alguns resultados e sugerimos algumas referências onde as demais provas podem ser
encontradas.
Consideramos o livro de Cioranescu [10] uma boa referência. Apresenta de forma muito clara e compreensível
as principais ideias sobre a convexidade uniforme e a suavidade uniforme dos espaços de Banach e suas
conexões com os mapeamentos de dualidade. No entanto, faltam os conceitos importantes de convexidade e
suavidade do tipo de potência. Além disso, o livro de Cioranescu foi escrito antes da publicação do famoso artigo
de Xu e Roach [53], o que significa que as principais relações entre convexidade/suavidade e as distâncias de
Bregman não estão presentes. Para entender esta significativa questão e conhecer seus principais resultados,
sugerimos além do próprio artigo de Xu e Roach, o artigo [47], os livros [48, 9] e as referências neles contidas.

Os resultados teóricos deste trabalho cobrem espaços de Banach simultaneamente reais e complexos. No
entanto, como discutiremos a seguir, seus espaços duais possuem propriedades análogas, o que permite
assumir sem restrição de generalidade que o espaço de Banach em questão é sempre um espaço de Banach
real. Para deixar claro, damos a seguinte definição.

Definição 1 Seja X um espaço normado definido sobre o corpo k (seja R ou C). Chamamos o conjunto

ÿ ÿ
Xÿ := {x :Xÿk:x linear e contínua}

o espaço dual de X. Escrevemos XR para representar o espaço vetorial X considerado como um espaço vetorial
real. De acordo,

ÿ ÿ
Xÿ
R = {x : XR ÿ R : x linear e contínua}
ÿ ÿ
= {x :XÿR:x R ÿ linear e contínuo}

denota o espaço dual de XR. Um elemento de Xÿ ou Xÿ R


é chamado de funcional.

Como R e C são espaços de Banach, Xÿ também é , independentemente de X ser um espaço de Banach


ÿ
Seja X um espaço de Banach complexo. É fácil ver que se x Re x : X ÿ R em si. ÿ, Xÿ então a função
ÿ
definido por

Re x ÿ , x := Re x ÿ
, x, x ÿ X,

pertence a Xÿ RAlém
. disso, o operador T : Xÿ ÿ Xÿ R definido por T xÿ = Re x ÿ satisfaz

ÿ ÿ
T (x + ÿyÿ ) = T xÿ + ÿT yÿ para todo x , yÿ ÿ Xÿ e ÿ ÿ R,

7
Machine Translated by Google

8 CAPÍTULO 2. GEOMETRIA DOS ESPAÇOS DE BANACH

o que significa que T é Rÿlinear.


ÿ
Seja x ÿ Xÿ seja fixo. Afirmamos que para cada x ÿ X, existe um vetor x ÿ X tal
este
ÿ ÿ
x = x e Re x , x = |x , x| . (2.1)
ÿ ÿ
De fato, isso é obviamente verdadeiro se , x = 0. Suponha que x , x = 0 e defina o vetor
xx := sgn (x ÿ, x)x, com sgn(z) := z/ |z| sendo a função de sinal. Assim x = x e
ÿ
ÿ x ÿ, xx x, ÿ
x ,x= = |x , x| ÿ R,
|x ÿ, x|

o que comprova a alegação. Usando esta propriedade, não é tão difícil provar que (veja por exemplo [6, Lema 6.39])

ÿ
Re x ÿ=x
L(X,R) L(X,C)

ÿ
para todo ÿ Xÿ e conseqüentemente T é um operador Rÿlinear isométrico. Em particular T é
ÿ ÿ
x injetivo. Escrevendo agora x , x = a + ib, com a, b ÿ R, vemos que a = Re x ,xe
ÿ ÿ
Re x , ix = Re(ix , x) = Re (i(a + ib)) = ÿb.

Conseqüentemente

ÿ ÿ ÿ
x , x = Re x , x ÿ iRe x , ix, x ÿ X
ÿ ÿ
o que implica que T é sobrejetivo. De fato, se x por ÿ Xÿ R , então o operador x : X ÿ C definido

ÿ
ÿx ,ÿx=x , x ÿ ix , ix, x ÿ X
ÿ

é Cÿlinear e contínua, o que significa que x ÿ Xÿ . Além disso, é claro que


ÿ ÿ ÿ
Re x , x = Re x ,x=x , x para todo x ÿ X
ÿ ÿ
e conseqüentemente Re x =x . Isso leva à conclusão de que T é um R-linear isométrico
isomorfismo.

Observação 2 O resultado acima implica em particular que

• os espaços (Xÿ )R e Xÿ R são isométricos isomórficos;

• se X e Y são espaços de Banach complexos e A : X ÿ Y é um operador linear limitado, então o operador AR :


XR ÿ YR definido por ARx = Ax é linear e limitado com a mesma norma de operador e seu operador adjunto
ÿ1
de Banach satisfaz A ÿ R = T AÿT ;

• o espaço pré-Hilbert complexo H é um espaço de Hilbert se e somente se HR é um espaço de Hilbert


com o produto interno x, yHR := Re x, yH;

Todas essas considerações mostram que basta considerar apenas espaços reais de Banach (resp. espaços
reais de Hilbert). Por esta razão, assumimos, sem restrições de generalidade, que X é sempre um espaço de Banach
real para o restante deste trabalho. Assim, o espaço de Hilbert H é sempre considerado um espaço de Hilbert real.

2.1 O subdiferencial

Definição 3 Seja X um espaço vetorial e R := (ÿÿ, ÿ). A função f : X ÿ R é dita convexa se

f (ÿx + (1 ÿ ÿ) y) ÿ ÿf (x) + (1 ÿ ÿ) f (y)

para todo x, y ÿ X e ÿ ÿ (0, 1). Se essa desigualdade for estrita sempre que x = y, então f é estritamente convexa. O
conjunto D(f) := {x ÿ X : f (x) < ÿ} é chamado de domínio efetivo de f. Finalmente, a função f é dita própria se D(f) = ÿ.
Machine Translated by Google

2.1. O SUBDIFERENCIAL 9

Uma função convexa f sempre tem um domínio efetivo convexo, ou seja, ÿx + (1 ÿ ÿ) y ÿD(f) sempre que x,
y ÿD(f) e ÿ ÿ (0, 1). Além disso, uma função convexa própria f é contínua no interior de seu domínio efetivo int(D
(f)) se X for de dimensão finita. Se X é de dimensão infinita, o mesmo resultado vale sempre que f é limitado
por cima em uma vizinhança de um ponto interior x0 ÿint(D (f)) [10, Theo. 1.10 e Cor. 1.11, cap. EU].

Definição 4 Sejam X e Y espaços vetoriais normados, C ÿ X abertos, F : C ÿ Y uma função e x0 ÿ C. A derivada


direcional de F em x0 na direção x ÿ X é definida pelo limite

F (x0 + tx) ÿ F (x0)


F+ (x0, x) := lim ,
tÿ0+ t

se existir.
Se existe um operador linear e limitado A: X ÿ Y satisfazendo

F (x0 + tx) ÿ F (x0)


Ax = lim
tÿ0 t

para cada x ÿ X, então a função F é chamada de Gateaux-diferenciável (em resumo G-diferenciável) em x0 e


denotamos por F (x0) := A a G-derivada de F em x0.
Dizemos que F é Frechet-diferenciável (em resumo, F-diferenciável) em x0, se é
G-diferenciável neste ponto e

F (x0 + tx) ÿ F (x0)


lim sopa ÿ F (x0) = 0.
tÿ0 x=1 t

Nesse caso, a derivada G de F em x0, F (x0), também é chamada de derivada F. Finalmente, F é dito ser
continuamente f-diferenciável (resp. continuamente g-diferenciável) em C se a derivada F (resp. G-derivada) F :
C ÿ L(X, Y ) é uma função contínua.

Fica claro pela definição que F F-diferenciável em x0 implica F G-diferenciável em x0.


A segunda condição, por sua vez, implica que a derivada direcional de F em x0 existe em todas as direções x ÿ
Xe
F+ (x0, x) = F (x0) x = Fÿ (x0, x),

Onde
F (x0 + tx) ÿ F (x0)
Fÿ (x0, x) := lim = ÿF+ (x0, ÿx).
tÿ0ÿ t

Sob suposições apropriadas, a importante regra da cadeia é válida para funções F diferenciáveis F : X ÿ Y
e G: Y ÿ Z (consulte [10, Teo. 1.14, Cap. I]): G (F (x)) = G (F (x)) F (x) para todo x ÿ X.

Se f : X ÿ R é uma função convexa própria, então para qualquer x0 ÿint(D (f)), o direcional (x0, x). derivadas f
que esta desigualdade
+ (x0, x)torna-se
e f ÿ (x0,
umax) existem
igualdade
emsetodas
f é G-diferenciável
as direções x ÿem
X ex0.
f ÿReciprocamente,
(x0, x) ÿ f f ÿ (x0, x)+ =Éf claro
(x0, x)
para todo x ÿ X implica a G-diferenciabilidade de f e neste caso, f ÿ (x0, x) = f
+
+ (x0, x) = f (x0) x.

Definição 5 Seja X um espaço de Banach, f : X ÿ R uma função e sejam 2 de todos os


x denotar o conjunto
subconjuntos de X. Dizemos que f é subdiferenciável em um ponto x0 ÿ X se existe um funcional x chamado
ÿ
ÿ Xÿ
subgradiente de f0em x0 , ,tal que

ÿ
f (x) ÿ f (x0) ÿ x 0, x ÿ x0 para todo x ÿ X.

Xÿ
O conjunto de todos os subgradientes de f em x0 é denotado por ÿf (x0) e o mapeamento ÿf : X ÿ 2 é
chamado de subdiferencial de f.
Machine Translated by Google

10 CAPÍTULO 2. GEOMETRIA DOS ESPAÇOS DE BANACH

a equivalência

ÿ 1
ÿf (x) ÿ ÿf (x0) ÿ x 0, x ÿ x0 ÿÿ f (x) ÿ f (x0) ÿ ÿ xx ÿ x0 0 , a

ÿ 1ÿx
0a
para qualquer ÿ > 0, leva à conclusão: x 0 ÿ ÿ (ÿf) (x0) ÿÿ ÿ ÿf (x0), isto é,

ÿ (ÿf) (x0) = ÿÿf (x0) para cada ÿ > 0.

Uma função subdiferenciável f é convexa e semicontínua inferior em qualquer conjunto convexo aberto C
ÿD(f). Reciprocamente, uma função convexa própria e semi-contínua inferior f é sempre subdiferenciável em
int(D (f)).
A condição de otimalidade 0 ÿ ÿf (x0) é equivalente a f (x0) ÿ f (x) para todo x ÿ X, o que significa que x0 é
um minimizador de f.
ÿ

Seja f própria e convexa e seja x0 ÿint(D (f)). Então x 0 ÿ ÿf (x0) se e somente se


ÿ

f ÿ (x0, x) ÿ x 0, xÿf + (x0, x), para todo x ÿ X,

ver [10, Prop. 2.5, cap. EU]. A partir disso, concluímos que f tem um único subgradiente em x0 ÿint(D (f)) se e
ÿ

somente se f é G-diferenciável em x0. Neste caso, f (x0) x = x todo x ÿ X, ou seja, ÿf (x0) = {f (x0)} . 0 , x para

Se f1 e f2 são duas funções convexas definidas em X tais que existe um ponto x0 ÿD(f1) ÿD(f2) onde f1 é
contínua, então [10, Theo. 2.8, Cap. EU]

ÿ (f1 + f2) (x) = ÿf1 (x) + ÿf2 (x) para todo x ÿ X.

Se A: X ÿ Y é um operador linear limitado entre os espaços de Banach X e Y e f : Y ÿ R é convexo e contínuo


em algum ponto do intervalo de A, então
ÿ

ÿ (f ÿ A) (x) = A (ÿf (Ax)) para todo x ÿ X,


ÿ
onde Aÿ : Y ÿ Xÿ representa o adjunto de Banach de A (cf. [49]). Finalmente, para f : Y ÿ R convexo eb ÿ
Y fixo, veja [48, Theo. 2.24],

ÿ (f (· ÿ b)) (y) = (ÿf) (y ÿ b) para todo y ÿ Y.

Exemplo 6 Sejam X e Y espaços de Banach. Defina o funcional de Tikhonov


1 r p
Tá (x) := Ax ÿ b 1 + um x ,
r p

com p, r > 1, ÿ > 0, A: X ÿ Y linear e limitado e b ÿ Y. Usando a condição de otimização, descobrimos que x0 ÿ
X minimiza Tÿ se e somente se

ÿ 1 1
0 ÿ ÿTÿ (x0) = A ÿ ·r (Ax0 ÿ b) + ÿÿ ·p (x0). (2.2)
r p

Nos concentramos no caso particular p = r = 2. Em um espaço de Hilbert, fazendo uso da definição de G-


derivada e da identidade de polarização (2.5), não é muito difícil provar que a função convexa f (x) = satisfaz f
2
12
x
(x0) x = x0, x para todo x ÿ X. ·2 é justo Conseqüentementeé,ÿfÿ(x0)
o operador
é de valor
de único
identidade
e ÿf (x0)
. A igualdade
= f (x0) = x0,
(2.2)
isto
caso a forma (para p = r = 2) 12 assume neste

ÿ ÿ1 ÿ
0=A (Ax0 ÿ b) + ÿx0 =ÿ x0 = (A ÿA + ÿI) UMA b.

Usando a definição de subdiferencial, pode-se provar que para todo x ÿ X\ {0} [10, Prop.
3.4, Cap. EU],
ÿ ÿ ÿ

ÿ x = {x ÿ Xÿ : x ,x=xex = 1} . (2.3)

Este resultado motiva a definição de um espaço de Banach suave.


Machine Translated by Google

2.2. SUAVIDADE DOS ESPAÇOS BANACH 11

2.2 Suavidade dos espaços de Banach


Definição 7 Um espaço de Banach X é chamado suave se para cada x = 0, existe um único = 1.
x ÿ ÿ Xÿ tal que x ÿ
,x = x e x
ÿ

a existência de x ÿ
na definição acima é garantida pelo Teorema de Hahn Banach.
Assim, a suavidade dos espaços de Banach é apenas uma questão de unicidade de .x
ÿ

Observação 8 Queremos mencionar o fato de que do isomorfismo T construído no início deste capítulo
segue-se que um espaço de Banach complexo é suave se e somente se seu correspondente espaço de
Banach real é suave. Esta é uma consequência direta da equivalência

xÿ ,x = x e x ÿ
= 1 ÿÿ T xÿ , x = x e T xÿ = 1, (2.4)
ÿ ÿ
o que provamos agora. De fato, primeiro lembre-se que T xÿ = x . Agora, se x , x = x ÿ R,
então
ÿ ÿ
x=x , x = Re x , x = T xÿ , x.

Reciprocamente, assumindo , x = x definimos o vetor x := sgn (x ÿ, x)x e obtemos


T xÿ de (2.1),
ÿ ÿ ÿ
x = T xÿ , x = Re x , x ÿ |xx ÿ , x| = Re x ,x
= T xÿ , T xÿ x = x = x .

, x = Re x ,x = x e o
ÿ ÿ ÿ
Consequentemente, a , x = |x ÿ , x| o que implica que x
prova Re x está completa.
Como o subdiferencial de · : X ÿ R é sempre um subconjunto de Xÿ R, vemos isso em um complexo
espaço de Banach X, o conjunto em (2.3) é na verdade descrito por
ÿ ÿ
ÿ x = {x ÿ Xÿ R ÿ:x ,x = x e x = 1} .

Mas como esses dois conjuntos podem ser identificados entre si usando o isomorfismo T (ver (2.4)
acima), (2.3) pode ser usado, com um leve abuso de notação, mesmo em espaços de Banach complexos.

Usando a última definição e (2.3), concluímos que um espaço de Banach é suave se e somente se o
subdiferencial da função convexa f (x) = x é de valor único para todo x ÿ X\ {0} . Esta é, por sua vez, uma
condição equivalente à G-diferenciabilidade de f em X\ {0} , ou seja, o espaço de Banach X é suave se e
somente se a função-norma é G-diferenciável em X\ {0} .

Definição 9 Seja X um espaço de Banach. A função ÿX : R + ÿ R definida por

1
ÿX (ÿ) := sup {x + ÿy + x ÿ ÿy ÿ 2 : x = y = 1} ,
2

é chamado de módulo de suavidade de X. Diz-se que o espaço X é uniformemente liso se lim


ÿX (ÿ ) /ÿ = 0 e é chamado de pÿsuave, para p > 1 fixo, se ÿX (ÿ ) ÿ Cpÿ p
,
ÿÿ0+

onde Cp > 0 é uma constante independente de ÿ.

pÿ1 ÿ 0 como ÿ ÿ 0, o que por sua vez implica que


X pÿsuave implica que ÿX (ÿ ) /ÿ ÿ Cpÿ X é
uniformemente suave.
Defina a função f(x) = x e observe que

ÿX (ÿ ) = f (x + ÿy) ÿ f (x) f (x + ÿ (ÿy)) ÿ f (x): x = y


.
1 sup 2 + =1
t t t
Machine Translated by Google

12 CAPÍTULO 2. GEOMETRIA DOS ESPAÇOS DE BANACH

Assuma agora que X é uniformemente suave, então para todo x, y ÿ X com x = y = 1,

f (x + ÿy) ÿ f (x) f (x + ÿ (ÿy)) ÿ f (x)


0 = lim + = f + (x, y) ÿ f ÿ (x, y).
ÿÿ0+ t t

Não é tão difícil estender esta igualdade para todo y ÿ X, o que implica que f é G diferenciável em x,
para todo x ÿ X satisfazendo x = 1. Finalmente, pode-se provar que o resultado realmente vale para todo
x ÿ X \ {0} , o que significa que X é suave. Assim, aespaço.
suavidade
A recíproca,
uniforme de
entretanto,
X implicanão
a suavidade
é verdadeira,
deste
como pode ser visto em [10, Theo. 3.12, cap. I], onde é dada uma prova da equivalência entre suavidade
uniforme e F-diferenciabilidade uniforme da função-norma na esfera unitária. Em particular, a função
norma é F-diferenciável em X\ {0} desde que X seja uniformemente suave.

Exemplo 10 Com a ajuda da identidade de polarização:


1 2
1 2
x-y = x 1 ÿ x, y + 2 Y
2
, (2.5)
2 2

que vale para todos os vetores x e y em um espaço de Hilbert arbitrário H, pode-se provar que
2 2 2 =4x
2 2 + quadrados
2
(x + ÿy + x ÿ ÿy) ÿ 2 x + ÿy + x ÿ ÿy Y , (2.6)

o que implica que


1
2
(x + ÿy + x ÿ ÿy) ÿ 1 + ÿ
2
2 ÿ 1 < que um 12t
para x = y = 1. Conseqüentemente, ÿH (ÿ ) ÿ ÿ 1 + ÿ o que prova 2 , espaço de Hilbert é sempre

2ÿsuave. Além disso, como ÿ > 0, a desigualdade em (2.6) vale se e somente se x + ÿy = x ÿ ÿy , ou seja,
x, y = 0. Isso é possível se e somente se dim H ÿ 2, e neste caso obtemos ÿH (ÿ ) = ÿ 1 + ÿ
2 ÿ 1.

2.3 Convexidade dos espaços de Banach


Definição 11 O espaço de Banach X é estritamente convexo se para todo x, y ÿ X com x = y e x = y = 1
ele contém ÿx + (1 ÿ ÿ) y < 1 para todo ÿ ÿ (0, 1 ).

A definição acima afirma que em um espaço de Banach estritamente convexo, o segmento de linha
que conecta dois pontos na esfera unitária possui apenas pontos situados dentro dessa esfera, exceto
os próprios pontos extremos. É possível provar (ver [10, Prop. 1.2, Cap. II]) que um espaço de Banach é
estritamente convexo se e somente se a esfera unitária não possui segmentos de reta. É também uma
condição equivalente a (x + y) < 11 2para todo x,dey linha
segmento ÿ X com
comx pontos
= y e x extremos
= y = 1 (o na
ponto médio
esfera de um
unitária não
pertence a esta esfera).

A convexidade estrita do espaço de Banach X também é equivalente à convexidade estrita de


p
a função h (x) = x + a , para qualquer p > 1 fixo. De fato, sejam p > 1 e x, y ÿ X fixos. Como t
+ função
f:RÿR0, 0 ÿÿ t p é estritamente convexo, obtemos da desigualdade triangular,
p p
h (ÿx + (1 ÿ ÿ) y) = ÿx + (1 ÿ ÿ) y = f (ÿ x + ÿ (ÿ x + (1 ÿ ÿ) y) (2.7)
(1 ÿ ÿ) y) ÿ ÿf (x) + (1 ÿ ÿ) f (y) = ÿh (x) + (1 ÿ ÿ) h (y),

para todo ÿ ÿ (0, 1). Portanto, h é convexo. Suponha agora que h não é estritamente convexo. Então
existem x, y ÿ X com x = y e ÿ0 ÿ (0, 1) tais que h (ÿ0x + (1 ÿ ÿ0) y) = ÿ0h (x) + (1 ÿ ÿ0) h (y). De (2.7),

f (ÿ0 x + (1 ÿ ÿ0) y) = ÿ0f (x) + (1 ÿ ÿ0) f (y),


Machine Translated by Google

2.3. CONVEXIDADE DOS ESPAÇOS BANACH 13

o que implica que x = y = 0 porque f é estritamente convexo. Novamente de (2.7),

ÿ0x + (1 ÿ ÿ0) y = ÿ0 x + (1 ÿ ÿ0) y = x = y ,

x
isto é, ÿ0 = 1, ox que
+ (1
implica
ÿ ÿ0) que X
aanão é estritamente convexo. Reciprocamente, suponha que X não seja
estritamente convexo. Então existem ÿ ÿ (0, 1) e x, y ÿ X com x = y e x = y = 1 tal que

h (ÿx + (1 ÿ ÿ) y) = ÿx + (1 ÿ ÿ) y p=1
p p
=ÿx + (1 ÿ ÿ) y = ÿh (x) + (1 ÿ ÿ) h (y),

o que implica que h não é estritamente convexo.

Definição 12 Seja X um espaço de Banach. A função ÿX : (0, 2] ÿ R definida por

ÿX () := inf 1 ÿ 1 (x + y): x = y = 1 e x ÿ y ÿ 2 ,

é chamado de módulo de convexidade de X. O espaço X é dito ser uniformemente convexo se ÿX () > 0 para
todo 0 < ÿ 2 e é chamado pÿconvexo, para p > 1 fixo, se ÿX () ÿ Kp onde Kp > 0 é uma constante independente
p,

de ÿ.

É fácil provar que pÿconvexidade implica convexidade uniforme.


Fixe x, y ÿ X com x = y e x = y = 1. Se X é uniformemente convexo, então para := x ÿ y ÿ (0, 2] mantém ÿ ()
> 0, o que implica em vista da definição de ÿX que (x + y) > 0, o que por sua vez implica que X é estritamente
1- 12 convexo.
Em [9, Exemplo 1.7], o autor apresenta um exemplo interessante de dois espaços de Banach diferentes,
que possuem normas equivalentes, e ao mesmo tempo o primeiro é estritamente convexo, o segundo não.
Além disso, o espaço estritamente convexo não é uniformemente convexo, o que prova que esses não são
conceitos equivalentes.
Uma propriedade interessante dos espaços de Banach uniformemente convexos é a seguinte: se xn x
e xn ÿ x como n ÿ ÿ, então xn ÿ x como n ÿ ÿ [10, Prop. 2.8, cap. II].
Para um espaço de Hilbert arbitrário H e um espaço de Banach X, as desigualdades ÿH ( ) ÿ ÿX () para
todo 0 < ÿ 2 e ÿH (ÿ ) ÿ ÿX (ÿ ) para todo ÿ > 0 sempre valem. Além disso, X pÿconvexo implica p ÿ 2 e X pÿsuave
implica p ÿ 2. Como os espaços de Hilbert são 2ÿsuaves e 2ÿconvexos (consulte o Exemplo 10 e o Exemplo 13
abaixo), concluímos que eles são os "mais convexos" e espaços de Banach “mais suaves”.

Conforme mostrado no Exemplo 10, uma fórmula explícita para ÿH (ÿ ) é conhecida no caso de dim H ÿ 2.
O mesmo vale para ÿH () como mostra o próximo exemplo.

Exemplo 13 Em um espaço de Hilbert H, a identidade de polarização (2.5) mostra que

2 2 2 2
x+y =2x +e ÿxÿy .

Com x = y = 1, resulta em

2 2
1 xÿy2
(x + y) 2 =1ÿ

2 2
> 1 8 de, Hilbert são 2ÿconvexos. Se dim H ÿ 2,
e com x ÿ y ÿ encontramos ÿH () ÿ 1ÿ 1 ÿ o que prova que os2 espaços
então escolhendo duas sequências na esfera unitária satisfazendo xn ÿ yn ÿ como n ÿ ÿ, obtemos a igualdade
2
ÿH () = 1 ÿ 1 ÿ 2
.
Machine Translated by Google

14 CAPÍTULO 2. GEOMETRIA DOS ESPAÇOS DE BANACH

2.4 Relações entre suavidade e convexidade


Nesta seção sempre consideramos X um espaço de Banach e Xÿ seu espaço dual. Os números p,
pÿ > 1 representam números conjugados, ou seja, 1/p + 1/pÿ = 1.
A convexidade estrita de X equivale à suavidade de seu espaço dual e vice-versa no caso de X ser reflexivo,
conforme mostrado em [10, Cor. 1.4, Cap. II]. X uniformemente liso ou uniformemente convexo implica X reflexivo
[10, Theo. 2.9 e 2.15, cap. II].
Um resultado muito importante são as chamadas fórmulas de dualidade de Lindenstrauss,
que conectam o módulo de suavidade de X e o módulo de convexidade de seu espaço dual Xÿ
e vice-versa (ver [10, Prop. 2.12, Cap. II]) : Para cada ÿ > 0 é válido
t
ÿX (ÿ ) = sup ÿ ÿXÿ () : 0 < ÿ 2
2

e
t
ÿXÿ (ÿ ) = sup ÿ ÿX () : 0 < ÿ 2 .
2
Uma consequência das fórmulas de Lindenstrauss é o seguinte resultado importante: X é
uniformemente convexo (resp. pÿconvexo) se e somente se Xÿ é uniformemente liso (resp. p
ÿÿliso) e vice-versa (cf. [38, 143, Vol II 1.e]).

Exemplo 14 O espaço de Lebesgue L p (ÿ) satisfaz:

pÿ1 8 2 2 pÿ1 8 2
+o > :1<p<2
1
ÿLp () = p p
1ÿ1ÿ p> :2ÿp<ÿ
2 1p2

e
1
1pÿ
(1 + ÿ p ) p ÿ 1 < ppÿ1
:1<p<2:
ÿLp (ÿ ) = ,
pÿ1 2 2 2 + o t <2
t
2

quadrados
2ÿp<ÿ

o que significa que este espaço é1 pÿ2ÿconvexo e pÿ2ÿliso. Em particular, é uniformemente p (N)
uniformemente convexo. O espaço dos espaços de sequências somáveis Wn,p e o Sobolev
(ÿ), n ÿ N,
liso
também
e
são p ÿ 2ÿconvexo ep ÿ 2ÿsuave para 1 < p < ÿ. Como esses espaços não são reflexivos para p =
1 e p = ÿ, concluímos que eles não podem ser uniformemente lisos nem uniformemente convexos.
Pode-se realmente provar que eles não são nem mesmo espaços de Banach estritamente convexos
ou lisos.

2.5 Mapeamento de dualidade

O Teorema de Representação de Riesz afirma que em um espaço de Hilbert arbitrário H, para cada elemento x ÿ
ÿ
H, existe um único funcional linear e contínuo x : H ÿ R tal que

ÿx
, yHÿ×H = x, yH , para todo y ÿ H

e x ÿL(H,R) = xH . Isso implica que

ÿ ÿ 2
x ,yÿx.yex ,x=x . (2.8)

Este raciocínio sugere que poderíamos cobrir a falta de um produto interno em um Banach
ÿ
espaço X associando cada elemento x ÿ X a um produto interno funcional ÿ Xÿ geral e então substituir
ÿ
x x, y com x o , yXÿ×X . No caso ideal, o emparelhamento duplo ·, ·Xÿ×X teria
propriedades de produto interno semelhantes a (2.8) acima.
1
a ÿ b := max {a, b} e a ÿ b := min {a, b} .
Machine Translated by Google

2.5. MAPEAMENTO DE DUALIDADE 15

Definição 15 Seja X um espaço de Banach. Uma função contínua e estritamente crescente ÿ (t) = ÿ é
+ +
0
ÿR0 tal que ÿ (0) = 0 e lim chamada de função de calibre. O ÿ: R
tÿÿ
Xÿ
mapeamento de valor definido Jÿ : X ÿ 2 definido por
ÿ ÿ ÿ ÿ
Jÿ (x) := {x ÿ Xÿ : x ,x =x .xex = ÿ(x)}

é chamado de mapeamento de dualidade associado à função de calibre ÿ. O mapeamento de


dualidade associado à função de calibre ÿ (t) = t é chamado de mapeamento de dualidade normalizado.
Finalmente, uma seleção do mapeamento de dualidade Jÿ é uma função de valor único jÿ : X ÿ
Xÿ satisfazendo jÿ (x) ÿ Jÿ (x) para cada x ÿ X.

Suponha que seja dado x ÿ X. Do Teorema de Hahn-Banach segue que existe := x ÿÿ (x) ÿ Jÿ (x). ÿ
xÿ ÿ
=1ex ÿ
, x = x, o que significa que y
ÿ
Xÿ tal que x
Daí Jÿ (x) = ÿ para qualquer x ÿ X.

Observação 16 O mesmo raciocínio do parágrafo anterior implica, tendo em vista (2.4), que o vetor x
pertence ao conjunto
ÿ

ÿ ÿ ÿ ÿ
{x ÿ Xÿ : x ,x =x .xex = ÿ(x)}
ÿ
se e somente se o vetor Re x pertence a
ÿ ÿ ÿ ÿ
{x ÿ Xÿ R : x ,x =x .xex = ÿ(x)} ,

o que significa que os dois conjuntos acima podem ser identificados entre si pelo uso do isomorfismo T
ÿ
xÿ = Re x . Portanto, é permitido escrever

jÿ (x), y ÿ jÿ (x) . y

mesmo que X seja um espaço de Banach complexo. A desigualdade acima deve realmente ser interpretada
Como

Re jÿ (x), y ÿ Re jÿ (x) . y = jÿ (x) . y .

O Teorema de Asplund (2.9) abaixo e as desigualdades de Xu-Roach no Teorema 18 devem


ser interpretados da mesma forma.

Com a notação especial Jp, onde p > 1 é fixo, denotamos o mapeamento de dualidade associado à
função de calibre ÿ (t) = t pÿ1 . Em particular, J2 é o mapeamento
definição, concluímos
de dualidade
que,
normalizado.
para todo x,Da
y ÿ X,

p-1
jp (x) = ÿ (x) = x jp (x), x = ,
jp (x) . x = x p e jp (x), y ÿ jp (x) . y = x
p-1
Y.

Além disso, cada seleção j2 do mapeamento de dualidade normalizado tem as propriedades de produto
interno mostradas em (2.8).
A conexão entre o subdiferencial e o mapeamento de dualidade é dada pelo importantíssimo
Teorema de Asplund [10, Lema 4.3 e Theo. 4.4, Cap. I]: Seja X um espaço de Banach, x ÿ X um vetor
arbitrário e ÿ uma função de calibre. Então a função ÿ (t) := e
t +
0 ÿ (s)ds, t ÿ 0 é convexo em R 0

Jÿ (x) = ÿ (ÿ (x)). (2.9)


1
Para a função de calibre ÿ (t) = t pÿ1 temos ÿ (x) = x pe concluímos que Jp = ·2 .
p

ÿ ·p
particular, para o mapeamento de dualidade normalizado, ele contém J2 = ÿ Em . No
1p 12
Machine Translated by Google

16 CAPÍTULO 2. GEOMETRIA DOS ESPAÇOS DE BANACH

Hilbert, operador ÿ. Infelizmente,


1 2 ·2 (x) =esta
·2 (x)propriedade
=1 2x, o que significa
muito boa que
é verdadeira
J2 = I é a identidade
apenas em deespaços
um espaço
de Hilbert.
de
De fato, pode-se provar que o mapeamento de dualidade normalizado J2 é linear em X se e somente se
X é um espaço de Hilbert [10, Prop. 4.8, cap. EU].

O Teorema de Asplund é a chave para conectar as propriedades dos mapeamentos de dualidade


com as propriedades de convexidade e suavidade de um espaço de Banach. Por exemplo, uma
consequência interessante do Teorema de Asplund é o fato de que um espaço de Banach X é suave se
e somente se cada mapeamento de dualidade Jÿ é de valor único (cf. [10, Cor. 4.5, Cap. I]). Nesse caso,
d
Jÿ (x), y = dtÿ (x + ty) , para todo x, y ÿ X. (2.10)
t=0

Além disso, X é uniformemente suave se e somente se cada mapeamento de dualidade é de valor único
e uniformemente contínuo na esfera unitária [10, Theo. 2.16, cap. II].
As próximas propriedades do mapeamento de dualidade Jÿ são coletadas de [10, Prop. 4.7, Ch. I]:
Seja x, y ÿ X. O mapeamento de dualidade herda a propriedade de monotonicidade do subdiferencial:

jÿ (x) ÿ jÿ (y), x ÿ y ÿ 0.

Além disso, Jÿ (ÿx) = ÿJÿ (x) e

ÿ (ÿx)
Jÿ (ÿx) = Jÿ (x) para todo ÿ > 0. ÿ (x)

Em particular, J2 (ÿx) = ÿJ2 (x) é homogêneo. O inverso de ÿ também é uma função de calibre e se J :
ÿ
Xÿ ÿ Xÿÿ é o mapeamento de dualidade em Xÿ associado à função de calibre ÿÿ1 então
ÿ1
ÿ,
ÿ ÿ ÿ
x ÿ Jÿ (x) =ÿ x ÿ J ÿÿ1 (x ). (2.11)
Finalmente, se ÿ1 e ÿ2 são funções de calibre, então

ÿ2 (x) Jÿ1 (x) = ÿ1 (x) Jÿ2 (x).


r-1
Em particular, para ÿ1 (t) = t e ÿ2 (t) = t pÿ1 com p, r > 1 é válido
r-p
Júnior ( x ) = x Jp (x). (2.12)

De [10, Cor. 3.13, Cap. II], vemos que a amplitude2 de Jÿ é densa em Xÿ , ou seja, R (Jÿ) = Xÿ . Se
X é reflexivo, então este resultado torna-se R (Jÿ) = Xÿ (na verdade, esta é uma condição equivalente à
reflexividade de X, ver [10, Cor 3.4, cap. II]). Concluímos que no caso de X ser reflexivo, o recíproco de
ÿ

(2.11) é verdadeiro e RJ = Xÿÿ ÿ= X. Assumindo que ÿÿ1 X é suave, então


X for dualidade
cada mapeamento
é dereflexivo
adicionalmente valor único
de(este
e se
éo
caso, por exemplo, se X é uniformemente liso), então Jÿ é invertível e satisfaz

ÿ1 ÿ
J
ÿ
=J : Xÿ ÿ Xÿÿ ÿ= X. (2.13)
ÿÿ1
ÿ1 ÿ
Em particular, J p
=J p ÿ . Por último, se as funções de norma em X e Xÿ são F-diferenciáveis,
então X é reflexivo, Jÿ é monovalorado, contínuo e invertível com satisfação inversa contínua (2.13). Este
resultado é válido, por exemplo, se X é uniformemente liso (então a norma em X é uniformemente F-
diferenciável na esfera unitária) e uniformemente convexo (então Xÿ é uniformemente liso e o mesmo
resultado vale neste espaço).
A monotonicidade estrita do mapeamento de dualidade é equivalente à convexidade estrita de
X, ou seja, X é estritamente convexo se, e somente se, cada mapeamento de dualidade satisfaz

jÿ (x) ÿ jÿ (y), x ÿ y > 0 para todo x, y ÿ X com x = y.


Xÿ
2Definimos o intervalo de Jÿ : X ÿ 2 de como R (Jÿ) := ÿxÿXJÿ (x), o que faz sentido mesmo que Jÿ não seja
valor único.
Machine Translated by Google

2.6. DISTÂNCIAS DE BREGMAN 17

Exemplo 17 O espaço dual do espaço de Lebesgue L p (ÿ), 1 < p < ÿ é dado por (L p (ÿ))ÿ =
ÿ ÿ

50 p (ÿ) pode ser calculado usando a fórmula


(ÿ) e o mapeamento de dualidade Jp : L p (ÿ) ÿ L p
(2.10). De fato, o mapeamento de dualidade Jp está associado à função de calibre ÿ (t) = t pÿ1 , o que ,
t 1
significa que ÿ (t) = 0 ÿ(s)ds= p . Sejam f, g ÿ L p (ÿ). Então por (2.10), t p

d d 1 p
= f + tg
Jp (f), gLpÿ×Lp = dtÿ (f + tgLp ) dt LP
t=0 p t=0
1 d
= |f(x) + tg(x)| p dx
p dt Oh t=0

= |f(x) + tg(x)|
p-1
sinal (f (x) + tg (x)) g (x) dx
Oh t=0

= |f(x)|
p-1
sinal (f (x)) g (x) dx = |f|
p-1
sinal (f), g .
Oh
Lpÿ×Lp

p-1
Isso significa que Jp (f) = |f| agora sgn(f), onde a igualdade é entendida pontualmente. Usando
(2.12) concluímos que o mapeamento de dualidade Jr em L p (ÿ) é dado por

r-p p-1
Júnior (f) = f LP |f| sinal (f). (2.14)

2.6 distâncias de Bregman


Em 1991, Xu e Roach provaram em seu famoso artigo [53] dois resultados muito importantes, que
hoje são conhecidos como desigualdades de Xu-Roach. Começamos esta seção formulando esses
resultados na forma de um teorema.

Teorema 18 (Xu-Roach) Seja X um espaço de Banach e p > 1.


(A) Se X é uniformemente convexo, então existe uma constante positiva Kp tal que para todo
x, y ÿ X e jp (x) ÿ Jp (x),

p p
x-y ÿx ÿ p jp (x), y + ÿp (x, y)

com
1 p
(x ÿ você ÿ x) ty 2
ÿp (x,y) := Kp ÿX dt,
0 t (x ÿ ty ÿ x)
onde ÿX é o módulo de convexidade, ver Definição 12.
(B) Se X é uniformemente suave, então existe uma constante positiva Cp tal que para todo x, y ÿ X

p p
x-y ÿx ÿ p Jp (x), y + ÿp (x, y)
com
1 p
(x ÿ você ÿ x) tyx
ÿp (x,y) := Cp ÿX dt,
0 t ÿ ty ÿ x

onde ÿX é o módulo de suavidade (Definição 12).

Assumindo que o espaço X é sÿconvexo para algum s > 1 e usando a definição de sÿconvexidade,

1
KpKs s p-s t sÿ1dt.
ÿp ( x, y) ÿ Y (x ÿ você ÿ x)
2 segundos
0

Visto que para todo t ÿ [0, 1] ,

x ÿ ty ÿ x ÿ x + y ÿ 2 (x ÿ y),
Machine Translated by Google

18 CAPÍTULO 2. GEOMETRIA DOS ESPAÇOS DE BANACH

segue que para p ÿ s,


p-s s
ÿp (x, y) ÿ pKp,s (x ÿ y) Y , (2.15)

onde Kp,s = KpKs2 pÿ2s/ps > 0. Da mesma forma, se o espaço de Banach X for considerado sÿsuave e
p ÿ s, então existe uma constante positiva Cp,s tal que para todo x, y ÿ x
p-s s
ÿp (x, y) ÿ pCp,s (x ÿ y) Y . (2.16)

Em particular, se p = s, então

1 p p Kp p
x-y 1ÿp x - jp (x), y + Y , (2.17)
p p
e
1 p p Cp p
x-y 1ÿp x ÿ Jp (x), y + Y , (2.18)
p p

respectivamente, com Kp := pKp,s e Cp := pCp,s.


Em [9, Cor. 4.17 e Cor. 5.8] mostra-se que a existência de Kp e Cp nas desigualdades (2.17) e
(2.18) são na verdade condições equivalentes a pÿconvexidade e pÿsuavidade de X respectivamente.

Note que as desigualdades (2.17) e (2.18) se reduzem à identidade de polarização (2.5) em espaços
de Hilbert (para p = s = 2, Kp = Cp = 1). Tentando imitar essa identidade em um espaço geral de Banach,
introduzimos a distância de Bregman.

Definição 19 Seja X um espaço de Banach e ÿ: X ÿ R um funcional convexo e subdiferenciável. A


distância de Bregman associada a ÿ é a função ÿÿ : X × X ÿ R definida por

ÿÿ (x, y) := ÿ (x) ÿ ÿ (y) ÿ inf {ÿ, x ÿ y : ÿ ÿ ÿÿ (y)} .

Apesar do nome, a distância de Bregman não é uma métrica porque não satisfaz a reflexividade por
exemplo (ÿÿ (x, y) = ÿÿ (y, x) em geral). Também não satisfaz a importante desigualdade triangular. Mas,
da definição de subdiferencial, segue-se imediatamente que ÿÿ (x, y) ÿ 0 para todo x, y ÿ X. Além disso,
x = y implica ÿÿ (x, y) = 0.
Seja ÿ uma função de gauge. Então, pelo Teorema de Asplund, a função ÿ (x) := ÿ (x) = 0 ÿ (s)ds é
x
convexa e ÿÿ (x) = Jÿ (x). Segue-se que, neste caso,

ÿ (x, y) = ÿ (x) ÿ ÿ (y) ÿ inf {ÿ, x ÿ y : ÿ ÿ Jÿ (y)} .

Denotamos por ÿp, p > 1, a distância de Bregman associada à função de calibre particular ÿ (t) = t pÿ1
. Isso significa

p
1 p
1 ÿp (x,y) = x ÿ

Y ÿ inf {ÿ, x ÿ y : ÿ ÿ Jp (y)} . (2.19)


p p

Assuma a partir de agora que o mapeamento de dualidade é de valor único (este é o caso em espaços
de Banach suaves, por exemplo). Assim, a igualdade acima torna-se
1 p
1 p
ÿp (x,y) = x ÿ

Y ÿ Jp (y), x ÿ y
p p
1 1
= x p ÿ

Y
p
+e
p
ÿ Jp (y), x
p p
1 1
= x p+ Y
p
ÿ Jp (y), x
ÿ
p p
1 1 ÿ
= x p
ÿ Jp (y), x + Jp (y)
p .
ÿ
p p
Machine Translated by Google

2.6. DISTÂNCIAS DE BREGMAN 19

Observe a semelhança entre esta fórmula e a identidade de polarização (2.5). Como nos espaços de
Hilbert o mapeamento de dualidade normalizado é o operador identidade, concluímos que nesses
2
espaços ÿ2 (x, y) = . Avançar, 1 2 x-y

1 1
ÿp (x,y) ÿ x p+ Y p -y p-1 x.
p p ÿ

Agora, se (xn)nÿN ÿ X é uma sequência e x ÿ X é um vetor fixo, então a desigualdade ÿp (x, xn) ÿ ÿ
implica
1
p-1
xn xn ÿ x ÿ ÿ.
pÿ
1 1 1 1
Considerando agora os casos ÿ xn ÿ x ÿ 2p ÿ xn e ÿ xn ÿ x >
p p 2p ÿ xn, nós
conclui a implicação

ÿ 1/ .
ÿp (x, xn) ÿ ÿ =ÿ xn ÿ 2p pxÿp (2.20)

Portanto, (xn)nÿN é limitado sempre que ÿp (x, xn) é limitado. Um resultado similar pode ser provado se
ÿp (xn, x) ÿ ÿ. Se o mapeamento de dualidade for monovalorado e contínuo (este é o caso, por exemplo,
em um espaço de Banach uniformemente liso), então a continuidade é transmitida para ambos os
argumentos da distância de Bregman ÿp.
Se X é estritamente convexo, então x = y sempre que ÿp (x, y) = 0 porque X estritamente convexo p é
1 x
implica que x ÿÿ em seu
p
primeiro
estritamente
argumento.
convexo,
Agora,o se
quex=
por
y, sua
encontramos
vez implica
para
queÿ ÿp
ÿ (0,
é estritamente
1) convexo

0 ÿ ÿp (ÿx + (1 ÿ ÿ) y, y) < ÿÿp (x, y) + (1 ÿ ÿ) ÿp (y, y) = ÿÿp (x, y),

o que implica que ÿp (x, y) = 0.


Um cálculo direto leva à identidade de três pontos:

ÿp (z, y) ÿ ÿp (z, x) = ÿp (x, y) + Jp (y) ÿ Jp (x), x ÿ z (2.21)

para todo x, y, z ÿ X. Também é fácil verificar a identidade ÿp (x, y) = ÿp ÿ (Jp (y), Jp (x)).
O teorema de Xu-Roach afirma que em um espaço de Banach arbitrário uniformemente convexo ele
contém

1 ÿp (y, y ÿ x) ÿ ÿp (x, y),


p
para todo x, y ÿ X. Usando (2.15) concluímos que em um espaço de Banach sÿconvexo existe, para
cada p ÿ s, uma constante Kp,s tal que

p-s s
Kp,s (y ÿ x ÿ y) x-y ÿ ÿp (x, y) (2.22)

para todo x, y ÿ X. Em particular, se a sequência (xn)nÿN ÿ X é limitada (ou p = s), então existe uma
constante C > 0 tal que

s
xn ÿ xm ÿ Cÿp (xn, xm). (2.23)

Da mesma forma, em um espaço de Banach uniformemente liso é verdade que

ÿp (x,y) ÿ 1 ÿp (y, y ÿ x)
p

para todo x, y ÿ X, o que em vista de (2.16) implica que em um espaço de Banach tão suave, para cada
p ÿ s,

p-s s p-s s p
ÿp (x, y) ÿ Cp,s (y ÿ x ÿ y) x-y = Cp, sy x-y ÿxÿy (2.24)
Machine Translated by Google

20 CAPÍTULO 2. GEOMETRIA DOS ESPAÇOS DE BANACH

para todo x, y ÿ X. Além disso, pode-se provar para um espaço de Banach sÿsuave arbitrário,
que para cada p > 1, existe uma constante positiva Cp,s satisfazendo
p-s s-1
Jp (x) ÿ Jp (y) ÿ 2 sÿpCp,s (x ÿ y) x-y ,

para todo x, y ÿ X. Como

x ÿ y ÿ x ÿ y + y ÿ 2 (x ÿ y ÿ y),

adicionalmente temos para p ÿ s,

p-s s-1
Jp (x) ÿ Jp (y) ÿ Cp,s (x ÿ y ÿ y) x-y (2.25)
pÿ1 p-s s-1 .
= Cp,s x ÿ y ÿy x-y
Machine Translated by Google

Capítulo 3

O Método Inexato de Newton


O K-REGIN

Nosso objetivo é encontrar uma solução aproximada para o problema mal posto não linear

F(x) = y (3.1)

operando entre os espaços de Banach X e YD(F) denota o domínio, de


ou definição
seja, F : D(F)
de F.ÿ Supomos
X ÿ Y, onde
tercom
pleno
F
conhecimento deste operador. Uma aproximação y
d
para y satisfatório

dyÿy ÿ d,

e o nível de ruído ÿ > 0 também é considerado conhecido. Suponha agora que exista uma solução + de (3.1) e,
x para facilitar a apresentação, suponha por enquanto que ela seja única. Nosso objetivo é encontrar para cada
d
par y ÿ que satisfaça a desigualdade ,acima, um vetor xÿ tal que a propriedade de regularização seja válida1 :
+ como ÿ ÿ 0.
xÿ ÿ x (3.2)

A base do nosso trabalho é o algoritmo do tipo Newton REGINN (REGularização baseada na iteração
INexata de Newton). Primeiro explicamos a ideia original deste método conforme apresentado em [43] e depois
apresentamos nossa versão Kaczmarz K-REGINN, que é uma generalização do algoritmo original. REGINN,
conforme descrito em [43], melhora a iteração atual xn via

xn+1 = xn + sn (3.3)

por uma etapa de correção sn obtida a partir da solução aproximada de uma linearização local de (3.1):

d
Resposta = bn (3.4)

d
onde An := F (xn) é a derivada de Fr´echet de F em xn e b ÿ F (xn) é o resíduo nãonlinear
d := correspondente.
y Para
um número fixo n, REGINN normalmente aplica um solucionador iterativo para (3.4), chamado iteração interna,
para gerar uma sequência (sn,k) que se aproxima kÿN
uma solução deste sistema. A iteração interna termina no primeiro índice k = kn satisfazendo

d d
Ansn,k ÿ b n <µb n (3.5)

com uma constante predefinida 0 < µ < 1. A iteração de Newton (3.3), também chamada de iteração externa
, agora é realizado definindo sn := sn,kn . O algoritmo é finalmente finalizado com o
d
1A solução aproximada xÿ realmente depende de ÿ e y : xÿ = x(ÿ,yÿ) .

21
Machine Translated by Google

22 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

princípio da discrepância: Parar na primeira iteração n = N (ÿ) satisfazendo2

você ÿ F xN(ÿ) ÿ ÿ ÿ,

com ÿ > 1 sendo uma constante3 .


Para definir REGINN de uma forma mais geral, assumimos que (3.1) se divide em d ÿ N subproblemas
”menores”, ou seja, Y fatoriza em espaços de Banach Y0, . . . , Ydÿ1: Y = Y0 × Y1 × · · · × Ydÿ1. Assim, F(F0,
=
F1, . . . , Fdÿ1) , Fj : D(F) ÿ X ÿ Yj , e y = (y0, y1, . . . , ydÿ1) . A equação (3.1) agora é equivalente ao sistema

Fj (x) = yj , j = 0, . . . , d-1. (3.6)

ÿj
Nossa tarefa pode ser reformulada como: para cada d pares y j , ÿj satisfazendo

ÿj yj ÿ y j ÿ ÿj , j = 0, ..., d ÿ 1, (3.7)

encontre um vetor xÿ tal que a propriedade de regularização (3.2) seja válida para

ÿ := max {ÿj : j = 0, . . . , d ÿ 1} > 0. (3.8)


ÿj
As aproximações y j para yj e os respectivos níveis de ruído positivo ÿj , bem como o
operadores Fj , j = 0, . . . , d ÿ 1 são considerados conhecidos.
Enfatizamos que sistemas como (3.6) surgem naturalmente em aplicações onde os dados são medidos por d
experimentos ou observações individuais. Por exemplo, na tomografia de impedância elétrica, deseja-se encontrar
a condutividade de um objeto aplicando, digamos, d padrões de corrente na fronteira e medindo também as tensões
resultantes na fronteira (veja os experimentos numéricos no Capítulo 5).

Nosso objetivo agora é introduzir uma variante Kaczmarz de REGINN (em resumo, K-REGINN). Em contraste
com os métodos iterativos tradicionais, a estratégia de Kaczmarz, também conhecida como estratégia loping, visa
encontrar uma solução para o problema original (3.1) processando as equações (3.6) ciclicamente, usando uma
equação de cada vez, em vez de usar todas elas ao mesmo tempo. mesmo tempo. Este tipo de estratégia cíclica
foi iniciado por Kaczmarz [27] no contexto de sistemas lineares em espaços de dimensão finita, primeiro analisado
no contexto de problemas inversos por Kowar e Scherzer [31] e posteriormente investigado por vários autores [20,
7, 40 , 39, 37].
A ideia de K-REGINN é determinar sn a partir de (3.4) da mesma forma que explicado em (3.5), mas
com
d d[n]
An := F [n] (xn) e b onde n y [n] ÿ F[n] (xn), :=

[n] := n mod d denota o restante da divisão inteira. Assim, os subsistemas são processados ciclicamente,
quebrando o sistema de grande escala (3.1) em partes úteis. Observe que a iteração interna funciona com uma
equação fixa de (3.6). Quando a iteração interna termina, o vetor atual xn é atualizado na iteração externa (3.3)
gerando o vetor xn+1 e a equação atual é substituída pela seguinte. Finalmente, a iteração externa é
interrompida usando uma variante do princípio da discrepância.

Entramos agora em detalhes e explicamos K-REGINN com mais precisão: Inicie a iteração externa com x0
ÿD(F) e a configuração da iteração interna sn,0 := 0. Com n fixo, gere a sequência (sn,k) onde o final (interno) kÿN .
Atualize= agora a iteração
0 no caso de externa usando xn+1 := xn + sn,kn , o índice kn é determinadoÿ da
> 1seguinte
e µ ÿ (0,forma:
1). Defina
escolha
kn

bnd ÿ ÿ ÿ[n] . (3.9)


d
2O número N é escolhido por uma estratégia a posteriori, portanto, depende realmente de ÿ e y. Mas : N = N ÿ, yÿ .
nos apegamos à notação mais simples N = N (ÿ).
3A ideia de usar (3.5) foi originalmente introduzida em 1982 por Dembo et al [13] no contexto de
problemas bem colocados em espaços de dimensão finita.
Machine Translated by Google

23

Algoritmo 1 K-REGINN
Entrada: xN ; (e ÿj , ÿj
F d); ÿFj1;; µ; ÿ (xN
; j , j)=ÿ 0, . . ,. j.=. .0,. . ,. ÿj
ÿ ÿj . . ÿ. .Fj. . . ,
Saída: xN com yd ÿ 1; j

:= 0; x0 := xN ; c := 0;
enquanto c < d faça
para j = 0 : d ÿ 1 do n :=
d + j; ÿj := y j
db
n ÿ Fj (xn); Um := F j (xn);
ÿ se b ÿ ÿ ÿj então
n
xn+1 := xn; c := c + 1; senão
k := 0; sn,0 := 0; escolha
kmax,n ÿ N; repetir calcular sn,k+1 :=
f(sn,k) de (3.4) % O significado de f é
explicado em
% Observação 20

k := k + 1;
ÿ até b d
n ÿ Ansn,k < µ b n ou k = kmax,n
xn+1 := xn + sn,k; c := 0;
fim se
fim para

:= +1;
terminar enquanto

xN := xdÿc;

Caso contrário, escolha arbitrariamente kn ÿ {1, ..., kREG} com

d d .
kREG := min k ÿ N : Ansn,k ÿ b n <µb n (3.10)

Observe que a definição de kn pode ser vista como

kn = kREG ÿ kmax,n, (3.11)

onde (kmax,n)nÿN é uma sequência arbitrária de números naturais e kREG := 0 se (3.9) for verificado.
Observe ainda que se kmax < ÿ, onde

kmax := max {kmax,n : n ÿ N} , (3.12)

então a sequência (kn)nÿN é limitada: kn ÿ kmax para todo n ÿ N.


A igualdade xn+1 = xn vale sempre que (3.9) vale, o que significa que o algoritmo não altera mais xn
caso (3.9) seja verificado d vezes seguidas. Pare, portanto, a iteração externa assim que o princípio da
discrepância (3.9) for satisfeito d vezes consecutivas.
Nossa solução aproximada de (3.1) é então xN onde N = N (ÿ) é o menor número que satisfaz

ÿj
ej ÿ Fj (xN ) ÿ ÿ ÿj , j = 0, . . . , d - 1. (3.13)

Veja Algoritmo 1 para uma implementação em pseudocódigo. Ver também Observação 20.

Observação 20 A função f : X ÿ X no loop de repetição do Algoritmo 1 representa a from (3.4). Apesar


procedimento geral para gerar a sequência de iteração interna (sn,k) 0ÿkÿkn
Machine Translated by Google

24 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

Como a função f depende dos espaços de Banach X e Y e do método específico usado para
aproximar a solução de (3.4), não consideramos nenhum método específico para realizar essa
tarefa em nossa análise de convergência no Capítulo 4. Em vez disso, consideramos assume
apenas que algumas propriedades dessa sequência são verdadeiras, sem se importar com a forma
como ela é gerada. No entanto, na próxima seção, adaptamos alguns métodos clássicos e bem
conhecidos de Hilbert para espaços de Banach mais gerais para fornecer alguns exemplos práticos
de como essa sequência pode ser gerada para ter as propriedades necessárias usadas na análise
de convergência do Capítulo 4.

3.1 Resolvendo a iteração interna


Nesta seção apresentamos vários métodos iterativos que podem ser empregados
d
e (3.11)) resolver o sistema linear Ans
n aproximadamente
= b usado para atualizar
para encontrar
a iteração
o vetor
externa
sn,kn
de(ver
K- (3.10)
REGINN . lembramos que
d d[n]
Um := F [n] (xn) e b n y [n] ÿ F[n] (xn) :=

representam respectivamente a derivada F do operador direto F[n] na iteração atual xn e o resíduo não linear. Os números p, r
> 1 são fixos e p representam seus números conjugados, respectivamente.
ÿ
er ÿ

Supomos em toda esta seção que dados exatos (ÿ = 0 em (3.8)) são dados. Os objetivos são evitar
complicações desnecessárias neste ponto do texto, bem como facilitar a notação e, por esta última
razão, omitimos temporariamente o sobrescrito ÿ. Gostaríamos de enfatizar, no entanto, que todos os
resultados apresentados aqui podem ser comprovados de forma semelhante para o caso de dados
ruidosos. Posteriormente, no Capítulo 4, voltamos à antiga notação e consideramos novamente os
dados ruidosos.
O conceito na próxima definição é essencial para entender as ideias dos métodos de
gradiente primal da Subseção 3.1.1 abaixo.

Definição 21 Seja X um espaço vetorial e ÿ: D(ÿ) ÿ X ÿ R um funcional com domínio D(ÿ) de


interior não vazio. O vetor v ÿ X é uma direção descendente para ÿ de x ÿint(D (ÿ)) se existe um
número positivo t tal que ÿ (x + tv) < ÿ (x) para todo 0 < t ÿ t.

K-REGINN atualiza o vetor atual xn adicionando o vetor sn,kn encontrado na iteração interna: xn+1 = xn + sn,kn . O vetor
xn+1 é agora uma nova aproximação para a solução de (3.1). Por esta razão, gostaríamos que os vetores sn,k fossem direções
de descida para o funcional ÿn (x) := r F[n] (x) ÿ y[n] de xn. ·r é F-diferenciável se a suavidade uniforme de Y[n] for assumida,
1 r
veja A função Seção 2.2. Assuma
ÿn (t)agora
:= ÿn a(xn
F-diferenciabilidade
+ tsn,k): de F[n] . Neste caso, a regra da cadeia se aplica à função auxiliar
1
r

ÿn (0) = Jr F[n] (xn + tsn,k) ÿ y[n] , F


[n] (xn + tsn,k) sn,k t=0

= Jr (ÿbn), Ansn, k = Jr (ÿbn), Asn,k ÿ bn ÿ Jr (ÿbn), ÿbn ÿ bn


r-1
(Ansn,k ÿ bn ÿ bn).

Supondo adicionalmente que Ansn,k ÿ bn < bn , segue que

lim ÿn (t) ÿ ÿn (0) =ÿ n (0) < 0,


tÿ0 t

o que implica que existe t > 0 tal que ÿn (t) < ÿn (0) para todo 0 < t < t. Isso é equivalente a ÿn
(xn + tsn,k) < ÿ (xn) para todo 0 < t < t, o que significa que sn,k é uma direção descendente para
ÿn de xn.
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 25

Embora a suposição sob o espaço Y[n] facilite a prova acima através da condição ·r e F[n] . O
uso da regra da cadeia nas funções F-diferenciáveis 1 não ééum essencialsob
resultado realmente r verdadeiro
restrições mais fracas no espaço Y[n] , o que garante apenas G-diferenciabilidade de funções-norma,
como
mostra a próxima proposição.

Proposição 22 Sejam X e Y espaços de Banach com Y sendo liso e seja F : D(F) ÿ


X ÿ Y seja uma função Gˆateaux-diferenciável em x ÿint(D (F)). Além disso, seja y ÿ Y um vetor fixo e
defina A = F (x) eb = y ÿ F (x). Se s ÿ X satisfaz a desigualdade As ÿ b < b então s é uma direção
descendente para, o funcional ÿ (·) := F (·) ÿ y de x.

1 r
Prova. Defina as funções auxiliares ÿ0 (t) := b ÿ tAs e ÿ2r (t) := b ÿ , r > 1, ÿ1 (t) := F (x + ts) ÿ y é de
ÿ
tAs . Como Y é suave, o mapeamento de dualidade Jr : Y ÿ Y e satisfaz (ver (2.10)) valor único

d 1 r
Jr (v), w = dt v + tw . (3.14)
r
t=0

Portanto,

ÿ0 (t) ÿ ÿ0 (0) lim = ÿ


tÿ0 0 (0) = Jr (b), ÿAs = Jr (b), b ÿ As ÿ Jr (b), b
t
r-1
ÿb (As ÿ b ÿ b) < 0.

O resultado implica que existem pequenos números t, ÿ > 0 tais que

ÿ0 (t) ÿ ÿ0 (0) ÿ
ÿÿ < 0
t

para todo 0 < t ÿ t, o que por sua vez implica que

1
ÿ2 (t) ÿ (ÿÿtr + ÿ2 (0)r ) r .

Agora,

ÿ1 (t) ÿ F (x + ts) ÿ F (x) ÿ tF (x) s + ÿ2 (t)


1
ÿ F (x + ts) ÿ F (x) ÿ tF (x) s + (ÿ2 (0)r ÿ ÿtr) r

e como ÿ1 (0) = ÿ2 (0),

1
ÿ1 (t) ÿ ÿ1 (0) ÿ F (x + ts) ÿ F (x) ÿ tF (x) s (ÿ2 (0)r ÿ ÿtr) r ÿ ÿ2 (0)
+
t t t

para todo 0 < t ÿ t. Finalmente, F (x + ts) ÿ F (x) ÿ tF (x) s /t ÿ 0 como t ÿ 0 porque F é Gˆateaux-diferenciável
em x e

1
(ÿ2 (0)r ÿ ÿtr) lim r ÿ ÿ2 (0) L'Hospital c
tÿ0 ÿ ÿ (ÿ2 (0)r ÿ ÿtr) ÿ = lim tÿ0 1 rÿ =ÿ
r
< 0.
t
ÿ2 (0) rÿ

Assim, existe um número t1 > 0 tal que ÿ1 (t) < ÿ1 (0) para todo 0 < t ÿ t1, ou seja, F (x + ts) ÿ y < F (x) ÿ
y.
Machine Translated by Google

26 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

3.1.1 Métodos de gradiente primário


Esquecemos K-REGINN por um tempo, pulamos o índice n da iteração externa e nos concentramos apenas
na iteração interna. A: X ÿ Y representa um operador linear e b ÿ Y é um operador fixo
vetor.
2
Nos espaços de Hilbert, o gradiente do funcional ÿ(s) := Como - b é dado por ÿÿ
12

(s) = Aÿ (As ÿ b) e o vetor ÿÿÿ (sk) é uma direção de descida para ÿ de sk sempre que não for zero. Provamos
na próxima proposição um resultado similar para espaços de Banach suaves.

Proposição 23 Sejam X e Y espaços de Banach com Y sendo liso. Além disso, seja A: X ÿ Y linear, b ÿ Y um
1 r
vetor fixo e ÿ: X ÿ R o funcional convexo ÿ (s) := com r > 1 fixo. Então ÿ é G-diferenciável em X e se Como - b
r ÿk
representa a derivada G de ÿ em sk, o vetor ÿj > 1 fixo é igual a zero ou uma direção descendente para ÿ de sk.
ÿ ÿ

pÿ (ÿk) com p

Prova. Como em (2.2), vemos que

ÿ
1
ÿÿ(s) = A ÿ ·r (As ÿ b) = A ÿJr (As ÿ b).
r
ÿ
Como Y é suave, o mapeamento de dualidade Jr : Y ÿ Y é de valor único, assim como a subdiferença
, Além que
ential ÿÿ: X ÿ Xÿ o que implica disso,
ÿ ésua
G-diferenciável
derivada G ememsk
X.é dada por ÿk = AÿJr ( Pergunte - b). Suponha que
ÿk = 0. Usando a função auxiliar

ÿ
1 r
ÿ (t) := ÿ sk + t ÿj pÿ (ÿk) = (Pergunte ÿ b) + t ÿAjÿ pÿ (ÿk)
r

encontramos aplicando (3.14),

ÿ (t) ÿ ÿ (0) (3.14) lim = ÿ (0) tÿ0


= Jr (Pergunte ÿ b), ÿAjÿ ÿ (ÿk)
p
t
ÿ
p
= ÿ ÿk, jÿ ÿ (ÿk) =pÿ ÿk < 0.

Segue-se que existe um número t > 0 tal que para todo 0 < t ÿ t ele contém ÿ (t) < ÿ (0), ou seja, ÿ sk + t ÿj
ÿ

p ÿ (ÿk) < ÿ (sk).


A proposição 23 mostra que em um espaço de Banach suave Y, a sequência gerada pelo método iterativo

ÿ
sk+1 := sk ÿ ÿkj pÿ (ÿk), (3.15)
ÿ
com torta > 1, s0 ÿ X e ÿk > 0 suficientemente pequeno, satisfaz a desigualdade ÿ (sk+1) < ÿ (sk),
ou seja,

Ask+1 ÿ b < Ask ÿ b desde (3.16)

que ÿk = 0. Se adicionalmente s0 := 0, então Ask ÿ b < b para todos4 k ÿ N. Os métodos iterativos definidos
5
desta forma são chamados de métodos de gradiente primário. O Algoritmo 2 codifica K-REGINN
método com umprimal
de gradiente
na iteração interna em um espaço de Banach suave Y . As partes destacadas em vermelho representam a
parte do algoritmo exclusivamente relacionada a (3.15).

Se o tamanho do passo ÿk em (3.15) pode ser escolhido independentemente de k, o método do gradiente


associado é chamado de método de Landweber6 (abreviado LW), ou seja, ÿLW = constante. O método
Steepest Descent (SD) é definido escolhendo um tamanho de passo ÿSD satisfatório

ÿSD ÿ arg min ÿ sk ÿ ÿjÿ ÿ (ÿk) , ÿÿR+ p

4
Tendo em vista a Proposição 22, vemos que para A = An e b = bn, os vetores sk = sn,k são descendentes
direções para o funcional F[n] (·) ÿ y[n] de xn.
5Aqui a iteração ocorre no espaço primal X, em contraste com os chamados métodos duais onde a iteração
ÿ
, consulteo arelevante
acontece no espaço dual X 6Para homenagear Subseção 3.1.2.
trabalho de L. Landweber [33].
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 27

Algoritmo 2 K-REGINN com iteração interna de gradiente primal


Entrada: xN ; (y ÿj Fj
, ÿj(xN
); Fj) ÿ; Fÿ dÿj ÿ, 1;
j =µ;
0,ÿ. ;. p,
. , rSaída:
> 1; j ,xN
j =com
0, . .yd
. , ÿÿj1;ÿ j

:= 0; x0 := xN ; c := 0;
enquanto c < d faça
para j = 0 : d ÿ 1 do
n := d + j; ÿj := y j
db
n ÿ Fj (xn); Um := F j (xn);

ÿ se b ÿ ÿ ÿj então xn+1 := xn;


n
c := c + 1; senão k := 0; sn,0 := 0;

escolha kmax,n ÿ N; repetir ÿn,k := Aÿ

nJr(Ansn,k ÿ b

d
n );
ÿ ÿ
escolha ÿn,k > 0 e j pÿ (ÿn,k) ÿ J p ÿ (ÿn,k);
ÿ

sn,k+1 := sn,k ÿ ÿn,kj p ÿ (ÿn,k);


k := k + 1;
ÿ até b d
n ÿ Ansn,k < µ b n ou k = kmax,n
xn+1 := xn + sn,k; c := 0;
fim se
fim para

:= +1;
terminar enquanto

xN := xdÿc;

se tal minimizador existir. Supondo que este seja o caso e adicionalmente assumindo que a função
ÿ é F-diferenciável (a segunda suposição é verdadeira, por exemplo, se Y for uniformemente suave),
pode-se aplicar a regra da cadeia para encontrar

d ÿ

p = ÿsk ÿ ÿjÿ ÿ (ÿk)p , ÿj p ÿ (ÿk)


dÿÿ sk ÿ ÿjÿ ÿ (ÿk) ÿ=ÿDP
ÿ=ÿDP

= ÿ A ÿJr (Pedir+1 ÿ b), jÿ ÿ (ÿk) = ÿ ÿk+1,


p jÿ ÿ (ÿk) . p

Segue-se que, similarmente aos espaços de Hilbert, o gradiente de dois iterados consecutivos são
ÿ
“ortogonais” no sentido de que j p ÿ (ÿk), ÿk+1 = 0. Além disso, a desigualdade ÿ (sk+1) ÿ ÿ (ÿk)
sk ÿ ÿjÿ à não
p é imediatamente
linearidade do mapeamento
verificada para
detodo
dualidade,
ÿ ÿ 0 e uma
consequentemente
fórmula explícita
(3.16)
paravale.
ÿSD Devido
é, no ÿ
entanto, difícil de ser alcançada. A unicidade de um minimizador é garantida, por exemplo, se A é ·r
é estritamente convexo injetivo e Y é estritamente convexo porque neste caso a função
1
r
e Ax1 ÿ b = Ax2 ÿ b sempre que x1 = x2, o que implica a estrita convexidade de ÿ e conseqüentemente
o resultado desejado.

Suponha agora que Y é um espaço de Banach ar-suave, então existe um número positivo
Machine Translated by Google

28 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

Cr (ver (2.18)) tal que para todo ÿ ÿ 0 e sk+1 = sk ÿ ÿjÿ ÿ (ÿk), p

1 r
1 r
= (Pergunte ÿ b) ÿ ÿAjÿ
r
Pergunte +1 ÿ b
r p ÿ (ÿk)

1 r Cr r
ÿ Pergunte - b ÿ Jr (Pergunte ÿ b), ÿAjÿ ÿ p(ÿk) + ÿAjÿ pÿ (ÿk)
r r
1 r ÿ Cr r
= p
Pergunte - b ÿ ÿ ÿk r Ajÿ ÿ (ÿk)
p ÿ+ ,
r r

o que implica que

p
ÿ Cr r
ÿ (sk+1) ÿ ÿ (sk) ÿ ÿÿ ÿk r Ajÿ ÿ (ÿk)
p ÿ+ =: f (ÿ). (3.17)
r

desigualdade acima é verificada para cada método definido via sk+1 = sk ÿ ÿjÿ em particular, pois o ptamanho
ÿ (ÿk) e Ado
passo ÿSD minimiza a diferença ÿ (sk+1) ÿ ÿ (sk), desigualdade ( 3.17) vale para este método usando um ÿ ÿ 0
arbitrário no lado mais à direita. A condição de otimização f (ÿ) = 0 leva ao tamanho do passo

ÿ
p
r-1 ÿk
eu
MSD := C0 r, (3.18)
Ajÿ pÿ (ÿk)

com C0 := 1/Cr. O método de gradiente associado é chamado de método de descida íngreme modificada (MSD).
Se Y é um espaço de Hilbert er = 2, então a identidade de polarização (2.5) mostra que Cr = 1 pode ser escolhido.
Neste caso, os métodos SD e MSD coincidem e possuem o mesmo tamanho de passo:

ÿ
p
ÿk
ÿ= 2.
Ajÿ pÿ (ÿk)

Se X também for um espaço de Hilbert, então esse tamanho de passo é dado pela expressão (para p = r = 2):
2 2
ÿk
= Aÿ (Pergunte ÿ b)
ÿ= 2. (3.19)
2
Aÿk AAÿ (Pergunte ÿ b)

Mudando a definição de C0 com um número arbitrário que satisfaça a desigualdade 0 < C0 < r/Cr, observamos
que a escolha ÿk ÿ (0, ÿMSD] implica que f (ÿk) < 0, o que em vista de (3.17) implica ( 3.16). As desigualdades 0 <
ÿk ÿ ÿMSD em combinação com (3.17) implicam adicionalmente que

p
ÿ Cr r-1 r
ÿ (sk+1) ÿ ÿ (sk) ÿ f (ÿk) ÿ ÿÿk ÿk + ÿk ÿ MSD Ajÿ pÿ (ÿk) (3.20)
r

p
ÿ CrC0 p
ÿ
p
ÿ

= ÿÿk ÿk + ÿk ÿk = ÿC1ÿk ÿk < 0,


r

onde C1 := 1ÿCrC0/r > 0. O resultado acima é verdadeiro para cada método de gradiente primal com tamanho de
passo satisfazendo ÿk ÿ (0, ÿMSD] com 0 < C0 < r/Cr. Também vale para SD (em princípio não para ÿk = ÿSD no
termo mais à direita porque não sabemos se 0 < ÿSD ÿ ÿMSD, mas para um ÿk ÿ arbitrário (0, ÿMSD]). Agora, se
ÿk ÿ [cÿMSD, ÿMSD] com 0 < c < 1 sendo independente de k,

ÿ
r-1 ÿ
r-1
p p
ÿk ÿk ÿ cÿMSD ÿk

p ÿÿr(p ÿÿ1) ÿk
ÿ c rÿ1C0 ÿk
p ÿ(rÿ1) = c rÿ1C0 ÿk
r
,
r r
UMA UMA
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 29

ÿ ÿ
p r

o que implica que ÿk ÿk ÿk . De (3.20),


ÿ ÿ ÿ
ÿ ÿ
r p
ÿk ÿk ÿk ÿ (sk) ÿ ÿ (sk+1) ÿ ÿ (s0) < ÿ.
k=0 k=0 k=0

Segue que
ÿk ÿ 0 como k ÿ ÿ. (3.21)

Assim, existe uma constante C2 > 0 independente de k tal que ÿk ÿ C2. O resultado é verdadeiro para cada
método de gradiente primal com tamanho de passo ÿk no intervalo [cÿMSD, ÿMSD] com 0 < c < 1 fixo, mas
arbitrário. Embora não saibamos se a desigualdade cÿMSD ÿ ÿSD ÿ ÿMSD é verdadeira, (3.21) também é
garantida para o método SD porque (3.20) vale para este método com um ÿk ÿ arbitrário (0, ÿMSD] . Em
particular, (3.20) vale para SD com ÿk = ÿMSD por exemplo, o que implica (3.21).

ÿ
Finalmente, a desigualdade p ÿ r implica que p ÿ r (p ÿ ÿ 1) ÿ 0, o que por sua vez implica

r-1
p ÿÿr(p
ÿÿ1) ÿk C p ÿÿr(p ÿÿ1)
eu
MSD C0_ _ 2 ÿ C0 r .
UMA
r UMA

Escolhendo
C 0r ÿÿ1
2 C
r ÿÿp ÿ
ÿLW := r ÿ , (3.22)
UMA

concluímos que ÿLW ÿ (0, ÿMSD] e devido a (3.20), a desigualdade


ÿ
p
ÿ (sk+1) ÿ ÿ (sk) ÿ ÿC2ÿLW ÿk

é válido para o método LW. Como ÿLW é constante, a última desigualdade implica imediatamente (3.21).
Em resumo, provamos que:

• Se bem definido, o método SD sempre satisfaz (3.16). Além disso, se Y for


r-suave, então (3.21) vale.

• O método LW é bem definido, satisfaz (3.16), (3.20) e (3.21) sempre que Y é


rÿsuave e p ÿ r.

• Y rÿsuave implica que cada método de gradiente primal com tamanho de passo ÿk ÿ [cÿMSD, ÿMSD] e 0 < c
< 1 (em particular, o próprio MSD) satisfaz (3.16), (3.20) e (3.21).

Lema 24 Sejam X e Y espaços de Banach e (sk)kÿN uma sequência gerada pelo método iterativo (3.15) com
s0 = 0. Suponha que (3.21) e (3.20) sejam válidos. Então existe uma constante C ÿ 0 tal que

1 r
lim r r
Pergunte - b (As ÿ b ÿ +Cb ), para todo s ÿ X. (3.23)
kÿÿ 1+C

Prova. De (3.21), é possível escolher uma subsequência ÿkj jÿN tal que ÿkj ÿ ÿm para m
ÿ kj . Seja s ÿ X um vetor arbitrário. Como ÿkj ÿ ÿÿ skj , segue da definição de subgradiente que

k jÿ1
(3.15) = ÿ (s) ÿ
ÿ skj ÿ ÿ (s) + ÿkj , skj ÿ ÿkj , s s
ÿm ÿkj , jÿ ÿ (ÿm)pÿ ÿkj ,
m=0

k jÿ1
ÿ
p
ÿ ÿ (s) + ÿm ÿm + ÿkj . s ,
m=0
Machine Translated by Google

30 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

e empregando (3.20) chegamos a

ÿ skj ÿ ÿ (s) + C ÿ (s0) ÿ ÿ skj + ÿkj . s ,

com C := 1/C1 > 0. Portanto

(1 + C) ÿ skj ÿ ÿ (s) + Cÿ (s0) + ÿkj . s.

Agora, (3.20) implica que (ÿ (sk))kÿN é uma sequência positiva decrescente, portanto convergente. Segue
que

1
lim ÿ (sk) = folha
kÿÿ jÿÿ 1
ÿ skj ÿ lim ÿÿ 1 + Cj ÿ (s) + Cÿ (0) + ÿkj . com

= [ÿ (s) + Cÿ (0)] .
1+C

3.1.2 Métodos de gradiente duplo


Começamos esta subseção usando uma motivação em espaços de Hilbert para introduzir um novo método,
que chamamos de método de Decremento de Erro (abreviado DE). Usando o melhor de nosso
conhecimento, um método semelhante foi introduzido por Fridman em [17] no contexto de problemas
lineares em espaços de Hilbert. Nesta situação particular, este método resulta no método do gradiente com
o erro decrescente mais rápido e esta é a razão pela qual foi chamado mais tarde, o método do Erro
Mínimo, ver por exemplo [41]. Tanto quanto sabemos, a adaptação do método DE para problemas não
lineares em espaços de Banach é uma novidade. + da equação linear As = b.
Suponha momentaneamente que exista uma solução s Defina
agora o método do gradiente sk+1 = sk ÿ ÿkÿk, com ÿk > 0 e ÿk sendo o gradiente de ÿ (s) = em sk, ou seja,
2
Como
ÿk = Aÿ ( Pergunte - bA idéia
- b). tamanho
principal
do passo
consiste
ÿk em
tal que
encontrar
a desigualdade
um limite superior
ÿk ÿ ÿk implique
calculável
a redução
ÿk > 0 para o
12

monotônica do erro em cada passo.

Usando a identidade de polarização (2.5) encontramos

1 +2
1 2 1 +2 1
2ÿ 2
sc+1 ÿ s
= + sk -s ÿ ÿkÿk = ÿ ÿk sk ÿ s +, ÿk + sk ÿ s k2 ÿk .
2 2 2

Desta forma,

1 +2
1 +2 2 2
sc+1 ÿ s
ÿ

sk -s = ÿÿk sk ÿ s +, ÿk + 1l k ÿk := g (ÿk). (3.24)


2 2 2

Observe que g (ÿk) < 0 se e somente se


2
sk ÿ s +, ÿk A (sk ÿ s +), Ask ÿ b ÿk Pergunte - b
ÿk < 2 2
=2 2
=2 2
.
ÿk ÿk

Concluímos que a escolha ÿk ÿ 0, ÿk com o tamanho do passo calculável

2
Ask ÿ b
ÿk := C0 2 ÿk (3.25)

e C0 < 2 implica que g (ÿk) < 0, como queríamos. Observe que C0 = 1 transforma ÿk no tamanho de passo
ótimo (no sentido de que o método resultante tem, dentre todos os métodos gradientes, o erro que diminui
com a velocidade máxima), que é obtido de g ÿk = 0. O método gradiente associado com o tamanho do
passo ÿk com C0 = 1 é apenas o erro mínimo
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 31

método introduzido em [17]. Note ainda que o step-size (3.25) é mais simples de ser calculado do que o
método Steepest Descent (3.19).
Para ampliar os resultados acima a fim de garantir sua validade para problemas não lineares em
espaços de Banach, são necessários resultados mais gerais como os mostrados na última subseção. Para
o ajuste adequado do método DE para K-REGINN, supomos para o restante desta subseção que X é um
espaço de Banach uniformemente liso e uniformemente convexo. Ambas as restrições juntas garantem
que o mapeamento de dualidade Jp : X ÿ Xÿ 1 < p < ÿ, é de valor único,
, contínua
contínuo,
dado
invertível
por J :eXÿ
com
ÿ Xÿÿ
inversão
ÿ= X.
ÿ1
=J ÿ ÿ
p p
Este resultado fornece livre acesso ao espaço dual Xÿ no sentido de que sempre é possível transferir um
vetor de X para seu espaço dual Xÿ , realizar uma iteração
estável.
e então retornar ao espaço original de forma

Além disso, assumimos a próxima suposição no problema inverso F (x) = y :

+
Suposição 1 (a) Existe uma solução x ÿ X da equação (3.1) satisfazendo

Bÿ x +, ÿp := v ÿ X : ÿp x +, v < ÿ ÿ D (F),

onde ÿ > 0 ep > 1 são números fixos e a distância de Bregman ÿp é definida em (2.19). (b) Todas as
funções Fj , j = 0, . . . , d ÿ 1, são continuamente
derivadas
Fr´echet
satisfazem
diferenciáveis em Bÿ (x +, ÿp) e suas

F (v) ÿ M para todo v ÿ Bÿ x +, ÿp ej = 0, . . . , d ÿ 1,


j

onde M > 0 é uma constante.


(c) (Condição do Cone Tangencial (TCC)): Existe uma constante 0 ÿ ÿ < 1 tal que

Fj (v) ÿ Fj (w) ÿ F j (w) (v ÿ w) ÿ ÿ Fj (v) ÿ Fj (w) ,

para todo v, w ÿ Bÿ (x +, ÿp) ej = 0, . . . , d - 1.

Antes de iniciar a análise em espaços de Banach mais gerais, nos detemos um pouco mais nos
espaços de Hilbert e observamos como seria possível empregar o método DE como iteração interna de K-
REGINN. Semelhante ao anterior, definimos a iteração sn,k+1 = sn,k ÿ ÿn,kÿn,k, n (Ansn,k ÿ bn), com An :=
F (xn) e bn := y[n ]ÿF[n] (xn). onde ÿn,k > 0 e ÿn,k = Aÿ [n]
Observe que o vetor mais adequado para ser aproximado na iteração interna não é s +, + ÿ xn. A razão é
bastante simples: se sn,kn = en, então xn+1 = xn + en = x +. but en := x Aplicando uma ideia
semelhante a (3.24), derivamos a igualdade

1 2 1 2 12l 2
ÿ

2 (3.26)
2 sn,k+1 ÿ um 2 sn,k ÿ um = ÿÿn,k sn,k ÿ en, ÿn,k + n,k ÿn,k

:= g (ÿn,k)

e concluir que g (ÿn,k) < 0 se e somente se

sn,k ÿ en, ÿn,k ÿn, k .


< 2 ÿn,k 2

Observe que o termo sn,k ÿ en, ÿn,k depende da informação indisponível en. Mas,

sn,k ÿ en, ÿn,k = An (sn,k ÿ en), Ansn,k ÿ bn (3.27)


= Ansn,k ÿ bn, Ansn,k ÿ bn ÿ Anen ÿ bn, Ansn,k ÿ bn ÿ Ansn,k ÿ
2
bn ÿ Ansn, k ÿ bn . Anne - bn .
Machine Translated by Google

32 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

1
Aplicando agora o TCC, Hipótese 1(c), e observando que bn ÿ veja (3.11), k = Ansn,k ÿ bn para
m
0, ..., kn, ,

+ +
Anen ÿ bn = F[n] x ÿ F[n] (xn) ÿ F [n] (xn)x
ÿ xn (3.28)
a
ÿ n bn ÿ µ Ansn, k ÿ bn .

Portanto
2
sn,k ÿ en, ÿn,k ÿ K1 Ansn,k ÿ bn ,

com K1 := 1 ÿ (que é positivo para µ ÿ (ÿ, 1)). Assim, ÿn,k ÿ 0, ÿn,k com
eles

2
Ansn,k ÿ bn
ÿn,k := 2K1 ÿn,k 2

implica sn,k+1 ÿ e < sn,k ÿ e .


Neste ponto, vemos claramente porque é importante observar a iteração externa e interna de K-
REGINN simultaneamente para este método. Um operador linear arbitrário A : X ÿ Y e um vetor
arbitrário b ÿ Y não necessariamente verificam (3.28). Na verdade, precisamos usar A = An e b = bn.

Veja que a monotonicidade do erro na iteração externa é herdada da iteração interna porque

+
= sn,kn ÿ e < ... < sn,0 ÿ e = xn ÿ x + .
xn+1 ÿ x

Observação 25 Para expandir as ideias acima para espaços de Banach mais gerais, precisamos
assumir que X é sÿconvexo para algum s > 1, o que nos deixa com duas abordagens possíveis. Na
primeira, assumimos que s = p, o que significa que o índice s coincide com o índice usado para definir
o mapeamento de dualidade Jp. Nesse caso, os números p e s nas desigualdades (2.22), (2.23),
(2.24) e (2.25) coincidem. Essa estrutura facilita fortemente a análise de convergência de K-REGINN
apresentada no Capítulo 4. No entanto, ao realizar os experimentos numéricos do Capítulo 5, estamos
interessados no uso dos espaços de Lebesgue L p (ÿ) com 1 < p < 2, que são não espaços p-
convexos, mas 2-convexos. Essa estrutura força o uso do mapeamento de dualidade normalizado J2
em L p (ÿ) ao invés da opção padrão Jp. A princípio, isso não é um grande problema, pois J2 pode ser
calculado em L p (ÿ) via (2.14). Mas os experimentos numéricos que fizemos sugerem que esta não é
a melhor abordagem para garantir boas reconstruções.

Para resolver este problema, uma abordagem alternativa e mais geral pode ser aplicada assumindo
que o espaço X é sÿconvexo com p ÿ s, o que possibilita o uso do mapeamento de dualidade Jp no
espaço sÿconvexo L p (ÿ ) (s = max {p, 2}). Por esse motivo, optamos por empregar essa abordagem
para desenvolver nossa teoria. Na verdade, esse procedimento resulta em uma teoria muito mais
complicada, mas, como recompensa, somos livres para usar um mapeamento de dualidade mais
adequado e esperamos alcançar reconstruções melhores em nossos experimentos numéricos no Capítulo 5.

Agora esclarecemos como usar os métodos de gradiente duplo em combinação com K-REGINN
em espaços de Banach. Assuma que X é uniformemente liso e sÿconvexo com algum s ÿ p.
Suponha que a atual iteração externa xn de K-REGINN esteja bem definida e defina o funcional
r
convexo ÿn (s) := Ans ÿ r1bniteração: ,
r > 1. Os métodos de gradiente duplo agora são definidos pela seguinte

Jp (zn,k+1) := Jp (zn,k) ÿ ÿn,kÿn,k, (3.29)

onde ÿn,k > 0, ÿn,k ÿ ÿÿn (sn,k) = Aÿ nJr (Ansn ,k ÿ bn), sn,k := zn,k ÿ xn e sn,0 := 0.
Observe que zn,0 = xn + sn,0 = xn assim como zn,kn = xn + sn,kn = xn+1. nós codificamos
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 33

Algoritmo 3 K-REGINN com iteração interna de gradiente duplo Entrada:


xN ; (y ÿj , ÿj ); Fj ; F d=ÿ0,1;. µ;
. . ÿ, Saída:
; p, r > xN
1; jcom
, j = yd
0, .ÿ. 1;
. , jÿj ÿ Fj (xN ) ÿ ÿ ÿj , j

:= 0; x0 := xN ; c := 0;
enquanto c < d faça
para j = 0 : d ÿ 1 do n :=
d + j; ÿj := y j
db
n ÿ Fj (xn); Um := F j (xn);

ÿ se b ÿ ÿ ÿj então xn+1 := xn;


n
c := c + 1; senão k := 0; sn,0 := 0;

escolha kmax,n ÿ N; repetir escolha ÿn,k

> 0 e ÿn,k ÿ Aÿ nJr(Ansn,k ÿ b zn,k := sn,k + xn;

d
n );

Jp(zn,k+1) := Jp(zn,k) ÿ ÿn,kÿn,k; ÿ


ÿ
sn,k+1 := J p (Jp(zn,k+1)) ÿ xn;
k := k + 1;

ÿ até b d
n ÿ Ansn,k < µ b xn+1 :=n ou k = kmax,n
xn + sn,k; c := 0;
fim se
fim para

:= +1;
terminar enquanto

xN := xdÿc;

K-REGINN com um método de gradiente duplo na iteração interna do Algoritmo 3. Os fragmentos destacados em
vermelho representam aqui a parte do algoritmo correspondente a (3.29).
Para imitar a identidade de polarização, que é necessária para derivar (3.26), mudamos o ÿ ·2 para a distância
funcional x + de Bregman ÿp (x +, ·). Suponha que7 xn ÿ Bÿ (x +, ÿp),
12

ou seja, ÿp (x +, xn) < ÿ. Tendo em vista (2.20), esta desigualdade implica que xn ÿ Cÿ,x+ , com

Cÿ,x+ := 2p
ÿ
x+ 1/
pÿp . (3.30)

Nosso objetivo agora é definir um tamanho de passo calculável ÿDE = ÿDE (n, k) > 0 tal que as desigualdades
0 < ÿn ,k ÿ ÿDE impliquem a monotonicidade do erro na iteração interna:

ÿp x +, zn,k+1 < ÿp x +, zn,k . (3.31)

Além disso, provamos que o tamanho do degrau ÿLW do método de Landweber e ÿMSD do método de Descida
mais íngreme modificada satisfazem a desigualdade exigida e, consequentemente, a propriedade de monotonicidade
(3.31) é garantida para esses métodos.
A definição de ÿDE depende de um limite uniforme em n e k para a sequência gerada (zn,k) n ÿ N, veja (3.32)
e (3.39). Mas para provar
0ÿkÿkn ,que isso

7 então todas as iterações externas


No Teorema 38, provaremos que se K-REGINN começa com x0 ÿ Bÿ x +, ÿp ,
xn pertencem à mesma bola, veja 4.10.
Machine Translated by Google

34 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

sequência é uniformemente limitada, é necessário usar a propriedade (3.31), que por sua vez depende
da definição de ÿDE. Esse raciocínio sugere que um argumento de indução é necessário para provar
todas essas propriedades ao mesmo tempo. Observe que zn,0 = xn ÿ Bÿ (x +, ÿp) e portanto zn,0 ÿ Cÿ,x+ .
Provamos agora por indução que

zn,k ÿ Cÿ,x+ (3.32)

ÿp (x +, zn,ÿ1) para
kn. Assuma
= 1, . .., que (3.32) vale para algum k < kn assim como ÿp (x +, zn,) < para k = 0, ...,
k.
A identidade de três pontos (2.21) é aplicada para substituir (3.26). Definição (3.29) em conjunto ÿ xn
com en = x + resulta

ÿp x +, zn,k+1 ÿ ÿp x +, zn,k = ÿp (zn,k, zn,k+1) (3.33)


+ Jp (zn,k+1) ÿ Jp (zn,k), sn,k ÿ en = ÿp (zn,k,

zn,k+1) ÿ ÿn, k ÿn,k, sn,k ÿ en =: g (ÿn,k).

Fazendo uso das propriedades do mapeamento de dualidade, obtemos, similarmente a (3.27),

ÿn,k, sn,k ÿ en = jr (Ansn,k ÿ bn), An (sn,k ÿ en) (3.34)


= jr (Ansn,k ÿ bn), Ansn,k ÿ bn ÿ jr (Ansn,k ÿ bn), Anen ÿ bn ÿ Ansn,k ÿ bn Anen
r r-1
ÿ bn . ÿ Ansn, k ÿ bn
ÿ ÿ
Como X é sÿconvexo, Xÿ é s ÿÿsuave e como p Cp ÿ,sÿ ÿs , existe uma constante positiva
(ver (2.24)) tal que

ÿp (zn,k, zn,k+1) = ÿp ÿ (Jp (zn,k+1), Jp (zn,k)) (3.35)


ÿ
p ÿÿs ÿ s

ÿ Cp ÿ,sÿ Jp (zn,k) Jp (zn,k+1) ÿ Jp (zn,k)


ÿ
p
ÿ Jp (zn,k+1) ÿ Jp (zn,k)
ÿ ÿ

C pÿs ÿ(pÿ1) ÿ ÿ
s s p p .
ÿ Cp ÿ,sÿ ÿ ÿ,x+ ÿ ÿn,k
n,k ÿn,k ÿn ,k

A última desigualdade é o ponto exato onde o limite (3.32) é usado. Nós impomos agora uma restrição
em ÿn,k : se for possível encontrar ÿn,k satisfazendo

ÿ ÿ !
r
C pÿs ÿ(pÿ1) ÿ ÿ

ÿ ÿ,x+
s s p
Cp ÿ,sÿ pÿÿ ÿn,k ÿ C0ÿn,k Ansn,k ÿ bn (3.36)
n,k ÿn,k n,k

para algum 0 < C0 < 1, juntando-o com (3.34) em (3.33) chegamos a


r-1
g (ÿn,k) ÿ ÿn, k Ansn,k ÿ bn [Anen ÿ bn ÿ (1 ÿ C0) Ansn,k ÿ bn] . (3.37)

A desigualdade acima é a chave para provar que g (ÿn,k) < 0 e é fundamental para nossa análise de
convergência no Capítulo 4. Observe que ela não depende do TCC (Suposição 1(c), página 31), mas se
o usarmos, juntamente com k < kn e a definição (3.11), obtemos como em (3.28) o limite

r
g (ÿn,k) ÿ ÿÿn,kC3 Ansn,k ÿ bn < 0, (3.38)

com C3 := 1 ÿ C0 ÿ ÿ/µ (que é positivo se ÿ < 1 ÿ C0 e ÿ/ (1 ÿ C0) < µ < 1). Essa desigualdade garante
que (3.31) vale e, portanto,

ÿp x +, zn,k+1 < ÿp x +, zn,k < ... < ÿp x +, zn,0 < ÿ.

Segue que zn,k+1 ÿ Cÿ,x+ , o que completa a prova por indução.


Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 35

Resta apenas encontrar ÿDE > 0 tal que (3.36) vale para todo ÿn ,k ÿ ÿDE. Olhando para
(3.36), vemos que este é o caso se

ÿDE := C1ÿDE,s ÿ C2ÿDE,p (3.39)

Onde
r(ÿ1)
Ansn,k ÿ bn ,
ÿDE, :=
ÿn,k
sÿ1 s-p pÿ1
com C1 := C 0 /Cs-1
p ÿ,sÿC e C2 := C ÿ,x+ 0 /Cpÿ1
p ÿ,sÿ .

Observação 26 Como zn,k ÿ x + = sn,k ÿ en, vem de (3.34) e (3.28),

+ a r
ÿ ÿn,k, sn,k ÿ en ÿ 1 ÿ µ .
ÿn,k zn,k ÿ x Ansn,k ÿ bn

Como as sequências (zn,k ÿ x +) kÿkn , n ÿ N, são uniformemente limitados, obtemos

r
Ansn,k ÿ bn ÿn,k .

Finalmente, p ÿ s implica Ansn,k ÿ bn r(sÿp)


ÿn,k sÿp e conseqüentemente

r(sÿ1) r(pÿ1)
Ansn,k ÿ bn Ansn,k ÿ bn .
s p
ÿn,k ÿn,k

Portanto, ÿDE,s ÿDE,p para todo n e k. Isso significa que ÿDE,s ÿDE ÿDE,p. Além disso, se uma constante
suficientemente pequena substituir a constante C1 na definição de ÿDE, então ÿDE = ÿDE,s pode ser escolhido e
a propriedade

ÿn ,k ÿ ÿDE =ÿ ÿp x +, zn,k+1 < ÿp x +, zn,k

ainda detém.

1 Ans ÿ bn r
Observação 27 Contanto que um minimizador s n+ de ÿn (s) = r existe e ÿn,k ÿ também é
+ + + := xn +s
(0, ÿDE], a sequência (ÿp (z n , zn,k))kÿkn com vinco z. De n n monotonicamente de
fato, procedendo como em (3.33) e (3.35),

+ +
n , zn,k+1 ÿ ÿp z n , zn,k ÿ h (ÿn,k) ÿp z

com

ÿ ÿ ÿ
ÿ
C pÿs ÿ(pÿ1)
ÿ ÿ,x+ s s
ÿ p p + .
h (ÿn,k) := Cp ÿ,sÿ n,k ÿn,k ÿn ,k ÿn,k ÿ ÿn, k ÿn,k, sn,k ÿ s n

Agora, como Ans n+ ÿ bn ÿ Anen ÿ bn , obtemos como em (3.34) e (3.28),

+ r
ÿn,k, sn,k ÿ s n
ÿÿ1ÿµ Ansn,k ÿ bn

De (3.36), segue que para todo ÿn,k ÿ (0, ÿDE] é verdade que

a r
h (ÿn,k) ÿ ÿ 1 ÿ C0 ÿ < 0.
m ÿn, k Ansn,k ÿ bn
Machine Translated by Google

36 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

Notar que

r(sÿ1) 1 s-r
Ansn,k ÿ bn ÿn,k
ÿDE,s s ÿ Ansn,k ÿ bn ,
EM

o que implica que


t
ÿDE Ansn,k ÿ bn , com t := s ÿ r > ÿr. (3.40)

Empregando o TCC (Suposição 1(c), página 31), vemos que

bn ÿ Anen ÿ bn ÿ Anen ÿ ÿ bn .

Conseqüentemente

M M
bn ÿ 1 eÿ1 x+ + Cÿ,x+ . (3.41)
ÿÿ ÿÿ

Assim, a sequência de resíduos (bn)nÿN é limitada. Desde a

sn,k ÿ zn,k + xn ÿ 2Cÿ,x+ , (3.42)

as sequências (sn,k) todo kÿkne conseqüentemente


n ÿ N. Isso implica(Ansn,k ÿ bn)umakÿkn
que existe são uniformemente
constante limitados
C4 > 0 independente de para
nek
tal que Ansn,k ÿ bn ÿ C4 para todo k ÿ kn e n ÿ N. Assim, como Ansn ,k ÿ bn ÿ µ bn para todo k = 0, ..., kn ÿ 1,

C 4ÿr µ s
s-r s .
ÿDE Ansn,k ÿ bn
ÿ bn
EM

Em particular, o método de Landweber com tamanho de passo (independente de k) definido por ÿLW := C5
s
bn onde C5, >
ÿLW0 é ÿuma pequena
(0, ÿDE constante, é bem adefinido
]. Conseqüentemente, como iteração
desigualdade (3.37) éinterna de para
satisfeita K-REGINN e satisfaz
este método.

Mesmo uma pequena constante em n e k pode ser usada como tamanho de passo de Landweber se s ÿ r, porque
nesse caso
s-r
ÿDE Ansn,k ÿ bn Da definição
ÿ C 4s-r. (3.43)

(3.29), podemos ver que

ÿ
sn,k+1 = J pÿ (Jp (xn + sn,k) ÿ ÿn,kÿn,k) ÿ xn

e como o método Steepest Descent é o método de gradiente cujo tamanho de passo minimiza o residual, a
maneira mais natural de definir o método Steepest Descent para os métodos de gradiente duplo parece ser
escolher um tamanho de passo que satisfaça
ÿ
ÿSD ÿ arg min ÿn J pÿ (Jp (xn + sn,k) ÿ ÿÿn,k) ÿ xn . (3.44)
ÿÿR+

Se tal número existe, segue-se imediatamente que


ÿ

ÿn (sn,k+1) ÿ ÿ J pÿ (Jp (xn + sn,k) ÿ ÿÿn,k) ÿ xn

para todo ÿ ÿ 0 e, em particular, Ansn,k+1 ÿ bn ÿ Ansn,k ÿ bn é obtido escolhendo ÿ = 0. No entanto, é difícil


encontrar uma expressão explícita para ÿSD . Mesmo desigualdades simples envolvendo ÿSD não são fáceis
de serem obtidas. Infelizmente não fomos capazes de provar que ÿSD ÿ (0, ÿDE] para incluí-lo em nossa
análise de convergência do Capítulo 4. Mas, o método Modified Steepest Descent definido em (3.18) pode
ser útil aqui, porque já possui um passo explícito -size. No entanto, para os métodos duais é conveniente
alterar seus expoentes.
Observe que para ÿ {p, s} ,

p ÿr ÿ(ÿ1) = Jp ÿ ÿ(ÿ1) ÿ r ÿ(ÿ1) ÿ


ÿn,k ÿ (ÿn,k), ÿn,kr = AnJ p (ÿn,k), jr (Ansn,k ÿ bn) r(ÿ1)
ÿ r ÿ(ÿ1)
ÿ AnJ p ÿ (ÿn,k) Ansn,k ÿ bn ,
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 37

e, portanto,
p ÿr ÿ(ÿ1)ÿ r(ÿ1)
ÿn,k Ansn,k ÿ bn .
ÿ
r ÿ(ÿ1)
AnJ ÿp ÿ (ÿn,k) ÿn,k

Assim, definindo8
ÿMSD := K1ÿMSD,s ÿ K2ÿMSD,p (3,45)
com
p ÿr ÿ(ÿ1)ÿ
ÿn,k
ÿMSD, := r ÿ(ÿ1) ,
AnJ ÿp ÿ (ÿn,k)

0 < K1 ÿ C1 e 0 < K2 ÿ C2, concluímos que ÿMSD ÿ ÿDE e a desigualdade (3.37) vale automaticamente
para este método. Observamos que este tamanho de passo ainda coincide com o do método Steepest
Descent (3.19) em espaços de Hilbert se p = s = r = 2 e K1 = K2 = 1,9
Avançar
p ÿr ÿ(ÿ1)ÿ
ÿn,k ÿMSD, ÿ Mr t
ÿ(ÿ1) ÿn,k ÿ ( ÿ 1) ÿ ÿ ÿ1 > ÿr. Agora, se ÿ(ÿ1) ÿn,k ,
(p ÿÿ1)r
ÿ r (ou seja, se p ÿ s ÿ r),

concluímos que com t := rt ÿ 0, o que implica que

t
ÿMSD Ansn,k ÿ bn , com ÿ r < t ÿ 0. (3.46)

Usando o mesmo argumento usado para o método DE (ver (3.43)), concluímos que
t
ÿMSD C 4, (3.47)

onde C4 > 0 é um limite superior uniforme para Ansn,k ÿ bn .


Investigamos agora qual deve ser o tamanho de passo ideal para os métodos de gradiente duplo.
Definindo o vetor zn,ÿ ÿ X como

Jp (zn,ÿ) := Jp (zn,k) ÿ ÿÿn,k,

pretendemos encontrar um tamanho de passo ÿ = ÿopt tal que o método de gradiente dual correspondente
minimize f (ÿ) := ÿp (x +, zn,ÿ) ÿ ÿp (x +, zn,k), produzindo um dual método de gradiente com o erro
decrescente mais rápido na iteração interna de K-REGINN. Olhando para a identidade de três pontos
(2.21), vemos que essa diferença pode ser escrita como
+
f (ÿ) = ÿp (zn,k, zn,ÿ) + Jp (zn,ÿ) ÿ Jp (zn,k), zn,k ÿ x
1 1 ÿ
+
= p p
zn,k ÿ Jp (zn,ÿ), zn,k + ÿ Jp (zn,ÿ) ÿ ÿ ÿn,k, zn,k ÿ x
p p
1 1 ÿ
= p p
zn,k ÿ Jp (zn,k) ÿ ÿÿn,k, zn,k + ÿ Jp (zn,k) ÿ ÿÿn,k
p p
+ .
ÿ ÿ ÿn,k, zn,k ÿ x
1 ·p
ÿ

A suavidade uniforme de Xÿ implica a diferenciabilidade de Fr´echet da regra da p


ÿ . Aplicando
cadeia, obtemos
+
f (ÿ) = ÿn,k, zn,k ÿ Jp ÿ (Jp (zn,k) ÿ ÿÿn,k), ÿn,k ÿ ÿn,k, zn,k ÿ x = ÿ ÿn ,k, Jÿ ÿ (Jp (zn,k) ÿ
+
ÿÿn,k) ÿ x p ,

8O tamanho do passo do método MSD é definido de forma ligeiramente diferente para os métodos primal e dual gradient.
O mesmo ocorre com o método LW. No entanto, mantemos a mesma notação ÿMSD e ÿLW para esses tamanhos de passo
em ambas as situações.
9
Em espaços de Hilbert, Cpÿ,sÿ = 1/2 pode ser escolhido e, portanto, a única restrição que temos é 1 = K ÿ
C = C0/Cpÿ,sÿ = 2C0, = 1, 2. Isso significa que a desigualdade 1/2 ÿ C0 < 1 precisa ser observada.
Machine Translated by Google

38 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

o que torna evidente que f é contínua. De (3.28) e (3.34),

+ r <0
f (0) = ÿ ÿn,k, zn,k ÿ x ÿÿÿ1ÿµ Ansn,k ÿ bn

na iteração interna de K-REGINN. Avançar,

Jp (zn,k) ÿ ÿÿn,k ÿ ÿ ÿn,k ÿ Jp (zn,k) ÿ ÿ como ÿ ÿ ÿ,

que em vista de (2.20) implica que ÿp (x +, zn,ÿ) = ÿp ÿ (Jp (zn,ÿ), Jp (x +)) não pode permanecer ilimitado à
medida que ÿ cresce até o infinito. Segue que f (ÿ) ÿ ÿ como ÿ ÿ ÿ e como f é contínua, ela precisa ser
crescente pelo menos em um pequeno intervalo aberto. A derivada de f é, portanto, positiva neste intervalo e
como é uma função contínua e f (0) < 0, existe um ÿ = ÿopt > 0 tal que f (ÿopt) = 0. A unicidade de ÿopt decorre
da injetividade de f : deixe ÿ1, ÿ2 ÿ R satisfazer f (ÿ1) = f (ÿ2). Assumindo que ÿ1 = ÿ2 derivamos da
monotonicidade estrita do mapeamento de dualidade em espaços de Banach estritamente convexos a
contradição

0 = (ÿ1 ÿ ÿ2) f (ÿ1) ÿ f (ÿ2) = (ÿ1 ÿ ÿ2)


ÿ

ÿn,k, Jÿ ÿ (Jp (zn,ÿ2 )) ÿ pJ pÿ (Jp (zn,ÿ1 ))


ÿ

= (Jp (zn,k) ÿ ÿ2ÿn,k) ÿ (Jp (zn,k) ÿ ÿ1ÿn,k), Jÿ ÿ (Jp (zn,ÿ2 p))ÿ J pÿ (Jp (zn,ÿ1 ))
ÿ

= Jp (zn,ÿ2 ) ÿ Jp (zn,ÿ1 ), Jÿ ÿ (Jp


p (zn,ÿ2 )) ÿ J pÿ (Jp (zn,ÿ1 )) > 0.

É claro que ÿopt é um minimizador de f porque f é negativo em zero e positivo para valores grandes.
Além disso, o minimizador único ÿopt resolve a equação não linear
+ = 0.
ÿn,k, Jÿ pÿ (Jp (zn,k) ÿ ÿoptÿn,k) ÿ x (3.48)

Usando novamente a identidade de três pontos, concluímos que para zn,k+1 := zn,ÿopt , ÿp
+
x +, zn,k+1 ÿ ÿp x +, zn,k = ÿÿp (zn,k+ 1, zn,k) + Jp (zn,k+1) ÿ Jp (zn,k), zn,k+1 ÿ x = ÿÿp (zn,k+1, zn,k) ÿ
+
ÿopt ÿn, k, zn,k+1 ÿ x

e consequentemente

ÿp x +, zn,k+1 ÿ ÿp x +, zn,k = ÿÿp (zn,k+1, zn,k).

Uma fórmula explícita para ÿopt é difícil de conseguir e calcular ÿopt, mesmo numericamente, é muito
desafiador, pois a equação não linear (3.48) depende da informação indisponível x +. É fácil confirmar que
2
ÿopt = ÿn,k, sn,k ÿ en / ÿn,k em espaços de Hilbert, o que ainda depende da deixa
informação
poucaindisponível
esperança para
x +. Isso
determinar exatamente ÿopt para problemas não lineares usando apenas as informações disponíveis10. No
entanto, usando a propriedade (3.48), um limite inferior para ÿopt pode ser obtido:

+
ÿopt ÿn,k, zn,k ÿ x = ÿ ÿoptÿn,k, zn,k+1 ÿ zn,k = Jp
(zn,k+1) ÿ Jp (zn,k), zn,k+1 ÿ zn,k = ÿp (zn,k
+1, zn,k) + ÿp (zn,k,zn,k+1) = ÿp ÿ (Jp (zn,k),
Jp (zn,k+1)) + ÿp ÿ (Jp (zn ,k+1), Jp (zn,k)).

A desigualdade (3.31) obviamente vale para k = 0, ..., kn ÿ 1 e, portanto, o limite uniforme (3.32) é verdadeiro.
Procedendo como em (3.35), obtemos
+
ÿopt ÿn,k, sn,k ÿ en = ÿopt ÿn,k, zn,k ÿ x pÿs ÿ(pÿ1)
ÿ ÿ

ÿl p
ÿ
s s pÿ .
ÿ 2Cp ÿ,sÿ C ÿ ÿ,x+
opt ÿn,k opt ÿn,k
2 2
10Em espaços de Hilbert, a última expressão se reduz ao tamanho do passo calculável ÿopt = Ask ÿ b / ÿk
E se

o problema (3.1) é linear, veja (3.25).


Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 39

Desta forma

s-1 p-1
1 ÿn,k, sn,k ÿ a ÿn,k 1 ÿn,k, sn,k ÿ a ÿn,k
ÿopt ÿ ÿ .
2 s-1C s-1 s-p s p
2 pÿ1C pÿ1
p ÿ,sÿC ÿ,x+ p ÿ,sÿ

Finalmente, de (3.34) e (3.28) obtemos, como na Observação 26,


s-1 p-1 s-1
1 ÿ n/m 1 ÿ n/m 1 ÿ n/m
ÿopt ÿ C1ÿDE.s ÿ C2ÿDE,p ÿ ÿDE.
2 2 2

Observação 28 Infelizmente, não sabemos se ÿopt ÿ ÿDE deve incluir este método na análise de
convergência do Capítulo 4. No entanto, como ÿopt minimiza f, podemos concluir que

r
ÿp x +, zn,ÿopt ÿ ÿp x +, zn,k = f (ÿopt) ÿ f (ÿDE) (3.38) ÿ ÿC3ÿDE Ansn,k ÿ bn ,

o que é suficiente para provar que a iteração interna de K-REGINN termina (kn < ÿ) e, consequentemente,
a propriedade de monotonicidade (3.31), bem como o limite (3.32), é transferido para a iteração externa,
veja Teorema 38. Isso implica que em convergência mínima fraca vale para este método, ver Corolário 41.

Terminamos esta subseção discutindo como os métodos de gradiente dual se parecem quando kmax
= 1 é usado (ver (3.12)). Neste caso, K-REGINN realiza apenas uma iteração interna a cada iteração
externa sempre que a desigualdade (3.9) não for verificada. Segue que
ÿ

Jp (xn+1) = Jp (zn,1) = Jp (zn,0) ÿ ÿn,0A n jr (Ansn,0 ÿ bn)


ÿ

= Jp (xn) ÿ ÿn,0F [n] (xn) jr F[n] (xn) ÿ y[n ]

Concluímos que este procedimento é equivalente a aplicar um método de gradiente duplo diretamente ao
sistema não linear (3.6). Assim, a convergência de K-REGINN usando esses métodos como iteração
interna implica em particular a convergência de uma versão Kaczmarz dos próprios métodos de gradiente
duplo. Analogamente, a iteração

ÿ ÿ

xn+1 = xn ÿ ÿn,0j F
pÿ [n] (xn) Jr F[n] (xn) ÿ y[n]

representa os métodos de gradiente primário no caso kmax = 1.

3.1.3 Métodos de Tikhonov


O sistema linear Ans = bn freqüentemente herda a má postura da equação não linear F[n] (xn) = y[n] .
Portanto, é crucial aplicar uma técnica de regularização para reconstruir aproximações estáveis. O plano
nesta subseção é empregar a regularização de Tikhonov [51] ao referido sistema linear para gerar a
iteração interna de K-REGINN. Para aliviar a notação, esquecemos K-REGINN mais uma vez e pulamos o
índice n da iteração externa por um tempo. Sejam X e Y espaços de Banach, A: X ÿ Y linear eb ÿ Y fixo.

+
Defina para cada k ÿ N0, o funcional de Tikhonov Tk : X ÿ R 0 Como

1
Tk (s) := Como - b r + akÿ (s), (3.49)
r
+
com r > 1, ÿk > 0 e ÿ: X ÿ R sendo subdiferenciável
0 e satisfazendo (sm)mÿN limitado sempre que (ÿ
(sm))mÿN limitado. Defina agora a iteração de Tikhonov como

sk+1 ÿ arg min Tk (s), s0 = 0. (3,50)


sÿX
Machine Translated by Google

40 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

Algoritmo 4 K-REGINN com iteração interna de Tikhonov Entrada:


xN ; (e ÿj , ÿj ); Fj ; F(xN
d ÿ )1;ÿ µ; ÿ ;, rj =
ÿ ÿj > 0,
1; .j ., .j =
. .0,
. ....yd
..,.Saída:
ÿ. .1;. .j , ÿj
xNÿ com
Fj

:= 0; x0 := xN ; c := 0;
enquanto c < d faça para j =
0 : d ÿ 1 faça n := d + j;
ÿj := y j
dn
b
ÿ Fj (xn); Um := F j (xn);

d se bn ÿ ÿ ÿj então
xn+1 := xn; c := c + 1; senão
k := 0; sn,0 := 0; escolha
kmax,n ÿ N; repita escolha ÿn,k > 0 e ÿk :
XÿR
+
0 subdiferenciável;
1 d r
escolha sn,k+1 ÿ arg min r Resp - b n + ÿn,kÿk(s) ;
sÿX

k := k + 1;
d
ÿ até b n ÿ Ansn,k < µ b n ou k = kmax,n
xn+1 := xn + sn,k; c := 0;
fim se
fim para

:= +1;
terminar enquanto

xN := xdÿc;

O Algoritmo 4 exibe a combinação de K-REGINN com um método Tikhonov na iteração interna com as
partes correspondentes aos métodos Tikhonov destacadas em vermelho.
Para garantir a boa definição da iteração interna, o espaço X é assumido como reflexivo, condição suficiente
para a existência de um minimizador de Tk em (3.49) como veremos a seguir.

Observação 29 O termo de penalização ÿ é definido acima de uma forma relativamente geral.


Portanto, o funcional de Tikhonov (3.49) pode representar muitos funcionais diferentes e a iteração associada
(3.50) desempenha o papel de várias iterações baseadas em Tikhonov.
Nesta subseção analisamos quatro métodos diferentes, a saber, os métodos Tikhonov-Phillips e Iterated-
1 p
s-x
Tikhonov, onde ÿ (s) := para algum vetor fixo x ÿ X e ÿ (s) := respectivamente,
Bregman
bem,como
ÿ (s) :=
suas
ÿp (x
variações
+ s, x + x)
de
p
p
para algum x ÿ X 1fixo
p
se- ÿsk(s) = ÿp
provar
(x + s,algumas
x + sk) respectivamente.
propriedades destes
Embora
métodos,
a nossa
mantemos
principala intenção
análise oseja
mais
geral possível e apenas introduzimos os referidos métodos nos pontos específicos em que deles necessitamos.

A existência de um minimizador de Tk é assegurada no caso de X ser reflexivo como provamos agora.


De fato, seguindo as ideias de [48, Prop. 4.1], seja (sm)mÿN ÿ X uma sequência sat isfing Tk (sm) ÿ inf {Tk
e
(s) : s ÿ X} como m ÿ ÿ. Assim a sequência (Tk (sm))mÿN , consequentemente ÿ (sm) ÿ Tk (sm) /ÿk é limitada.
Segue que (sm)mÿN é limitado e como X é reflexivo, existe uma subsequência smj jÿN ÿ X tal que
+ e um vetor s
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 41

s+ como j ÿ ÿ. Daí Asmj ÿ b As+ ÿ b e como a função norma é smj inferior semicontínua,

As+ ÿ b ÿ lim inf Asmj ÿ b .


jÿÿ

Como ÿ é subdiferenciável, também é semicontínuo inferior. Portanto

Oh s + ÿ lim inf ÿ smj . jÿÿ

Ambos os resultados juntos provam que

+
Tk s ÿ lim inf Tk smj = lim jÿÿ Tk (sm) = inf Tk (s).
mÿÿ sÿX

Portanto s + é um minimizador de Tk como queríamos.


Utilizando a condição de otimalidade 0 ÿ ÿTk (sk+1) encontramos

0 ÿ A ÿJr (Pergunte+1 ÿ b) + ÿkÿÿ (sk+1),

ÿ
e conclui que existe uma seleção jr : Y ÿ Y e s k+1ÿ ÿ ÿÿ (sk+1) tal que

1 ÿ
ÿs
k+1
=ÿ
A jr (Pedir+1 ÿ b).
ÿk

Se o funcional ÿ for estritamente convexo, o minimizador de Tk é único e, consequentemente, sk+1 é único em


(3.50). Se ÿ é Gˆateaux-diferenciável em sk+1, a igualdade acima torna-se

1 ÿ
ÿ (sk+1) = ÿ A jr (Pedir+1 ÿ b),
ÿk

onde ÿ representa a derivada G de ÿ.


O método de Tikhonov-Phillips (TP) é definido pela escolha de uma sequência zero estritamente decrescente
1 p
s-x , de k.
(ÿk)kÿN e ÿ (s) := com p > 1 e x ÿ X sendop independente

Assuma a partir de agora que X é liso e estritamente convexo. A primeira restrição é ·p e conseqüentemente ÿ
equivalente à G-diferenciabilidade da segunda 1p (s) = Jp (s ÿ x). o
·p 1
,
restrição, por sua vez, é equivalente à convexidade estrita da qual implica que Tk é pestritamente convexo e,
portanto, o minimizador deste funcional é único. Escolhendo x := 0, o método TP resulta na iteração implícita

1 ÿ

Jp (sk+1) = ÿ
A jr (Pedir+1 ÿ b). (3.51)
ÿk

ÿ1
É fácil confirmar que sk+1 = (AÿA + ÿkI) Aÿ b em espaços de Hilbert (usando p = r = 2).
A definição (3.50) implica imediatamente que Tkÿ1 (sk) ÿ Tkÿ1 (0) para todo k ÿ N e como ÿ (0) = 0,

Pergunte ÿ b ÿ b . (3.52)

Usada como iteração interna de K-REGINN, a iteração (3.51) resulta em uma variação de Kaczmarz do
conhecido método de Levenberg-Marquardt [21]. K-REGINN com o uso do método TP na iteração interna e a
escolha x := x0 ÿ xn é transformada em uma versão Kaczmarz do IRGN (método Gauss-Newton regularizado
iterativamente, devido a Bakushinskii [3], ver também [29 ]). Observe que, se x = 0, então ÿ (0) = = 0, o que significa
1
x p para
que a desigualdade Tkÿ1 (sk) ÿ Tkÿ1 (0) sozinha não é suficiente (3.16)
garantir
pode ser
(3.52).
provada
Entretanto,
para este
a desigualdade
método, como
p
mostra o Lema 30 abaixo.

Uma variação do método TP é definida empregando a distância de Bregman em vez de p é então substituída
norma padrão em X. O funcional ·ÿx
por ÿ (s) := ÿp (x + s, x + x)
1p
Machine Translated by Google

42 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

onde x ÿ X é um vetor fixo. As restrições em X ainda garantem a estrita convexidade e G-diferenciabilidade


de ÿ neste caso. Além disso, ÿ (s) = Jp (x + s) ÿ Jp (x + x) e temos para esta variação,

1 ÿ
Jp (x + sk+1) = Jp (x + x) ÿ A jr (Pedir+1 ÿ b). (3.53)
ÿk

As duas variações do método TP coincidem para p = 2 sempre que X for um espaço de Hilbert, pois = ÿ2 (x
2
s-x novamente
a propriedade (3.52) 1decorre
2 + s, x + de
x). Tkÿ1
Semelhante
(sk) ÿ Tkÿ1
ao anterior,
(0). A desigualdade
x = 0 implica(3.16)
ÿ (0) =também
0 nestavale
situação
para e
este método, mesmo no caso de x = 0, como o próximo lema demonstra.

A primeira parte deste lema é uma generalização para espaços de Banach de [30, Theo. 2.16].

Lema 30 Sejam X e Y espaços de Banach com X sendo reflexivo, A: X ÿ Y linear, b ÿ Y e (ÿk)kÿN ÿ R uma
sequência positiva estritamente decrescente com ÿk ÿ 0 como k ÿ ÿ. Seja s0 ÿ X e

sk+1 ÿ arg min sÿX Tk (s)

com
1
Tk (s) := Como - b r + akÿ (s),
r
+
onde r > 1, ÿ: X ÿ R (ÿ (sm))mÿN0 é subdiferenciável e satisfaz (sm)mÿN limitado sempre que
limitado. Então (sk)kÿN é bem definido e satisfaz

Ask+1 ÿ b ÿ Ask ÿ b e ÿ (sk+1) ÿ ÿ (sk) (3.54)

para todo k ÿ N, onde as desigualdades acima são estritas no caso de Y ser estritamente convexo.
Além disso,
lim Ask ÿ b = inf Como - b (3,55)
kÿÿ sÿX

e conseqüentemente, a desigualdade (3.23) na Proposição 24 vale para C = 0.

Prova. Como mostrado no início desta subseção, existe um minimizador de Tk para cada k ÿ N0. Assim , sk e sk+1 estão bem definidos e preenchem as

condições de otimalidade 0 ÿ ÿTkÿ1 (sk) e 0 ÿ ÿTk (sk+1). Portanto, existe uma seleção jr do mapeamento de dualidade Jr, sÿ ÿ ÿÿ (sk) ÿ ÿÿ (sk+1) tal que e s k+1

k
ÿ

ÿ ÿ
ÿkÿ1s k = ÿA jr (Pergunte - b) e (3.56)
ÿ ÿ
k+1 = ÿA ÿks jr (Pedir+1 ÿ b).

Subtraindo a segunda equação da primeira e aplicando ambos os lados da igualdade resultante no vetor sk
ÿ sk+1,
ÿ ÿ ÿkÿ1 ÿ
sÿsk k+1, sk ÿ sk+1 + (ÿkÿ1 ÿ ÿk) s = jr (Ask+1 ÿ b) ÿ jr (Ask ÿ k+1, sk ÿ sk+1

b), A (sk ÿ sk+1).

Observe agora que A (sk ÿ sk+1) = ÿ [(Ask+1 ÿ b) ÿ (Ask ÿ b)] . Da monotonicidade do mapeamento de
dualidade (respectivamente a monotonicidade estrita no caso de Y ser um espaço estritamente convexo),
concluímos que o primeiro termo do lado esquerdo e o do lado direito da igualdade acima não são negativo
(resp. positivo) e não positivo (resp. negativo), respectivamente. Como ÿkÿ1 > ÿk, concluímos que s
ÿ

k+1, sk ÿ sk+1 ÿ 0 (resp. k+1, sk ÿ sk+1 < 0).


ÿs
Continuamos aplicando ambos os lados da segunda equação de (3.56) em
o vetor sk ÿ sk+1,
ÿ
0 ÿ ÿk s k+1, sk ÿ sk+1 = jr (Ask+1 ÿ b), A (sk+1 ÿ sk) = jr (Ask+1 ÿ b), Ask+1 ÿ b ÿ jr (Ask+1

ÿ b ), Pergunte ÿ b
r r-1
ÿ Pergunte+1 ÿ b ÿ Pergunte+1 ÿ b Pergunte - b ,
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 43

o que prova a primeira desigualdade em (3.54). Para provar a segunda, usamos apenas Tkÿ1 (sk) ÿ Tkÿ1 (sk+1) e
aplicamos a desigualdade recém-provada Ask+1 ÿ b ÿ Ask ÿ b.
Agora vamos para (3.55). Como (Ask ÿ b)kÿN é uma sequência não crescente, ela con ÿ X ser uma sequência
beiras. Seja > 0 e (sj ) satisfazendo jÿN

1 r r
Asj ÿ b 1 ÿ a := inf sÿX r Como - b como j ÿ ÿ.
r

Então existe um número J ÿ N tal que para todo j ÿ J e todo k ÿ N,

1 r 1
r
um ÿ Pergunte - b ÿ Pergunte - b + ÿkÿ1ÿ (sk)
r r
r
1ÿ Asj ÿ b + ÿkÿ1ÿ (sj ) ÿ a + + ÿkÿ1ÿ (sj ).
r

Em particular
r
1aÿ Pergunte - b ÿ a + + ÿkÿ1ÿ (sJ )
r

para todo k ÿ N. Desde ÿk ÿ 0 como k ÿ ÿ,

r
1a ÿ lim kÿÿ r Pergunte - b ÿa+.

Como > 0 é arbitrário, segue (3.55). A desigualdade (3,23) com C = 0 é justa (3,55).
Agora impomos algumas restrições na sequência (ÿk)kÿN a fim de provar uma desigualdade similar a (3.67) para
a variação de Bregman do método TP (3.53). Escolha 1 < ÿ < (r + 1) /r e assuma que

ÿkÿ1
1< ÿ ÿ, para todo k ÿ N. (3,57)
ak

Defina zk := x + sk e observe que a desigualdade Tkÿ1 (sk) ÿ Tkÿ1 (sk+1) implica

r r
ÿ Pergunte+1 ÿ b ÿ ÿ Pergunte ÿ b + rÿkÿ1ÿp (zk+1, x + x) + rÿÿkÿp
r
ÿ ÿ Pergunte ÿ b (zk+1, x + x),

Agora, como Tk (sk+1) ÿ Tk (x),

1 r
ÿkÿp (zk+1, x + x) ÿ Ax ÿ b
r

e com a ajuda de (2.21) e (3.54), obtemos para f (k) := ÿp (x +, zk)ÿ ÿp (x +, x + x) com


e := x ÿ x,+

+
f (k + 1) = Jp (zk+1) ÿ Jp (x + x), zk+1 ÿ x ÿ ÿp (zk+1, x + x)
1
=ÿ
jr (Ask+1 ÿ b), A (sk+1 ÿ e) ÿ ÿp (zk+1, x + x)
ÿk
1 r-1 r
ÿ Pergunte +1 ÿ b Ae ÿ b ÿ Ask+1 ÿ b ÿ ÿkÿp (zk+1, x + x)
ÿk
1 r-1 r
ÿ Pergunte +1 ÿ b Ae ÿ b ÿ Pergunte ÿ b + (rÿ ÿ 1) ÿkÿp (zk+1, x + x)
ÿk
1 r-1 r r
ÿ Pergunte - b Ae ÿ b ÿ Pergunte ÿ b + C2 Ax ÿ b ,
ak

com C2 := (rÿ ÿ 1) /r < 1. Para x := 0, x := xn, sk := sn,k, A := An e b := bn, o método TP torna-se

1 ÿ

Jp (zn,k+1) = Jp (xn) ÿ A n jr (Ansn,k+1 ÿ bn) (3,58)


ÿk
Machine Translated by Google

44 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

e a desigualdade acima toma a forma

ÿp x +, zn,k+1 ÿ ÿp x +, xn (3,59)
1 r-1 r
ÿ Ansn,k ÿ bn (Ann ÿ bn ÿ Ansn,k ÿ bn) + C2 bn
.
ak

Além disso, o vetor zn,k+1 em (3.58) é o único minimizador do funcional de Tikhonov

1 r
Tn,k (z) := An (z ÿ xn) ÿ bn + ÿkÿp (z, xn). (3,60)
r

Observação 31 A desigualdade (3.59) foi obtida usando apenas as condições de existência e unicidade de
um minimizador de (3.49) junto com as hipóteses do Lema 30. Na verdade, esses são poucos requisitos.
A sÿconvexidade de X, por exemplo, não é necessária nem para a boa definição do método TP nem para
provar (3.59) acima. O TCC (Suposição 1(c), página 31) também não é necessário.

As principais dificuldades em estudar a convergência de K-REGINN usando os métodos do tipo


Tikhonov Phillips como iteração interna surgem do fato de que a iteração sk+1 é realmente independente
da iteração anterior sk. Esse fato também indica que algumas informações são desperdiçadas durante a
iteração interna. Seria útil se pudéssemos contar com uma iteração semelhante a (3.29) dos métodos dual
gradient, onde a informação disponível sk é usada para gerar a atualização sk+1. Motivados por esses
fatos, introduzimos o método Iterated-Tikhonov (IT), onde a sequência (ÿk)kÿN é escolhida independente
de k , ou seja, ÿk = ÿ para todo k ÿ N. Em contraste, o funcional ÿ é dependente desta variável:
(s) :=ÿ(s)
. Então
= ÿk
de (3.50),
1 p
p
s - sk

1 ÿ
um
Jp (sk+1 ÿ sk) = ÿ jr (Pedir+1 ÿ b),
um

ÿ
para alguma seleção jr : Y ÿ Y . Adotando a variação da distância de Bregman

ÿk (s) := ÿp (x + s, x + sk),

com x ÿ X fixo, chegamos a

1 ÿ
Jp (x + sk+1) = Jp (x + sk) ÿ UMA
jr (Pedir+1 ÿ b). (3.61)
uma

A desigualdade Ask+1 ÿ b ÿ Ask ÿ b é uma consequência imediata de Tk (sk+1) ÿ Tk (sk). Além disso, Tk (sk+1) < Tk (sk) para sk+1 = sk
porque neste caso ÿk (sk+1) > 0 e, portanto, (3.16) se aplica. Como s0 = 0, a desigualdade (3.52) também é verdadeira.

Nosso objetivo agora é provar uma desigualdade semelhante a (3.37) para a variação de Bregman do
método IT. Da mesma forma que ocorre com os métodos de gradiente dual, esta propriedade precisa ser
provada por indução ao mesmo tempo com (3.31) e (3.32). Por esta razão, é necessário observar a
iteração interna e externa de K-REGINN simultaneamente. Considerado uma iteração interna de K-
REGINN, o método IT possui um parâmetro de regularização constante ÿ na iteração interna, mas pode
ser escolhido dependendo do índice n da iteração externa: ÿ = ÿn. Deixe a hipótese 1, página 31, verdadeira
e assuma que X é uniformemente suave e sÿconvexo com p ÿ s ÿ r. Defina agora x = xn, sk = sn,k, A = An,
b = bn e ÿ = ÿn em (3.61), o que resulta em

1
Jp (zn,k+1) = Jp (zn,k) ÿ
A nÿ jr (Ansn,k+1 ÿ bn), (3.62)
ÿn
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 45

com zn,k := xn+sn,k. Com essas definições, o vetor zn,k+1 ÿ X é o único minimizador do funcional de
Tikhonov
1 r
Tn,k (z) := An (z ÿ xn) ÿ bn + ÿnÿp (z, zn,k). (3.63)
r

Para provar (3.37), e com base na prova desta desigualdade para o método de gradiente dual DE
apresentada na última subseção, assumimos que 11 xn ÿ Bÿ (x +, ÿp) e observamos que isso implica que
com
ÿp ( x +, zn,0) = ÿp (x +, xn) < ÿ e consequentemente zn,0 ÿ Cÿ,x+ , sendo a constante Cÿ,x+ > 0 definida
em (3.30). Suponha agora por indução que para algum k ÿ N, os iterados internos zn,0, ..., zn,k são bem
definidos e satisfazem as desigualdades (3.31) e (3.32). Tudo o que precisamos para concluir a prova por
indução é que a desigualdade ÿp (x +, zn,k+1) < ÿp (x +, zn,k) vale. Para tanto, adaptamos ideias de
nossos trabalhos anteriores [39]. Aplicando a identidade de três pontos (2.21):

ÿp x +, zn,k+1 ÿ ÿp x +, zn,k = ÿÿp (zn,k+1, zn,k) (3.64)


+
+ Jp (zn,k+1) ÿ Jp (zn,k), zn,k+1 ÿ x
+
ÿ Jp (zn,k+1) ÿ Jp (zn,k), zn,k+1 ÿ x
1
=ÿ
jr (Ansn,k+1 ÿ bn), An (sn,k+1 ÿ en)
ÿn
1
=
jr (Ansn,k+1 ÿ bn),(Anen ÿ bn) ÿ (Ansn,k+1 ÿ bn)
ÿn
1 r-1 r
Ansn,k+1 ÿ bn Anen ÿ bn ÿ Ansn,k+1 ÿ bn .
ÿn_ _

Gostaríamos de ter o residual linearizado no kÿésimo iterado interno, Ansn,k ÿ bn, em vez de Ansn,k+1 ÿ
bn no termo mais à direita da desigualdade acima. Observe entretanto que, como o funcional ·r é convexo,

r rÿ1 r r
Ansn,k ÿ bn ÿ2 (Ansn,k+1 ÿ bn + An (sn,k+1 ÿ sn,k) ),

o que implica que

r r r
ÿ Ansn,k+1 ÿ bn 1ÿÿ2 Ansn,k ÿ bn + Senhor zn,k+1 ÿ zn,k . (3,65)
rÿ1

Para estimar o último termo do lado direito de (3.65) lembramos da definição ÿn,k = Aÿ
n jr (Ansn,k ÿ bn) e fazer uso da sÿconvexidade de X. Visto que Xÿ é s ÿÿsuave e como ÿ s
ÿ ÿ
p , segue de (2.25) e (3.32) que

ÿ ÿ

zn,k+1 ÿ zn,k = J pÿ (Jp (zn,k+1)) ÿ J pÿ (Jp (zn,k))


p ÿÿ1
ÿ Cp ÿ,sÿ Jp (zn,k+1) ÿ Jp (zn,k)

p ÿÿs ÿ s *ÿ1
ÿ Jp (zn,k) Jp (zn,k+1) ÿ Jp (zn,k)

pÿs ÿ(pÿ1)
1 C
ÿ p ÿÿ1 ÿ ÿ,x+ s ÿÿ1 ÿ
ÿ Cp ÿ,sÿ p ÿÿ1 ÿn,k+1 s ÿÿ1 ÿn,k+1
an ÿn
ÿ ÿ.

Como p ÿ s ÿ r, a desigualdade (r ÿ 1) (p ÿ ÿ 1) ÿ 1 ÿ 0 é verdadeira e como

Ansn,k+1 ÿ bn ÿ Ansn,k ÿ bn ÿ bn ,

11Semelhante ao método DE, esta propriedade precisa ser assumida para provar a desigualdade (3.32). Este fato
será provado mais adiante no Teorema 38.
Machine Translated by Google

46 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

segue que

p *ÿ1 ÿÿ1 (rÿ1)(p ÿÿ1)


ÿn,k+1 ÿ Mp Ansn,k+1 ÿ bn (rÿ1) (3,66)
ÿÿ1 (p ÿÿ1)ÿ1
ÿ MP bn Ansn, k ÿ bn .

Procedendo da mesma forma,


ÿ
com s ÿ
e usando neste momento a desigualdade (r ÿ 1) (s ÿ ÿ 1)ÿ
substituindo p 1 ÿ 0 chegamos a
r r r
Senhor zn,k+1 ÿ zn,k ÿ C (n) Ansn,k ÿ bn ,
com
ÿ
ÿ
(rÿ1)(p ÿÿ1)ÿ1 pÿs ÿ(pÿ1) (rÿ1)(s ÿÿ1)ÿ1
Cp ÿ,sÿC p,x+ EM bn
Cp ÿ,sÿMp bn .
C(n) := ÿ
p ÿÿ1 s ÿÿ1
ÿn ÿn

Escolha 0 < C0 < 2 ÿ1/rÿ e observe que C (n) ÿ C0 se e somente se ÿn ÿ ÿmin,n com

p-1 s-1 s-p r-s


r-p C
p ÿ,sÿMp bn p ÿ,sÿC ÿ,x+Ms bn
Cÿmin ,n := ÿ .
p-1
C0 C s-1
0

Portanto, para ÿn ÿ ÿmin,n,


r r r .
Senhor zn,k+1 ÿ zn,k 0 Ansn,k ÿ bn ÿ C

Inserindo em (3.65), (3.65) em (3.64) e usando a desigualdade

Ansn,k+1 ÿ bn ÿ Ansn,k ÿ bn

mais uma vez, obtemos

ÿp x +, zn,k+1 ÿ ÿp x +, zn,k (3,67)


1 r-1
Ansn,k ÿ bn (Ann ÿ bn ÿ C1 Ansn, k ÿ bn),
ÿn_ _

com C1 := 1/2 rÿ1ÿC r 0 > 0, que tem a mesma forma de (3.37) com ÿn,k = 1/ÿn. Empregando o TCC e

escolhendo cuidadosamente a constante µ, concluímos, como em (3.28) e (3.38), que o lado direito de
(3.67) é negativo, ou seja, ÿp (x +, zn,k+1 ) < ÿp (x +, zn,k), completando a prova de indução.

Observe que, a partir de TCC, pode-se provar que a sequência dos resíduos é limitada, ou seja, bn ÿ
C2 (ver (3.41)) e desde que p ÿ s ÿ r,

p-1 s-1 s-p r-s


r-p C
p ÿ,sÿMpC 2 p ÿ,sÿC ÿ,x+MsC 2
Cÿmin ,n ÿ ÿ =: ÿmin,
p-1
C0 C s-1
0

o que significa que a desigualdade ÿn ÿ ÿmin implica ÿn ÿ ÿmin,n. Escolhendo, por exemplo, ÿmax :=
Kÿmin com K > 1, concluímos que todos os resultados acima são válidos para

ÿn ÿ [ÿmin, ÿmax] . (3,68)

Em particular, a escolha ÿn =constante é possível.

Observação 32 Veja que, se um único passo for dado em cada iteração interna, ou seja, se kn = 1 sempre
que (3.9) não for válido (isso significa que kmax = 1 em (3.12)), então xn+1 minimiza

1 r
Tn (x) = y[n] ÿ F[n] (xn) ÿ F [n] (xn) (x ÿ xn) + ÿnÿp (x, xn).
r
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 47

Em espaços de Hilbert este funcional lê (com p = r = 2)

1 2
ÿn 2
Tn (x) = 2 y[n] ÿ F[n] (xn) ÿ F [n] (xn) (x ÿ xn) +2 x ÿ xn

revelando K-REGINN-IT como uma versão Kaczmarz do método Levenberg-Marquardt em espaços Ba


nach. No caso de um problema linear (Fj = Aj são lineares para todos os j's), temos

1 r
Tn (x) = y[n] ÿ A[n]x + ÿnÿp (x, xn)
r

e o método agora é uma versão Kaczmarz do método Iterated-Tikhonov definido em [26].

3.1.4 Métodos de gradiente misto-Tikhonov


Para aplicar um método de Tikhonov para gerar a iteração interna de K-REGINN como feito na última
subseção, é preciso minimizar um funcional de Tikhonov em cada etapa da iteração interna. Mas, mesmo
encontrar um minimizador aproximado para um funcional de Tikhonov normalmente não é uma tarefa
simples e encontrá-lo exatamente é quase impossível em espaços de Banach gerais. Motivados por esse
raciocínio, propomos empregar um método de gradiente duplo para minimizar iterativamente um funcional
fixo de Tikhonov e então usar a iteração resultante como iteração interna de K-REGINN. A vantagem
deste procedimento sobre uma iteração clássica de Tikhonov conforme apresentada na Subseção 3.1.3 é
clara: não pretendemos encontrar um minimizador de um funcional de Tikhonov. Apenas aplicamos um
método de gradiente duplo para melhorar iterativamente a iteração atual até encontrar um minimizador
aproximado bom o suficiente.
Assuma a hipótese 1 na página 31 e seja X uniformemente suave e sÿconvexo com
p ÿ s. Defina o funcional de Tikhonov

1 r
Tn (s):= Resp - bn + ÿnÿn (s), (3,69)
r

+ onde r > 1, ÿn > 0 e ÿn : X ÿ R é um funcional subdiferenciável satisfazendo


ÿ N fixo, a sequência (sm)mÿNa écondição
limitada 0sempre
: para cada n
que (ÿn
(sm))mÿ N é limitado. Esta condição garante a existência de um minimizador de Tn (veja o raciocínio no
início da última subseção). Defina agora

Jp (zn,k+1) := Jp (zn,k) ÿ ÿn,kÿTn,k, (3,70)

com zn,0 := xn, ÿn,k > 0 e


ÿ

ÿTn,k ÿ ÿTn (sn,k) = A nJr (Ansn,k ÿ bn) + ÿnÿÿn (sn,k)

com sn,k := zn,k ÿ xn. Veja Algoritmo 5 para uma implementação em pseudocódigo.
Como em cada iteração interna a atualização zn,k+1 é obtida seguindo a direção do gradiente de um
funcional de Tikhonov, esperamos obter uma estabilidade extra em comparação com os métodos de
gradiente regular, onde a direção do gradiente do residual linearizado é escolhido para atualizar a iteração
atual. Compare (3.70) e (3.29).
Aplicamos agora uma ideia similar àquela usada para derivar o método Decreasing Error na Subseção
3.1.2, a fim de provar as desigualdades (3.31) e (3.32) ao mesmo tempo. Assuma que xn ÿ Bÿ (x +, ÿp), o
que implica que zn,0 ÿ Cÿ,x+ , veja (3.30). Suponha por indução quezn,0,
para...,
algum
zn,k kestão
ÿ N, os
bemiterados
definidos e
satisfazem as desigualdades (3.31) e (3.32). Novamente, tudo o que precisamos para completar a prova
por indução é provar que a desigualdade ÿp (x +, zn,k+1) < ÿp (x +, zn,k) vale. Fazendo uso dos três
pontos identidade (2.21) e desigualdade (2.24) encontramos, como em (3.33) e (3.35),

ÿp x +, zn,k+1 ÿ ÿp x +, zn,k ÿ g (ÿn,k),


Machine Translated by Google

48 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

Algoritmo 5 K-REGINN com iteração interna gradiente-Tikhonov mista Entrada: xN ; (y


ÿj , ÿj ); Fj ; F d ÿ 1; µ;com
ÿ ; p,
ydr ÿ> 1;
1; jj , j = 0, . . . , ÿj ÿ Fj (xN ) ÿ ÿ ÿj , j = 0, . . . , Saída: xN

:= 0; x0 := xN ; c := 0;
enquanto c < d faça para j =
0 : d ÿ 1 faça n := d + j;
ÿj := y j
db
n ÿ Fj (xn); Um := F j (xn);
d se b ÿ ÿ ÿj então
n
xn+1 := xn; c := c + 1; senão
k := 0; sn,0 := 0; escolha kmax,n
+
ÿ N; ÿn > 0 e ÿn : X ÿ R repetir escolha ÿn,k > 0 e ÿTn,k ÿ Aÿ nJr(Ansn,k ÿ b 0 subdiferenciável;
zn,k := sn,k + xn;
d
n ) + ÿnÿÿn(sn,k);

Jp(zn,k+1) := Jp(zn,k) ÿ ÿn,kÿTn,k; ÿ


ÿ
sn,k+1 := J p (Jp(zn,k+1)) ÿ xn;
k := k + 1;

ÿ até b d
n ÿ Ansn,k < µ b xn+1 :=n ou k = kmax,n
xn + sn,k; c := 0; fim se

fim para

:= +1;
terminar enquanto

xN := xdÿc;

com
ÿ ÿ ÿ ÿ
pÿs ÿ(pÿ1) s s p p
C ÿ n,k ÿTn,k ÿ,x+ ÿ
g (ÿn,k) := ÿÿn,k ÿTn,k, sn,k ÿ en + Cp ÿ,sÿ ÿn ,k ÿTn,k

Observe agora que,

ÿ ÿ

ÿTn,k, sn,k ÿ en = A n jr (Ansn,k ÿ bn), sn,k ÿ en + ÿn s n,k, sn,k ÿ um ,

ÿ
com algum vetor s n,k ÿ ÿÿn (sn,k). Como em (3.34),

ÿ r r-1
UMA
n jr (Ansn,k ÿ bn), sn,k ÿ en ÿ Ansn,k ÿ bn ÿ Ansn, k ÿ bn Ana - bn ,

ÿ
e como s
n, k ÿ ÿÿn (sn,k), segue da definição de subgradiente que,
ÿ
s
n,k, sn,k ÿ en ÿ ÿn (sn,k) ÿ ÿn (en) ÿ ÿÿn (en).

Se um limite superior C3 > 0 para ÿn (en) for conhecido, ou seja, se

ÿn (um) ÿ C3 (3.71)

r
para todo n ÿ N, então escolhendo 0 < ÿn ÿ (C4/C3) bn com 0 < C4 < 1,
r r-1 r
ÿTn,k, sn,k ÿ en ÿ Ansn,k ÿ bn ÿ Ansn, k ÿ bn Anen ÿ bn ÿ C4 bn .
Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 49

Procedendo similarmente a (3.39), definimos ÿDE = ÿDE (n, k) como

ÿDE := C1ÿDE,s ÿ C2ÿDE,p (3,72)

com C1 e C2 como em (3.39) e ÿDE, sendo igual a ÿDE, mas com ÿTn,k substituindo ÿn,k, ou seja,

r(ÿ1)
Ansn,k ÿ bn .
ÿDE, :=
ÿTn,k

Assim, ÿn,k ÿ 0, ÿDE implica que

r-1 r
g (ÿn,k) ÿ ÿn, k Ansn,k ÿ bn (Anen ÿ bn ÿ C5 Ansn,k ÿ bn) + C4 bn . (3,73)

onde C5 = 1 ÿ C0. Veja que C5 > C4 > 0 se 0 < C0 < 1 ÿ C4.


A desigualdade (3.73) acima não foi alcançada usando nem o TCC nem a definição de kn.
No entanto, como veremos mais adiante no Teorema 38, se a constante ÿ no TCC for pequena o
suficiente e a constante µ que interrompe a iteração interna de K-REGINN for bem escolhida, então o
lado direito de (3.73) é negativo . Conseqüentemente, g (ÿn,k) < 0 e a prova por indução está completa.

Assumimos agora que os funcionais ÿn satisfazem a propriedade: ÿn (sn,k) é uniformemente limitado em n e k sempre que
(sn,k) é uniformemente limitado em n e k. Neste caso, como as sequências (sn,k)
0ÿkÿkn , n ÿ N são uniformemente limitados (ver (3.42)), segue que,

r 1 r
ÿn ÿn (sn,k) um bn ÿ Ansn,k ÿ bn
µr

para k = 0, ..., kn ÿ 1. Assim,


r-1
ÿTn,k ÿ M Ansn,k ÿ bn + ÿn ÿn (sn,k)
r-1 r
Ansn,k ÿ bn ÿ Ansn, k ÿ bn
r-1
Ansn,k ÿ bn ,

porque Ansn,k ÿ bn é uniformemente limitado (ver (3.41) e (3.42)). Consequentemente,


ÿr

ÿDE, Ansn,k ÿ bn

e, portanto,
s-r p-r s-r
ÿDE Ansn,k ÿ bn ÿ Ansn, k ÿ bn Ansn,k ÿ bn (3,74)

para k = 0, ..., kn ÿ 1.
ÿr
Similarmente a (3.43), pode-se provar para s ÿ r que ÿDE, C 6, onde C6 > 1 é um
limite superior para Ansn,k ÿ bn . Este raciocínio implica que o método de Landweber, com tamanho
de passo constante dado por
ÿr
ÿLW := C 6 , (3,75)

satisfaz ÿLW ÿ ÿDE, o que implica que a desigualdade (3.73) vale para este método.
1 p
Suponhamos a partir de agora que o funcional ÿn seja definido por ÿn (s) := p
s- xn , com
(xn)nÿN ÿ X sendo independente de k. Então a iteração (3.70) assume a forma
ÿ

Jp (zn,k+1) = Jp (zn,k) ÿ ÿn,k (A n jr (Ansn,k ÿ bn) + ÿnJp (sn,k ÿ xn)). (3,76)

Neste caso, como X é sÿconvexo e portanto estritamente convexo, ÿn também é estritamente convexo
e o minimizador de Tn, definido em (3.69), é único.
Machine Translated by Google

50 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN

1 p
Para encontrar um limite superior C3 para ÿn (en) = normalmentep eÿxn , um limite superior para
1 p
x+ precisa ser conhecido. Por exemplo, se xn := ÿxn, ou seja, ÿn (s) = p s+xn ,
p
então precisamos de um limite para ÿn (en) 1p
x+p . Se o funcional ÿn (s) = 1p s ÿ (x0 ÿ xn)
= é considerado, então

1 p 1 p
ÿn (e) =
+
x ÿ x0 ÿ x+ + x0 .
p p
+
(en) ÿ x xn ÿ Bÿ (x +, ÿp) é assumido.+ Cx+,ÿp /p vale no caso de ÿn (s) = O limite ÿn 1p
s p é escolhido e

Terminamos esta subseção dando um exemplo prático: considere a iteração (3.76) com xn := 0, que é
equivalente à iteração gradiente dual (3.70) aplicada ao funcional de Tikhonov

1 r p
Tn (s)= Resp - bn 1 + ÿn s .
r p
Se alguém quiser usar o método SD para minimizar iterativamente este funcional, é necessário definir o tamanho
do passo ÿn,k em (3.70) tal que o número Tn (sn,k+1) seja o menor possível.
Como
ÿ

sn,k+1 = J pÿ (Jp (sn,k + xn) ÿ ÿn,kÿTn,k) ÿ xn,


++ÿR00
concluímos que ÿn,k ÿ arg min h (ÿ), com h: R definido por
+
ÿÿR 0

h (ÿ) : = TnJ pÿ (Jp (sn,k + xn) ÿ ÿÿTn,k) ÿ xn .

É possível empregar agora um método iterativo para encontrar um minimizador de h se ele existir.
Embora D(h) ÿ R, este problema de otimização é muitas vezes difícil de ser resolvido e pode ser
computacionalmente caro, particularmente se o espaço de Banach Y tiver propriedades de convexidade e
suavidade ruins.
Nos espaços de Hilbert, no entanto, o uso da identidade de polarização (com p = r = 2) produz

2 litros + 2
1 2 2 2
h (ÿ) = Tn (sn,k ÿ ÿÿTn,k) = Tn (sn,k) ÿ ÿ ÿTn,k AÿTn,k + ÿn ÿTn,k .

Exigindo h (ÿSD) = 0, obtemos o tamanho do passo explícito


2
ÿTn,k
ÿSD = 2 2.
AÿTn,k + ÿn ÿTn,k

O resultado implica em particular que 1/ M2 + ÿn ÿ ÿSD ÿ 1/ÿn. Finalmente, da versão modificada da


desigualdade de Young12, segue-se que para todo a, b ÿ 0 e > 0,

2 2 2a b2 2 1+ 2
(a + b) ÿ um +2 + +b = 2a + (1 + )b .
2 2

Desta forma,

4 2 2
ÿTn,k = ÿTn,k, ÿTn,k 1 + = (AÿTn,k, Ansn,k ÿ bn + ÿn ÿTn,k, sn,k)

2 2 2 2 2
ÿ AÿTn,k Ansn,k ÿ bn + (1 + ) ÿn ÿTn ,k sn, k ,

para todo > 0. Agora, se


2
Ansn,k ÿ bn
n_ _ 2 ,
sn, k

12Para todo a, b ÿ 0 e > 0 vale: ab ÿ a 2 /2 + b2 /2.


Machine Translated by Google

3.1. RESOLVENDO A ITERAÇÃO INTERNA 51

segue que

4 1+ 2 2 2
ÿTn,k
ÿ Ansn,k ÿ bn AÿTn,k + ÿn ÿTn,k ,

e consequentemente,
2
1 + Ansn,k ÿ bn ÿSD ÿ
ÿTn,k 2
,

para todo > 0. Escolhendo 0 < ÿ 1/ (1 ÿ C0), encontramos (1 + ) / ÿ C0, o que implica que ÿSD ÿ ÿDE, veja
(3.72).
Machine Translated by Google

52 CAPÍTULO 3. O MÉTODO INEXATO DE NEWTON K-REGINN


Machine Translated by Google

Capítulo 4

Análise de Convergência de K-REGINN

Embora não consideremos neste capítulo nenhum método específico para gerar a iteração interna de K-
kÿN é requerido
REGINN, algumas propriedades da sequência de iteração interna (sn,k) na forma de suposições. Apenas
essas suposições são usadas para provar resultados gerais para a sequência de iteração externa (xn)nÿN .
Muitas dessas propriedades requeridas foram previamente comprovadas para as sequências geradas pelos
métodos apresentados na Seção 3.1, o que significa que essas sequências podem ser utilizadas como
iteração interna do K-REGINN e os respectivos resultados comprovados neste capítulo são assegurados
para estes métodos. Ressaltamos, no entanto, que qualquer sequência que satisfaça os requisitos
necessários assumidos neste capítulo pode ser usada como iteração interna de K-REGINN e todos os
respectivos resultados serão válidos para eles.
Assumimos novamente que apenas dados ruidosos estão disponíveis, ou seja, ÿ > 0 em (3.8) é dado. Para [n] ÿF[n] (xn).
d d[n]
enfatizar esse fato, adicionamos um sobrescrito ÿ no bn residual : b n =e

Lema 33 Sejam X e Y espaços de Banach com Y sendo liso. Deixe a Suposição 1 na página 31 ser
verdadeira e kn = kREG. Se xn é bem definido e kREG < ÿ, então sn,kn é uma direção de descida ÿ[n] para
o funcional ÿn (·) := F[n] (·) ÿ y de xn. [n]

d d
ÿ Prova. O resultado segue da Proposição 22 e Ansn,kn ÿ b < µ b < b ÿ[n] ÿ[n]n n n .

O lema acima mostra que F[n] (xn + tsn,kn ) ÿ y < F[n] (xn) ÿ y [n] [n] suficientemente para t > 0
pequeno. Mas, como
veremos mais adiante no Teorema 35, se as suposições corretas forem necessárias, então t = 1 pode ser
d[n] d[n]
usado e, consequentemente, F[n] (xn+1) ÿ y < F[n] (xn) ÿ y .
[n] [n]

4.1 Rescisão e residual decrescente qualificado


Para mostrar o término de K-REGINN, precisamos apenas de algumas restrições na sequência (sn,k) kÿN .
Tendo níveis.
esse objetivo em mente, usamos para os primeiros resultados uma análise baseada em conjunto de
O conjunto de níveis associado ao ponto x ÿD(F) é definido como

d d
£ (x) := x ÿ D (F) : Fj (x) ÿ y j ÿ Fj (x) ÿ y j , j = 0, ..., d ÿ 1 .

Para qualquer x ÿD(F), vale x ÿ £ (x) ex ÿ £ (x) =ÿ £ (x) ÿ £ (x).


No primeiro passo para a terminação de K-REGINN, provamos que kn é finito. Para
isso, exigimos a primeira suposição na sequência (sn,k) kÿN .

Suposição 2 Se a iteração xn de K-REGINN for bem definida, então existe uma constante
C ÿ 0 independente em n e k tal que
r 1 r r
d d d
lim Ansn,k ÿ b n ÿ Resp - b n +Cb n , para todo s ÿ X.
kÿÿ 1+C

53
Machine Translated by Google

54 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

A Suposição 2 é verdadeira se a sequência (sn,k) kÿN é gerado a partir do seguinte


métodos:

• Cada método de gradiente primal, definido por iteração (3.15), apresentado na Subseção 3.1.1, com
tamanho de passo ÿk ÿ [cÿMSD, ÿMSD] e 0 < c < 1, onde ÿMSD é definido em (3.18) (isso inclui o
próprio método MSD) e assumindo que Y[n] é rÿsuave (ver Lema 24).

• O método gradiente primal LW, definido pela iteração (3.15) com o tamanho do passo constante
(3.22) e com o requisito adicional p ÿ r. Para este método, também assumimos as hipóteses do
Lema 24. Em particular, o espaço Y[n] precisa ser rÿsuave.

• O método Tikhonov-Phillips apresentado na Subseção 3.1.3 sob as hipóteses de


Lema 30.

Não provamos esta propriedade para os métodos de gradiente duplo, Iterated-Tikhonov e métodos de
gradiente misto-Tikhonov. Portanto, os resultados mostrados nesta seção, baseados na Suposição 2
acima, não são, em princípio, garantidos para esses métodos. No entanto, as desigualdades (3.37), (3.67)
e (3.73) são fortes o suficiente para garantir não apenas os resultados desta seção, mas também os
resultados mais fortes da próxima (ver Teorema 38 abaixo).
A suposição 2 é uma versão mais fraca da

d d
lim Ansn,k ÿ b n = inf Resp - b n ,
kÿÿ sÿX

que é equivalente a 1
d
lim n
kÿÿ Ansn,k = PR(An) b

em espaços de Hilbert. Esta última propriedade é exatamente a Assunção (2.2) em [36], usada para provar
[36, Lema 2.3], que é uma versão similar da próxima proposição. A suposição 2 combinada com uma
escolha cuidadosa de µ implica que a iteração interna para após um número finito de iterações.

Proposição 34 Assuma a Assunção 2 e que o iterado xn esteja bem definido. Suponha ainda que o TCC
(Suposição 1(c), página 31) vale para xn, x+ e F[n] . Então para ÿ > (1 + ÿ) / (1 ÿ ÿ) e µ ÿ (µmin, 1) com

r
1+n +C
t +n
r
µ min := ,
1+C

o índice de parada kn é finito.

Prova. ÿ < 1 juntamente com a restrição em ÿ implicam (1 + ÿ) /ÿ + ÿ < 1, o que por sua vez implica que o
intervalo de escolha do parâmetro µ não é vazio. Se a desigualdade (3.9) for ÿ xn, use (3.7) e satisfeito,
contrário, b o TCC para obter
d + então kn = 0. Caso
n > ÿ ÿ[n] e definimos en := x

d d[n] +
Anen- b n y[n] + F[n] x [n]ÿ F[n] (xn) ÿ F [n] (xn) x = y [n] ÿ[n] ÿ y ÿ
ÿ xn (4.1)
+ + ÿ xn
ÿ F[n] (xn) ÿ F [n] (xn) x
+
ÿ ÿ[n] + ÿ F[n] x ÿ F[n] (xn)
d 1+ÿ d
ÿ ÿ[n] + ÿ ÿ[n] + b n < +ÿb n .
t

1PR(An) : Y ÿ Y é a projeção ortogonal em R (An).


Machine Translated by Google

4.1. TÉRMINO E RESÍDUO DECRESCENTE QUALIFICADO 55

Agora, aplicamos a hipótese 2 com s = en para provar


r 1 r r
lim d d +Cb d
Ansn,k ÿ b n ÿ Anen- b n n
kÿÿ 1+C
r
1+n +C
t
+n r r
ÿ bd < µr b
d
,
n n
1+C

o que significa que kn ÿ kREG < ÿ.


Nas hipóteses da proposição acima, concluímos que xn bem definido implica xn+1 bem definido, ou
seja, a iteração interna termina. O próximo teorema mostra que a iteração externa também termina após
um número finito de iterações se d = 1 (apenas uma única equação em (3.6) é considerada) e kn = kREG.
Este teorema é uma adaptação de [36, Theo. 2.8].

Teorema 35 (Terminação) Sejam X e Y espaços de Banach com Y sendo liso. Seja D(F) aberto, d = 1, kn
= kREG e suponha que a hipótese 2 seja verdadeira. Suponha adicionalmente que a Suposição 1 na
página 31 seja verdadeira com Bÿ (x +, ÿp) substituído por £ (x) para algum x ÿ X fixo e comece com x0 ÿ
£ (x). Além disso, assuma que a constante ÿ no TCC (Suposição 1(c)) é pequena o suficiente para
satisfazer a desigualdade

ar + C r
< (1 ÿ 2ÿ) (4.2)
1+C

e a constante ÿ no princípio da discrepância (3.13) é grande o suficiente para verificar a desigualdade


r
1+n r
+n + C < (1 + C) (1 ÿ 2ÿ) . (4.3)
t

Defina agora as constantes 0 < µmin < µmax < 1 como


r
1+n +
t
+n
r
mmin := C , µmax := 1 ÿ 2ÿ (4.4)
1+C

e selecione µ ÿ (µmin, µmax). Então, existe uma constante 0 < ÿ < 1 tal que:

1. todos os iterados de REGINN são bem definidos e pertencem ao conjunto de nível £ (x0) , desde que
o princípio da discrepância (3.13) não é satisfeito;

2. existe N = N (ÿ) ÿ N satisfazendo (3.13) e


d
ln(t d/ b 0
N< ) + 1; (4.5)
ln L

3. o residual tem o comportamento decrescente qualificado

d
dbn + 1
ÿÿb n (4.6)

para n = 0, ..., N ÿ 1.

Prova. Primeiro discutimos as escolhas das constantes. Veja isso


1 1
a r +C r C r
lim + 2º = < 1,
ÿÿ0+ 1+C 1+C

o que implica que (4.2) é verificado desde que ÿ seja suficientemente pequeno. Agora, devido à restrição de
a,
r
1+n +C
+n r +C
t
= a < (1 ÿ 2ÿ)
r
limÿÿÿ 1+C 1+C
Machine Translated by Google

56 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

e, portanto, verifica-se a desigualdade (4.3) sempre que ÿ for grande o suficiente. Além disso, a
restrição em ÿ implica que as constantes µmin e µmax em (4.4) são bem definidas e, portanto, o
intervalo para escolher a tolerância µ não é vazio. Finalmente, escolhendo ÿ ÿ R satisfazendo

n (1 + µ)
+1ÿn < ÿ < 1, µ

observamos que a restrição µ < µmax implica que µ + ÿ (1 + µ) / (1 ÿ ÿ) < 1. Portanto ÿ está bem
definido. Além disso, como 1 ÿ 2ÿ < 1, também temos ÿ > (1 + ÿ) / (1 ÿ ÿ) e a Proposição 34 se aplica.

Usamos agora um argumento indutivo: x0 está bem definido e pertence a £ (x0). Suponha que xn
itera x0, ..., desigualdade (4.6).
com n Daÿ Proposição
N ÿ 1, sejam34,
bemkn definidos,
< ÿ e conseqüentemente
pertençam a £ (x0)
xn+1e =satisfaçam
xn + sn,knque
está
bem definido. Provamos a seguir que xn+1 ÿD(F) e a desigualdade (4.6) vale para este vetor, o que
provará que xn+1 ÿ £ (x0). De fato, para cada t ÿ R defina o vetor

xn,t := xn + tsn,kn ÿ X

e veja que para cada t ÿ R tal que xn,t ÿ £ (x) ÿD(F), é verdade que (ver Suposição 1(c))

a
F (xn,t) ÿ F (xn) ÿ F (xn) (xn,t ÿ xn) ÿ 1 ÿ ÿ ÿ = F (xn) (xn,t ÿ xn)
t1ÿÿ

F (xn) sn,kn ,

e da definição (3.10) de kREG,

d d
F (xn) sn,kn ÿ b n d ÿ b n ÿ F (xn) sn,kn < µ b n,

d . Segue que
o que implica que F (xn) sn,kn < (1 + µ) b n

d d d + tb
F (xn,t) ÿ y ÿ (1 ÿ t) b n n ÿ F (xn) sn,kn (4.7)

+ F (xn,t) ÿ F (xn) ÿ F (xn)tsn,kn ÿ (1 +


d µ) + t 1 ÿ
< (1 ÿ t) b n ÿ + tµ b n ÿ ÿ (1 + µ) = db
n
1ÿt1
ÿµ+1ÿÿ d .
db
n ÿ [1 ÿ t(1 ÿ ÿ)] b n

para cada t ÿ [0, 1] tal que xn,t ÿ £ (x). Deixei

tmax := sup {t ÿ [0, 1] : xn,t ÿ £ (x0)} .

Queremos provar que tmax = 1. Observe primeiro que o conjunto acima onde o supremo é tomado
não é vazio porque do Lema 33, sn,kn é uma direção descendente para o funcional ÿ (·) := F (·) ÿ y de
d
xn e como D(F) é aberto, existe uma constante t > 0 tal que para todo 0 < t ÿ t, xn,t ÿD(F) e

Indução
d d d .
F (xn,t) ÿ y < F (xn) ÿ y ÿ F (x0) ÿ y

Isto implica que xn,t ÿ £ (x0) para todo 0 < t ÿ t. Assuma a seguir que tmax < 1, ou seja, xn,tmax ÿ ÿ£
(x0). Como x0 ÿ £ (x), segue que

xn,tmax ÿ ÿ£ (x0) ÿ £ (x0) ÿ £ (x) ÿ D (F).


Machine Translated by Google

4.1. TÉRMINO E RESÍDUO DECRESCENTE QUALIFICADO 57

Desta forma,

d d
F (xn,tmax ) ÿ y < [1 ÿ tmax (1 ÿ ÿ)] b n d < bn d ÿ b0,

o que contradiz xn,tmax ÿ ÿ£ (x0). Escolhendo t = 1 em (4.7) encontramos (4.6). Agora, de (4.6), ÿ 0
db
n d ÿ ÿ n b 0 como n ÿ ÿ, o que implica que (3.13) é satisfeito para n suficientemente grande.
Finalmente, de
d N-1 d
td<b Nÿ1 ÿ ÿ b0

nós obtemos
d
ln ÿ d/ b 0
Nÿ1< .
ln (ÿ)

Observe que o conjunto de nível £ (x) pode ser substituído por £ (x0) ou X no teorema acima.

Corolário 36 Assuma todas as hipóteses do Teorema 35. Então, F xN(ÿ) ÿ F (x +) como


d ÿ 0.

Prova. O resultado decorre de

d
y ÿ F xN(ÿ) ÿ y dÿy+y ÿ F xN(ÿ) ÿ (1 + ÿ ) d. (4.8)

Da Condição do Cone Tangencial, Suposição 1(c), página 31, segue-se facilmente que

1
Fj (v) ÿ Fj (w) ÿ 1 ÿ ÿ F (w) (v ÿ w)
j

para todo v, w ÿ Bÿ (x +, ÿp) ej = 0, . . . , + é a única


vizinhança
solução
dedxÿ+,1.então
Agora,
o se
espaço
d = 1nulo
e x de
de (3.1)
A := F
em(xuma
+)
satisfaz N (A) = {0 } porque se 0 = v ÿ N (A), então para t > 0 pequeno o suficiente,

+
1
+
F(x ÿ tv) ÿ y = F(x ÿ tv) ÿ F(x +) ÿ t Av = 0. 1 ÿ ÿ

Em geral, a função ·A : X ÿ R, x ÿÿ Ax é uma semi-norma em X e é uma norma no caso


de A ser injetiva (é uma norma mais fraca que a norma padrão, porque xA = Ax ÿ A x
, para todo x ÿ X).

+ ÿ 0 como
Corolário 37 Assuma todas as hipóteses do Teorema 35. Então, xN(ÿ) ÿ x ÿ ÿ 0 UMA

Prova. Da desigualdade (4.8) do Corolário 36 e da Suposição 1(c),

+ =Fx + +
xN(ÿ) ÿ x UMA xN(ÿ) ÿ x
+
ÿ (ÿ + 1) F xN(ÿ) ÿ F x ÿ (ÿ + 1) (1 + ÿ ) d.

A limitação de £ (x0) certamente facilitaria uma análise de convergência da família ÿ £ (x0) usando,
ÿ>0 . Não hápor exemplo,
razão, um argumento
entretanto, de convergência
para acreditar fraca
que seja esse em espaços
o caso. reflexivos
Ao contrário, de Banach
espera-se xN(ÿ)
que este
conjunto seja ilimitado para problemas mal colocados, o que nos estimula a nos concentrarmos em uma
análise de convergência local restrita ao conjunto limitado Bÿ (ÿp, x+).
Machine Translated by Google

58 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

4.2 Diminuição do erro e convergência fraca


Suposição 3 Se o iterado xn de K-REGINN é bem definido e as definições en := ÿ xn e zn,k := sn,k +
x + xn com sn,0 := 0 são adotadas, então existem constantes 0 ÿ
K0 < K1 ÿ 1 e números positivos ÿn,k satisfatórios

t
d
ÿn,k Ansn,k ÿ b n , com t > ÿr

de tal modo que

ÿp x +, zn,k+1 ÿ ÿp x +, zn,k
r-1 r
d d d d
ÿ ÿn, k Ansn,k ÿ b n
Anen- b n ÿ K1 Ansn,k ÿ b n
+ K0b _ n ,

onde zn,k = zn,k ou zn,k = xn.

Os métodos a seguir satisfazem as propriedades exigidas da Suposição 3, com zn,k = zn,k,


desde que X seja uniformemente liso e sÿconvexo com p ÿ s:

• O método de gradiente duplo DE, apresentado em (3.29) e (3.39), Subseção 3.1.2 com K1 = 1 ÿ
C0, 0 < C0 < 1, K0 = 0 (ver (3.37)) e t = s ÿ r ( ver (3.40));

• Cada método de gradiente duplo, definido pela iteração (3.29) na Subseção 3.1.2, com tamanho
d t
de passo satisfazendo ÿn,k ÿ c Ansn,k ÿ b , que
n ÿDE onde
o método
c > 0 e DE).
t > ÿrEm
(K1particular,
e K0 são oso método
mesmosMSD
conforme definido em (3.45), com ÿr < t ÿ 0, veja (3.46), e o método LW com step-size sendo
dado por uma pequena constante (veja (3.43)) e com s ÿ r . Para este último método, obviamente
vale t = 0;

• A variação de Bregman do método IT definida pela iteração implícita (3.62) , ÿn,k = 1/ÿn e ÿ C r
na Subseção 3.1.3 com K1 = 1/2 K0 = t r-1 0 < Cr 0 < 1/2 r-1 0 ,
= 0 (ver (3.67) e (3.68));

• Cada um dos métodos de gradiente-Tikhonov mistos apresentados na Subseção 3.1.4 e


t
definidos por iteração (3.76), com tamanho de passo satisfazendo ÿn,k ÿ c Ansn,k ÿ bnd com
, ÿDE
c>
0 e t > ÿr, onde ÿDE é definido em (3.72). Em particular, o próprio método DE (ver (3.74)) e o
método LW com um tamanho de passo constante pequeno (ver (3.75)).
Para esses métodos, 0 < K0 < 1 ÿ C0 = K1 com 0 < C0 < 1, como podemos ver em (3.73).

A Suposição 3 é verificada para zn,k = xn se X é uniformemente liso e uniformemente convexo


para:

• A variação de Bregman do método TP conforme apresentado em (3.58), Subseção 3.1.3, com


K1 = 1, K0 = (rÿ ÿ 1) /r < 1, ÿn,k = 1/ÿk e t = 0 (consulte ( 3.59) e (3.57)).

A hipótese 3 é uma generalização de [36, hipótese (3.2)] e o próximo teorema corresponde ao


teorema 3.1 na mesma referência.

Teorema 38 (Erro decrescente) Sejam X e Y espaços de Banach com X sendo uniformemente liso e
uniformemente convexo. Suponha que a Suposição 3 e a Suposição 1 na página 31 sejam verdadeiras
com a constante ÿ no TCC satisfazendo

0 ÿ ÿ < K1 ÿ K0,
Machine Translated by Google

4.2. ERRO DIMINUINTE E CONVERGÊNCIA FRACA 59

e a constante ÿ em (3.13) satisfazendo

h+1
t> . (4.9)
K1 ÿ K0 ÿ n

Suponha adicionalmente que a Suposição 2 na página 53 seja verdadeira com C = 0 no caso de zn,k =
xn e comece com x0 ÿ Bÿ (x +, ÿp). Então para µ ÿ (µmin, 1) com
ÿ +1
r + ÿ + K0
µ min :=
t
,
K1

1. todos os iterados de K-REGINN são bem definidos e pertencem a Bÿ (x +, ÿp) ÿD(F) desde que
como o princípio da discrepância (3.13) não é satisfeito;

2. a iteração externa termina, ou seja, existe um número N = N (ÿ) ÿ N satisfazendo


(3.13) ;

3. os iterados têm o comportamento de diminuição do erro

ÿp x +, xn+1 ÿ ÿp x +, xn (4.10)

= 0, ..., N ÿ 1, onde a igualdade vale se e somente se (3.9) vale; para n

4. a sequência gerada é limitada:

xn ÿ Cÿ,x+ para todo ÿ > 0 e n = 0, ..., N, (4.11)

onde Cÿ,x+ > 0 é definido em (3.30) ;

5. existe uma constante C0 > 0 tal que a desigualdade

k nÿ1 r
d
C0 ÿn, k Ansn,k ÿ b n ÿ ÿp x +, xn ÿ ÿp x +, xn+1 (4.12)
k=0

detém se zn,k := zn,k e


r
d
C0ÿn,knÿ1 Ansn,knÿ1 ÿ b n ÿ ÿp x +, xn ÿ ÿp x +, xn+1 (4.13)

se zn,k := xn.

Prova. As restrições na constante ÿ implicam na boa definição de ÿ e µmin < 1. Usamos indução: como
x0 ÿ Bÿ (x +, ÿp), o limite x0 ÿ Cÿ,x+ vale (veja (2.20)). Suponha que os iterados x0, ..., xn, com n < N
sejam bem definidos, pertençam a Bÿ (x +, ÿp) e satisfaçam (4.10) assim como (4.11). Se (3.9) for
verificado, então xn+1 = xn e todas as propriedades exigidas são verdadeiras para xn+1. Caso contrário,
d ÿ 1
como b Ansn,k ÿ b para k = 0, ..., kn ÿ 1, procedemos
n como em nd(4.1) para validar
m

d 1+n d d
Anen- b n
< +nb n ÿ Cÿ,ÿ,µ Ansn,k ÿ b n,
t

1+n
com Cÿ,ÿ,µ := t
+ ÿ /µ. Usando agora µmin < µ < 1, obtemos da hipótese 3,

r r
d d
ÿp x +, zn,k+1 ÿ ÿp x +, zn,k < ÿn ,k (Cÿ,ÿ,µ ÿ K1) Ansn,k ÿ b n + K0b _ n (4.14)
r
K0 d
ÿ ÿn,k Cÿ ,ÿ,µ ÿ K1 + µr Ansn,k ÿ b n

r
d
ÿ ÿC0ÿn,k Ansn,k ÿ b n ,
Machine Translated by Google

60 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

1+n
com C0 := K1 ÿ t + ÿ + K0 /µr > 0.
d t
Estudamos primeiro o caso zn,k = zn,k. Usando a desigualdade ÿn,k Ansn,k ÿ b n , com
t > ÿr (ver Suposição 3), obtemos para todo ÿ kn,
ÿ1
t+r t+r
d
dm bn ÿ Ansn,k ÿ b n
k=0
ÿ1 ÿ1
r (4,14)
d
C0ÿn,k Ansn,k ÿ b n ÿ ÿp x +, zn,k ÿ ÿp x +, zn,k+1
k=0 k=0

= ÿp x +, zn,0 ÿ ÿp x +, zn, ÿ ÿp x +, zn,0 = ÿp x +, xn < ÿ,


o que implica que < ÿ e consequentemente kn < ÿ. Isso significa que a iteração interna termina.
Usando = kn na desigualdade acima, obtemos
k nÿ1
r
d
0< C0ÿn,k Ansn,k ÿ b n ÿ ÿp x +, zn,0 ÿÿp x +, zn,kn = ÿp x +, xn ÿÿp x +, xn+1 ,
k=0

o que implica (4.12) e (4.10). Usando agora (4.10), concluímos que

ÿp x +, xn+1 ÿ ÿp x +, xn ÿ ... ÿ ÿp x +, x0 < ÿ, o que significa


que xn+1 ÿ Bÿ (x +, ÿp) ÿD(F) e que (4.11) é verdadeira (veja (2.20)). Resta provar que a iteração
d
externa termina. Defina o conjunto I := n ÿ N0 : b > ÿ ÿ[n] e seja n o maior número em I (que
n emprincípio
poderia ser ÿ). Para quaisquer retenções, onde ÿmin := min {ÿj : j = 0, ..., d ÿ 1} >
d t+r t+r
n ÿ I a desigualdade b 0. Agora,
n como
ÿ (ÿ ÿmin)
kn ÿ
1 para todo n ÿ I e kn = 0 caso contrário, obtemos de (4.12),
n
t+r t+r
t+r d d
(mt ÿmin) ÿ mb n kn ÿ mb n kn
nÿI nÿI n=0
n k nÿ1
r
d
ÿn, k Ansn,k ÿ b n
n=0 k=0
n

ÿp x +, xn ÿ ÿp x +, xn+1 ÿ ÿp x +, x0 < ÿ,
n=0

que só pode ser verdade se n < ÿ. Então N (ÿ) = n + 1 < ÿ.


Passamos agora para a prova no caso zn,k = xn. Observe primeiro que ÿ > (1 + ÿ) / (1 ÿ ÿ).
Agora, como C = 0 na Hipótese 2, 0 < K1 ÿ 1 e K0 ÿ 0, concluímos que µmin é maior que aquele da
Proposição 34, o que implica que os resultados desta proposição são válidos aqui e portanto kn é
finito. Usando k = kn ÿ 1 em (4.14), ÿp x +, xn+1 ÿ ÿp x +, xn = ÿp x +, zn,kn ÿ ÿp x +, zn,k

r
d
ÿ ÿC0ÿn,knÿ1 Ansn,knÿ1 ÿ b n ,

que é (4.13). Conseqüentemente, xn+1 ÿ Bÿ (x +, ÿp) e (4.10) assim como (4.11) são verdadeiras.
Definindo o conjunto I e o número ÿmin como antes,
t+r t+r
t+r t+r d d
m (t ÿmin) ÿ mb n ÿ Ansn,knÿ1 ÿ b n
nÿI nÿI nÿI
n
r
d
ÿn,knÿ1 Ansn,knÿ1 ÿ b n
n=0
n

ÿp x +, xn ÿ ÿp x +, xn+1 ÿ ÿp x +, x0 < ÿ.
n=0
Machine Translated by Google

4.2. ERRO DIMINUINTE E CONVERGÊNCIA FRACA 61

Como antes, concluímos que N (ÿ) < ÿ.

Observação 39 Assumindo as hipóteses do Teorema 38, os resultados dos Corolários 36 e 37 são


claramente verdadeiros. Além disso, a estimativa de monotonicidade (4.10) pode ser comprovada em um
cenário mais geral:
ÿp (ÿn, xn+1) ÿ ÿp (ÿn, xn), (4.15) onde ÿn representa uma solução da [n]-

ésima equação em Bÿ (x +, ÿp): y[n] = F [n] (ÿn). Observamos ainda que, para as iterações que satisfazem kn =
kREG e onde a desigualdade (3.9) é violada por xn, encontramos o seguinte [21],

d[n] d[n]
ÿ F[n] (xn+1) ÿ y [n] ÿ F[n] (xn) ÿ F [n] (xn) (xn+1 ÿ xn) y [n]

+ F[n] (xn+1) ÿ F[n] (xn) ÿ F [n] (xn) (xn+1 ÿ xn) ÿ[n]

ÿ F[n] (xn) + ÿ F[n] (xn+1) ÿ F[n] (xn) ÿ µ y [n]


d[n]
ÿ[n] ÿ (µ + ÿ) y ÿ F[n] (xn) + ÿ y [n] ÿ F[n] (xn+1) , [n]

de modo a
d[n] d[n] µ+ÿ
e [n] ÿ F[n] (xn+1) ÿ ÿ y [n] ÿ F[n] (xn) com ÿ := 1 ÿ ÿ .

r
Finalmente, se ÿ satisfaz ÿ+K0 < (1 ÿ 2ÿ) e K1 (isso é possível para um pequeno ÿ porque K0 < K1)

h+1
t> r
(1 ÿ 2ÿ) K1 ÿ (n + K0)
r r
em (3.6)min
é considerada),
< (1 ÿ 2ÿ) e restringir
(4.6
2ÿ)) eresulta
(4.5)
µ a (µmin,
são
em ÿverdadeiras.
<1 1.
ÿ Em particular, se então µ d = 1 (somente uma equação

Observação 40 A desigualdade (4.14) juntamente com zn,k = zn,k implica

ÿp x +, zn,k+1 ÿ ÿp x +, zn,k ÿ ... ÿ ÿp x +, zn,0 = ÿp x +, xn < ÿ,

que é a monotonicidade da iteração interna. Em vista de (2.20),

zn,k ÿ Cÿ,x+ . (4.16)

Assim, as sequências (zn,k) 0ÿkÿkn , n ÿ N (ÿ), são uniformemente limitados em n, k e ÿ.


A monotonicidade na iteração interna não segue diretamente de (4.14) se zn,k = xn,
mas o limite uniforme (4.16) ainda vale neste caso porque

ÿp x +, zn,k+1 ÿ ÿp x +, xn < ÿ.

A convergência fraca de K-REGINN segue imediatamente de (4.11) e a reflexividade de X.

Corolário 41 (Convergência fraca) Sejam verdadeiras todas as hipóteses do Teorema 38.


Se os operadores Fj , j = 0, . . . , d ÿ 1, são fracamente fechados sequencialmente então para qualquer
(ÿj ) sequência se com ÿ (i) = max (ÿj )
eu

d ÿ 1 ÿ 0 como i ÿ ÿ, o se : j = 0, . . . ,
yj iÿN
eu

sequência xN(ÿ contém uma subsequência que converge fracamente para uma solução de (3.1)
iÿN

(i)) em Bÿ (x +, ÿp). Se x + é a única solução de (3.1) em Bÿ (x +, ÿp), então xN(ÿ) ÿ>0 tende com
+
fracamente para x como ÿ = max {ÿj : j = 0, ..., d ÿ 1} ÿ 0.

Prova. Esta é uma prova padrão. Veja, por exemplo [36, Cor. 3.5].
Machine Translated by Google

62 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

4.3 Convergência sem ruído


A partir de agora, precisamos diferenciar claramente entre as situações com ruído (ÿ > 0) e sem ruído (ÿ = 0). Por esta razão, marcamos
quantidades exclusivamente por um sobrescrito ÿ quando os dados ÿ etc. Assim, xn, bn, An, etc. se originam de dados exatos. é corrompido pelo
ruído: x Observe que a estimativa inicial é escolhida independentemente de ÿ: x
n , bd n , Aÿ n ,

ÿ = x0.
0
O algoritmo 1 está bem definido na situação sem ruído quando definimos ÿj = 0, ÿ = ÿ, e ÿ ÿj = 0. Então,
o princípio da discrepância (3.9) é substituído por bn = 0, caso em que xn+1 = xn. A terminação ocorre
apenas no caso improvável de que uma iteração xN satisfaça yj ÿ Fj (xN ) = 0 para j = 0, . . . , d ÿ 1, ou
seja, xN resolve (3.6). Em geral, o Algoritmo
fortemente
1 nãopara
para,uma
massolução
produzde
uma
(3.1)
sequência
como provaremos
que converge
nesta
seção, veja o Teorema 43 abaixo.

Com exceção da terminação, todos os resultados do Teorema 38 são verdadeiros com um 1 ainda
ÿ+K0
K1 , maior.
no intervalo para a seleção das tolerâncias: µ ÿ (4.14) é substituída por C0 Consequentemente,
:= K1 ÿ (ÿ + K0) /µr >a0.
constante
Além
disso, N (ÿ) = ÿ no caso de não termos prematuro terminação.

Na próxima suposição, definimos como a sequência de regularização é gerada na iteração interna.

Suposição 4 Se a iteração xn de K-REGINN é bem definida, então a sequência de iteração interna é


gerada por

Jp (zn,k+1) = Jp (zn,k) ÿ ÿn,k (A n jr (vn,k) + ÿnJp (sn,k ÿ xn)),

onde (vn,k) ÿ Y[n]


0. Além satisfaz
disso, (xn)nÿNvn,k
ÿ Xÿ éAnsn,k ÿ bn. A as
um arbitrário sequência (ÿn)nÿN0 ÿÿ R
desigualdades ÿnobedece a kÿkn
ÿ sequência K2com
bn eK2
K2ÿ
r
xn. = 0 sempre que esta sequência for ilimitada ou no caso zn,k =

Os seguintes métodos satisfazem a suposição acima:

• Todos os métodos de gradiente dual, definidos pela iteração (3.29) na Subseção 3.1.2 e satisfazendo
ÿn ,k ÿ ÿDE. Em particular, o próprio método DE, os métodos MSD e LW.
Aqui, zn,k = zn,k, vn,k = Ansn,k ÿ bn e K2 = 0;

• A variação de Bregman do método Iterated-Tikhonov (3.62), com zn,k = zn,k,


vn,k = Ansn,k+1 ÿ bn e K2 = 0;

• A variação de Bregman do método de Tikhonov-Phillips (3.58) com zn,k = xn, vn,k = Ansn,k+1 ÿ bn
(ver (3.54)) e K2 = 0;

• Os métodos de gradiente-Tikhonov mistos, definidos por iteração (3.76), com zn,k = zn,k, vn,k =
Ansn,k ÿ bn, ÿn = ÿn e K2 = K0/K3, onde K0 é definido na suposição 3, página 58, e K3 é um limite
p
superior para a sequência (consulte a Subseção 3.1.4). 1p
eÿxn
nÿN

Com o próximo lema preparamos nossa prova de convergência para o caso de dados exatos.

ÿ+K0 1 e deixe
Lema 42 Assuma todas as hipóteses do Teorema 38, mas com µ ÿ A hipótese 4 é K1 ,
verdadeira. Então,

ÿp (xn, xn+1) ÿp x +, xn ÿ ÿp x +, xn+1 (4.17)

para todo n ÿ N.
Machine Translated by Google

4.3. CONVERGÊNCIA SEM RUÍDO 63

Prova. De (2.21),

ÿp (xn, xn+1) = ÿp x +, xn+1 ÿ ÿp x +, xn + Jp (xn+1) ÿ Jp (xn), x+ ÿ xn . (4.18)

Primeiro analisamos o caso zn,k = zn,k. Da suposição 4,

Jp (xn+1) ÿ Jp (xn), x+ ÿ xn = Jp (zn,kn ) ÿ Jp (zn,0), en


k nÿ1
=
Jp (zn,k+1) ÿ Jp (zn,k), en
k=0
k nÿ1
=
ÿn,k (jr (vn,k), ÿAnen + ÿn Jp (sn,k ÿ xn), ÿen).
k=0

Se (xn)nÿN não é limitado, então ÿn ÿ 0 (K2 = 0), caso contrário, como as sequências (en) e (sn,k) são
uniformemente limitadas, veja (4.11) e (4.16),

p-1 r
ÿn Jp (sn,k ÿ xn), ÿen ÿ ÿn sn,k ÿ xn no ÿn bn . (4.19)
1
Das propriedades de jr, o TCC (Suposição 1(c)) e bn ÿ kn ÿ 1, obtemos m bn ÿ Ansn,k para k =
fazendo uso de (4.12), 0, ...,

k nÿ1
r-1 r
Jp (xn+1) ÿ Jp (xn), x+ ÿ xn ÿn, k Ansn,k ÿ bn Ana + bn
k=0
k nÿ1
r-1 r
ÿ ÿn, k Ansn,k ÿ bn (ÿ + 1) bn + bn
k=0
k nÿ1
ÿ+1 1 r
ÿ + ÿn, k Ansn,k ÿ bn
m µr k=0

ÿp x +, xn ÿ ÿp x +, xn+1 .

Inserindo este resultado em (4.18), chegamos a (4.17). Prosseguimos agora provando o resultado para
o caso zn,k = xn (conseqüentemente, K2 = 0). Da mesma forma que acima, mas usando (4.13) em vez
de (4.12), a desigualdade

Jp (xn+1) ÿ Jp (xn), x+ ÿ xn = Jp (zn,kn ) ÿ Jp (xn), e

= ÿÿn,knÿ1 jr (vn,knÿ1), Sim ÿ + 1


ÿn, knÿ1 Ansn,knÿ1 ÿ bn ÿ r

m
ÿp x +, xn ÿ ÿp x +, xn+1 ,

é obtido, o que conclui a prova.


As hipóteses 1 a 4 são fortes o suficiente para provar a convergência da sequência (xn)nÿN para uma
solução de (3.1) como n ÿ ÿ se uma única equação em (3.6) for considerada (d = 1). No entanto, é muito
difícil provar o mesmo resultado para a versão Kaczmarz de REGINN (d > 1) usando apenas essas
suposições. A limitação de kn e de ÿn,k parecem ser condições necessárias para esse fim. Por esta razão,
enunciamos a próxima suposição.

Suposição 5 Se s ÿ r e kmax < ÿ em (3.12), então existem constantes 0 < ÿmin ÿ ÿmax tais que ÿmin ÿ
ÿn,k ÿ ÿmax para todo k = 0, ..., kn e n ÿ N.

A suposição acima é verificada para:


Machine Translated by Google

64 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

• O método de gradiente duplo LW com um tamanho de passo constante pequeno. Este método claramente
satisfaz ÿmin = ÿLW = ÿmax ;

• A variação de Bregman do método Iterated-Tikhonov, onde as desigualdades requeridas são satisfeitas


para ÿn,k = 1/ÿn. Consequentemente, ÿmin = 1/ÿmax e ÿmax = 1/ÿmin (ver (3.68));

• A variação de Bregman do método de Tikhonov-Phillips com ÿn,k = 1/ÿk. Nesse caso,


ÿmin = 1/ÿ0 e ÿmax = 1/ÿkmax (ver (3.57)).

É possível provar a existência de ÿmin para os métodos gradiente dual DE e MSD (ver (3.43) e (3.47)).
Mas, infelizmente, esse não parece ser o caso de ÿmax. No entanto, se modificarmos as definições desses
métodos para ÿnovo = ÿantigo ÿ ÿ com uma constante (possivelmente muito grande) ÿ ÿ ÿmin, a hipótese 5 é
imediatamente verificada para esses métodos com ÿmax := ÿ. De qualquer forma, alguns resultados do
próximo Teorema são válidos para esses métodos em sua definição original. Na prova de convergência a
seguir, adaptamos ideias de nosso trabalho anterior [40].

Teorema 43 (Convergência sem ruído) Sejam X e Y espaços de Banach com X uniformemente liso e
sÿconvexo com p ÿ s. Deixe a hipótese 1 na página 31 ser verdadeira e comece com x0 ÿ Bÿ (x +, ÿp).
Suponha que as Suposições 3, página 58 e 4, página 62 sejam verdadeiras e que a Suposição 2, página 53
seja verificada com C = 0 no caso de zn,k = xn.
Suponha que a constante ÿ no TCC satisfaça ÿ < K1 ÿ K0 e que µ ÿ (µmin, 1) com µmin := (ÿ + K0) /K1 < 1.
Se d = 1, então REGINN para após um número finito de iterações com uma solução de (3.1) ou a sequência
gerada (xn)nÿN ÿ Bÿ (x +, ÿp) converge fortemente em X para uma solução de (3.1). Se x + é a única solução
em Bÿ (x +, ÿp), então xn ÿ x + Como

n ÿ ÿ.

Se d > 1, então os mesmos resultados são válidos para K-REGINN no caso da Suposição 5 valer
verdadeiro, bem como kmax < ÿ e s ÿ r.

Prova. Como esta prova é relativamente longa, ela está dividida em quatro partes. Na primeira e segunda
partes, o caso d > 1 é analisado e a hipótese 5 é empregada para provar a desigualdade (4.31) abaixo, para
o caso zn,k = zn,k na primeira parte da prova e para zn,k = xn no segundo. Na terceira parte, uma desigualdade
similar a (4.31) é estabelecida para o caso d = 1.
Por fim, provamos na quarta parte da prova que o resíduo converge para zero conforme n tende para o infinito,
o que junto com (4.31) garantirá o resultado desejado.
Se o Algoritmo 1 parar após um número finito de iterações, então a iteração atual é uma solução de (3.6)
e consequentemente de (3.1). Caso contrário, (xn)nÿN é uma sequência de Cauchy, como provaremos agora.
Seja m, l ÿ N com m ÿ l. O truque de toda a prova é usar a desigualdade triangular para “cortar” a norma xm ÿ
xl em um vetor apropriado xz e então estimar cada uma das normas resultantes usando as propriedades
desse vetor.
Parte 1: Consideramos primeiro o caso d > 1. Nesse caso, a hipótese 5 é verdadeira, assim como kmax < ÿ e s ÿ r. Escreva m =
m0d + m1 e l = l0d + l1 com m0, l0 ÿ N e m1, l1 ÿ {0, . . . , d ÿ 1} . Claro que m0 ÿ l0. Escolha z0 ÿ {m0, . . . , l0} tal que

d-1
(yj ÿ Fj (xz0d+j ) + xz0d+j+1 ÿ xz0d+j) (4.20)
j=0
d-1
ÿ (yj ÿ Fj (xn0d+j ) + xn0d+j+1 ÿ xn0d+j)
j=0

para todo n0 ÿ {m0, . . . , l0}. Defina z := z0d + z1, onde z1 = l1 se z0 = l0 e z1 = d ÿ 1 caso contrário. Esta
configuração garante m ÿ z ÿ l. Como X é sÿconvexo e a sequência (xn)nÿN é limitada (ver (4.11)), segue de
(2.23) que
s s s
xm ÿ xl ÿ 2 s-1 (xm ÿ xz + xz ÿ xl ) ÿp (xz, xm) + ÿp (xz, xl).
Machine Translated by Google

4.3. CONVERGÊNCIA SEM RUÍDO 65

A identidade de três pontos (2.21) implica agora que

s
xm ÿ xl ÿm,z + ÿl,z + f (z, m, l) (4.21)

com
ÿm,z := ÿp x +, xm ÿ ÿp x +, xz
e

+ + .
f (z, m, l) := Jp (xz) ÿ Jp (xm), xz ÿ x + Jp (xz) ÿ Jp (xl), xz ÿ x

Pela monotonicidade (4.10), concluímos que ÿp (x +, xn) ÿ ÿ ÿ 0 quando n ÿ ÿ. Assim, ÿm,z e ÿl,z
convergem para zero quando m ÿ ÿ (o que causa z ÿ ÿ e l ÿ ÿ). Avançar,
l-1
+
f (z, m, l) ÿ Jp (xn+1) ÿ Jp (xn), xz ÿ x . (4.22)
n=m

Queremos mostrar agora que f (z, m, l) é limitada por cima por um termo que converge para zero
quando m ÿ ÿ, o que junto com (4.21) provará que (xn)nÿN é uma sequência de Cauchy.
Nosso primeiro objetivo é provar esta propriedade para o caso zn,k = zn,k. Como na prova do Lema
42,

+
Jp (xn+1) ÿ Jp (xn), xz ÿ x (4.23)
k nÿ1
r-1
ÿ ÿn, k Ansn,k ÿ bn Anez + ÿn |Jp (sn,k ÿ xn), no| .
k=0

Da mesma forma que (4.19),


r
ÿn |Jp (sn,k ÿ xn), ez| bn . (4.24)

Continuamos aplicando a hipótese 1(c) para estimar Anez :

Anez ÿ An x + ÿ xn + An (xz ÿ xn) (4.25)


ÿ bn + bn ÿ An x +
ÿ xn + F[n] (xz) ÿ F[n] (xn)

+ F[n] (xz) ÿ F[n] (xn) ÿ F [n] (xn) (xz ÿ xn) ÿ (ÿ + 1)

bn + F[n] (xz) ÿ F[n] ( xn) ÿ (ÿ + 1) 2 bn + y[n] ÿ


F[n] (xz) .

Observe que na última norma, o operador F[n] é aplicado no vetor “errado” xz. Para estimar esta
norma, usamos a hipótese 1. Escreva n = n0d + n1 com n0 ÿ {m0, . . . , l0} e n1 ÿ {0, . . . , d ÿ 1} .
Então,

y[n] ÿ F[n] (xz) = yn1 ÿ Fn1 (xz0d+z1 )


dÿ1

ÿ yn1 ÿ Fn1 (xz0d+n1 ) + Fn1 (xz0d+j+1) ÿ Fn1 (xz0d+j )


j=0
dÿ1
1
ÿ yn1 ÿ Fn1 (xz0d+n1 ) + 1 ÿ F n1 (xz0d+j ) (xz0d+j+1 ÿ xz0d+j )
ÿ j=0
dÿ1
M
ÿ1+1 (yj ÿ Fj (xz0d+j ) + xz0d+j+1 ÿ xz0d+j).
ÿn j=0
Machine Translated by Google

66 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

Essa desigualdade foi a motivação para a definição de z. De (4.20),


dÿ1
M
y[n] ÿ F[n] (xz) ÿ 1 + 1 ÿ ÿ (yj ÿ Fj (xn0d+j ) + xn0d+j+1 ÿ xn0d+j). (4.26)
j=0

Inserindo (4.26) em (4.25), (4.25) e (4.24) em (4.23), (4.23) em (4.22), e usando a definição de kn,
chegamos a
l-1 k nÿ1
r
f (z, m, l) ÿn, k Ansn,k ÿ bn + g (z, m, l) + h (z, m, l), (4.27)
n=m k=0

Onde
lÿ1 k nÿ1 dÿ1
r-1
g (z, m, l) := ÿn, k Ansn,k ÿ bn yj ÿ Fj (xn0d+j ),
n=m k=0 j=0
lÿ1 k nÿ1 dÿ1
r-1
h(z,m,l) := ÿn, k Ansn,k ÿ bn xn0d+j+1 ÿ xn0d+j .
n=m k=0 j=0

O primeiro termo do lado direito de (4.27) pode ser estimado por (4.12). Resta estimar g e h. Neste
ponto, precisamos da limitação de kn. De kn ÿ kmax,
no
k nÿ1 k nÿ1 k nÿ1
no no

Ansn,k ÿ bn Ansn,k ÿ bn Ansn,k ÿ bn


k=0 k=0 k=0

para qualquer v > 0. Então definindo


k nÿ1

w := Ansn,k ÿ bn ,
k=0

e fazendo uso da desigualdade2


dÿ1 dÿ1 dÿ1 dÿ1
rÿ1 2ÿ r
+ r ÿ
uma
eu bj ÿ d eu _
bj para todo ai , bj ÿ 0,
i=0 j=0 ÿ i=0 j=0 ÿ
encontramos aplicando a hipótese 5 e a definição de kn (3.11),
l-1 dÿ1
r-1
g (z, m, l) ÿmáx wn yj ÿ Fj (xn0d+j ) (4.28)
n=m j=0

l0 dÿ1 dÿ1

máx_ _ ÿ w
rÿ1 ÿ
n0d+n1 yj ÿ Fj (xn0d+j )
n0=m0 ÿ n1=0 j=0 ÿ
l0 dÿ1 dÿ1
r
nor
máximo n0d+n1 + yn1 ÿ Fj (xn0d+n1 )
n0=m0 n1=0 n1=0
l0d +dÿ1 ÿ l0d +dÿ1
r
ÿmax r wn + bn
n=m0 n=m0
l0d +dÿ1 k nÿ1 l0d +dÿ1 k nÿ1
r ÿmax ÿ ÿmin r
ÿmax Ansn,k ÿ bn ÿn, k Ansn,k ÿ bn
.
n=m0 k=0 n=m0 k=0

dÿ1 dÿ1
2 rÿ 1 ai r r-1 r r-1 r r r r
bj ÿ a eu
se bj ÿ ai, e a eu bj ÿ b j de outra forma. Assim, um eu bj ÿ a i + b j ÿ umeu + b j para
i=0 j=0
dÿ1 dÿ1 dÿ1 dÿ1
rÿ1 a i 2 r r
i, j = 0, ..., d ÿ 1 e consequentemente bj ÿ d um eu + bj .
i=0 j=0 i=0 j=0
Machine Translated by Google

4.3. CONVERGÊNCIA SEM RUÍDO 67

De forma similar,

l0d +dÿ1 k nÿ1 l0d +dÿ1


r r
h (z, m, l) ÿn, k Ansn,k ÿ bn
+ xn+1 ÿ xn . (4.29)
n=m0 k=0 n=m0

Fazendo uso da sÿconvexidade de X mais uma vez,

(4.17)
s
xn+1 ÿ xn ÿp (xn, xn+1) ÿp x +, xn ÿ ÿp x +, xn+1 . (4.30)

Como r ÿ s, temos para m, l grande o suficiente para que

l0d +dÿ1 l0d +dÿ1


r s
xn+1 ÿ xn ÿ xn+1 ÿ xn
n=m0 n=m0

ÿp x +, xm0 ÿ ÿp x +, xl0d+d = ÿm0,l0d+d.

Colocando esse limite em (4.29), inserindo as desigualdades (4.29) e (4.28) em (4.27), (4.27) em (4.21) e
usando (4.12), acabamos com
s
xm ÿ xl ÿm,z + ÿl,z + ÿm0,l0d+d. (4.31)

Parte 2: Agora consideramos o caso zn,k = xn (neste caso K2 = 0 e consequentemente


ÿn ÿ 0 na Suposição 4) juntamente com d > 1. A desigualdade (4.23) é lida aqui

+ r-1
Jp (xn+1) ÿ Jp (xn), xz ÿ x ÿ ÿn ,knÿ1 Ansn,knÿ1 ÿ bn
anez . (4.32)

Procedendo como acima, encontramos, similarmente a (4.27),

l-1
r
f (z, m, l) ÿn,knÿ1 Ansn,knÿ1 ÿ bn + g (z, m, l) + h (z, m, l)
n=m

com

l-1 dÿ1
r-1
g (z, m, l) := ÿn,knÿ1 Ansn,knÿ1 ÿ bn yj ÿ Fj (xn0d+j ),
n=m j=0
l-1 dÿ1
r-1
h(z,m,l) := ÿn,knÿ1 Ansn,knÿ1 ÿ bn xn0d+j+1 ÿ xn0d+j .
n=m j=0

Da mesma forma que feito em (4.28) e (4.29) acima, as desigualdades

l0d +lÿ1
r
g (z, m, l) ÿn,knÿ1 Ansn,knÿ1 ÿ bn ,
n=m0
l0d +lÿ1 l0
r r
h (z, m, l) ÿn,knÿ1 Ansn,knÿ1 ÿ bn
+ xn+1 ÿ xn
n=m0 n=m0

pode ser provado. Usando agora (4.13) em vez de (4.12), chegamos novamente a (4.31).
Parte 3: O caso d = 1 é considerado agora (portanto kmax = ÿ é possível). Essa situação é mais fácil
porque tudo o que precisamos é mudar a definição de xz em (4.20) para o vetor com o menor resíduo na
iteração externa, ou seja, escolher z ÿ {m, . . . , l} tal que bz ÿ bn
, para todo n ÿ {m, . . . , eu} . Então, de (4.25),

Anez ÿ (ÿ + 1) (2 bn + bz) ÿ 3 (ÿ + 1) bn .
Machine Translated by Google

68 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

1
desigualdade bn ÿ Ansn,k ÿ bn para k = 0, ..., positivamente (4.23) e kn
(4.24))
ÿ 1, juntamente
e (4.22), resulta
com (4.32)
em (respec A
m

lÿ1 k nÿ1
r
f (z, m, l) ÿn, k Ansn,k ÿ bn
n=m k=0

no caso zn,k = zn,k e

l-1
r
f (z, m, l) ÿn,knÿ1 Ansn,knÿ1 ÿ bn
n=m

no caso zn,k = xn. Colocando agora essas desigualdades em (4.21) e usando novamente (4.12) (respectivamente
(4.13)), chegamos a (4.31) com m0 e l0d + d substituídos por m e l, respectivamente.

Parte 4: Em qualquer caso, o lado direito da desigualdade (4.31) converge para zero quando m ÿ ÿ revelando
que (xn)nÿN é uma sequência de Cauchy. Como X é completo, ele converge para algum xÿ ÿ X.
Observe que kn ÿ 1 se bn = 0 e como µ bn ÿ Ansn,k ÿ bn para todo k ÿ kn ÿ 1, segue que para o caso zn,k = zn,k,

ÿ ÿ k nÿ1
r
(4.12)
r+tÿ r+t r+t <ÿ
m bn ÿ kn ( µbn) ÿn, k Ansn,k ÿ bn
n=0 n=0 n=0 k=0

ÿ r+t
como os Fj 's sãon=0contínuos
bn para
< ÿtodo
paraj =zn,k
0, .=. .xn.
, dEntão,
ÿ1, temos
y[n] yj
ÿ F[n]
= Fj (xn)
(xÿ).=Se
bn(3.1)
ÿ 0 como
tem apenas
n ÿ ÿ Da
uma
mesma
solução
forma,
em eBÿ
(x +, ÿp) então xÿ = x +.

4.4 Propriedade de regularização


Nesta seção validamos que, sob condições apropriadas, K-REGINN é um esquema de regularização para resolver
d d
(3.1) com dados ruidosos y de saídas do Algoritmo 1 relativo
. De fato,
às entradas
mostramos
(y (3.1)
quecom
a família
dados(xexatos
)ÿ>0 N(ÿ)
y como ÿ ÿ 0.
d
)ÿ>0 converge fortemente para soluções de

Para evitar possíveis interpretações erradas, não usaremos a notação ÿj , j = 0, . . . , dÿ1, como em (3.7). Em
vez disso, quando escrevemos ÿi queremos dizer um número, positivo
em (3.8),em
ouuma
seja,sequência
ÿi := max de
(ÿj ÿ's
) : jconforme
= 0, . . . , definido
dÿ1>
0. eu

Para provar a propriedade de regularização, um argumento padrão de três etapas é gratuito


d ÿx + d +
frequentemente usado. Primeiramente, prova-se a monotonicidade do erro: x para n n ÿx nÿ1
ÿx

= 1, ..., N (ÿ). Empara


segundo
> 0 < lugar, a convergência
/2 desde na situação silenciosa
que n seja suficientemente grande.éEm
provada:
terceiro lugar, um resultado de
+
Agora, desconsiderando
estabilidade
os detalhesé necessário:
dos casos patológicos,
fixo, xn ÿ x ÿN xn
(ÿ)<ÿ/2
ÿ como
desdeÿque
ÿ 0.ÿAssim,
seja suficientemente
para n ÿ N suficientemente
pequeno.
d xn grande, mas fixo e ÿ pequeno o suficiente para garantir N (ÿ) ÿ n, segue que

dx
+ + + <.
ÿx dÿx n
ÿx dÿx n ÿ xn + xn ÿ x
N(d)

Nesta subseção, aplicamos um raciocínio semelhante com as modificações necessárias para adequá-lo à
nossa estrutura. Seguimos as ideias de [36] e [40]. Para facilitar a compreensão, resumimos os principais resultados:

1. De (3.11), segue que kn é um número arbitrário menor ou igual a kREG, o que significa que a sequência
(xn)nÿN , gerada a partir de uma execução de K-REGINN usando
Machine Translated by Google

4.4. REGULARIZAÇÃO DE IMÓVEL 69

dados sem ruído, podem mudar se a sequência (kmax,n)nÿN for escolhida de forma diferente. Na
Definição 44 abaixo, observamos todas as sequências que são possivelmente geradas a partir de uma
execução de K-REGINN na situação sem ruído e coletamos todas as nÿésimas iteradas no conjunto Xn.

ÿi 2. No Lema 45, provamos que se as sequências x nnÿN , com (ÿi) ÿ RiÿNsendo uma
sequência zero, são gerados por diferentes execuções de K-REGINN com os diferentes níveis de ruído
ÿi se divide em
, ÿi subsequências
então para cada nconvergentes, todas convergentes
ÿ N fixo, a sequência para xelementos
do nÿésimo itera niÿN ÿ de Xn (x ÿ ÿ 0).

n
ÿ Xn como

3. Além disso, no Lema 46 é provado que para cada > 0, existe um M ÿ N tal que, para cada n ÿ M, existe
um elemento ÿn ÿ Xn e uma solução xÿ de (3.1) satisfazendo ÿn ÿ xÿ < (os conjuntos Xn convergem
uniformemente para o conjunto das soluções de (3.1)).

ÿi 4. Finalmente, no Teorema 47, fornecemos uma prova de que a sequência x N(ÿi) do iÿN final
itera
, uma
de K-REGINN (gerado com os diferentes níveis de ruído ÿi onde (ÿi) é novamente iÿN
ÿR
sequência zero) se divide em subsequências convergentes, todas convergem fortemente para soluções
de (3.1) como i ÿ ÿ.

Num primeiro passo investigamos a estabilidade do esquema, ou seja, estudamos o comportamento de quando
ÿ a n-ésima iteração x ÿ se aproxima de zero. Os conjuntos Xn definidos abaixo desempenham um papel importante,
n
veja o Item 1 acima.

Definição 44 Seja X0 := {x0} e defina Xn+1 de Xn pelo seguinte procedimento: para cada ÿ ÿ Xn, mude xn na
definição de K-REGINN com ÿ e mude o respectivo iterado interno zn,k com ÿn,k , resultante do uso de ÿ em
vez de xn. Mais precisamente, defina ÿn,0 = ÿn,0(ÿ) := ÿ e ÿn,k+1 = ÿn,k+1(ÿ) como

F
ÿ
ÿ ÿ nJp (ÿn,k ÿ ÿ) ÿ x + ÿ
Jp (ÿn,k+1) := Jp (ÿn,k) ÿ ÿ ÿ em breve [n] (ÿ) ÿ jr v n,k n ,

x
lx ÿ 62,
ÿ onde ÿn,k, n,k, no
n
ÿ e x n substitua zn,k, ÿn,k, vn,k, ÿn e xn na Suposição 4, página
n, k,
respectivamente, quando os vetores zn,k e xn são substituídos por ÿn,k e ÿ respectivamente.
Seja bn := y[n] ÿ F[n] (ÿ) e defina kREG(ÿ) := 0 no caso de bn = 0 e

kREG (ÿ) := min k ÿ N : F [n] (ÿ) (ÿn,k ÿ ÿ) ÿ bn < µ bn (4.33)

de outra forma. Então ÿn,k(ÿ) ÿ Xn+1 para k = 1, . . . , kREG(ÿ) no caso kREG (ÿ) ÿ 1 e somente para k = 0 no
caso kREG (ÿ) = 0. Chamamos ÿ ÿ Xn o predecessor dos vetores ÿn,k(ÿ) ÿ Xn+1 e estes uns sucessores de ÿ.

Observe que xn é uma possível iteração externa de K-REGINN se e somente se xn ÿ Xn. Além disso, Xn
é finito para cada n ÿ N e da desigualdade (4.15) segue que, se ÿn+1 ÿ Xn+1 é o sucessor de ÿn ÿ Xn,

† † ÿp x , ÿn+1 ÿ ÿp
x , ÿn

sempre que x † é uma solução de (3.1) em Bÿ (x +, ÿp). Ressaltamos que os conjuntos Xn, n ÿ N0, são
definidos em relação aos dados exatos y.
A seguinte propriedade de estabilidade da iteração interna de K-REGINN é crucial para provar que
vergência com dados ruidosos. Esta suposição é uma variação de [36, Suposição (3.12)].
Machine Translated by Google

70 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

eu
Suposição 6 Let (ÿi) iÿN
ÿ R ser uma sequência-zero. Suponha que a sequência z n,k
iÿN
ÿi converge para ÿn,k (ÿ) para k = 0, ..., kREG (ÿ) sempre que a sequência x ÿ ÿ Xn. Isso é,niÿN converge para

ÿi lim = ÿ ÿ Xn =ÿ lim x niÿÿ ÿi = ÿn,k (ÿ) para k = 0, ..., kREG (ÿ).


n,kiÿÿ z

A hipótese 6 é verificada para os seguintes métodos:

• Todos os métodos de gradiente duplo, definidos pela iteração (3.29) na Subseção 3.1.2 e dependem
d dÿÿ
satisfazendo o ÿ onde ÿ n,k
A PARTIR DE, continuamente de ÿ. Em particular, o DE
próprio método ÿn,k , os métodos MSD e LW. Para esses métodos, assumimos que X é uniformemente liso
e sÿconvexo com p ÿ s. Adicionalmente, supomos que os espaços Yj , j = 0, ..., d ÿ 1 são uniformemente
lisos;

• A variação Bregman do método Iterated-Tikhonov (3.62), assumindo que X é


uniformemente liso e sÿconvexo com p ÿ s ÿ r;

• A variação Bregman do método Tikhonov-Phillips (3.58). Assumimos que X é uniformemente liso e


uniformemente convexo;

• Os métodos de gradiente-Tikhonov mistos, definidos por iteração (3.76). Aqui assume-se a lisura uniforme e
a sÿconvexidade de X, com p ÿ s, bem como a lisura uniforme de Yj , j = 0, ..., d ÿ 1.

Como essas provas são longas, nós as transferimos para o Apêndice A.


Com base na hipótese 6, provamos o próximo lema, que basicamente adapta ideias de [36, Lema 3.11].

Lema 45 Sejam verdadeiras todas as hipóteses do Teorema 38 e assuma adicionalmente a hipótese 6 e que X é
sÿconvexo com p ÿ s. Se ÿi ÿ 0 como i ÿ ÿ então para n ÿ N (ÿi) com ÿi ÿi > 0 suficientemente pequeno, a sequência
x se divide em subsequências convergentes, todas
convergentes para elementos de Xn.
niÿN

ÿi Prova. Provamos a afirmação por indução. Para n = 0, x = x0 ÿ x0 ÿ X0 como


0 i ÿ ÿ.
eu
Agora, suponha que para algum n ÿ N com n < N (ÿi) para i suficientemente grande, x divide-seniÿN
em subsequências
convergentes, todas convergentes para elementos de Xn. Para simplificar a notação, ÿi seja o próprio x uma
subsequência que converge para um elemento de Xn, digamos niÿN

lim ÿi = ÿ ÿ Xn. xn (4.34)


iÿÿ

ÿi Temos que provar que a sequência x converge n+1


se divide em subsequências convergentes, cada uma
iÿN
para um elemento de Xn+1. Da Suposição 6 e (4.34),

limite zi (4.35)
n,kiÿÿ= ÿn,k (ÿ) para k = 0, ..., kREG (ÿ).

Como as funções Fj e F e (4.34) são contínuas para j = 0, ..., d ÿ 1, segue de (3.7), (4.35)
j
que

lim b ÿi = bn e (4.36)
iÿÿ n

lim F x nÿi n,k


ÿi ÿ b ÿi s =F
iÿÿ [n] n [n] (ÿ) (ÿn,k ÿ ÿ) ÿ bn

para todo k ÿ kREG (ÿ). Agora, temos que diferenciar dois casos.
Machine Translated by Google

4.4. REGULARIZAÇÃO DE IMÓVEL 71

Caso 1: bn = 0. Da definição de kREG (ÿ) (ver (4.33)),

F
[n] (ÿ) ÿn,kREG(ÿ) ÿ ÿ ÿ bn < µ bn

e concluímos, fazendo uso de (4.36) que para i suficientemente grande


ÿi
F ÿi x s ÿbÿ < µ b din ,
[n] n n,kREG(ÿ) n

o que implica em vista de (3.10) que k ÿi ÿ kREG


n
ÿ k(ÿ).
ÿi Daí k ÿi ÿ {0, . . . , kREG (ÿ)} npara i suficientemente
REG
grande. Isso significa que, para i grande o suficiente, a sequência k ÿi se divide em no máximo 1 subsequências
kREG (ÿ)+
niÿN
eu
constantes k Da mesma forma, n ÿi satisfazendo nk = k ÿ {0, . . . , kREG (ÿ)} .
ÿN

ÿi ÿi (4.35)
lim ÿi x n+1 = lim z ÿi = lim z
n,k n,k = ÿn,k ÿ Xn+1.
ÿÿ ÿÿ n ÿÿ

Caso 2: bn = 0. Neste caso, y[n] = F[n] (ÿ) e ÿn,0 = ÿ ÿ Xn+1 (ver Definição 44). ÿi é uniformemente
limitado (ver (4.11)) e X é sÿconvexo, como a sequência x nnÿN(ÿi) concluímos que
(2.23) se aplica. Provamos agora que x
eu
n+1
ÿ ÿ como i ÿ ÿ. Assuma o contrário,
s
então existe an > 0 e uma subsequência (ÿi ) que ÿi tal que < ÿ ÿ x . Segue-se
ÿN n+1

s (2,23) (4.15)
ÿi < ÿ ÿ x n+1 ÿ Cÿp ÿ, xÿi n+1
ÿ Cÿp ÿ, xÿi n ÿ Cÿp (ÿ, ÿ) = 0

como ÿ ÿ, contradizendo > 0.


No segundo passo para estabelecer a propriedade de regularização fornecemos uma espécie de convergência uniforme da sequência de

conjuntos (Xn)n para soluções de (3.1). Para a formulação rigorosa do Lema 46 abaixo, precisamos introduzir uma notação adicional: Seja l ÿ N e
defina (l) (l) (l) (ÿ n ) escolhendo k ÿ {1, . . . , kREG(ÿ n )} no caso de n,k(l) n (l) (l) (l) kREG(ÿ n ) ÿ 1 e k = 0 caso contrário. Então ÿ
(l) (l) := x0. Agora defina ÿ ÿ :=p
0 n+1 n
(l) (l) é um sucessor
n n+1
de ÿ n . É claro que ÿ ÿ Xn
N e(l)reciprocamente,
para todo nn cada
elemento em Xn pode
ser escrito como ÿ para algum l ÿ N. n
(eu)
Observe que (ÿ n )nÿN representa uma sequência gerada por K-REGINN no caso de exata
(l) menos
os dados são fornecidos e com a iteração interna interrompida com um índice de parada arbitrário k (l) (l) maior ou igual a kREG(ÿ n ). Devidon a
esse fato, chamamos a sequência (k n )nÿN de regra de parada. A (l) sequênciadas muitas
(ÿ n )nÿN
sequências
é, portanto,
possíveis
uma
que podem ser geradas a partir de uma
essas
execução
sequências,
de K-REGINN
ele se aplica
comem
vetor
particular
inicial x0.
a (ÿComo
n )nÿN.
osAssim,
resultados
o limite
do Teorema 43 valem para todas (l)

x ÿ(l) (4.37)
:= limnÿÿ ÿn

(l) existe e é solução de (3.1) em Bÿ (x +, ÿp).


O seguinte resultado foi apresentado pela primeira vez em [22] no contexto dos espaços de Hilbert e
posteriormente generalizado para o arcabouço dos espaços de Banach na Proposição 19 de [40], onde
apenas o caso de solução única de (3.1) foi analisado. A versão atual apareceu pela primeira vez em [39].

(eu)
Lema 46 Sejam verdadeiras todas as hipóteses do Teorema 43 e seja (ÿ n )nÿN a se (l) seqüência gerada pela regra de parada (k n )nÿN. Então, para
cada > 0 existe um M = M () ÿ N tal que

ÿ n(l) ÿxÿ (eu) < para todo n ÿ M e todo l ÿ N.

(eu) +
ÿx < para
se x todo n ÿ M e todo+ léÿaN.
única solução de (3.1) em Bÿ (x +, ÿp) então ÿ Em particular,n
Machine Translated by Google

72 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

Prova. Assuma que a afirmação não é verdadeira. Então, existem an > 0 e sequências (nj ) ÿ N com (nj )

j ,(lj ) j j estritamente crescente tal que

(lj ) (lj )
ÿ nj ÿx ÿ ÿ para todo j ÿ N

(lj ) (lj ) onde (ÿ n )n representa a sequência gerada pela regra de parada (k


n )n. Ressaltamos
sequências o fato
diferentes
(lj ) de que
de os
regras
iterados
de parada
ÿ devem ser gerados por infinitas
nj
ÿ x ÿ (l) como j ÿ ÿ para cada l e como os lj atingem apenas um número finito de (lj )
(l)
(caso contrário, como ÿnj
valores,
ÿx
teríamos
(lj ) ÿ
nj ÿ < para nj grande o suficiente). Em seguida, reordenamos os números
lj (excluindo alguns iterados, se necessário) de modo que

(eu)
ÿ (l) ÿxÿ ÿ para todo l ÿ N. (4.38)
nl

(eu) (eu) (eu)


Defina ÿ0 := x0 (= ÿ para
0 todo l ÿ N). Como kREG(ÿ0) < ÿ e k )} = 0 (l) {0, . . . , kREG(ÿ0)}
0 ÿ {0, .para
. . , kREG(x
todo l ÿ N, existe
um
número k0 neste conjunto tal que k0 = k para infinitos l ÿ N. Seja £0 ÿ N o conjunto desses índices l. Fixe agora k0
0
como o (l)

índice de parada da primeira iteração interna, ou seja, ÿ1 := ÿ0,k0 (ÿ0), veja a Definição 44. Então ÿ1 = ÿ para 1

todo l ÿ £0 e como kREG(ÿ1) < ÿ, concluímos como antes, que existe existe um número (l) k1 ÿ {0, . . . , kREG(ÿ1)}
tal que k1 = k para infinitos l ÿ £0\ {1} . Esses l's são coletados
em £ 1. Procedendo por indução, encontramos uma 1sequência
como uma
(ÿn)n,
sequência
gerada pela
de conjuntos
regra de parada
ilimitados
(kn)n
(£n)n
, bem
satisfazendo £n ÿ N\ {1, . . . , n} com £n+1 ÿ £n e

(l)
ÿ n+1 = ÿn+1 para todo l ÿ £n, n ÿ N0. (4.39)

Tendo em vista (4.37) o limite xÿ := limnÿÿ ÿn existe em Bÿ (x +, ÿp) e resolve (3.1). Segue-se que a sequência
(ÿn)n é limitada e como X é sÿconvexo, a desigualdade (2.23) é válida. Além disso, existe M = M () ÿ N tal que

ÿp xÿ, ÿn < para todo n > M, 2 sC (4.40)

onde C > 0 é a constante de (2.23). Podemos adicionalmente supor que ÿn ÿ Bÿ (x +, ÿp) para todo n > M. De fato,
como limnÿÿ ÿn = xÿ e os mapeamentos Jp e ÿp (xÿ, ·) são contínuos, temos que ÿp xÿ, ÿn e Jp(ÿn) ÿ Jp (xÿ), xÿ ÿ
+
x convergem para zero quando n ÿ ÿ. Da identidade de três pontos (2.21),

+
ÿp x +, ÿn = ÿp xÿ, ÿn + ÿp x +, xÿ + Jp(ÿn) ÿ Jp (xÿ), xÿ ÿ x

e como ÿp (x +, xÿ) < ÿ, concluímos que ÿp x +, ÿn < ÿ para n suficientemente grande.


Agora, para l0 ÿ £M fixo,

s
(4.39) (4.40)
ÿp xÿ, ÿ(l0) M+1 = ÿp xÿ, ÿM+1 < .
2 sC

(l0)
Como xÿ é uma solução de (3.1) e ÿ os M+1 = ÿM+1 ÿ Bÿ (x +, ÿp), a desigualdade (4.10) se aplica e é
erros ÿp xÿ, ÿ(l0) n nl0 ÿ l0 ÿ M +monotonicamente
1 (porque decrescente em n para todo n ÿ M + 1. Em particular,

l0 ÿ £M ÿ N\ {1, . . . , M}) . Então


s

ÿp xÿ, ÿ(l0) ÿ ÿp xÿ, ÿ(l0) < .


nl0
M+1 2 sC
Machine Translated by Google

4.4. REGULARIZAÇÃO DE IMÓVEL 73

(l0)
ÿxÿ
(l0)
Desde ÿ n como n ÿ ÿ, concluímos que

(4.10) s

xÿ , x(l0)
ÿ
p n ÿ ÿp xÿ, ÿ(l0) < .
= limnÿÿ ÿp xÿ, ÿ(l0) nl0 2 sC

Da convexidade s de X,
s s s
(l0) sÿ1
ÿ nl0
(10) ÿxÿ ÿ2 (10) ÿ xÿ
ÿ nl0 (10) + xÿ ÿ x ÿ

s
x(l0) < ,
ÿ 2 sÿ1C ÿp xÿ, ÿ(l0) nl0 + p xÿ , ÿ

contradizendo (4.38).
Estamos agora em condições de provar nosso resultado principal. O resultado do próximo teorema foi estabelecido
pela primeira vez em nosso trabalho [39].

Teorema 47 (Propriedade de regularização) Assuma todas as hipóteses do Teorema 38, Suposições 4, página
62, e 6, página 70, e suponha que X é sÿconvexo com p ÿ s. Se d > 1, suponha adicionalmente que a Suposição
5, página 63, é verdadeira, assim como kmax < ÿ e s ÿ r. ÿi Se ÿi ÿ 0 como i ÿ ÿ, então a sequência x divide-se em
subsequências convergentes, todas as N(ÿi) convergem
fortemente para soluções de (3.1) como i ÿ ÿ. Em particular, se x + é a única solução de (3.1) em Bÿ (x +, ÿp)
então
iÿN

+
lim ÿi x ÿx = 0.
iÿÿ N(ÿi)

eu
Prova. Se N (ÿi) ÿ I como i ÿ ÿ para algum I ÿ N, então a sequência (x )iÿN divide N(ÿi) n )ÿN onde n é um número fixo menor ou igual a I.
eu
em subsequências da forma (x De acordo
com o Lema 45, cada uma dessas subsequências se divide em subsequências convergentes.
Portanto, cada limite de tal subsequência deve ser uma solução de (3.1) devido ao princípio da discrepância
eu
(3.13). De fato, se x n ÿ a como i ÿ ÿ, então usando (3.7),

eu
yj ÿ Fj (a) = lim yj ÿ Fj x n ÿ lim (1 + ÿ ) ÿi = 0, j = 0, . . . , d-1.
iÿÿ iÿÿ

Suponha agora que N (ÿi) ÿ ÿ como i ÿ ÿ e seja dado > 0. Como a distância de Bregman é uma função contínua
em ambos os argumentos, existe ÿ = ÿ () > 0 tal que
s

ÿp x, xÿin < ÿi sempre que x ÿ x n <c, (4.41)


C

onde C > 0 é a constante de (2.23). Do Lema 46, existe um M ÿ N tal que, (l) (l) para cada ÿ ÿ XM, existe uma
solução x de (3.1) satisfazendo ÿ
M

(l) c
x ÿ(l) ÿ ÿ M < .
2
eu
De acordo com o Lema 45, a sequência x M se divide em subsequências convergentes, cada uma
ÿij
convergindo para um elemento de XM. Seja (x )jÿN
M uma subsequência convergente genérica, que converge para
um elemento de XM, digamos

ÿi lim xM (l0)
= ÿ ÿMXM.
ÿÿ

eu (l0)
Provamos agora que a subsequência (x )ÿN converge para a solução x ÿ . De fato, N(ÿi )

ÿi desde xM (l0)
ÿ ÿ como
M ÿ ÿ, existe um L1 = L1 () tal que

(10) ÿ
xM ÿi ÿ xM < para todo ÿ L1. 2
Machine Translated by Google

74 CAPÍTULO 4. ANÁLISE DE CONVERGÊNCIA DE K-REGINN

Assim como N(ÿi ) ÿ ÿ como ÿ ÿ, temos N (ÿi ) ÿ M para todo ÿ L onde L ÿ L1 é um número suficientemente grande. Então, para
todo ÿ L,

xÿ
(l0) ÿi ÿ x (l0) ÿ ÿ ÿ (l0)
x ÿi ÿ x
M ÿ M (10) + M
x M < c.

Finalmente, a sÿconvexidade de X leva a

s (2,23) (4.10) (4.41)


ÿi x (l0) (l0) COPO x (10) Duplo x s.
ÿxÿ x ÿ , ÿi ÿ,
ÿi x
M
<
N(ÿi ) N(ÿi )
Machine Translated by Google

capítulo 5

experimentos numéricos

Para testar o desempenho do K-REGINN, escolhemos um problema gravemente mal-posto, a saber, a Tomografia
de Impedância Elétrica (abreviadamente EIT). Neste problema não invasivo, pretende-se reconstruir características
específicas do interior de um objeto coletando informações sobre seus limites. O procedimento consiste em aplicar
diferentes configurações de corrente elétrica na fronteira de um conjunto limitado e então medir os potenciais
resultantes também na fronteira. O objetivo é acessar informações do interior deste conjunto para reconstruir a
condutividade elétrica.

Esta ideia foi originalmente introduzida por Calder´on em seu famoso artigo [8]. O problema proposto por ele é
conhecido atualmente como Modelo Contínuo de EIT (EIT-CM), onde a corrente elétrica é aplicada em toda a
fronteira e o potencial correspondente também é lido em todos os pontos da fronteira. O método de Calderón é
mais de interesse teórico do que prático porque em situações reais é realmente impossível aplicar ou registrar esta
informação em toda a fronteira. Este método é, no entanto, importante do ponto de vista matemático. Mais detalhes
e alguns experimentos numéricos usando K-REGINN para resolver este problema são apresentados na Seção 5.1
abaixo.

Para modificar o EIT-CM a fim de ajustá-lo a uma estrutura mais concreta e realista, muitas tentativas foram
feitas e diferentes métodos foram sugeridos. Um dos mais promissores e atualmente considerado uma estrutura
muito realista é o chamado Complete Electrode Model (EIT-CEM), que foi apresentado pela primeira vez por
Somersalo et al em [50]. No EIT-CEM, eletrodos são fixados na borda de um objeto e a corrente elétrica é injetada
nesse objeto por meio desses eletrodos. A tensão resultante é então lida nos mesmos eletrodos. O problema
inverso de reconstruir a condutividade elétrica em todo o conjunto a partir da aplicação de diferentes configurações
de correntes e a medida das respectivas tensões em sua fronteira é considerado na Seção 5.2, onde adicionalmente
apresentamos alguns experimentos numéricos e discutimos os resultados.

No que diz respeito a situações práticas, o EIT tem uma vasta gama de aplicações potenciais em diversos
campos, incluindo imagiologia médica não invasiva, ensaios não destrutivos para localização de anomalias de
resistividade, monitorização de misturas de petróleo e gás em oleodutos, geofísica, ciências ambientais, entre
outros . Veja [5, 23] e as referências nele contidas.

Antes de começar, gostaríamos de salientar que ambas as variações da EIT são apropriadas e naturalmente
adequadas ao uso dos métodos de Kaczmarz. A razão é simples: a condutividade elétrica é reconstruída a partir
de um conjunto de medições individuais. Cada uma dessas medições pode ser considerada como um operador
individual em um sistema de equações a ser resolvido.
Os detalhes serão explicados posteriormente em um momento conveniente.

75
Machine Translated by Google

76 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

5.1 EIT - Modelo Contínuo


2
elétricas Sejam ser
ÿ ÿ um
R f :domínio
ÿÿ ÿ R no
de limite
Lipschitz
de ÿsimplesmente
e registrando conectado.
as tensões g
Aplicando
: ÿÿ ÿ R no
algumas
mesmocorrentes
conjunto,
pretendemos encontrar a condutividade elétrica ÿ : ÿ ÿ R no todo de ÿ . Assume-se que o conjunto ÿ
não possui fontes ou drenos elétricos, o que significa que o fluxo elétrico ÿÿu é livre de divergência,
onde u: ÿ ÿ R representa a distribuição de potencial em ÿ. Esta condição é escrita

Como

div (ÿÿu) = 0 em ÿ. (5.1)

Supõe-se que o fluxo elétrico seja completamente transferido para a fronteira, o que significa que

ÿu
ÿÿ = g em ÿÿ, ÿ (5.2)

onde ÿu/ÿÿ é a derivada normal externa de u. Para provar a existência e a unicidade ÿ1/2 de uma
solução
u, escrevemos a formulação fraca de (5.1) e (5.2): Dado g ÿ H (ÿÿ) (ÿ), encontre u ÿ H1 e ÿ ÿÿ Lÿ
+ ÿ (ÿ) tal que

ÿÿuÿÿ = gÿ para todo ÿ ÿ H1ÿ (ÿ). (5.3)


Oh ÿÿ

O símbolo ÿ significa que a integral da função sobre o limite de ÿ é zero:

1/2
H
ÿ (ÿÿ) := v ÿ H1/2 (ÿÿ) : v=0.
ÿÿ

Se a função é definida em ÿ, esta integral é entendida no sentido do teorema do traço: para u ÿ H1


(ÿ), seu traço f = u|ÿÿ pertence a H1/2 (ÿÿ), e definimos

H1ÿ (ÿ) := u ÿ H1 (ÿ) : f=0.


ÿÿ

ÿ1/2 1/2
Finalmente, o conjunto
ÿ H (ÿÿ) é definido como o espaço dual de H (ÿÿ)
ÿ e

ÿ
eu
+ (ÿ) := {v ÿ L ÿ (ÿ) : v ÿ C e em ÿ} ,

onde C > 0 é uma constante.


A condição ÿ1/2
ÿÿ g = 0 (g ÿ H (ÿÿ)) ÿ é interpretado como a lei de conservação de carga. Usando-
o em combinação com o Lema de Lax Milgram, pode-se provar que existe um vetor u ÿ H1 (ÿ)
satisfazendo (5.3) e que é único até uma constante. A f = 0 (u ÿ condição H1 (ÿ)) é, portanto, necessária
aterramento ÿÿ
do para
potencial.
garantir
Além
a ÿunicidade
disso,
elétrico
o limite
pode
das soluções
fluir
inferior
porÿtodo
em
ÿ C(5.3).
oaeconjunto
emPode
ÿ (ÿ ÿ.
ser
ÿ Lÿinterpretado
(ÿ)) garantecomo
que oofluxo

Com a existência e unicidade de soluções do problema variacional (5.3), o operador Neumann-


para-Dirichlet (NtD) ÿÿ, que associa a corrente com a respectiva tensão,

ÿ1/2 1/2 ÿÿ : H (ÿÿ) ÿ H (ÿÿ),


g ÿÿ f ÿ ÿ

está bem definido. Além disso, pode-se provar que é um operador limitado linear invertível. Seu
inverso linear limitado é chamado de operador Dirichlet-para-Neumann (DtN).
O operador direto associado ao problema EIT-CM agora é definido como a função não linear

ÿ1/2
F : D (F) ÿ L ÿ (ÿ) ÿ LH ÿ (ÿÿ), H1/2ÿ (ÿÿ) , ÿ ÿÿ ÿÿ, (5.4)
Machine Translated by Google

5.1. EIT - MODELO CONTÍNUO 77

com D(F) := Lÿ (ÿ). +


O problema inverso EIT-CM consiste, portanto, em recuperar ÿ a partir de um
conhecimento parcial do operador NtD ÿÿ, que é um problema não linear e altamente mal posto [1].

Em 2006, Astala e P¨aiv¨arinta [2] provaram a injetividade de F em (5.4), o que significa que o EIT-
CM é unicamente solúvel. Na prática, porém, não se pode esperar ter pleno conhecimento do
operador NtD. O melhor que pode ser feito é aplicar um número finito de correntes := (g0, ..., gdÿ1) e
então recuperar as tensões correspondentes, fj = ÿÿgj , d ÿ 1. Este fato sugere que o operador j = 0, ...,

1/2
F : D (F) ÿ L ÿ (ÿ) ÿ H ÿ (ÿÿ)d , ÿ ÿÿ (f0, ..., fdÿ1),

é um substituto natural para (5.4) em aplicações práticas.


Observe que, definindo os operadores

1/2
Fj : D(F) ÿ L ÿ (ÿ) ÿ H ÿ (ÿÿ), ÿ ÿÿ fj , j = 0, ..., d ÿ 1, (5.5)

imediatamente vemos que F = (F0, ..., Fdÿ1) e Y = Y0 × ... × Ydÿ1, com Y :=


1/2
H
ÿ (ÿÿ)d e Yj := H ÿ1/2 (ÿÿ) para j = 0, ..., d ÿ 1. Esta é exatamente a estrutura pré
enviado em (3.6), o que torna este problema adequado para a aplicação de um método de Kaczmarz.
Além disso, cada um dos operadores em (5.5) é Fr´echet-diferenciável como discutiremos agora.

5.1.1 Diferenciabilidade de Fr´echet do operador direto

A F-diferenciabilidade dos operadores diretos Fj em (5.5) é um resultado bem conhecido, veja por
exemplo [35], e não pretendemos prová-lo aqui. O objetivo desta subseção é apenas dar uma
ÿ
explicação aproximada de como os vetores F ÿ para ÿ ÿimportante
int
(c)(D
ÿ e(F)), j 1/2
F para ÿ ÿ Lÿ
(c) (ÿ)
ser
j nossas e ÿ ÿ H (ÿÿ)
calculado, podem
o que
implementações é
numéricas na próxima subseção. ÿ1/2 (ÿÿ) e defina Gj (ÿ) := uÿ, onde uÿ ÿ
H1 Fixe gj ÿ H ÿ de (5.3) com
ÿ g := gj , ou seja,

ÿ (ÿ) é a única solução

ÿÿuÿÿÿ = gjÿ para todo ÿ ÿ H1ÿ (ÿ). (5.6)


Oh ÿÿ

Assim Gj (ÿ)| =ÿÿFj (ÿ). Além disso, seja t ÿ R\ {0} pequeno o suficiente para satisfazer ÿ + tÿ ÿ D (F) e
defina uÿ+tÿ := Gj (ÿ + tÿ), que é o único vetor em H1 (ÿ) que satisfaz a equação ÿ

(ÿ + tÿ) ÿuÿ+tÿÿÿ = gjÿ para todo ÿ ÿ H1ÿ (ÿ). (5.7)


Oh ÿÿ

Subtraindo (5.7) de (5.6) obtemos

ÿÿ (uÿ+tÿ ÿ uÿ) ÿÿ = ÿt ÿÿuÿ+tÿÿÿ para todo ÿ ÿ H1 ÿ (ÿ).


Oh Oh

Dividindo ambos os lados da igualdade acima por t e deixando t ÿ 0, obtemos

ÿÿwÿÿÿ = ÿ ÿÿuÿÿÿ para todo ÿ ÿ H1 ÿ(ÿ), (5.8)


Oh Oh

Onde
uÿ+tÿ ÿ uÿ wÿ :=
= lim
Gj (ÿ + tÿ) ÿ Gj (ÿ) =Gj
lim t (c)p
tÿ0 tÿ0 t
Machine Translated by Google

78 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

é a derivada de Fr´echet de Gj avaliada em ÿ e aplicada no vetor ÿ. Como o operador trace é linear e


contínuo,

F
j (c) ÿ = G j
(c)p ÿÿ
= wÿ|ÿÿ .

Portanto, para calcular F j (ÿ) ÿ, é preciso primeiro encontrar uÿ ÿ H11/2(ÿ)(ÿÿ).


em ÿ(5.6), use ÿ o
ÿ, usamos
seguinte procedimento:
para encontrar wÿ ÿ H1 (ÿ) em (5.8) e finalmente calcule seu traço wÿ|ÿÿ ÿ H
ÿ sejaseja
ÿÿ ÿ ÿH1ÿ Lÿ
(ÿ)(ÿ) fixo e
a única
ÿ
Para calcular o vetor F j (c) solução de (5.3) para g := ÿ, ou seja,
ÿ

ÿÿÿÿÿÿ = ÿÿ para todo ÿ ÿ H1ÿ (ÿ). (5.9)


Oh ÿÿ

Agora, seja wÿ ÿ H1 ÿ(ÿ) denotando a única solução de (5.8) para ÿ := ÿ, o que implica que
F
j (c) ÿ = wÿ|ÿÿ . Consequentemente,

F ÿ
ÿ, ÿ = ÿ, F j =
(5.9)
j (c) (c) ÿ = ÿwÿ ÿÿ ÿÿÿÿÿwÿ
Oh

= (5.8)
=ÿ

ÿÿwÿÿÿÿ ÿÿuÿÿÿ = ÿÿuÿÿÿ, ÿ.


Oh Oh

Desta forma,
ÿ
F
j (c) ÿ = ÿÿuÿÿÿ, com (5.10)

uÿ, ÿ ÿ H1 ( ÿ) sendo
ÿ dados em (5.6) e (5.9) respectivamente.
Infelizmente, o espaço Lÿ (ÿ) tem propriedades de suavidade/convexidade muito ruins para ser
incluído na análise de convergência de K-REGINN no Capítulo 4 (não é uniformemente suave, por
exemplo). Mas, como ÿ é limitado, Lÿ (ÿ) ÿ L p (ÿ) para 1 < p < ÿ, e como esses espaços têm as
propriedades necessárias (lembre-se que para 1 < p < ÿ, os espaços de Lebesgue L p pÿ 2ÿconvexo e está
pÿ2ÿsuave (ver Exemplo 14)), uma solução possível e imediata seria redefinir os operadores Fj em
diferentes espaços:

1/2
Fj : D (F) ÿ L p (ÿ) ÿ H (ÿÿ), 1 < p < ÿ. ÿ
ÿ

O mapeamento de dualidade Jp : L p (ÿ) ÿ L p (ÿ) pode agora ser facilmente calculado via (2.14).
Usando esta estratégia, no entanto, um novo problema se torna evidente: D(F) não possui pontos
interiores na L pÿtopologia1 , o que significa que aPara
comprometidas. diferenciabilidade
contornar esseouobstáculo
mesmo atécnico,
continuidade de Fj estão
sugerimos
restringir o espaço de condutividade X procurado a um espaço de dimensão finita V ÿ Lÿ (ÿ), ou seja,
redefinir as funções Fj 's como

2
Fj : V+ ÿ Vp ÿ L (ÿÿj ), ÿ ÿÿ fj , V+ := D (F) ÿ V, (5.11)

onde ÿÿj é a parte da fronteira onde os experimentos são realmente feitos. O índice subscrito p em Vp :=
(V, ·Lp ) destaca o fato de que a L pÿtopologia é usada em2 V = span {v1, ..., vM}. Esta é uma estrutura
razoável porque do ponto de vista computacional, o melhor que se pode fazer é encontrar os coeficientes
do vetor de condutividade em uma base específica de um subespaço de dimensão finita de Lÿ (ÿ). Além
disso, usando um número finito de experimentos, apenas um número finito de graus de liberdade da
condutividade pode ser restaurado.
Como em espaços de dimensão finita todas as normas são equivalentes, a F-derivada de Fj
permanece a mesma3 .

1Para ÿ ÿ D (F) fixo, a bola ÿ ÿ L ÿ (ÿ) : ÿ ÿ ÿLp(ÿ) < ÿ não está inteiramente contida em D (F) para qualquer ÿ >
0.
2Os vetores vi ÿ L ÿ (ÿ), i = 1, ..., M são naturalmente considerados linearmente independentes.
1/2 (ÿÿ) com L 2
3A mudança do espaço de dados H ÿ (ÿÿj ) em (5.11) não altera a derivada de Fj
2
ou, desde H1/2 (ÿÿ) ÿ L (ÿÿ), veja por exemplo [14, Theo. 2.72].
Machine Translated by Google

5.1. EIT - MODELO CONTÍNUO 79

5.1.2 Implementação computacional

A fim de melhorar as reconstruções em nossos experimentos numéricos, propomos o uso de uma função de peso
como feito em [52]. Para formalizar os resultados e ajustar adequadamente as ideias ao nosso esquema, a próxima
proposição precisa ser provada.

Proposição 48 Sejam X e Y espaços de Banach definidos sobre o mesmo corpo k. Se existe um operador linear,
ÿ1 ÿ
isométrico e sobrejetivo T : X ÿ Y, então o operador T : Xÿ ÿ Y está bem definido e compartilha as mesmas
ÿ
propriedades.

Prova. Suponha que T : X ÿ Y tenha as propriedades necessárias. De sua isometria segue que T é injetivo e, portanto,
ÿ1
bijetivo. Assim T linear, invertível e isométrico também. Da isometria
: Y de
ÿ XTestá bem definido e segue-se claramente
ÿ1
agora que a limitação está bem
ÿ1 ÿ ÿ

deste operador, o que implica que seu T adjunto de Banach : Xÿ ÿ Y definida.


ÿ1 ÿ
Além disso, é um operador linear. Resta provar que este operador é isométrico e é invertível e isométrico,
ÿ ÿ1
T sobrejetivo. Seja, portanto, x ÿ Xÿ seja dado. Como T
ÿ1 ÿ x ÿ ÿ1 ÿ x ÿ ÿ ÿ1 ÿ
T = sup yY T , y = sup x ,T y=x Xÿ ,
eÿ
=1 T ÿ1yX=1

ÿ1 ÿ ÿ ÿ

o que prova que T e define é isométrico. Por fim, para provar a sobrejetividade, seja ÿY seja dado
ÿ

o operador x y : X ÿ k como
ÿ ÿ
x , x := y , T x, x ÿ X.
ÿ ÿ1 ÿ ÿ x ÿ
Então fica claro que x ÿ Xÿ . Vamos provar que T =e . De fato, para cada y0 ÿ Y,
defina x0 := T ÿ1y0. Então

ÿ ÿ ÿ ÿ1 ÿ1 ÿ ÿ x
Y , y0 = y , Tx0 = x , x0 = x ,T y0 = T , y0 .

Observe que se T tem as propriedades exigidas da proposição acima, então é um operador linear, limitado,
isométrico e invertível. Além disso, seu inverso também é um operador limitado, porque também é isométrico. Isso
significa que T é um isomorfismo de espaços de Banach e
ÿ1 ÿ ÿ

o mesmo se aplica a T . Além disso, obviamente vale, para todo x ÿ Xÿ e x ÿ X,

ÿ ÿ1 ÿ x ÿ
x , xXÿ×X = T ,Tx ,
Y ÿ×Y

ÿ1 ÿ
o que implica que T em é na verdade um isomorfismo de espaços duais. O resultado implica
particular que
ÿ1 ÿ ÿ x
ÿx
ÿ Jÿ (x) ÿÿ T ÿ Jÿ (Tx),
ÿ1 ÿ
isso é t Jÿ (x) = Jÿ (T x). Então, para todo x, y ÿ X,

ÿ1 ÿ
Jÿ (T x), T y Y ÿ×Y =T Jÿ (x), T y = Jÿ (x), yXÿ×X .
Y ÿ×Y

Cada propriedade de X que depende apenas da norma ·X ou do par de dualidade de seu espaço dual Xÿ é, portanto,
preservada.
exatamente as mesmas. Em particular,
Por exemplo, as propriedades de suavidade e convexidade ing ·, ·Xÿ×X de X e Y são
a equivalência

1 p 1 p Cp p
x-y ÿ x ÿ Jp (x), y + Y
p p p

se e apenas se
1 p 1 p Cp p
TxÿTy ÿ Tx ÿ Jp (T x), T y + Te ,
p p p
Machine Translated by Google

80 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

implica que X é p-suave se e somente se Y é p-suave. Além disso, a constante Cp permanece inalterada.

A motivação para provar a Proposição 48 é definir o espaço de Banach ponderado


p
euÿ (ÿ). Seja ÿ: ÿ ÿ R uma função positiva e defina o espaço vetorial

p
50 oh
p (ÿ) := f : ÿ ÿ R : |f| ÿ<ÿ.
Oh

p
fÿL ÿ (ÿ) se e somente se fÿ1/p ÿ L p (ÿ). Podemos então definir a norma Observe que

fL p ÿ(ÿ) := fÿ1/p , f ÿ Lp oh (Oh),


Lp(ÿ)

p
transformam L 0 < ÿminÿÿ(ÿ)
ÿmax
em são
um espaço
constantes
normado.
independentes
Se ÿmin ÿdeÿ x,
(x)então
ÿ ÿmax para todo x ÿ ÿ, onde quais

1 p p 1 p
f ÿ
ÿ(ÿ) ÿ f f
eu
p eu
p
ÿmax Lp(ÿ) ÿmin ÿ(ÿ) .

Assim, os dois espaços vetoriais têm normas equivalentes e os mesmos elementos. Além disso, o
p p
a completude de L p (ÿ) é transmitida para L ÿ (ÿ) e o operador T : L ÿ (ÿ) ÿ L p (ÿ), f ÿÿ fÿ1/p está bem
definido e satisfaz todas as hipóteses da Proposição 48 . Portanto, o ÿ (ÿ))ÿ = L ÿ (ÿ)
p p pÿ
Espaço de Banach ÿ (ÿ) herda as propriedades de L p (ÿ). Em particular, (L
p
L e para todo f, g ÿ L ÿ (ÿ),

p-1
Jp (f), g L pÿ
×L
oh
p
oh
= Jp (T f), T gLpÿ×Lp = |T f| sinal (Tf), Tg Lpÿ×Lp

p-1 1/ = p-1
= |f| pÿ sinal (f) ÿ , gÿ1/p Lpÿ×Lp
|f| sinal (f) gÿ
Oh

p-1
= |f| sinal (f), g .
L pÿ
×L
oh
p
oh

p p-1
Portanto, o mapeamento de dualidade Jp em Lÿ (ÿ) ainda é dado por Jp (f) = |f| sinal(f).
ÿ

O operador adjunto F j (ÿ) (c) muda ligeiramente no novo espaço porque para o novo
ÿ

operador adjunto F j queremos ter para cada ÿ ÿ int (D (F)), ÿ ÿ L p (ÿ) e ÿ ÿ


2
eu (ÿÿj ),

ÿ ÿ
F != =Fj
j (c) h, p
eupÿ p
h, F j (c)p L2(ÿÿj ) (c) h, p
Lpÿ (ÿ)×Lp(ÿ) ,
ÿ (ÿ)×L ÿ(ÿ)

isso é
ÿ ÿ
F deixe = F ilha
j (c) j (c)
Oh Oh

Assim (ver (5.10)),


ÿ ÿ
F
j (c)
=o ÿ1F j
(c) = ÿÿ ÿ1ÿuÿÿÿ. (5.12)

Continuamos usando a antiga notação Fj em vez de Fj para o novo operador.


A ideia de usar a função ÿ é dar diferentes pesos para diferentes regiões de ÿ.
Com este procedimento esperamos aumentar a estabilidade em algumas regiões onde é importante tê-la.
Voltaremos a esse assunto mais tarde para introduzir uma função de peso apropriada para nossa estrutura.
Antes de fazer isso, no entanto, alguns preliminares são necessários.
Para nossos experimentos numéricos nesta seção, observamos apenas a versão Kaczmarz de REGINN
e deixamos a comparação entre os métodos Kaczmarz e não-Kaczmarz para o problema EIT-CEM, que
será analisado na próxima seção.
Machine Translated by Google

5.1. EIT - MODELO CONTÍNUO 81

Para realizar os experimentos, escolhemos ÿ como unidade quadrada (0, 1) × (0, 1)


e d = 4m (m ÿ N) correntes independentes

cos (2j0ÿx) cos (2j0ÿy) : (x, y) ÿ ÿj1


gj := ,
0 : de outra forma

onde j = 4 (j0 ÿ 1) + (j1 ÿ 1), j0 = 1, ..., m e j1 = 1, ..., 4. Os conjuntos ÿj1 representam as faces de ÿ :
ÿ1 := [0 , 1] × {1} , ÿ2 := {1} × [0, 1] , ÿ3 := [0, 1] × {0} e ÿ4 := {0} × [0, 1] .
As tensões fj = ÿÿgj são medidas em ÿÿj = ÿÿ\ÿj1 , as tensões o que significa que não lemos
onde aplicamos as correntes.
Para implementar K-REGINN numericamente, é necessária a avaliação computacional dos vetores
ÿ 2
Fj (ÿ), F (ÿ)
j
(c) ÿeF
ÿ para ÿ ÿ int (V+),
disponível,
ÿuma
ÿ Vptriangulação
aplicamos
e ÿ ÿ L (ÿÿ).ode
Como
Método
Delaunay
j uma
dos Elementos
solução analítica
Finitosgeralmente
(FEM), construindo
não está

ÿ := {Ti : i = 1, ..., M} (5.13)

para ÿ, fornecido pela caixa de ferramentas pde do MATLAB com M = 2778. A mesma triangulação é
então usada para resolver os problemas elípticos (5.6), (5.8) e (5.9) e para reconstruir a condutividade.
Os elementos da base usados para definir o espaço de dimensão finita V são definidos como

1 : x ÿ Ti 0 :
vi (x) := ÿTi (x) = , x ÿ ÿ, (5.14)
x /ÿ Ti

o que significa que estamos procurando por condutividades constantes por partes. Esta escolha de
V garante a injetividade de F j (ÿ). Além disso, Fj satisfaz a Condição do Cone Tangencial
(Suposição 1(c), página 31), veja [35, Subseção 3.1].
Queremos testar o desempenho do K-REGINN para reconstruir condutividades esparsas em
a base {v1, ...vM} e, por esse motivo, definimos a solução exata como

M
0,9 : x ÿ B
+ c (x) := ÿ0 (x) + ÿivi (x), ÿi := 0: caso contrário , xÿÿ (5.15)
i=1

onde ÿ0 (x) ÿ 0,1 representa um fundo conhecido e também é a primeira iteração. O conjunto B
representa duas inclusões de bolas abertas com raios iguais a 0,15 e centros (0,35, 0,35) e (0,65,
0,65). A Figura 5.1 mostra ÿ + e a triangulação ÿ de ÿ.
Para comparar corretamente os resultados em diferentes espaços, sempre calculamos o erro no
L 2ÿnorma. O erro de iteração relativo do nÿésimo iterado ÿn é, portanto, definido por

em := 100 ÿn ÿ ÿ +L2(ÿ) ÿ+L2(ÿ)


, (5.16)

o que implica que o erro inicial é e0 ÿ 87, 4%. O erro de iteração relativo (final) eN(ÿ) é denominado
erro de reconstrução. Os dados correspondentes fj = ÿÿ+ gj foram calculados sinteticamente usando
novamente o FEM, mas com uma malha diferente e muito mais refinada do que ÿ para evitar um crime
inverso. Os dados gerados são então corrompidos por ruído aleatório artificial de nível de ruído relativo
ÿ, ou seja, os dados perturbados são

f jd = fj + ÿ fjL2(ÿÿj ) perj , j = 0, ..., d ÿ 1, (5.17)

onde perj é uma variável aleatória uniformemente distribuída com = 1.do


emcapítulo
contraste com perjL2(ÿÿj
anterior, ÿ denota )
aqui um nível de ruído relativo. Os outros parâmetros de entrada do Algoritmo 1 são escolhidos como
ÿ = 1,8, µ = 0,8 e kmax = 50.
Machine Translated by Google

82 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

0,8

0,6

0,4

0,2

0
0 0,2 0,4 0,6 0,8 1

Figura 5.1: Esquerda: a condutividade ÿ + procurada, definida em (5.15) e modelada por um fundo resistivo (em
azul) e duas inclusões condutivas em forma de bola (em vermelho escuro). Direita: a triangulação ÿ de ÿ.

Uma escolha apropriada da função peso ÿ é crucial para a qualidade das reconstruções. Com base nas
explicações de [52], definimos ÿ como uma função constante por partes: ÿ := com i=1 ÿiÿTi ,
M

2
dÿ1
F
j=0 j (ÿ0) ÿTi
L2(ÿÿj )
ÿi := , (5.18)
| De |

onde |Ti | representa a área do triângulo Ti . Apesar de ser apenas uma escolha heurística para o EIT-CM, esta
definição de ÿ tem um significado especial para o modelo de eletrodo completo em espaços de Hilbert, ver (5.43)
e Observação 50 na próxima seção.
2
Como Yj = L (ÿÿj ) é um espaço de Hilbert, escolhemos r = 2 porque neste caso, j2 (f) = f (ÿÿj ). Como
2
ideias de [12] e sempre
estamos
escolhemos
interessados
1 < pem
ÿ 2.
estudar
Para ocondutividades
primeiro teste, esparsas,
usamos p seguimos
= 1,1. para todos os f ÿ L as

O objetivo do primeiro experimento é testar a qualidade da função de peso ÿ. A Figura 5.2 ilustra os resultados
obtidos usando d = 8 e diferentes níveis de ruído relativo ÿ. Compara a influência dos espaços de Banach X =
Vp,ÿ := V, ·L p ÿ(ÿ) , ponderados com ÿ e o espaço padrão X = Vp na reconstrução
duplo comÿN(ÿ)
C1 =. C2
O método DE(3.29)
= 0,1 (ver gradiente
e
(3.39)) é empregado como iteração interna de K-REGINN para gerar os resultados. Abaixo de cada figura é
mostrado o número de iterações externas N = N (ÿ), o erro de reconstrução eN e o número kall, que representa a
soma de todas as iterações internas realizadas até a convergência. Todas as figuras estão na mesma escala de
cores e abaixo de todas elas é exibida uma barra de cores. Observe que para todos os níveis de ruído, as
reconstruções na primeira linha, obtidas com a norma ponderada ·L1.1 são qualitativa e quantitativamente
superiores àquelas encontradas usando a norma L 1.1 e exibidas na segunda linha. Além disso, no espaço
, peso ÿ traz
ponderado, o Algoritmo 1 requer menos iterações até a convergência.
oh
Além
mais
disso,
estabilidade
fica claroàs
que
soluções
o uso da
nofunção
sentido
de reduzir a oscilação próxima à fronteira, que está constantemente presente no

1.1
reconstruções no espaço não ponderado L espaços, o . Esta figura também se torna perceptível em ambos os
+ Como
comportamento N (ÿ) ÿ ÿ como ÿ ÿ 0 e a propriedade de regularização, ÿN(ÿ) ÿ ÿ ÿ ÿ 0, provado no Teorema
47.
Devido à melhoria proporcionada pelo uso de ÿ, esta função peso é utilizada em todos os demais experimentos
desta subseção. Por esta razão, pulamos a dependência de Vp em ÿ, ou seja, a partir de agora Vp = V, ·L p ÿ(ÿ) .
Machine Translated by Google

5.1. EIT - MODELO CONTÍNUO 83

d = 4% ÿ = 2% ÿ = 1%

V1.1, oh

N = 30, eN = 81,57% N = 63, eN = 79,28% N = 96, eN = 77,20%


frio = 15 frio = 52 frio = 133

V1.1

N = 63, eN = 85,19% N = 142, eN = 83,25% N = 598, eN = 81,24%


frio = 204 frio = 465 frio = 3018
0,1 0,15 0,2 0,25

Figura 5.2: Condutividade ÿN(ÿ) reconstruída em dois espaços de Banach diferentes e com níveis de
ruído diferentes. A primeira e a segunda linhas exibem os resultados obtidos usando, respectivamente,
a norma ponderada ·L1.1 e a norma padrão ·L1.1 .
oh

O objetivo do segundo teste é verificar os resultados do Teorema 43. Fixamos todos os mesmos
parâmetros do último experimento (inclusive p = 1,1 ed = 8) e analisamos o comportamento da
variação de Bregman do método TP (3,58) no a iteração interna de K-REGINN com número máximo
de iterações internas é fixada em kmax = 1. Essa configuração resulta em uma variação do método
Levenberg-Marquardt. O parâmetro de regularização em (3.57) é escolhido como ÿ0 = 0,01. Agora,
para realizar a iteração interna, ou a solução da equação não linear (3.58) precisa ser encontrada ou
a minimização do funcional (3.60) deve ser executada. Uma iteração de ponto fixo para zn,k+1 em
(3.58) pode ser empregada para encontrar esse vetor. A convergência é garantida se os espaços X
e Y tiverem regularidade suficiente e a constante ÿ0 for grande o suficiente, veja por exemplo [39,
Apêndice A]. No entanto, essas condições são muito restritivas: a convergência só é garantida para
grandes valores de ÿ0 e essa constante precisa ser muito grande para pequenos valores de p, o que
do ponto de vista prático parece inviabilizar esse método. Por outro lado, minimizar o funcional (3.60),
mesmo em espaços de Hilbert, não é uma tarefa trivial e está longe de ser simples em espaços de
Banach mais gerais. Para atingir este objetivo, utilizamos o método DE ((3.29) e (3.39)) com C1 = C2
= 0,01, que se mostrou robusto o suficiente para atingir uma precisão satisfatória na minimização de
(3,60). Como o Teorema 43 se refere à situação sem ruído, nenhum ruído artificial é adicionado aos
dados gerados (ÿ = 0). A Tabela 5.1 apresenta os resultados. Isso reforça o fato de que na situação
sem ruído, tanto o bn residual quanto o erro relativo de iteração en convergem para zero à medida
que o número de iterações externas n cresce até o infinito.
Machine Translated by Google

84 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

n 0 1 10 100 1000 10000


e 87,40 86,27 80,50 74,57 69,29 60,17
bn 0,0715 0,0690 0,0291 0,0030 0,0014 0,0008

Tabela 5.1: Método de Levenberg-Marquardt empregado para confirmar os resultados do Teorema 43: o
erro relativo de iteração en , assim como o residual não linear bn se aproxima de zero à medida que o índice
de iteração externa n cresce até o infinito.

No próximo experimento pretendemos confirmar os resultados do Teorema 38, que afirma que o erro
de iteração na distância de Bregman é monotonicamente não crescente na iteração externa de K-REGINN,
ou seja, ÿp (ÿ +, ÿn) ÿ ÿp (ÿ +, ÿnÿ1) para n = 1, ..., N (ÿ). A Figura 5.3 exibe a evolução versus
do erro ode
índice
iteração
de
iteração externa n para três diferentes métodos de gradiente duplo (3.29) usados como iteração interna: os
métodos DE, MSD e LW com C1 = C2 = 0,1 pol (3,39), K1 = K2 = 0,1 in (3,45) e ÿLW = 0,1 (ver (3,43)).

O nível de ruído é definido como ÿ = 1%, kmax = 50 e ÿ = 1,5. Os outros parâmetros permanecem os
mesmos do último experimento. Veja que os erros de iteração (final) são comparáveis para todos os
métodos. Este comportamento é de certa forma esperado porque a qualidade das aproximações na iteração
interna não depende apenas do método utilizado em si, mas também é controlada pelo critério de parada
da iteração interna (3.5), que permanece o mesmo para todos os métodos. Entre esses três métodos, no
entanto, o método DE é de longe o método que resulta na convergência mais rápida, enquanto o método
LW parece ser o mais lento. Veja que embora o erro de iteração seja estritamente decrescente na maioria
das iterações, ele permanece constante em algumas delas. Este comportamento está de acordo com os
resultados do Teorema 38, que afirma que o erro de iteração na distância de Bregman permanece o mesmo
nas iteradas onde o princípio de discrepância 3.9 é satisfeito e é estritamente decrescente caso contrário.

0,24
A PARTIR DE

MSD
0,22
LW

0,2

Bregman
distância
iteração
Erro
de
na
de

0,18

0,16

0,14

0,12
0 40 80 120 160 200
Iteração Externa

Figura 5.3: O comportamento do erro decrescente da iteração externa de K-REGINN (mostrado no Teorema
38) observado com três métodos diferentes de gradiente duplo na iteração interna.

Para observar a influência de diferentes espaços de Banach nas reconstruções de ÿ +, aplicamos o


método LW com a mesma configuração do último experimento para gerar a Figura 5.4. O erro de
reconstrução eN(ÿ) é exibido no eixo vertical e confrontado com o nível de ruído ÿ. Os espaços de Banach
Vp, com p = 2, p = 1,1 ep = 1,01 são testados nesta situação e os resultados são comparados usando um
conjunto discreto de quatro níveis de ruído diferentes: ÿ = 4%, ÿ = 2%, ÿ = 1 % e ÿ = 0, 5%. A propriedade
+
de regularização ÿN(ÿ) ÿ ÿ como ÿ ÿ 0, é de alguma forma observada em todos os espaços de Banach
testados.
Observe, no entanto, que os erros de reconstrução são maiores para p = 2 em todos os níveis de ruído e
tornam-se menores quando p se aproxima de 1. Essa melhora quantitativa nas reconstruções para pequenos
valores de p é esperada e pode ser creditada à norma de espaço L p Banach para adequação valores de p.
em contraste com o espaço L de Hilbert, que tem a tendência de produzir reconstruções excessivamente
2
suavizadas e ,
Machine Translated by Google

5.1. EIT - MODELO CONTÍNUO 85

0,84
p=2
0,82 p=1,1
p=1,01
0,8
reconstrução
erro
de

0,78

0,76

0,74
4 2 1 0,5
Nível de ruído

Figura 5.4: Erro de reconstrução confrontado com o nível de ruído e observado em três diferentes
normas de espaços de Banach: L (em2 verde).
(em vermelho) L
1.1
(em azul) e L 1.01

consequentemente, destruindo as propriedades de esparsidade da solução ÿ +, a L pÿnorma com p


assumindo valores próximos a 1 preserva essas características de esparsidade e, portanto, é mais
capaz de reconstruir soluções esparsas, ver eg, [12].
Uma das principais vantagens da utilização dos métodos de Kaczmarz é o fato de que este tipo
de algoritmo não funciona com todas as equações de (3.6) em todos os ciclos. Apenas as equações
cuja iteração atual não é uma aproximação boa o suficiente4 são usadas para realizar uma iteração.
As demais equações cujo iterado atual já é considerado bom o suficiente, não são utilizadas. Este
procedimento apenas atualiza o iterado atual nas direções necessárias, acelerando o método até a
convergência e renderizando melhores reconstruções.
Esse comportamento fica evidente na Figura 5.5, onde o número de equações ativas é comparado a
cada ciclo do K-REGINN. O método MSD de gradiente duplo ((3.29) e (3.45)) é empregado como
iteração interna com os mesmos parâmetros do último experimento, mas com o nível de ruído fixo ÿ
= 1%, p = 1,1 e d = 16. Observe que depois de alguns ciclos iniciais, o número de equações ativas
cai para níveis relativamente pequenos, onde apenas as equações relevantes são trabalhadas até o
término. A média das equações ativas neste exemplo é aproximadamente metade do número inteiro.

16

12
equações
Número
ativas
de

0
0 10 20 30 40 50 60 70
ciclos

Figura 5.5: Comportamento dos métodos de Kaczmarz: a média das equações ativas torna-se menor
com o tempo e a iteração atual é corrigida usando apenas as informações relevantes.

A propriedade de regularização provada no Teorema 47 fica mais uma vez evidente na Figura
5.6, onde diferentes números de correntes elétricas são aplicadas na fronteira de ÿ (diferentes valores
de d, ou equivalentemente, diferentes números de equações em (3.6)) são testados. Queremos
ilustrar ambos os comportamentos neste experimento: mais informações melhoram as reconstruções
independentemente dos níveis de ruído e os resultados tornam-se melhores sempre que os níveis de
ruído são reduzidos. Cada linha nesta Figura apresenta as reconstruções para um valor diferente de
d: d = 4, d = 8 e d = 12. As colunas exibem e comparam os diferentes níveis de ruído ÿ = 2%, ÿ = 1%
e ÿ = 0,5% . As imagens foram geradas usando a variação Bregman do método IT (3.62) com os
mesmos parâmetros do último experimento, mas
4Chamadas de equações ativas, são aquelas equações, cuja desigualdade (3.9) não é satisfeita.
Machine Translated by Google

86 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

com kmax = 10. Além disso, o parâmetro de regularização em (3.68) é definido como a constante ÿn ÿ 0,1 e o
método DE de gradiente duplo ((3.29) e (3.39)) com C1 = C2 = 0,01 é usado para encontrar o minimizador de o
funcional associado (3.63). Todas as figuras estão na mesma escala de cores e abaixo de todas elas, uma barra
de cores mostra os valores representados por cada uma dessas cores. Uma clara melhoria nas reconstruções é
vista movendo-se para a coluna mais à direita (onde os níveis de ruído são mais baixos) e movendo-se para baixo
(onde mais informações estão disponíveis).

ÿ = 2,0% ÿ = 1,0% ÿ = 0,5%

d=4

d=8

d = 12

0,1 0,15 0,2 0,25 0,3 0,35

Figura 5.6: Reconstrução ÿN(ÿ) no espaço V1.1 obtida com os níveis de ruído ÿ = 4%, ÿ = 2% e ÿ = 1% e com
diferentes números de equações: d = 4, d = 8 e d = 12.

A norma do ruído pode variar se for considerada como um vetor em diferentes espaços. Por exemplo, o
chamado ruído impulsivo, que consiste em ruído uniforme padrão sobreposto com alguns poucos pontos de dados
altamente inconsistentes chamados outliers, tem uma pequena norma L r para r pequeno e se torna maior se r
aumenta. Em contraste, o chamado ruído Gaussiano, que é um ruído distribuído uniformemente, é menos sensível
à norma escolhida e tem valores mais semelhantes em diferentes L rÿnormas. Na primeira linha da Figura 5.7,
três tipos de ruído completamente diferentes são apresentados. Os ruídos gaussianos e impulsivos referidos
acima são a primeira e a segunda imagem, respectivamente. Abaixo de cada tipo de ruído, o valor da
correspondente L rÿnorm é mostrado para diferentes valores de r. Os ruídos são dimensionados de modo que o
(relativo)
Machine Translated by Google

5.1. EIT - MODELO CONTÍNUO 87

0,01 0,01 0,01

0,005 0,005 0,005

Barulho 0 0 0

ÿ0,005 ÿ0,005 ÿ0,005

ÿ0,01 ÿ0,01 ÿ0,01

0 1 2 0 1 2 0 1 2

r=2 6.0eÿ3 6.0eÿ3 6.0eÿ3


r = 1,01 8.1e-3 3.9e-3 10.2e-3
r = 50 8.4e-3 13.2e-3 3.5eÿ3

Figura 5.7: Norma de três tipos diferentes de ruído, medida nas normas do espaço de Banach 2 (ÿÿ1) (terceira
linha).
eu (ÿÿ1) (primeira linha), L 1.01 (ÿÿ1) (segunda linha) e L 50

L 2-ruído é ÿ = 1% em todos os casos.


Os mesmos ruídos mostrados no topo da Figura 5.7 são usados para computar as reconstruções apresentadas
na Figura 5.8. As imagens expostas nesta nova figura estão organizadas em colunas e linhas da mesma forma
que na última figura. Assim, cada coluna e cada linha da Figura 5.8 representam respectivamente o mesmo tipo
de ruído e espaço da Figura 5.7. Usamos d = 4, ÿ = 1,8 e kmax = 50. O método de gradiente duplo DE foi
empregado novamente como iteração interna de K-REGINN com e C1 = C2 = 0,1 em (3,39). O parâmetro p é fixo
em 2, o que significa que X é um espaço de Hilbert neste experimento. Por outro lado, escolhemos diferentes
valores para r esperando obter melhores reconstruções naqueles espaços onde o ruído, medido na norma
correspondente, tem valores menores.

Como o conjunto ÿÿj é uma variedade de Lipschitz unidimensional e H1/2 ((a, b)) está continuamente
embutido em L r ((a, b)) paraL(a, b) ÿ) R
r (ÿÿj e 1e <temos
[18] r < ÿ,permissão
veja por exemplo [14, Theo.
para definir Yj = L 2.72],
r (ÿÿj )segue-se
para um rque H1/2
ÿ (1, (ÿÿj ) ÿ
ÿ) arbitrário.
Como para 1 < r < ÿ, os novos operadores
mesmasgjH1/2(ÿÿj
derivadas
) gjLr(ÿÿj
de antes.
) Fj Queremos
ainda são Fr´echet
ressaltar,diferenciáveis
no entanto, que
epadrão
têm
a escolha
asJr
para o mapeamento de dualidade não é, Kaczmarz
em princípio, permitida
neste caso. Oseteorema
caso dr >< 1,
2. mas
De
de
47fato,
convergência
como não
X étemos
realmente um para
nenhum
exige ossde
espaço
que métodos
ÿresultado
para ode
rHilbert,
segue-se que s = 2 e, portanto, o índice r do mapeamento de dualidade deve ser maior ou igual a 2. Esta técnica
O problema poderia ser superado, por exemplo, usando o mapeamento de dualidade normalizado J2 no espaço
L, que pode ser realizado via (2.14).

No entanto, esta parece não ser a melhor solução porque as reconstruções encontradas com este framework não
são tão boas quanto as encontradas quando o mapeamento de dualidade Jr é usado no r (ver também Observação
optamos por
25).utilizá-lo,
Aparentemente,
mesmo sem
o mapeamento
ter a prova de
completa
dualidade
da convergência
Jr é o mais adequado
do espaço
para
L nesta
o espaço
situação.
L r e por isso

2
Como esperado, todas as reconstruções no L espaço (primeira linha da Figura 5.8) são
semelhantes porque todos os ruídos têm a mesma norma L 2. Os resultados apresentados na primeira coluna
também são semelhantes porque o ruído gaussiano tem normas semelhantes nos três diferentes espaços
investigados. Mas, uma qualidade ligeiramente superior da imagem na primeira linha pode ser observada. Este
comportamento pode ser explicado olhando novamente para a primeira coluna da Figura 5.7, que mostra que o
menor valor para o ruído Gaussiano é obtido com o uso da norma L 2ÿ.
Os resultados mais interessantes, no entanto, são mostrados nas duas últimas linhas cruzadas com as duas
últimas colunas. Comparando os resultados da Figura 5.8 com os da Figura 5.7, vemos claramente que se
consegue uma melhoria quando o tipo de ruído condiz com o espaço utilizado, no sentido de que a norma-ruído
resultante tem um valor pequeno (é o caso na interseção entre a segunda linha com a segunda coluna e a terceira
linha com a
terceira coluna). Por outro lado, o efeito contrário ocorre se a combinação de tipos de
Machine Translated by Google

88 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

X = V2

X = V1.01

X = V50

0,05 0,1 0,15 0,2 0,25

Figura 5.8: Reconstrução ÿN(ÿ) obtida em diferentes espaços de Banach norma (comparados por
linhas) e com diferentes tipos de ruído (comparados por colunas). Todos os ruídos são escalados e
têm a mesma norma L 2 .

ruído e espaço usado resultam em uma grande norma de ruído (veja a segunda linha cruzada com
a terceira coluna e a interseção entre a terceira linha e a segunda coluna).
Para finalizar esta seção, explicamos como aproveitar a função de peso ÿ para incorporar
informações a priori sobre a solução ÿ +. Se se espera que as inclusões B estejam localizadas em
uma região específica A de ÿ, uma forma de obter melhores reconstruções é dar menos peso para
os pontos dentro desta região e “penalizar” a distância a este conjunto: seja A ÿ ÿ um fechado
subconjunto em ÿ onde se espera que as inclusões estejam localizadas. Defina a nova função de
peso
ÿ (x) := ÿ (x) h (x), x ÿ ÿ,
Onde
h(x) := (c0 + dist(x, A)). (5.19)

A função dist (·, A) : ÿ ÿ R mede a distância entre um ponto de ÿ e o conjunto


UMA :

dist (x, A) := inf {x ÿ y : y ÿ A} , x ÿ ÿ.


Machine Translated by Google

5.2. EIT - MODELO COMPLETO DE ELETRODOS 89

0,8

0,6

0,4

0,2

0,35

0,3

0,25

0,2

0,15

0,1
N = 934, eN = 74,60% N = 662, eN = 71,86% N = 278, eN = 70,66%
frio = 5162 frio = 4750 frio = 1747

Figura 5.9: Solução reconstruída ÿN(ÿ) para diferentes funções peso. A primeira linha mostra a função
h de (5.19).

A pequena constante c0 > 0 é usada para evitar pesos zero e para definir o “contraste” entre os pontos
que pertencem e os que não pertencem ao conjunto A. Esta nova função de peso ainda é limitada por
cima e por baixo: c0ÿmin ÿ ÿ ÿ (c0 + |ÿ|) ÿmax, onde 0 < ÿmin ÿ ÿmax são, respectivamente, limites
inferior e superior para ÿ.
A Figura 5.9 coleta os resultados obtidos usando diferentes conjuntos A e a mesma constante c0 =
0,03. A primeira linha mostra a função h, definida em (5.19), enquanto a segunda exibe as respectivas
reconstruções com o número de iterações externas N, o número total de iterações internas kall e o erro
de reconstrução eN sendo destacados abaixo de cada figura. No final de cada linha, uma barra colorida
é exibida. A primeira coluna apresenta o resultado para o conjunto A = ÿ, o que significa que o novo
peso ÿ (x) = c0ÿ (x) é apenas um múltiplo da função peso original ÿ. Para a reconstrução na segunda
coluna, a faixa em forma de
definir

A = {(x, y) ÿ ÿ : y ÿ 0,25 ÿ x ÿ y + 0,25}

foram usados, e a superfície delimitada por um quadrado

A = [0,2, 0,8] × [0,2, 0,8]

é o conjunto escolhido na terceira coluna. As imagens foram geradas usando o método DE com C1 =
C2 = 0,1 e a seguinte configuração: d = 8, p = 1,1, r = 2, ÿ = 1,5 e ÿ = 0,5%. Os outros parâmetros são
os mesmos do último experimento.
Observe que os melhores resultados são encontrados tanto na segunda quanto na terceira colunas,
onde são fornecidas informações mais precisas sobre a localização das inclusões. Além disso, o
número total de iterações externas e internas é menor em ambos os casos.

5.2 EIT - Modelo de Eletrodo Completo


Neste novo procedimento, introduzido por Somersalo et al. em [50] para construir uma estrutura mais
realista para o problema EIT, correntes elétricas são injetadas no Lipschitz simplesmente conectado
Machine Translated by Google

90 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

2 domínio ÿ ÿ R através de eletrodos L ÿ N ligados ao seu contorno ÿÿ e as tensões resultantes são


medidas nos mesmos eletrodos com o objetivo de restaurar a condutividade elétrica ÿ : ÿ ÿ R. Para a
tradução correta em um modelo matemático apropriado, supomos que os eletrodos e1, ..., eL são
identificados com a parte da superfície de ÿ com que entram em contato.
Assim, ei ÿ ÿÿ é aberto e tem medida positiva |ei | > 0 para i = 1, ..., L. Adicionalmente,
os eletrodos são
conectados e separados: ei ÿ ej = ÿ para i = j. Similarmente ao modelo EIT CM, supomos que ÿ não
possui fontes ou drenos e assim (5.1) é satisfeito, onde u: ÿ ÿ R representa novamente a distribuição
de potencial em ÿ. Os eletrodos são modelados como condutores perfeitos, o que significa que a
corrente elétrica no eletrodo ei é uma constante Ii ÿ R, que concorda com o fluxo elétrico total sobre o
mesmo eletrodo:
ÿu
ÿ ÿÿ dS = Ii , i = 1, ..., L.
não

O vetor I := (I1, ..., IL) ÿ R L, que reúne em um único vetor as correntes elétricas de todos os eletrodos,
é chamado de padrão de corrente. Como o fluxo elétrico não flui nos vãos dos eletrodos temos

ÿu
c ÿn = 0 em ÿÿ\ ÿL i=1 não .

No contato dos eletrodos com ÿÿ, há um efeito eletroquímico que dá origem a uma fina camada
altamente resistiva caracterizada aqui pelas grandezas zi > 0, i = 1, ..., L e chamadas impedâncias de
contato . O produto da impedância de contato zi pelo fluxo elétrico ÿ (ÿu/ÿÿ) resulta na queda de tensão
no eletrodo ei . Desta forma
ÿu
u + ziÿ ÿÿ = Ui , é não , i = 1, ..., L,

onde Ui é a tensão medida no iÿésimo eletrodo ei . Denotamos por U := (U1, ..., UL) ÿ R L, o vetor das
tensões associadas ao padrão de corrente I.
Em [50, Prop. 3.1], é demonstrado que se o conjunto ÿ, a condutividade elétrica ÿ e os eletrodos ei
tiverem regularidade suficiente, as condições acima podem ser equivalentemente substituídas pelo
problema variacional

eu

B ((u, U),(v, V )) = IiVi para todo (v, V ) ÿ H, (5.20)


i=1

eu
onde H := H1 (ÿ) ÿ R e a forma bilinear B : H × H ÿ R é definida por

eu
1
B ((u, U),(v, V )) := ÿÿuÿv + (u ÿ Ui) (v ÿ Vi) dS. (5.21)
Oh dia não
i=1

Visando agora aplicar o Lema de Lax Milgram [32] em (5.20) para provar a existência de um vetor
(u, U) para impedâncias de contato fixas zi > 0 e um padrão fixo de corrente I ÿ R L, foi sugerido em
[50, Teo. 3.3] mudando o espaço H com H = H/R, que é essencialmente o mesmo espaço, mas com a
diferença de que dois vetores de H que diferem apenas por uma função constante são considerados
como o mesmo vetor em H, ou seja,

(v, V ) ÿ v, V ÿ v ÿ v = const = V1 ÿ V1 = ... = VL ÿ VL. (5.22)

Neste novo espaço vetorial, a forma bilinear B em (5.21) é coercitiva sempre que ÿ ÿ Lÿ (ÿ). +
Agora definindo f : H ÿ R como
eu

f ((v, V)) := IiVi ,


i=1
Machine Translated by Google

5.2. EIT - MODELO COMPLETO DE ELETRODOS 91

vemos que, para ter uma função bem definida, a igualdade f ((v, V )) = fv, V deve ser verificada sempre
que o lado direito de (5.22) for verdadeiro. Assim, a igualdade

eu eu eu

0 = f ((v, V )) ÿ fv, V = IiVi ÿ Ii (Vi + const) = const eu ,


i=1 i=1 i=1

eu
deve ser verificado para uma constante arbitrária. Assumimos assim que I ÿ R onde ÿ ,

eu
eu eu
R ÿ := I ÿ R : Ii = 0 .
i=1

Neste caso, f é um funcional linear bem definido e limitado e aplica-se o Lema de Lax Milgram. Segue-se
que existe uma única solução de (5.20) se H for substituído por H.
Portanto, existem infinitas soluções em H, diferindo entre si apenas por uma constante.
eu eu
Para obter unicidade em H, supomos que U ÿ R pode ser ÿ . As condições I, U ÿ R ÿ
entendidas como a lei da conservação da carga e o aterramento do potencial respectivamente.

O raciocínio acima leva à conclusão de que o seguinte problema variacional relacionado está bem
eu
definido: fixo um padrão de corrente I ÿ R e impedâncias de contatoúnico
positivas
(u, U)ÿ ÿz1,
H1...,
(ÿ)zL,
ÿR encontre
satisfatório
o par
eu
ÿ

eu
eu
B ((u, U),(v, V )) = IiVi para todo (v, V ) ÿ H1 (ÿ) ÿ R ÿ, (5.23)
i=1

eu
onde B : H × H ÿ R, com H := H1 (ÿ) ÿ R ÿ é definido em (5.21).

Observação 49 O problema variacional (5.23) tem uma solução única, mesmo que o padrão de corrente
fixa I pertença a 5 R L\R L Ii e mude I com
ÿ . De I ÿdefinindo
fato, C, a := Li = 1
eu eu
onde C := (a/L, ..., a/L) , vemos que
R ÿI ÿ C
, ÿ R e para todo V ÿ

eu eu eu eu
uma

(Ii ÿ Ci) Vi = IiVi ÿ Nós


= IiVi .
i=1 i=1 Li = 1 i=1

=0

Como existe uma única solução de (5.23) com o padrão atual I ÿC, o mesmo ocorre com I.

Usando (5.23), não é difícil provar que o operador Neumann-para-Dirichlet (NtD)


eu eu
ÿR (5.24)
ÿÿ : R , eu ÿ você,
eu eu eu
que associa um padrão de corrente I ÿ R é com o respectivo vetor de tensão U ÿ R ÿ ÿR
linear. O modelo de eletrodo completo do problema direto EIT (abreviado EIT-CEM) agora é definido pela
função
eu eu
F : D (F) ÿ L ÿ (ÿ) ÿ LR ,R , ÿ ÿ ÿÿ, (5.25)

com D(F) := Lÿ (ÿ).+Recuperar ÿ de um conhecimento parcial de ÿÿ é o inverso associado


problema a ser resolvido.
eu eu
5O vetor padrão atual I ÿ R Portanto, \R ÿ não satisfaz o princípio da conservação da carga.
não tem significado físico.
Machine Translated by Google

92 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

Como pode ser visto na Observação 49, o operador NtD (5.24) não é injetivo. Na verdade, o
o espaço nulo de ÿÿ é dado por

N (ÿÿ) = I ÿ R
eu
: I1 = ... = IL =const=0.

Mas, por se tratar de um operador linear, o conhecimento dos vetores U j = ÿÿI j , j = 1, ..., L, onde
EU 1
, ..., IL é base para R L, implica no conhecimento do próprio operador NtD ÿÿ6 .
Em situações práticas, fixa-se ÿ N (não necessariamente linearmente independente) padrões de
corrente I j ÿ R ÿ , euj = 1, ..., , que por razões de notação reunimos em um único vetor

:= eu 1 LÿR ,
, ..., EU (5.26)

e lê no experimento EIT-CEM uma versão ruidosa de

1 eu
Cg := U , ..., U ÿ R , (5.27)

onde você j , Uj ÿ H1 (ÿ) ÿ R padrão I = euÿ é a única solução de (5.23) associada à corrente , j = 1, ..., .
I j isto é, U j , := ÿÿI j Observe que as versões ruidosas de U j
eu
pertencem ao espaço R mas não necessariamente paraeu
Rÿ.
Vamos agora reformular (5.25) como

F : D (F) ÿ L ÿ (ÿ) ÿ RL , ÿ ÿ ÿÿ, (5.28)

e considere este operador como o problema direto EIT-CEM para o restante desta seção.
A determinação de uma aproximação para ÿ a partir do conhecimento parcial de ÿÿ é, portanto, o
problema inverso associado que queremos resolver.
Da mesma forma que o EIT-CM, apresentado na última seção, o espaço Y = R L fatoriza em
os espaços Y = Y1 × com... ×Y , com Yj := R L, j = 1, ..., e, consequentemente, F = (F1, ..., F)

eu
Fj : D (F) ÿ L ÿ (ÿ) ÿ R , ÿ ÿ U j , j = 1, ..., , (5.29)

que substitui o problema (5.28) por uma versão mais adequada para a aplicação de um método de
Kaczmarz.

5.2.1 Diferenciabilidade de Fr´echet do operador direto


A diferenciabilidade de Fr´echet dos operadores Fj em (5.29) pode ser provada similarmente ao EIT-
CM, veja [28] e [34, Theo 4.1]. Além disso, para ÿ ÿ int (D (F)) e ÿ ÿ Lÿ (ÿ), a derivada F F j
(ÿ) ÿ =: Wj é o segundo elemento do par w que é a única j , Wj ÿ H1 (ÿ) ÿ R eu
ÿ,
solução do seguinte problema variacional:

Bw j , Wj ,(v, V ) = ÿ ÿÿu jÿvdx para todo (v, V ) ÿ H1 (ÿ) ÿ R


eu
ÿ, (5.30)
Oh

onde você j , Uj ÿ H1 (ÿ) ÿ R = Fj eu


é a única solução de (5.23) com o padrão atual
ÿ
eu = eu j ,
isto é, U j (c).
Procedendo de forma similar a (5.10), pode-se provar que para cada Z ÿ R L, o operador adjunto da
F-derivada de Fj satisfaz
ÿ
F Z = ÿÿu jÿy,
j (c) (5.31)

eu
onde (y, Y ) ÿ H1 (ÿ)ÿR ÿ
é a única solução de (5.23) com o padrão atual I = Z.

6Como dim (N (ÿÿ)) = 0 e ÿÿ é simétrico [50], medidas menos linearmente independentes são realmente necessárias.
Machine Translated by Google

5.2. EIT - MODELO COMPLETO DE ELETRODOS 93

A derivada F do operador direto (5.28) agora é dada por F (ÿ) = (F 1 (c), ..., F (c)),
ou seja, para cada ÿ ÿ Lÿ (ÿ),

F 1 (CH
ÿ .. ÿ eu
F (c) n = . . (5.32)
ÿÿ F(c)h ÿÿ ÿ R

Como apenas um número finito de experimentos pode ser feito, apenas um número finito de
graus de liberdade da condutividade pode ser restaurado. Assim, faz todo o sentido restringir as
condutividades procuradas a um espaço dimensional finito. Procedendo de forma semelhante à
última seção, definimos a triangulação ÿ := {Ti : i = 1, ..., M} de ÿ como em (5.13) e analogamente a
(5.11) e (5.14), restringimos o espaço X para o espaço de dimensão finita V
e o domínio de definição de F para

ÿ
V+ := V ÿ L + (ÿ) ÿ Vp, (5.33)

onde V := span {ÿT1 , ..., ÿTM } ÿ Lÿ (ÿ) e Vp := V, ·Lp(ÿ) . A versão discreta dos operadores definidos
em (5.28) e (5.29) são

F : V+ ÿ Vp ÿ R L, ÿ ÿ ÿÿ, (5.34)

e
eu
Fj : V+ ÿ Vp ÿ R , ÿ ÿ U j , j = 1, ..., , (5.35)
M
respectivamente. Identificando o vetor arbitrário ÿ = vetor de i=1
suasÿiÿTi
coordenadas
de V+ ÿ Lÿ(ÿ1,
(ÿ) ...,
com ÿM) ÿ RM,
vemos que as funções em (5.34) e em (5.35) acima podem agora ser vistas como operadores não
eu
lineares de (um subconjunto de) RM para R e de (um subconjunto de) RM para R, respectivamente.
eu
Suas derivadas F (ÿ) e F (ÿ), avaliadas
matrizes
em um
(chamadas
vetor ÿ ÿde
intmatrizes
(V+), podem
jacobianas)
ser consideradas
comj dimensão
e M ×como
L Mduas
×L
respectivamente. Nesse arcabouço, os operadores adjuntos dessas derivadas são simplesmente as
matrizes jacobianas transpostas.

Agora explicamos como calcular a matriz jacobiana de forma eficiente: seja ÿ ÿ int ( V+)
dado e observar que

F (c) = F (c) xT1 , ..., F j (c) ÿTM ÿ R L×M, j = 1, ..., .


j j

jj pode ser avaliado como parte de w i , Wj ÿ


Além disso, usando (5.30), o vetor F j (c) ÿTi =: W eu eu

H1 (ÿ) ÿ R L a única solução de ÿ ,

Bw j eu
eu ,
Wj eu ,(v, V) = ÿ ÿTiÿu jÿvdx para todo (v, V ) ÿ H1 (ÿ) ÿ R ÿ, (5.36)
Oh

L
j onde u é a, única
Uj ÿ H1
solução
(ÿ) ÿ Rde (5.23)
ÿ para o padrão atual I = I j . Este procedimento relativamente
simples para calcular a matriz jacobiana é, obter
o problema (5.23) para I = I j para no entanto,
o vetoraltamente
u M para caro. De fato, é necessário resolver

j e então resolva o problema (5.36) para i = 1, ..., (ÿ).


para calcular F jDa mesma forma, as soluções de (5.23) e M soluções de (5.36) são necessárias
para a avaliação de F (ÿ). Mas, usando um truque simples, como explicado em [42], conseguimos ÿ
eu
fortemente esses números. Para cada i ÿ {1, ..., L} , eu deixo vc , NO H1 (ÿ) ÿ R reduzir
ÿ
ser o eu

eu
eu
solução única de (5.23) com o padrão atual I = J que é o vetor j=1,:=tendo
(ÿi,j ) ocoordenada
valor 1 na iÿésima
e zero nas
demais. Isso é,
eu
Bv eu eu

, NO ,(z, Z) = J
eu

, Z para todo (z, Z) ÿ H1 (ÿ) ÿ R ÿ. (5.37)


Machine Translated by Google

94 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

Desta forma

F j 1= J J eu , Wj
j (c) ÿTi = W eu
, Wj eu
, ..., eu
(5.38)

(5.37) 1 = B v 1 j eu eu j
, NO , w
eu , Wj eu
, ..., B v , NO , w
eu , Wj eu

j 1 1 j L eu
=Bwi, Wj , em
, NO , ..., B wi , Wj , v , NO
eu eu

(5.36)
=ÿ
ÿTiÿu jÿv 1dx, ..., ÿTiÿu jÿv Ldx
ÿ

Oh Oh

=ÿ
ÿu jÿv 1dx, ...,
ÿ

ÿu jÿv Ldx .
De De

Assim, para calcular a matriz jacobiana, que representa a derivada de (5.34), basta resolver o problema (5.23)
para cada um dos padrões de corrente em (5.26), resolver (5.37) para i ÿ {1, ..., L} e monte os resultados conforme
explicado em (5.38) e (5.32). Este procedimento exige a solução de apenas + L problemas variacionais e como o
número de eletrodos L é normalmente muito menor que o número de triângulos M em ÿ, uma enorme economia
no esforço computacional pode ser alcançada com esta estratégia. j Se observarmos ainda que em cada iteração
interna de REGINN, os vetores u , j = 1, ..., já foram calculados na iteração externa para avaliar F (ÿ), então o
cálculo do
jacobiano realmente requer o cálculo adicional de L soluções de (5.37). Analogamente, a avaliaçãoFdo (ÿ)Jacobiano
para a
versão Kaczmarz (5.35) demanda L soluções de (5.37) se a informação Fj (ÿ) já estiver disponível.

Todos os métodos apresentados na Seção 3.1 exigem o cálculo de pelo menos uma derivada aplicada em
um vetor (Ans, s ÿ X) ou do cálculo da adjunta da derivada aplicada em um vetor (Aÿ
n Assim, se ÿquisermos
) para calcular
calcular
o primeiro
sn,1 para
vetor
o problema
sn,1 em cada
(5.34)iteração
sem executar
internaode
cálculo
REGINN.
da matriz
b, b ÿ Y
jacobiana, concluímos em vista de (5.32) que pelo menos L soluções de (5.30) ou (5.31 ) precisam ser encontrados.
Considerando que o processo de obtenção da solução de um problema variacional é o único esforço computacional
relevante em uma execução do Algoritmo 1, e lembrando que L soluções de (5.37) é tudo que se precisa para
calcular o Jacobiano para este problema, concluímos que sempre vale a pena avaliar essa matriz.

A situação é um pouco diferente para a versão Kaczmarz de REGINN, ou seja, se o problema (5.35) for
analisado em vez de (5.34). Se a matriz jacobiana F (ÿ) não estiver disponível ej um
(3.29)
método
ou um
de método
gradiente
gradiente-
duplo
Tikhonov misto (3.76) for empregado como iteração interna, por exemplo, a solução de dois problemas variacionais
é necessária para calcular cada vetor único : um para o cálculo da derivada aplicada em sn,k e um segundo para
o adjunto da derivada aplicada em jr Ansn,k ÿ b total de 2kn soluções necessárias para toda a execução de uma
d . Isso resulta em um
iteração interna. No entanto, na primeira iteração, o cálculo de Ansn,0 pode ser evitado porque
n sn,0 = 0. Mas, se
a iteração interna não for encerrada pelo número máximo kmax,n, a derivada adicional Ansn,kn precisa ser
calculada apenas para verificar o critério de parada (3.5) na última iteração, que nos deixa com o mesmo número
2kn. O cálculo da última derivada não é necessário, entretanto, se o número máximo de iterações internas for
atingido. Neste caso, a iteração interna calcula a solução de 2kmax,n ÿ 1 problemas variacionais. Como a avaliação
da matriz Jacobiana exige um total de L soluções de (5.37), concluímos que não vale a pena calcular esta matriz
se 2kmax,nÿ1 ÿ L ou 2kn ÿ L para os casos em que o número máximo de internos iterações é atingido ou não
alcançado, respectivamente. Mas, como uma estimativa a priori para o número kn não está disponível, é difícil
decidir se o jacobiano deve ser calculado. Observe, no entanto, que se kmax ÿ L/2, ambas as desigualdades são
satisfeitas e, portanto, o cálculo do jacobiano é mais caro. Veja uma comparação detalhada nas Tabelas 5.2 e 5.3
no final da Subseção 5.2.2 abaixo.
Machine Translated by Google

5.2. EIT - MODELO COMPLETO DE ELETRODOS 95

5.2.2 Implementação computacional


Para implementar nossos experimentos, definimos ÿ como o círculo centrado na origem e com raio igual a 4/
ÿ. Para reconstruir a condutividade, usamos a mesma triangulação ÿ de ÿ definida na última subseção, que
também é usada para calcular a matriz jacobiana do operador direto. Como uma solução analítica de (5.23)
geralmente não está disponível, o FEM é usado para encontrar uma solução aproximada. Para esta solução
aproximada, no entanto, uma triangulação ÿ de ÿ diferente e mais refinada é usada7 . Além disso, fixamos d
= 1 (método não-Kaczmarz), o que significa que analisamos o problema definido em (5.34).

Em [35], Lechleiter e Rieder provaram que uma vez que ÿ é fixo, existe um número Lmin ÿ N dependente
de ÿ, tal que se o número de eletrodos satisfizer L ÿ Lmin então a derivada de Fr´echet do (discreto ) para
frente (5.34) é injetivo e satisfaz a Condição do Cone Tangencial (Suposição 1(c), página 31) em uma
pequena bola centrada em um elemento arbitrário ÿ ÿ int (D (F)). Além disso, o mesmo resultado permanece
verdadeiro se o vetor (u, U) ÿ H1 (ÿ) ÿ R, que é a solução exata de (5.23), for alterado por sua aproximação
eu
FEM (uÿ, Uÿ) na malha ÿ sempreÿ que
, particular,
essa triangulação
a desigualdade
é suficientemente
dim ÿ ÿ L(L ÿfino,
1) /2ver
é uma
[35, condição
Theo. 4.5 necessária
e 4.9]. Em
para a injetividade de F .

Uma vez fixadas as malhas, o operador forward (5.34) está bem definido e atua entre espaços de
dimensão finita e como todas as normas são equivalentes nesses espaços, a derivada do operador forward
não muda se as normas em X e Y forem modificadas . Conforme explicado na última subseção, escolhemos
a norma em X como sendo a L pÿnorma e denotamos esse espaço por X := Vp, veja (5.33) acima. Agora
eu
transformamos o espaço vetorial Y = R em um espaço de Banach, equipando-o com a norma

eu 1/r
r eu
Vc := |UI | , UÿR , (5.39)
i=1

onde r > 1 é um número fixo. Um cálculo semelhante ao feito no Exemplo 17 mostra que o mapeamento de
dualidade é dado por
r-1
(Jr (U))i = |Ui | sgn (Ui), i = 1, ..., L, (5.40)
Onde
Jr (U) := (Jr (U) 1, ...Jr (U) L), U ÿ Y.

Em nossos experimentos, escolhemos ÿ e ÿ com dim ÿ = 1200 e dim ÿ = 14340.


Destacamos o fato de que o uso da dimensão relativamente grande da triangulação ÿ implica que a
,a
desigualdade dim ÿ ÿ L(L ÿ 1) /2, necessária para a injetividade de F só é verificada para L ÿ 50. No entanto,
maioria dos experimentos que realizamos nesta subseção têm um número moderado de eletrodos, que em
geral é muito menor que 50. O resultado é que uma solução de um sistema subdeterminado

Anos = bn (5.41)

precisa ser aproximado em cada iteração interna de K-REGINN. Entre todas as soluções possíveis que
poderíamos aproximar, escolhemos então uma específica que é a mais adequada aos nossos interesses.
Seguimos as ideias de [52] e selecionamos uma função de peso apropriada ÿ: ÿ ÿ R, trocando a norma L p
p
em X por L como feito na última seção. Emoh[52],
pesoWinkler e Rieder
diferente ÿ = ÿnpropuseram a escolha
para cada iteração de umaEles
(externa). função de
argumentam que uma escolha usual para a solução de (5.41) nos espaços de Hilbert é

s := min irritado Resp - bn ,


ÿ
sÿN(An)

7Para uma explicação completa de como empregar o FEM para encontrar uma solução de (5.23), recomendamos
[42].
Machine Translated by Google

96 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

ÿ
onde a condição s ÿ N (An) define uma resolve a subdeterminação. A ideia do autor é
constante por partes adequada e um peso positivo

M
ÿn := ÿn,iÿTi ,
i=1

2
de modo que o produto interno ponderado ·, ·ÿn substitua o redefina
original L := ·, ÿn·L2(ÿ) produto interno e então

s := arg min Resp - bn , (5.42)


sÿN(An) ÿÿn

ÿÿn
onde N (An) uct representa o complemento ortogonal de N (An) com o novo estímulo interno
·, ·ÿn . Eles sugeriram uma estratégia que atualiza coeficientes indistinguíveis do iterado atual (externo) ÿn := i=1
M
ÿn,iÿTi com a mesma quantidade que segue: a definição dos coeficientes

Si2 ÿ1
ÿn,i := ÿ n,i , para i = 1, ..., M, (5.43)
| De |

onde |Ti | é a área do triângulo Ti e

2
Si2 := F
j (ÿn) ÿTi
2
j=1

é a 2-norma da i-ésima coluna da matriz jacobiana An = F (ÿn), resulta em uma função de peso ÿn que fornece
M
uma solução s = i=1 siÿTi de (5.42) cujos coeficientes si e sj são
proporcionais às atualizações locais ÿn,i e ÿn,j sempre que as colunas Si e Sj da matriz Jacobiana An são
linearmente dependentes. Mais precisamente, em [52, Theo. 1], está provado que se os coeficientes de ÿn são
definidos como em8 (5.43), então a igualdade

e sj
= sinal (ÿ)
ÿn,i ÿn,j

é garantido sempre que a condição

Sj = ÿSi , ÿ ÿ R\ {0}

permanece verdadeiro.

Observação 50 Como ÿ0 foi escolhido como uma constante na última seção, a função de peso ÿ usada nessa
seção é dada apenas pelo primeiro peso (n = 0 na Definição (5.43) acima) vezes uma constante, ou seja, ÿ =
ÿ0ÿ0 , veja (5.18).

2
Observe que o uso do L fgÿn ponderado resulta em (ÿ) . Infelizmente,
produto interno f, gÿnnossa
= estrutura
Oh
não permite o uso de

espaço ponderado Xn = V2,ÿn = V, ·L2 diferentes espaços X em diferentes iterações e, por esse
ÿn

motivo, procedemos como na última seção e fixamos a mesma função de peso para todas as iterações. Nós,
portanto, definimos

M
oi := ÿiÿTi
i=1

8Os autores de [52] na verdade propuseram o uso de uma função de peso ligeiramente diferente ÿn, cujos coeficientes
M no lugar
ÿn,i corresponde a |Ti| ÿn,i em (5.43). Mas, como eles usaram o produto interno euclidiano em R do produto interno L, ambas as escolhas resultam em
2
abordagens equivalentes.
Machine Translated by Google

5.2. EIT - MODELO COMPLETO DE ELETRODOS 97

Figura 5.10: Esquerda: exemplo de uma condutividade ÿ +, modelada por um fundo (em azul) e uma
inclusão esparsamente distribuída (em vermelho escuro). Meio e direita: Triangulações ÿ e ÿ respectivamente.

com
2
F
j=1 j (ÿ0) ÿTi 2 ÿ1 ÿ
ÿi := 0,i . (5.44)
| De |

Mesmo não tendo resultados para os espaços de Banach, utilizamos esta função peso em todos os
experimentos. Em particular, a mudança do espaço X = Vp com X = Vp,ÿ resulta na
nova norma

fL p ÿ(ÿ) = fÿ1/p , f ÿ X.
Lp(ÿ)

Além disso, esta modificação em X implica uma ligeira modificação na forma como o operador adjunto da
derivada é calculado. Nesse novo espaço, o adjunto Aÿ da matriz jacobianannão
matriz
é apenas
An, mas
a transposta
a transposta
da
da matriz ponderada An,ÿ, definida multiplicando-se cada elemento da iÿésima linha da matriz An por ÿi .
De fato, para todo u ÿ RM e v ÿ R L,

u,(An,ÿ) v = An,ÿu, vVp = ÿAnu, vVp = Anu, vVp,ÿ = u, Aÿ nvY , _


Y

resultando em n = (An, ÿ) .
Aÿ Ressaltamos que nenhum esforço computacional adicional é necessário para calcular os pesos em
(5.44), pois todas as informações necessárias já foram calculadas para calcular a matriz jacobiana A0 = F
(ÿ0), necessária para realizar a primeira iteração interna.
Como o espaço ponderado Vp,ÿ é sempre usado em nossos experimentos, ignoramos a dependência de Vp em ÿ,
de agora em diante.
denotando Vp = V, ·L p ÿ(ÿ)
Em cada experimento que realizamos, todos os eletrodos têm a mesma medida, são distribuídos
uniformemente na fronteira de ÿ e cobrem 50% de ÿÿ. Fixamos L = = 16 para os primeiros experimentos e
:=
os padrões de corrente em (5.26) são definidos como os vetores I (0, ..., 0, 1, ÿ1, 0, ..., 0) , com 1 na iÿésima
eu

coordenada, ÿ1 na imediatamente
constantes
seguinte
conhecidas
e zero nas
zj demais.
= 0,04/ÿ As
para
impedâncias
j = 1, ..., L, de
quecontato
é 1% dosão
raio
as de ÿ. que
estamos procurando tem a forma mostrada em (5.15). Entretanto, diferentes inclusões B ÿ ÿ são
consideradas em diferentes experimentos. A primeira iteração ÿ0 ÿ 0.1 casa novamente com o fundo e o
+
A solução exata ÿ erro de iteração relativo en , bem como a reconstrução do erro, é definido da
mesma forma que (5.16). Em todos os testes que realizamos, os dados ÿÿ em (5.27) foram gerados
sinteticamente usando uma malha muito fina com mais de 230.000 triângulos.

A Figura 5.10 ilustra um exemplo de ÿ +, onde a inclusão B é modelada por uma inclusão de quatro
quadrados. As triangulações ÿ e ÿ, usadas respectivamente para resolver o problema da elíptica (5.23) e
para reconstruir a condutividade, também são exibidas.
Machine Translated by Google

98 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

p=2

e10 = 68,80% e100 = 66,40% e1000 = 64,62%

p = 1,1

e10 = 65,10% e100 = 59,89% e1000 = 46,57%

Figura 5.11: Convergência na situação sem ruído observada em duas normas de espaço de Banach
diferentes. A primeira e segunda linhas mostram as reconstruções obtidas usando o espaço de
Hilbert X = V2 e o espaço de Banach X = V1.1 respectivamente.

Para confirmar o importante resultado da convergência silenciosa, provado no Teorema 43, não
adicionamos nenhum ruído artificial aos dados gerados (ÿ = 0), e vemos o que acontece com a
aproximação ÿn conforme n cresce até o infinito. Para este primeiro experimento, o método IT (3.62)
foi empregado como iteração interna do REGINN e os resultados, que foram construídos nos espaços
X = V2 (p = 2) e X = V1.1 (p = 1,1), são exibidos respectivamente na primeira e na segunda linha da
Figura 5.11. A norma Euclidiana ·2 (Definição (5.39) com r = 2) é usada para transformar o espaço
vetorial Y em um espaço de Hilbert. Com esta configuração, o mapeamento de dualidade em (5.40)
é apenas o operador identidade. O parâmetro ÿn em (3.68) é dado pelo valor constante 0,1 e o
método DE gradiente duplo (ver (3.29) e (3.39)) com C1 = C2 = 0,1 é aplicado para encontrar o
minimizador do funcional (3.63), que é necessário realizar a iteração interna. Os outros parâmetros
de REGINN são µ = 0,8 e kmax = 10. Cada imagem exibida na Figura 5.11 é, na verdade, uma
interpolação linear dos coeficientes das reconstruções constantes por partes. Todas essas figuras
estão na mesma escala de cores e abaixo de cada uma delas é mostrada a iteração do erro relativo
en . A primeira coluna ilustra o iterado ÿ10 enquanto a segunda e a terceira se referem a ÿ100 e
ÿ1000, respectivamente. Como esperado, as reconstruções no espaço de Hilbert X = V2 são
suavizadas demais, com uma oscilação relativamente grande no fundo e inclusões muito baixas. Por
outro lado, a segunda linha mostra claramente inclusões mais finas e altas com inclinações maiores
e níveis de oscilação mais baixos no fundo, o que é um comportamento típico de soluções restauradas
nas normas de espaço de Banach L p para pequenos valores de p, veja por exemplo [12].

No próximo experimento usamos ruído gerado artificialmente para contaminar os dados ÿÿ


em (5.27) com o nível de ruído relativo ÿ :
dC
c = ÿÿ + ÿ ÿÿ2 por,

L2 onde o vetor de perturbação per ÿ R é uma variável aleatória uniformemente distribuída com per2
= 1. Fixamos ÿ = 0,1% e comparamos o desempenho de REGINN para reconstruir inclusões
esparsamente localizadas quando diferentes normas em X são empregadas para esta tarefa. Usamos
p = 2 ep = 1,01. O parâmetro kmax agora é definido como 500 e um método de gradiente-Tikhonov
misto é usado como iteração interna, combinando o método de Tikhonov-Phillips com o método de
gradiente duplo DE (xn = 0 em (3.76) com ÿn ,k = ÿDE sendo definido em (3,72) com C1 = C2 = 0,1).
A constante ÿ tem o valor 1,5 e os demais parâmetros são os mesmos que
Machine Translated by Google

5.2. EIT - MODELO COMPLETO DE ELETRODOS 99

Exato

X = V2

X = V1.01

0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

Figura 5.12: Condutividade com inclusões esparsamente localizadas (primeira linha) e respectivas (segunda
2
Banach: usando a norma de espaço de Hilbert L (terceira linha). linha) e as soluções reconstruídas de
norma espacial L 1.01

último experimento. A Figura 5.12 apresenta as soluções procuradas ÿ e exibe na segunda e+ terceira
na primeira linha
linhas, asno
respectivas reconstruções V2ÿ e V1.01ÿ. Todas as imagens estão na mesma escala de cores e após a terceira
linha, uma barra de cores é exibida.
Vemos claramente um nível mais baixo de oscilação no fundo para as reconstruções na terceira linha. Além
disso, uma melhoria indubitável nas reconstruções é alcançada se o espaço de Hilbert V2 for substituído pelo
espaço de Banach V1.01, resultando em inclusões mais nítidas com valores, formas e localizações mais precisos.

A fim de examinar o comportamento de REGINN para reconstruir uma condutividade esparsa, escolhemos
juntamente com o ruído impulsivo9 p , diferentes normas em X e Y. Os valores
= 2 ep = 1,01, bem como r = 2 er = 1,01 foram designados para realizar esta tarefa.
Como d = 1 (método não-Kaczmarz), a desigualdade s ÿ r no Teorema 47 é uma condição desnecessária e,
portanto, o índice r do mapeamento de dualidade em Y pode ser escolhido livremente.
A Figura 5.13 ilustra a condutividade ÿ + procurada, modelada por uma inclusão em forma de anel,

9
O ruído impulsivo no contexto do Modelo Completo de Eletrodos corresponde a um erro de baixo nível na maioria
dos eletrodos na medida da tensão para um padrão fixo de corrente, mas com níveis de erro muito altos em alguns
poucos deles.
Machine Translated by Google

100 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

0,01

ÿ0,01

16
12
8 16
12
4 8
4

Figura 5.13: Esquerda: a condutividade esparsamente distribuída ÿ + procurada . Meio e direita: ruído
impulsivo ÿÿ c - Sra.

seguido pelo nível de ruído


c ÿÿÿ (ver (5.27)) exibido em dois ângulos diferentes10 e com ruído
ÿÿ ÿ = 1%.
A Figura 5.14 complementa a Figura 5.13 e mostra as reconstruções no quadro acima referido. O
método DE gradiente duplo ((3.29) e (3.39) com C1 = C2 = 0,1) é usado como iteração interna de
REGINN para gerar os resultados. Os parâmetros restantes de REGINN são os mesmos do último
experimento. Na primeira e segunda linhas apresentamos os resultados encontrados usando o espaço
de Hilbert X = V2 e o espaço de Banach X = V1.01 respectivamente. A primeira coluna mostra as
reconstruções quando r = 2 na norma (5.39) é usada, enquanto a segunda coluna mostra os resultados
para r = 1,01. Abaixo de cada imagem, o número de iterações externas N = N (ÿ), bem como o erro
de reconstrução eN e o número total de iterações internas kall são mostrados. Além disso, uma barra
de cores é apresentada à direita. É claro que as imagens da última coluna têm qualidade superior às
da primeira coluna, o que significa que a norma ·1.01 é mais adequada para lidar com o ruído impulsivo
do que a norma euclidiana padrão ·2 . O significativo
preço a ser pago
no número
por melhores
total de reconstruções
iterações internas
é ume aumento
externas.
Observe, porém, que um valor pequeno para p produz um efeito adicional de menor variação no
background ao mesmo tempo em que demanda menor esforço computacional até a convergência. A
Figura 5.14 deixa claro que a combinação p = r = 1,01 resulta em um quadro bastante satisfatório para
esta situação específica.

Para finalizar este capítulo, confrontamos a versão não-Kaczmarz de REGINN (5.34) (onde o caso
d = 1 é considerado) com sua versão Kaczmarz correspondente (5.35), onde d = é usado (ou seja,
cada padrão de corrente individual em ( 5.26) resulta em uma equação diferente usada por K-
REGINN). O objetivo é comparar os erros de reconstrução e o esforço computacional necessário para
executar toda uma execução do Algoritmo 1. Para o caso d = 1, considera-se apenas o caso em que
o Jacobiano é calculado porque esta é sempre a situação mais vantajosa (ver a discussão no final da
última subseção). Além disso, o esforço computacional necessário para realizar todas as iterações
usando ou não o cálculo da matriz jacobiana é comparado para a versão Kaczmarz. Diferentes
números de eletrodos e, respectivamente, de padrões de corrente são usados: L = (= d para a versão
Kaczmarz) com L = 8, L = 16, L = 32 e L = 64. Tentando ser o mais justo possível no comparações,
não usamos nenhuma função peso nas L pÿnormas de X. A constante ÿ foi escolhida como a menor
constante tal que o Algoritmo 1 termina em todos os casos11. Encontramos os valores ÿ = 1,3 para a
versão não-Kaczmarz e ÿ = 3 para a versão Kaczmarz, pois + é o mostrado na interseção dos valores
ótimos. A função de condutividade ÿ

A
10 O vetor-ruído Gdc coluna L2 é realmente exibido na Figura 5.13 na forma de matriz, onde o jÿésimo
ÿ ÿÿ ÿ R corresponde ao vetor U j,ÿ ÿ U j L ÿ R11A e gerado a partir do padrão atual I j em (5.26).
constante ÿ no TCC pode ser significativamente diferente para os problemas (5.34) e (5.35) se o número
de experimentos ÿ N for grande. Como a constante ÿ depende de ÿ, veja (4.9), ela pode ser diferente para
as versões Kaczmarz e não-Kaczmarz.
Machine Translated by Google

5.2. EIT - MODELO COMPLETO DE ELETRODOS 101

r=2 r = 1,01

0,6

0,5

p=2

0,4

N = 11, eN = 74,85% N = 69, eN = 64,71%


0,3
frio = 67 frio = 27815

0,2

0,1
p = 1,01

N = 16, eN = 75,50% N = 26, eN = 62,72%


frio = 34 frio = 4632

Função de condutividade ÿ e + da Figura 5.13, reconstruída em diferentes Ba Figura 5.14:


nach espaços com 1% de ruído impulsivo. Na primeira coluna Y = R L2 , ·2

L2 Y = R , ·1,01 X = no segundo. A primeira e a segunda linhas correspondem aos espaços


V2 e X = V1,01 respectivamente.

a primeira linha e a primeira coluna da Figura 5.12. Para a iteração interna, o método DE gradiente duplo com
C1 = C2 = 0,1 é usado novamente. Além disso, todos os testes foram feitos com o mesmo nível de ruído ÿ =
0,1% e com p = 1,1. Como uma grande constante kmax representa uma vantagem extra para o caso onde a
matriz jacobiana é calculada em comparação com o caso onde esta matriz não é calculada, esta constante
deve ser escolhida com cuidado. Fixamos com o valor 50, que consideramos um bom número. Todos os
outros parâmetros são os mesmos do último experimento. Os resultados deste experimento são coletados
nas Tabelas 5.2 e 5.3. Na primeira tabela, o número de iterações externas N (ÿ), bem como o número total de
iterações internas kall e o erro de reconstrução eN(ÿ) são exibidos para cada configuração de eletrodo.

Conforme já discutido no final da última subseção, a versão regular do REGINN requer

eu 08 16 32 64
Regular 39 149 109 561
N (d) Kaczmarek 558 28174 33111 202499
Regular 3700 26294 14788 18643
frio
Kaczmarek 2003 103227 93392 535148
Regular 79,20 70,38 67.10 65,48
eN(ÿ) Kaczmarek 79.08 69.16 65,78 64,32

Tabela 5.2: Comparação entre a versão Regular do REGINN e sua versão Kaczmarz com diferentes números
L de eletrodos.
Machine Translated by Google

102 CAPÍTULO 5. EXPERIMENTOS NUMÉRICOS

eu 08 16 32 64
IA 331 14954 18093 77693
Regular 616 4752 6944 71744
ISTO Kaczmarz Jac 3206 267438 612087 5174851
Kaczmarek 4564 234628 219895 1272795

Tabela 5.3: Esforço computacional CE (número total de soluções necessárias de problemas variacionais
para uma execução completa do K-REGINN). A linha denotada por ”Regular” representa o caso d = 1
(versão não-Kaczmarz) com a avaliação da matriz jacobiana. As linhas denotadas por ”Regular Jac” e
”Regular” representam as versões de Kaczmarz (d = L) quando a matriz jacobiana é avaliada e não
avaliada respectivamente.

a solução de L problemas variacionais em cada iteração externa para calcular F (ÿn).


Cada iteração interna, por sua vez, requer a solução de L problemas adicionais para a avaliação da
matriz jacobiana. Uma vez que a última iteração externa é a única iteração que não realiza uma
iteração interna, concluímos que o número total de problemas variacionais que precisam ser resolvidos
em toda uma execução do Algoritmo 1 é (2N ÿ 1)L. Para a versão Kaczmarz de REGINN, 1 solução de
um problema variacional é necessária em cada iteração externa para calcular F[n] (ÿn). Se o Jacobiano
for calculado, L soluções adicionais são necessárias em cada iteração ativa12, o que resulta em um
total de N +L.AI, onde o número AI representa o número total de iterações ativas. Por outro lado, cada
vetor calculado na iteração interna de K-REGINN demanda a solução de aproximadamente 2 problemas
variacionais se a matriz jacobiana não for calculada, o que resulta em um total de N + 2kall soluções
necessárias.

Voltando novamente aos resultados, vemos que uma pequena melhora no erro de reconstrução
eN(ÿ) é mostrada na Tabela 5.2 se a versão Kaczmarz do REGINN for considerada.
O preço a pagar é, no entanto, elevado, como evidencia o Quadro 5.3. Esta tabela compara o esforço
computacional necessário para alcançar os resultados. Ele mostra o número geral de iterações ativas
AI e o “esforço computacional” CE para cada configuração de eletrodo13 .
Além disso, a versão regular de REGINN (onde d = 1 e a matriz jacobiana é calculada) e as versões
Kaczmarz (onde d = L) com e sem o cálculo da matriz jacobiana são comparadas. É claro que a versão
regular do REGINN sempre funciona menos que suas versões Kaczmarz em todas as situações.
Comparando apenas as versões de Kaczmarz, vemos que o cálculo da matriz jacobiana exige menor
esforço computacional apenas para um pequeno número de eletrodos. Se for usado um número
relativamente grande de eletrodos, o esforço computacional necessário para calcular a matriz jacobiana
torna-se maior do que o cálculo direto das soluções de (5.23) e (5.30) e a avaliação dessa matriz não
vale mais a pena.

12 Uma iteração ativa é uma iteração externa em que o princípio da discrepância (3.9) não é satisfeito e
em seguida, a iteração interna precisa ser executada.
13O número CE na verdade representa o número total de soluções necessárias de problemas variacionais
usados pelo Algoritmo 1 até o término.
Machine Translated by Google

Capítulo 6

Conclusões e Finais
Considerações

Consideramos a análise de convergência do Capítulo 4 a principal realização deste trabalho.


Neste capítulo, uma versão de Kaczmarz do método inexato de Newton REGINN [43] é analisada em
espaços de Banach e as provas são realizadas considerando uma iteração interna definida de forma
relativamente geral, que se encaixa em vários métodos. O resultado é uma análise de convergência
de K-REGINN, válida ao mesmo tempo para vários métodos de regularização diferentes na iteração
interna. Esta análise é uma generalização para os espaços de Banach e para os métodos de idéias de
Kaczmarz discutidos anteriormente em [36]. No entanto, para desenvolver adequadamente essa
análise de convergência geral, fortes restrições precisaram ser impostas. Pensamos que é possível
enfraquecer essas hipóteses, especialmente aquelas exigidas no espaço de soluções X. Por exemplo,
nos casos em que a versão não-Kaczmarz (d = 1 em (3.6)) é observada, a primeira desigualdade em
(4.30) torna-se desnecessário provar a convergência na situação sem ruído.
Mas, esta desigualdade parece ser exatamente o ponto crucial, onde a sÿconvexidade de X é mais
necessária. Nos casos restantes, a convexidade s é aparentemente evitável e pode ser tratada com
técnicas semelhantes às empregadas em [47]. Assumindo a condição d = 1, portanto, a suavidade
uniforme e sÿconvexidade de X poderiam ser enfraquecidas para apenas suavidade e convexidade
uniforme. É claro que sem a sÿconvexidade, a verificação da Hipótese 3, página 58, para os métodos
investigados na Seção 3.1 seria muito mais árdua.

Em nossa opinião, a suavidade uniforme do espaço de dados Y, necessária para mostrar a


propriedade de estabilidade dos métodos de gradiente duplo no Apêndice A, também poderia ser
evitada usando argumentos semelhantes aos empregados em [47]. No entanto, para efetuar esta
modificação, a prova da propriedade de estabilidade deveria ser feita simultaneamente com a prova
da propriedade de regularização, o que significa que, pelo menos em princípio, a Hipótese 6, página
70, não poderia ser provada separadamente, e consequentemente a análise de convergência geral
pode ser prejudicada.
O método de Tikhonov-Phillips (3.58) tem uma forma de iteração peculiar, que é um pouco
diferente dos outros métodos da Seção 3.1. Essa característica complica substancialmente a análise
de convergência do Capítulo 4, forçando a separação recorrente em dois casos: zn,k = zn,k e zn,k =
xn, ver Premissas 3 e 4, página 62. Mas olhando pelo lado positivo , nenhuma propriedade geométrica
no espaço Y é necessária para este método a fim de provar a Suposição 6, veja a prova de estabilidade
1
no Apêndice A. Isso sugere que o espaço L poderia ser usado como espaço de dados em experimentos
numéricos posteriores, construindo um modelo mais apropriado quadro para lidar com o ruído
1
impulsivo, por exemplo. Se Y = L, entretanto, embora o funcional (3.60) permaneça estritamente
convexo, ele não é mais
diferenciável e o processo de encontrar seu minimizador, necessário para realizar a iteração interna,
torna-se muito mais complexo.

103
Machine Translated by Google

104 CAPÍTULO 6. CONCLUSÕES E CONSIDERAÇÕES FINAIS

desafiador.
No final da Subseção 3.1.2, é discutida a possibilidade de se obter o tamanho de passo ótimo
dos métodos de gradiente duplo e um limite inferior para esse tamanho de passo é mostrado.
Embora seja difícil obter uma fórmula explícita para o tamanho ideal do passo, limites mais nítidos
podem ser determinados. Um limite superior como ÿopt ÿDE , por exemplo, seria especialmente
interessante e poderia facilitar a verificação da Suposição 3, incluindo o método do gradiente
associado ao tamanho de passo ótimo em nossa análise de convergência do Capítulo 4.
Uma situação semelhante é observada com o método de descida mais íngreme de gradiente
duplo. Encontrar uma fórmula explícita para ÿSD em (3.44) envolve a diferenciação do mapeamento
de dualidade, o que dificulta a determinação desse tamanho de passo. Para superar esse obstáculo
técnico, substituímos esse método por sua versão semelhante, o método Modified Steepest
Descent (3.45), que já possui um tamanho de passo explícito que satisfaz a desigualdade desejada
ÿMSD ÿ ÿDE, necessário para incluí-lo em nossa análise de convergência . Embora uma fórmula
óbvia para ÿSD não esteja disponível, não é incondicionalmente necessário provar a Hipótese 3,
pois apenas a desigualdade ÿSD ÿ ÿDE precisa ser verificada. Uma vez provada, a Hipótese 3
implicaria na convergência do método Steepest Descent. O tamanho do passo definido implícito
ÿSD pode ser numericamente aproximado com a ajuda de um algoritmo de otimização na linha
real.
Além de várias técnicas clássicas de regularização, que foram adaptadas de Hilbert para
espaços de Banach mais gerais neste trabalho, algumas novas abordagens são apresentadas.
Entre os métodos que foram introduzidos pela primeira vez nesta tese, destacamos os métodos
de gradiente-Tikhonov misto (Subseção 3.1.4) e o método de Decremento de Erro de gradiente
duplo ((3.29) e (3.39)). Ambos os algoritmos se mostraram métodos úteis para reconstruir soluções
estáveis de problemas mal-postos, como pode ser visto nas Figuras 5.12 e 5.14, por exemplo. O
termo adicional (regularização) dos métodos de gradiente misto-Tikhonov confere maior estabilidade
aos métodos de gradiente regular e resulta em uma iteração interna mais estável. O método
Decreasing Error, por sua vez, apresenta a vantagem de desempenhar o papel do método
gradiente com o erro decrescente mais rápido no caso de um problema linear em um espaço de
Hilbert observado. Este comportamento parece ser de alguma forma transmitido a problemas não
lineares em espaços de Banach como mostra a Figura 5.3.
A não linearidade do mapeamento de dualidade é possivelmente a maior complicação na
análise de convergência de K-REGINN em espaços de Banach gerais. O esforço extra para
demonstrar os teoremas nesses espaços mais complicados é, no entanto, contrabalançado com
as melhorias fornecidas pelo uso de normas mais convenientes. O uso de espaços de Banach
pode ser lucrativo para obter melhores reconstruções de problemas inversos em algumas situações
específicas, especialmente se houver restrições de esparsidade na solução procurada ou no ruído
de dados. Esta melhoria da qualidade torna-se evidente nas experiências numéricas realizadas no
Capítulo 5, no entanto, muitas questões relativas à modelagem matemática do problema EIT com
L pÿnormas permanecem ainda em aberto. Em sua versão original (de dimensão infinita), a
diferenciabilidade ou mesmo a continuidade do operador direto com os espaços de Lebesgue L p
não são, em princípio, não
válidas
ser para
uma qualquer p ÿquestão.
tarefa trivial (1, ÿ) e legitimar
Portanto,o para
uso desses espaços adequada,
uma adaptação parece
mais pesquisas são necessárias.

Um exame superficial das implementações computacionais da Subseção 5.2.2 e particularmente


das Tabelas 5.2 e 5.3 poderia erroneamente levar à conclusão de que a versão Kaczmarz do
REGINN não é competitiva. Esses resultados, entretanto, devem-se em grande parte à manipulação
descrita em (5.38), que reduz consideravelmente o esforço computacional necessário para calcular
a matriz jacobiana, especialmente para a versão não-Kaczmarz do REGINN. Mas sem essa
estratégia, o REGINN regular seria muito mais “caro” e sua versão Kaczmarz poderia se tornar
mais vantajosa. Assim, para ter uma resposta mais precisa sobre a real utilidade da versão
Kaczmarz do REGINN,
Machine Translated by Google

105

experimentos, de preferência com um problema diferente, devem ser realizados.


Para finalizar este trabalho, queremos comparar todos os algoritmos apresentados na Seção 3.1.
Os métodos de gradiente primal da Subseção 3.1.1 são os mais fáceis de implementar e são de longe
os métodos com menos pré-requisitos no espaço X. Mas eles requerem hipóteses fortes em Y e
apenas a terminação de REGINN (regular) pode ser mostrada se tal método for usado na iteração
interna. Os métodos de gradiente duplo da Subseção 3.1.2, por outro lado, podem ser empregados
como iteração interna do REGINN para mostrar a convergência no caso sem ruído e a propriedade de
regularização quando apenas dados ruidosos estão disponíveis. Esses resultados são verdadeiros
mesmo para a versão Kaczmarz do REGINN se o método Landweber for considerado. No entanto, a
iteração (3.29) precisa ser realizada usando a iteração atual (externa) xn, o que torna esta versão dos
métodos de gradiente um pouco mais complicada. Além disso, os requisitos nos espaços X e Y
constituem uma desvantagem considerável. Dentre todos os métodos introduzidos na Seção 3.1,
estes são os que exigem os espaços de Banach mais restritivos para trabalhar: são necessários lisura
uniforme de X e Y e pÿconvexidade de X.
Os métodos de Tikhonov possuem a propriedade conveniente de trabalhar sem quaisquer
restrições, no espaço Y, conforme
convergência mostrado
e a propriedade de na Subseção 3.1.3
regularização e no Apêndice
de K-REGINN podemA. ser
Além disso, a
comprovadas
sempre que o Iterated-Tikhonov ou o Tikhonov-Phillips é a iteração interna escolhida. No entanto, a
obrigação de resolver um problema de otimização para gerar um novo vetor na iteração interna
representa um grande obstáculo: quanto mais fracas as propriedades de convexidade/suavidade o
espaço Y possui, mais difícil se torna esse problema de otimização. Para combinar as vantagens dos
métodos gradiente duplo e Tikhonov, introduzimos na Subseção 3.1.4 os métodos gradiente-Tikhonov
misto. Embora esse tipo de algoritmo necessite dos mesmos requisitos (fortes) nos espaços X e Y que
os métodos de gradiente duplo, ele confere estabilidade extra à iteração interna ao incorporar um
parâmetro de regularização ÿn em sua iteração, veja (3.76). Além disso, não requer a solução de
nenhum problema de otimização, embora, de forma semelhante aos métodos de Tikhonov, seja
necessário determinar um parâmetro de regularização adequado ÿn , que no caso particular de
métodos mistos, depende de informações a priori sobre a norma da solução , veja (3.71).
Machine Translated by Google

106 CAPÍTULO 6. CONCLUSÕES E CONSIDERAÇÕES FINAIS


Machine Translated by Google

Apêndice A

Propriedade de estabilidade do
Regularizando sequências

Este apêndice fornece diferentes métodos, a prova da propriedade de estabilidade fornecida na Hipótese 6, página 70.
Para facilitar a apresentação, assumimos todas as hipóteses do Teorema 47, exceto a própria Hipótese 6. Para alguns
métodos, outras hipóteses são necessárias para completar a prova e essas hipóteses adicionais serão exigidas nos
pontos específicos onde são necessárias. ÿi Seja (ÿi) ÿ R uma sequência-zero e suponha que x

iÿN n ÿ ÿ ÿ Xn como i ÿ ÿ. Nós ÿ ÿ = ÿn,0


ÿi eu
prossiga dando uma prova por indução: para k = 0, z n,0 ÿi =xn (ÿ) como i ÿ ÿ. = ÿn,k (ÿ) para k <
Assuma agora que lim z n,kiÿÿ kREG (ÿ). Nossa tarefa agora é provar que

ÿi
z n,k+1 ÿ ÿn,k+1 como i ÿ ÿ.

• Métodos de gradiente duplo DE, LW e MSD


eu eu
Para esses métodos temos z n,k ÿi = z e v n,k = Aÿi ÿi ÿ b ÿi . Assim, ÿn,k = sn ,k
n,k n n

ÿn,k.

Esta prova é uma versão ligeiramente diferente da apresentada em [40, Lema 10]. Assuma que os espaços de
Banach Yj , j = 0, ..., d ÿ 1 são uniformemente
indução
lisos.eComo
(3.7) fica
as funções
claro que
Fjoevetor
são contínuas, usando a hipótese de
F
j

ÿi ÿi eu
v = A ÿi s ÿi ÿ b ÿi = ÿi x z ÿi ÿ x ÿi ÿ y [n] ÿ F[n] x
n,k n Fn ,k[n] n n em breve
n n

converge para
v xn,k = F
[n] (ÿ) (ÿn,k (ÿ) ÿ ÿ) ÿ y[n] ÿ F[n] (ÿ)

como i ÿ ÿ. Da mesma forma, ÿ ÿi ÿ ÿ ÿ como i ÿ ÿ (veja (3.39), (3.43) e (3.45)). Como o é único e contínuo
em breve em breve
ÿ
espaços Yj 's são uniformemente suaves, a seleção jr : Yj ÿ Y e desde os j
mapeamentos Jp, Fj e F são contínuas também,
j

ÿ
eu eu ÿi
Jp z = Jp z ÿ ÿ ÿi ÿi x jr A ÿi s ÿ b ÿi (A.1)
n,k+1 em breve n,kF [n] n n n,k n

converge para
ÿ

Jp (ÿn,k+1) = Jp (ÿn,k) ÿ ÿ ÿ n,kF [n] (ÿ) ÿ jr v n,k , (A.2)

como i ÿ ÿ. Isso significa que lim ÿi ÿ1 =


z
n,k+1 iÿÿ
= ÿn,k+1 porque o mapeamento de dualidade J p
J ÿ
ÿ também é contínua.
p

107
Machine Translated by Google

108APÊNDICE A. PROPRIEDADE DE ESTABILIDADE DAS SEQUÊNCIAS REGULARIZANTES

• Variação de Bregman do método Iterated-Tikhonov (3.62) ÿi ÿ b ÿi s n,k+1


eu ÿi ÿi
Aqui z = Aÿi n
e v = z n,kn,k n .
n, k
Esta prova foi apresentada pela primeira vez em [39] em sua versão atual. É uma adaptação de [26, Lema
3.4], que por sua vez usa ideias de [16]. A prova de estabilidade neste caso é mais complicada porque não
assumimos nenhuma condição nos espaços de Banach Yj 's.

eu
Veja que os vetores z n,k+1 e ÿn,k+1 respectivamente minimizam os funcionais

r
eu eu
F x nÿi ÿi z ÿ x n ÿ b ÿi
Tn ,k 1(z) := r [n] n + ÿnÿp z, z em breve

e
1 r
Wn,k (z) := F + ÿnÿp (z, ÿn,k),
r [n] (ÿ) (z ÿ ÿ) ÿ bn

eu
onde bn := y[n] ÿ F[n] (ÿ). Como a família z é uniformemente limitada
n,k+1 (ver (4.16)) e X é reflexiva, existe,
i>0
escolhendo uma subsequência se necessário, algum ÿi z ÿ X tal que zz como i ÿ ÿ. Primeiro provamos que z
= ÿn,k+1 e depois que n,k+1 ÿi ÿ z como i ÿ ÿ. Para todo g ÿ Y z n,k+1 [n] ,
ÿ

eu eu
g, F [n] x nÿi ÿi = g, F [n] x nÿi ÿF
s n,k+1 [n] (ÿ) s n,k+1 + g, F [n] (ÿ) s n,k+1 .

eu ÿ
Mas como ÿi = ÿi ÿ xn z ÿ ÿ =: s como i ÿ ÿ e F [n] (ÿ) g ÿ Xÿ ,
s n,k+1 zn ,k+1

eu ÿ ÿ
=F ÿi g, n,k+1
s ÿF
sg, F[n] (ÿ) n,k+1 [n] (ÿ) [n] (ÿ) s = g, F [n] (ÿ) s . g,

eu
Agora, como F é contínua e x ÿ ÿ, [n] n

eu
g, F [n] x nÿi ÿF
[n] (ÿ) s n,k+1

ÿi
ÿ gY ÿ F ÿi nx ÿF s ÿ0
[n] [n] [n] (ÿ) n,k+1 x
L(X,Y[n] )

ÿi como i ÿ ÿ porque s n,k+1 ÿi ÿ z n,k+1 ÿi + x n é uniformemente limitado (ver (4.11) e


(4.16)). Então,
g, F [n] x nÿi ÿi (A.3)
s n,k+1 ÿ g, F [n] (ÿ) s
ÿ
e como g ÿ Y é arbitrário, [n]

F ÿi nx ÿi F
[n] s n,k+1 [n] (ÿ) s.

De (3.7) concluímos que

b nÿi ÿ F ÿi nx ÿi bn ÿ F [n] (ÿ) s,


[n] s n,k+1

e então
bn ÿ F [n] (ÿ) s ÿ lim inf b ÿi n ÿF ÿi nx ÿi (A.4)
[n] s n,k+1 .

Agora, como Jp é contínuo, temos similarmente a (A.3),

eu eu eu eu eu
Jp zz n,k , n,k+1 = Jp z n,k ÿ Jp (ÿn,k), z n,k+1 + Jp (ÿn,k), z n,k+1

ÿ Jp (ÿn,k), z
Machine Translated by Google

109

que por sua vez implica

1 p 1 p
ÿp (z, ÿn,k) = com +p ÿ ÿn,k ÿ Jp (ÿn,k), z (A.5)
p
1 p 1 ÿi
p eu eu
ÿ lim inf ÿi +p z ÿ Jp zz n,k , n,k+1
z n,k+1 ÿ n,k
p
eu
= lim inf ÿp z ÿi
z n,k+1, n,k .

eu eu
de x n ÿ ÿ, (A.4), (A.5) e devido à propriedade de minimalidade de z n,k+1,

eu
Wn,k (z) ÿ lim inf T ÿi ÿi ÿ lim inf T n,k (ÿn,k+1)
em breve z n,k+1

ÿi = lim (ÿn,k+1) = Wn,k (ÿn,k+1).


Tn ,kiÿÿ

Usando minimalidade e unicidade de ÿn,k+1, concluímos que ÿn,k+1 = z e então ÿn,k+1 ÿ ÿ o que implica que s
eu eu
com
n,k+1 ÿn,k+1. Assim, s Provamos agora n,k+1 = ÿn,k+1 ÿ ÿ.
que

eu
ÿp z ÿi ÿ ÿp (ÿn,k+1, ÿn,k) como i ÿ ÿ. (A.6)
z n,k+1, n,k

Definir

eu
ai := ÿp z ÿi a := lim sup ai , c := ÿp (ÿn,k+1, ÿn,k),
z n,k+1, n,k ,
1 r
rei := b nÿi ÿ F x nÿi ÿi , e re := lim inf rei .
r [n] s n,k+1

Tendo em vista (A.5), basta provar que a ÿ c. Suponha que a > c. Da definição de lim sup existe, para todo M ÿ
N, algum índice i > M tal que

a-c
ai > a ÿ . (A.7)
4

Pela definição de lim inf, existe N1 ÿ N tal que

ÿn (a ÿ c) rei
ÿ re ÿ , (A.8)
4

eu
para todo i ÿ N1. Como acima, lim (ÿn,k+1) = Wn,k (ÿn,k+1) e então existe um N2 ÿ N
Tn ,kiÿÿ
de tal modo que
eu ÿn (a ÿ c)
Tn ,k (ÿn,k+1) < Wn,k (ÿn,k+1) + (A.9)
2

para todo i ÿ N2. Usando (A.4) e configurando M = N1 ÿ N2, existe algum índice i > M
de tal modo que

Wn,k (ÿn,k+1) ÿ re + ÿnc = re + ÿna ÿ ÿn (a ÿ c) ÿn (a ÿ c) ÿn (a ÿ


c) ÿ ÿn (a ÿ c) ÿ rei + + ÿnaiÿ+c)ÿn (a
4 4
ÿn (a ÿ c) = eu
rei + ÿnai ÿ = ÿi ÿ

2 Tn,k z n,k+1 2
ÿn (a ÿ c)
ÿi ÿ Tn ,k(ÿn,k+1) ÿ
2

onde a segunda desigualdade vem de (A.8) e (A.7) e a última, de (A.9) obtemos a contradição Wn,k (ÿn,k+1) <
ÿi a minimalidade de z n,k+1.
Machine Translated by Google

110 APÊNDICE A. PROPRIEDADE DE ESTABILIDADE DAS SEQUÊNCIAS REGULARIZANTES

Wn,k (ÿn,k+1). Assim, a ÿ c e (A.6) vale. Da definição da distância de Bregman ÿp temos z ÿ ÿn,k+1 . Como z ÿn,k+1 concluímos que n,k+1
eu eu
n,k+1 ÿ ÿn,k+1 como i ÿ ÿ, porque X é uniformemente convexo. Até agora, mostramos tal que jÿN

ÿi
z n,k+1
que cada sequência zero positiva (ÿi) ÿij iÿN contém uma subsequência ÿij

zn ,k+1 ÿ ÿn,k+1 como j ÿ ÿ que é suficiente para provar a afirmação.

• Variação de Bregman do método de Tikhonov-Phillips (3.58) ÿi ÿ b


ÿi Este método usa z n,k ÿi e v = x ÿin,k = Aÿi ÿi s n,k+1 .
n n n

Nós omitimos esta prova porque ela é muito similar àquela dada acima para o método IT.

• Métodos de gradiente-Tikhonov mistos apresentados na Subseção 3.1.4 e K ÿi


ÿi
ÿi Para esses métodos, z n,k ÿi = zn,k, v n,k = Aÿi n n,k
ÿi ÿ b ÿi ÿi s n , ÿ ÿi = ÿ n = K0/Kÿi
n 2 3,

onde K0 é definido na Hipótese 3, página 58 e K ÿi é um limite superior


3 para o (ver Hipótese 4, página
1 e ÿi ÿi ÿ x p
seqüência n n 62, e Subseção 3.1.4). No
p nÿN
além das hipóteses do Teorema 47, precisamos assumir neste caso que Yj , j = 0, ..., dÿ1 são espaços
de Banach uniformemente lisos, o que garante que o mapeamento de dualidade jr é único e contínuo.

A prova é muito semelhante àquela dada acima para os métodos de gradiente dual, com a diferença ÿi
ÿi que aqui K2 =
Como
0ÿ(ver
ÿ xx nHipótese
ÿ ÿ e x o 4).
limite K ÿi n n como i ÿ ÿ,
p
1 e
3 converge para um limite K ÿ ÿ K ÿ 3 da sequência ÿ e ÿx n
p nÿN
r r r
portanto, K ÿi como b ÿi Segue que 0bn ÿ K ÿ2 ,
2 i ÿ ÿ.
n 2 ÿ lim o que implica, similarmente a (A.1) e nãon c bn
iÿÿ
(A.2) que
ÿ
eu eu
Jp z = Jp z ÿ ÿ ÿi F eu
jr A ÿi s eu ÿ b ÿi di eu
ÿ xn
eu
n,k+1 em breve
n,k [n] xn _ n n,k n n Jp s + c em breve

converge para

F ÿ
ÿ nJp ÿn,k ÿ ÿ ÿ x + ÿ xn ,
Jp (ÿn,k+1) = Jp (ÿn,k) ÿ ÿ ÿ em breve
[n] (ÿ) ÿ jr v n,k

ÿ1
como i ÿ ÿ. Como J = Jcomo
p ÿn,k+1 ÿ
iÿ p
ÿ ÿi é uma função contínua, o vetor z n,k+1 converge para
ÿ e a prova está completa.
Machine Translated by Google

Bibliografia

[1] Giovanni Alessandrini. Determinação estável de condutividade por medida de limite


mentos. Appl. Anal., 27(1-3):153–172, 1988.

[2] Kari Astala e Lassi P¨aiv¨arinta. Problema de condutividade inversa de Calder´on no plano.
Ana. de matemática. (2), 163(1):265–299, 2006.

[3] AB Bakushinskiÿÿ. Sobre um problema de convergência do método de Gauss Newton iterativo-


regularizado. Zh. Vychisl. Esteira. eu Mat. Fiz., 32(9):1503–1509, 1992.

[4] Johann Baumeister, Barbara Kaltenbacher e Antonio Leitão. Sobre os métodos iterativos de
Levenberg Marquardt-Kaczmarz para a resolução de sistemas de equações mal-postas não
lineares. Problema inverso Imaging, 4(3):335–350, 2010.

[5] Liliana Borcea. Tomografia por impedância elétrica. Problemas inversos, 18(6):R99–R136,
2002.

[6] Kristian Bredies e Dirk Lorenz. Processamento matemático de imagens. Introdução a


Fundamentos e teoria moderna. Vieweg+Teubner, Berlim, 2011.

[7] Martin Burger e Barbara Kaltenbacher. Regularização de métodos de Newton-Kaczmarz para


problemas mal-postos não lineares. SIAM J. Número. Anal., 44(1):153–182 (eletrônico), 2006.

[8] Alberto-P. Calderon. Em um problema de valor de contorno inverso. In Seminário de Análise Numérica
e suas Aplicações à Física do Contínuo (Rio de Janeiro, 1980), páginas 65–73. Soc. Brasil. Mat.,
Rio de Janeiro, 1980.

[9] Carlos Chidume. Propriedades geométricas de espaços de Banach e iterações não lineares, volume
1965 de Lecture Notes in Mathematics. Springer-Verlag London, Ltd., Londres, 2009.

[10] Joana Cioranescu. Geometria dos espaços de Banach, mapeamentos de dualidade e problemas
não lineares, volume 62 de Matemática e suas Aplicações. Kluwer Academic Publishers Group,
Dordrecht, 1990.

[11] Christian Clason e Bangti Jin. Um método semisuave de Newton para problemas de identificação de
parâmetros não lineares com ruído impulsivo. SIAM J. Imaging Sci., 5(2):505–538, 2012.

[12] Ingrid Daubechies, Michel Defrise e Christine De Mol. Um algoritmo de limite iterativo para problemas
lineares inversos com uma restrição de esparsidade. com. Puro Aplic.
Math., 57(11):1413–1457, 2004.

[13] Ron S. Dembo, Stanley C. Eisenstat e Trond Steihaug. Métodos inexatos de Newton.
SIAM J. Número. Anal., 19(2):400–408, 1982.

111
Machine Translated by Google

112 BIBLIOGRAFIA

[14] Françoise Demengel e Gilbert Demengel. Espaços funcionais para a teoria de equações diferenciais
parciais elípticas. Universitext. Springer, Londres; EDP Sciences, Les Ulis, 2012. Tradução do
original francês de 2007 por Reinie Ern´e.

[15] Heinz W. Engl, Martin Hanke e Andreas Neubauer. Regularização de problemas inversos, volume
375 de Matemática e suas Aplicações. Kluwer Academic Publishers Group, Dordrecht, 1996.

[16] Heinz W. Engl, Karl Kunisch e Andreas Neubauer. Taxas de convergência para a regularização de
Tikhonov de problemas não lineares mal-postos. Problemas Inversos, 5(4):523–540, 1989.

[17] VM Fridman. Sobre a convergência de métodos do tipo descida mais íngreme. Uspehi Mat.
Science, 17(3 (105)):201–204, 1962.

[18] P. Grisvard. Problemas elípticos em domínios não suaves, volume 24 de Monografias e Estudos em
Matemática. Pitman (Programa Avançado de Publicação), Boston, MA, 1985.

[19] Jacques Hadamard. O problema de Cauchy e as equações diferenciais parciais


lin´eaires hyperboliques. Hermann, Paris, 1932.

[20] Markus Haltmeier, Antonio Leitão e Otmar Scherzer. Métodos de Kaczmarz para regularizar
equações não lineares mal-postas. I. Análise de convergência. Problema inverso Imaging, 1(2):289–
298, 2007.

[21] Martin Hanke. Um esquema de regularização de Levenberg-Marquardt, com aplicações em


problemas inversos de filtração de águas subterrâneas. Problemas Inversos, 13(1):79–95, 1997.

[22] Martin Hanke. Propriedades de regularização de um algoritmo de Newton-CG truncado para


problemas inversos não lineares. Número Função Anal. Optim., 18(9-10):971–993, 1997.

[23] Bangti Jin, Taufiquar Khan e Peter Maass. Um algoritmo de reconstrução para tomografia de
impedância elétrica baseado na regularização de esparsidade. Internat. J. Número. Methods Engrg.,
89(3):337–353, 2012.

[24] Qinian Jin. Iteração inexata de Newton-Landweber para resolver problemas inversos não lineares
em espaços de Banach. Problemas inversos, 28(6):065002, 15, 2012.

[25] Qinian Jin. Sobre a ordem ótima da regularização via iterações inexatas de Newton.
Número Math., 121(2):237–260, 2012.

[26] Qinian Jin e Linda Stals. Regularização de Tikhonov iterada não estacionária para problemas mal
colocados em espaços de Banach. Problemas Inversos, 28(10):104011, 15, 2012.

[27] S. Kaczmarz. Solução aproximada de sistemas de equações lineares. Internat. J. Control, 57(6):1269–
1271, 1993. Traduzido do alemão.

[28] Jari P. Kaipio, Ville Kolehmainen, Erkki Somersalo e Marko Vauhkonen. Inversão estatística e
métodos de amostragem de Monte Carlo em tomografia de impedância elétrica.
Problemas Inversos, 16(5):1487–1522, 2000.

[29] Barbara Kaltenbacher, Andreas Neubauer e Otmar Scherzer. Métodos de regularização iterativos
para problemas mal-postos não lineares, volume 6 da Radon Series on Computa tional and Applied
Mathematics. Walter de Gruyter GmbH & Co. KG, Berlim, 2008.

[30] Andreas Kirsch. Uma introdução à teoria matemática de problemas inversos, volume 120 de Applied
Mathematical Sciences. Springer, Nova York, segunda edição, 2011.
Machine Translated by Google

BIBLIOGRAFIA 113

[31] R. Kowar e O. Scherzer. Análise de convergência de um método de Landweber-Kaczmarz para


resolução de problemas não lineares mal-postos. Em Problemas mal colocados e inversos, páginas 253–270.
VSP, Zeist, 2002.

[32] Erwin Kreyszig. Análise funcional introdutória com aplicações. Clássicos Wiley
Biblioteca. John Wiley & Sons, Inc., Nova York, 1989.

[33] L. Landweber. Uma fórmula de iteração para equações integrais de Fredholm do primeiro tipo.
Amargo. J. Math., 73:615–624, 1951.

[34] Armin Lechleiter e Andreas Rieder. Regularizações de Newton para tomografia de impedância: um
estudo numérico. Problemas Inversos, 22(6):1967–1987, 2006.

[35] Armin Lechleiter e Andreas Rieder. Regularizações de Newton para tomografia de impedância:
convergência por injetividade local. Problemas Inversos, 24(6):065009, 18, 2008.

[36] Armin Lechleiter e Andreas Rieder. Rumo a uma teoria geral de convergência para regularizações
inexatas de Newton. Número Math., 114(3):521–548, 2010.

[37] A. Leitão e M. Marques Alves. Sobre métodos de Landweber-Kaczmarz para regularização de sistemas
de equações mal-postas em espaços de Banach. Problemas Inversos, 28(10):104008, 15, 2012.

[38] Joram Lindenstrauss e Lior Tzafriri. Espaços clássicos de Banach. II, volume 97 de Resultados em
Matemática e Áreas Afins. Springer-Verlag, Berlim-Nova York, 1979. Espaços funcionais.

[39] F´abio Margotti e Andreas Rieder. Uma regularização de Newton inexata em espaços de Banach
baseada no método iterado não estacionário de Tikhonov. Journal of inverse and Ill-posed Problems,
Ahead of print, 2014.

[40] Fabio Margotti, Andreas Rieder e Antonio Leitão. Uma versão Kaczmarz da iteração Regin-Landweber
para problemas mal colocados em espaços de Banach. SIAM J. Número.
Anal., 52(3):1439–1465, 2014.

[41] A. Neubauer e O. Scherzer. Um resultado de taxa de convergência para um método de descida mais
íngreme e um método de erro mínimo para a solução de problemas mal colocados não lineares. Z. Anal.
Applications, 14(2):369-377, 1995.

[42] Nick Polydorides e William RB Lionheart. Um kit de ferramentas Matlab para tomografia tridimensional
de impedância elétrica: uma contribuição para o projeto Electrical Impedance and Dif fuse Optical
Reconstruction Software. Ciência e Tecnologia de Medição, 13(12):1871–1873, 2002.

[43] Andreas Rieder. Sobre a regularização de problemas mal-postos não lineares via inexata
Iterações de Newton. Problemas Inversos, 15(1):309–327, 1999.

[44] Andreas Rieder. Sobre taxas de convergência de regularizações inexatas de Newton. Número
Math., 88(2):347–365, 2001.

[45] Andreas Rieder. Sem problemas com problemas inversos. Friedr. Vieweg & Sohn, Braunschweig, 2003.
Uma introdução à sua solução estável. [Uma introdução à sua solução estável].

[46] Andreas Rieder. Regularização inexata de Newton usando gradientes conjugados como iteração
interna. SIAM J. Número. Anal., 43(2):604–622 (eletrônico), 2005.
Machine Translated by Google

114 BIBLIOGRAFIA

[47] F. Schöpfer, AK Louis e T. Schuster. Métodos iterativos não lineares para problemas lineares mal-
postos em espaços de Banach. Problemas Inversos, 22(1):311–329, 2006.

[48] Thomas Schuster, Barbara Kaltenbacher, Bernd Hofmann e Kamil S. Kazimierski.


Métodos de regularização em espaços de Banach, volume 10 da Série Radon em Matemática
Computacional e Aplicada. Walter de Gruyter GmbH & Co. KG, Berlim, 2012.

[49] RE Showalter. Operadores monótonos no espaço de Banach e equações diferenciais parciais não
lineares, volume 49 de Mathematical Surveys and Monographs. American Mathematical Society,
Providence, RI, 1997.

[50] Erkki Somersalo, Margaret Cheney e David Isaacson. Existência e exclusividade de modelos de
eletrodos para tomografia computadorizada de corrente elétrica. SIAM J. Appl. Math., 52(4):1023–
1040, 1992.

[51] AN Tikhonov. Sobre a solução de problemas colocados incorretamente e o método de regularização.


Em Esboços Simpós Conjuntos. Equações diferenciais parciais (Novosibirsk, 1963), páginas 261–
265. Acad. ciência Filial da URSS na Sibéria, Moscou, 1963.

[52] Robert Winkler e Andreas Rieder. Esquema de inversão do tipo newton com reconhecimento de
modelo para tomografia de impedância elétrica. Problemas Inversos, 31(4):045009, 2015.

[53] Zong Ben Xu e GF Roach. Desigualdades características de espaços de Banach uniformemente


convexos e uniformemente lisos. J. Matemática. Anal. Appl., 157(1):189–210, 1991.

Você também pode gostar