Escolar Documentos
Profissional Documentos
Cultura Documentos
Teoria e Exerc
cios
Carlos J. S. Alves
Secc~ao de Matematica Aplicada e Analise Numerica
Departamento de Matematica
Instituto Superior Tecnico
Maio 1999
Contents
1 Introduc~ao 1
1.1 Representac~ao de numeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Numeros reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Vrgula Flutuante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Tipos de Arredondamento . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Erro Absoluto e Erro Relativo . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Algoritmos e Propagac~ao de Erros . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Propagac~ao de erros de arredondamento . . . . . . . . . . . . . . . . 9
1.2.2 Algoritmos e rotinas elementares . . . . . . . . . . . . . . . . . . . . 11
1.3 Condicionamento e Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Determinac~ao de Razes Reais e Complexas 16
2.1 Teoremas elementares da Analise e a Localizac~ao de Razes . . . . . . . . . 18
2.2 Metodo da Bissecc~ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Metodo da Falsa Posic~ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Metodo da falsa posic~ao modicado . . . . . . . . . . . . . . . . . . . 24
2.4 Metodo do Ponto Fixo num intervalo limitado . . . . . . . . . . . . . . . . . 24
2.5 Metodo de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5.1 Metodo de Newton no caso de zeros multiplos . . . . . . . . . . . . . 36
2.6 Metodo da Secante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.7 Metodos para Equac~oes Algebricas . . . . . . . . . . . . . . . . . . . . . . . 39
2.7.1 Metodo de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8 Generalizac~ao a razes complexas . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8.1 Metodo de Newton nos complexos . . . . . . . . . . . . . . . . . . . . 47
2.9 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3 Teorema do Ponto Fixo de Banach 52
3.1 Espacos Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.1 Noc~oes Topologicas em Espacos Normados . . . . . . . . . . . . . . . 55
3.1.2 Normas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Espacos de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2.1 Operadores Contnuos . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.2 Operadores Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3 Metodo do Ponto Fixo e o Teorema de Banach . . . . . . . . . . . . . . . . . 60
3.4 Derivac~ao de Frechet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.4.1 Corolario do Teorema do Ponto Fixo . . . . . . . . . . . . . . . . . . 66
Contents ii
Prefacio
Estas folhas seguem essencialmente os cursos de Analise Numerica I leccionados desde
1997 aos alunos da Licenciatura em Matematica Aplicada e Computac~ao do Instituto Su-
perior Tecnico. A disciplina Analise Numerica I e leccionada no segundo ano, segundo
semestre, pressupondo-se que os alunos ja possuem conhecimentos elementares de A lgebra
Linear e de Analise Matematica. Convem referir que Analise Numerica I e complementada
pela disciplina de Analise Numerica II, leccionada no semestre seguinte. Durante estes dois
semestres s~ao introduzidos n~ao apenas todos os aspectos fundamentais de Analise Numerica,
que s~ao leccionados num unico semestre nas licenciaturas em engenharia, mas tambem al-
gumas noc~oes mais profundas dentro da teoria elementar. Assim, em Analise Numerica I, o
objecto de estudo e essencialmentea aproximac~ao de soluc~oes de equac~oes, numa perspectiva
abstracta que difere profundamente da apresentada nas licenciaturas em engenharia, sendo
ainda adicionados dois captulos introdutorios noutras materias, um relativo a aproximac~ao
de valores proprios de matrizes e um outro, muito breve, relativo a metodos minimizac~ao
(que poderia tambem ser ligado directamente a aproximac~ao de soluc~oes de equac~oes).
A materia apresentada representa n~ao apenas uma soluc~ao de compromisso entre aspectos
mais teoricos e aspectos mais numericos, seguindo topicos de programas anteriores (cf. L.
Loura [15] e P. Lima [14]), mas encerra tambem uma vis~ao pessoal dos fundamentos da
Analise Numerica. O curso esta centrado no teorema do ponto xo de Banach, ja que as suas
consequ^encias acabam por fundamentar quase todos os aspectos dos metodos numericos
utilizados neste curso introdutorio. Esta perspectiva leva a introduc~ao de noc~oes abstractas
elementares de topologia e analise funcional.
Devido a este facto, o Captulo 2 e introduzido como uma motivac~ao para a obtenc~ao
dos resultados mais abstractos que encontramos no Captulo 3, passando depois a ser (em
boa parte) uma consequ^encia desses resultados. O Captulo 4 pode ser encarado como
um conjunto de corolarios (ou exerccios) resultantes do Captulo 3 quando aplicados a
espacos vectoriais de dimens~ao nita. Os proprios Captulos 5 e 6 foram, em larga medida,
directamente relacionados com o Captulo 3. Alguns anexos foram includos como apoio ou
suplemento ao estudo, contendo tambem exerccios de exame resolvidos.
Uma palavra de agradecimento aos alunos e a minha colega Ana Silvestre, pela pertin^encia
nalgumas crticas que ajudaram a compilac~ao destas folhas.
Carlos J. S. Alves
Contents v
1
Introduc~ao
A Analise Numerica envolve varios aspectos distintos que a ligam directamente a Analise
Matematica e a Programac~ao.
Normalmente, um problema de fsica (ou de engenharia), leva a formular um modelo, o
qual se torna objecto de estudo da matematica aplicada. Para a resoluc~ao desse problema,
n~ao e suciente a matematica apresentar resultados teoricos, por exemplo, acerca da ex-
ist^encia de soluc~ao. Num problema pratico e necessario saber construir, ou aproximar, essa
soluc~ao. Esse e o principal aspecto da Analise Numerica.
Por outro lado, mesmo que a construc~ao seja exacta, ela envolve normalmente calculos
innitos, impossveis de realizar, pelo que e necessario saber controlar o erro que cometemos
ao considerar aproximac~oes; este e outro aspecto importante dentro da Analise Numerica.
Finalmente, a realizac~ao dos calculos deve ser optimizada de forma a obtermos rapida-
mente um bom resultado, atraves da programac~ao de algoritmos ecientes. A programac~ao
constitui portanto um outro aspecto de relevo na Analise Numerica, pois ela permite a
obtenc~ao do resultado nal. Todos estes passos t^em originado o progresso tecnologico a
que nos habituamos. A investigac~ao tecnologica leva a novos modelos que n~ao dispensam
uma simulac~ao numerica a priori. Esses modelos numericos est~ao presentes, por exemplo,
na propagac~ao de ondas, no escoamento de
uidos ou na resist^encia de materiais, cujas
aplicac~oes na industria englobam telecomunicac~oes, engenharia mec^anica, engenharia de
materiais, engenharia civil, aeroespacial, etc...
Breve apontamento historico
Para compreender o enquadramento da analise numerica na matematica, e conveniente
recordar brevemente o seu percurso historico.
Na antiguidade, o desenvolvimento da matematica cou a dever-se sobretudo aos gregos,
ainda que haja registo de algumas proezas assinalaveis na Babilonia e no Egipto, como seja
a resoluc~ao de equac~oes de segundo grau. Os gregos basearam a matematica em relac~oes
geometricas, tendo o expoente dessa abordagem sido Euclides, que formulou uma teoria (El-
ementos, sec.III-a.C.) baseada em 5 axiomas que permitem deduzir a geometria euclidiana
(curiosamente, so no sec.XIX se conrmou que o quinto axioma: \por um ponto exterior a
uma recta passa apenas uma paralela" { era mesmo necessario... ou seja, n~ao se deduzia
dos restantes).
A concepc~ao grega que preconizava a construc~ao atraves de regua e compasso deixou
varios problemas em aberto que so muito mais tarde foram resolvidos. Por exemplo, a
quest~ao da quadratura do crculo, relacionada com a transcend^encia de ; so foi resolvida
no m do sec.XIX por Hermite e Lindemann. Na antiguidade, o valor atribudo a era
normalmente grosseiro (por exemplo, na Bblia, = 3); e o primeiro a tentar determinar por
aproximac~oes o valor de foi Arquimedes, baseado no metodo da exaust~ao, um metodo que
1.1. Representac~ao de numeros 2
havia sido introduzido por Eudoxo (um discpulo de Plat~ao). Considerando dois polgonos,
um interior e outro exterior, Arquimedes determinou que 3 + 71 10 < < 3 + 1 . Podemos
7
considerar este resultado como um dos primeiros resultados de Analise Numerica.
So no Renascimento e que a matematica vai sofrer um novo grande impulso, comecando
com a escola italiana de Bolonha, no sec.XVI, com Tartaglia, Cardano, Ferrari, os quais
encontraram formulas resolventes para as equac~oes de terceiro e quarto grau. Este desen-
volvimento da algebra vai ligar-se a geometria com Descartes e Fermat (sec.XVII), e surge
ent~ao a geometria analtica que esta na origem do calculo innitesimal de Newton e Leibniz
(sec.XVIII).
Com o calculo innitesimal comecou a Analise Numerica propriamente dita. Ate ao
sec.XIX ela coabitou indistintamente com a Analise Matematica, pois o formalismo ax-
iomatico que mais tarde se pretendeu copiar de Euclides ainda n~ao havia sido adoptado.
No sec. XIX, com o esforco de rigor de Cauchy, Bolzano e Weierstrass, e posteriormente
com as ideias de Dedekind e Cantor, os matematicos empenharam-se em formalizar ax-
iomaticamente toda a Analise a partir da teoria de conjuntos, com Zermelo e Fraenkel.
Mas a quest~ao axiomatica n~ao foi, nem e, pacca... desde a aceitac~ao do axioma da
escolha ate a polemica construtivista no princpio do sec.XX. Aqui surgem duas posic~oes
claramente distintas. De um lado Hilbert, defendendo a exist^encia de um innito actual, e
sustentando que a partir de um numero nito de axiomas seria possvel deduzir qualquer
proposic~ao matematica, e de outro lado, Brouwer, defendendo apenas a exist^encia de um
innito potencial. A posic~ao de Hilbert mostrou-se ser irrealizavel quando Godel, nos anos
30, baseado no metodo da diagonal de Cantor, demonstrou a exist^encia de proposic~oes
semanticamente verdadeiras que no entanto n~ao podem ser deduzidas usando os criterios
defendidos por Hilbert (teorema da incompletude de Godel).
No entanto, a maioria da Analise ainda faz uso da noc~ao de innito actual, o que permite
a exist^encia de demonstrac~oes n~ao construtivas, atraves de uma reduc~ao ao absurdo, e
utilizando por vezes o polemico axioma da escolha. As demonstrac~oes n~ao-construtivas n~ao
fornecem qualquer metodo para explicitar as entidades cuja exist^encia foi `provada', sendo
necessario, na pratica, resultados construtivos, que permitam calcular essas entidades.
A Analise Numerica encerra a componente de construtividade da Matematica, fornecendo
metodos de aproximac~ao (que constituem eles proprios demonstrac~oes construtivas), e es-
tudando o erro inerente em cada passo da aproximac~ao.
A noc~ao de erro e o controle do erro constitui assim um aspecto fulcral na Analise
Numerica, que comecaremos por abordar no caso mais simples, quando nos apercebemos
que a propria representac~ao de numeros reais tem que ser aproximada quando trabalhamos
com maquinas de aritmetica nita.
Cada elemento da classe de equival^encia pode ser um seu representante, mas normal-
mente tomamos como representante da classe uma sucess~ao de racionais que s~ao multiplos
de pot^encias de 10 (base decimal). Ou seja, normalmente escrevemos um numero real na
notac~ao cientca (decimal):
x = 0:a1a2 : : : an : : : 10t :
1.1. Representac~ao de numeros 4
Suponhamos agora que t1 t < t2; e portanto n~ao ha problema com os expoentes.
Ha no entanto um problema com o numero de dgitos da mantissa que podemos resolver
considerando dois tipos de arredondamento:
Arredondamento por Corte
fl(x) = 0:a1a2 : : : an 10t
Arredondamento Simetrico
fl(x) = 0:a01a02 : : :a0n 10t0
Os dgitos a0i e o expoente t0 resultam da representac~ao da soma de 0:a1a2 : : :an::: 10t com
0:5 10t n ; considerando depois um arredondamento por corte.
O valor fl(x) e um racional, elemento de V F (10; n; t1; t2); que aproxima x: (Repare-se
que fl(x) nunca e nulo).
Interessa-nos controlar os efeitos que essa aproximac~ao pode trazer nos calculos posteri-
ores, devido ao erro que se comete ao aproximar x por fl(x):
2
Note-se que as linguagens simbolicas podem parecer resolver este problema, ja que se escrevermos 10100 10900 ;
elas podem dar o resultado 101000 ; mas se pedirmos de seguida sin(10100 10900 ); sem alterar a precis~ao interna
das rotinas, v~ao ocorrer erros.
1.1. Representac~ao de numeros 6
Estas denic~oes ir~ao depois ser usadas e generalizadas ao longo do curso, inicialmente
estamos interessados no caso x~ = fl(x):
Devemos ter presente que se conhecessemos o valor exacto do erro para uma dada aprox-
imac~ao, isso implicaria imediatamente o conhecimento do valor exacto, e deixaria de fazer
sentido falar em erro... Por isso estas noc~oes ser~ao utilizadas com o objectivo de obtermos
estimativas que as controlem, atraves de majorac~oes ou minorac~oes.
A introduc~ao da noc~ao de erro absoluto e assim clara, vamos estar interessados apenas em
controlar a dist^ancia entre os dois numeros, majorando-a, n~ao nos interessando se aprox-
imac~ao e menor ou maior que o valor exacto. Ao longo do curso poderemos mesmo cometer
o abuso de chamar erro ao erro absoluto, ja que para efeitos de majorac~oes e claro que a
unica majorac~ao que interessara sera a majorac~ao do erro absoluto.
A introduc~ao da noc~ao de erro relativo prende-se com o simples facto intuitivo de que
um mesmo erro absoluto pode ter signicados diferentes.
Assim, quando pretendemos medir a dist^ancia de Lisboa ao Porto, apenas garantirmos
que o erro absoluto e inferior a 100 Km podemos considerar que se trata de uma majorac~ao
excessivamente grande do erro absoluto, mas quando medimos uma dist^ancia da Terra a
Marte se garantirmos um valor com um erro absoluto inferior a 100 Km, podemos considera-
lo excelente.
O erro relativo pode ser expresso em termos percentuais, assim, se jxj = 1; dizemos que
temos um erro relativo de 100%, etc...
Comecamos por apresentar uma majorac~ao que permite controlar o erro relativo causado
pelo arredondamento.
Unidade de Arredondamento
3
Nox pr oximo paragrafo, ao estudarmos a propagac~ao de erros, iremos tambem trabalhar com a quantidade
x~ ; chamando-lhe ainda erro relativo, apenas por quest~oes de simplicac~ao dos resultados analticos, sem
x = x
que daqui resulte qualquer especie de confus~ao.
Ha autores que consideram x~ = x x~ x~ :
1.2. Algoritmos e Propagac~ao de Erros 7
4
Experimente:
m=40;
A=NestList[Sqrt,2.0,m];Print[A];
z=A[[m]];
B=NestList[(#^2)&,z,m-1]
O mesmo ocorre para outras sucess~oes de valores que convirjam para um ponto xo...
5
A rotina SetPrecision apresenta um erro que e referido nos proprios manuais. Assim, ao escrevermos
x=SetPrecision[0.1,20]
o valor devolvido n~ao e 0.1000...0 (com 20 dgitos) mas sim
0.100000000000000005551
Isto deve-se a que a partir da 16a. casa decimal os restantes zeros s~ao includos na base binaria e n~ao na decimal,
originando uma signicativa diferenca!
1.2. Algoritmos e Propagac~ao de Erros 8
A alnea b) traduz uma propriedade importante, que nos permite separar o calculo de ~f
em varios passos. Assim, se quisermos calcular ~exp(x +1); podemos decompor esse calculo
2
atraves de duas func~oes mais simples, z1(x) = x2 + 1; z2(x) = exp(x): Como ~x +1 = x2x+1 x;
2 2
2
Operac~oes:
Se considerarmos agora func~oes com duas ou mais variaveis, (x); em que x~ = (~x1; ::; x~ d)
aproxima x = (x1; ::; xd); obtemos pela formula de Taylor6
e(x) = r(x):ex + 21 ex:Hf (x + ex)ex = r(x):ex + o(ex);
supondo que a matriz Hessiana de f e regular, para ex = (ex ; :::; exd) sucientemente
1
pequenos.
Logo, quando os valores x~ s~ao proximos de x; fazemos a mesma linearizac~ao, desprezando
o termo o(ex) e podemos estabelecer
d
X @ (x)e ;
e~(x) = r(x):ex = xk
k=1 @xk
denindo-se a express~ao para a aproximac~ao do erro relativo:
~(x) = X xk @xk (x) xk = X pxk xk
d @ d
o co-seno como uma func~ao elementar, mas n~ao nos devemos esquecer que isso se deve
apenas ao facto da linguagem de programac~ao possuir um algoritmo subjacente que permite
o conforto de evitar uma programac~ao penosa. A propria soma ou multiplicac~ao de numeros
levar-nos-ia a programac~ao de algoritmos que aprendemos na instruc~ao basica.
A evoluc~ao das linguagens de programac~ao tende a tornar elementares tarefas que an-
teriormente n~ao o seriam. Assim, as linguagens simbolicas actuais (como o Mathematica)
cont^em subrotinas elementares que n~ao o seriam em linguagens classicas.
Querendo calcular cos(x + y) + x2; consideramos o algoritmo:
z1 = x + y; z2 = x2; z3 = cos(z1); z4 = z2 + z3:
Ha assim uma ordenac~ao de tarefas que esta subjacente no ndice de z; e que nos dita
a ordem pela qual podemos decompor a express~ao inicial numa sucess~ao de tarefas ele-
mentares. Este e um caso simples, mas podemos pensar de forma semelhante para algo
mais complicado.
Actualmente, um outro passo e dado no sentido da programac~ao paralela. Ou seja, ao
inves de esperarmos pelo valor de x + y e so depois calcular x2; podemos pedir a uma
outra maquina (ou processador) que o efectue. Isto n~ao evita, no entanto, o uso de um
algoritmo semelhante e o escalonamento no tempo, necessitando ainda de uma programac~ao
da coordenac~ao entre as varias maquinas. Como e obvio, neste caso extremamente simples
isso n~ao se justicaria, mas podemos retirar a ideia subjacente.
Ainda que os valores dados a x e a y sejam os correctos, n~ao podemos esperar que os
valores devolvidos pela maquina sejam exactos, apenas podemos admitir que a rotina seja
ecaz e que esse valor esteja so afectado de erros de arredondamento. Basta pensar na rotina
co-seno... o computador tera que devolver sempre um numero em V F que vira afectado de
um erro de arredondamento.
Assim, o resultado obtido em cada uma das operac~oes vem afectado de erros relativos de
arredondamento arrk ; ou seja,
zk = f + arrk
onde f e a operac~ao, ou func~ao, calculada no passo k: Os erros relativos jarrk j podem ser
majorados pela unidade de arredondamento u:
Note-se que ha uma propagac~ao destes erros de arredondamento ao longo do algoritmo,
o que pode tambem causar grandes erros relativos no resultado (originando um problema
de instabilidade numerica).
No nal do algoritmo, com m passos, se tivermos x1; :::; xn valores aproximados, obtemos:
~z = px x + ::: + pxn xn + q1arr + ::: + qmarrm
1 1 1
Observac~ao:
Devido a linearizac~ao efectuada (ao desprezar os termos quadraticos), e como consequ^encia
da alnea b) do exerccio colocado atras, os valores px ; :::pxn coincidem, quer considerando
1
Neste caso, e possvel uma express~ao simples ja que e facil calcular y0(x) = e x : Finalmente
2
teramos
z = x +x y x + x +y y y + arr3 = x(1x++ey ) x + ( x +y y )arr2 + arr3
x
2
R
Podemos ainda pensar que o valor de y era dado por y = ax e t dt; em que a era um
2
par^ametro de entrada que poderia estar afectado de erro. O calculo do erro ja seria diferente,
pois y seria visto como func~ao de a e de x;
@y @y
~y = x @x (x; a) x + a @a (x; a) a + arr2 = xe x ae a + arr2:
x2
a 2
y(x; a) y(x; a) y y
denir a noc~ao de condicionamento para um problema generico. Iremos ainda falar de es-
tabilidade computacional (ou numerica) ja que associado a implementac~ao computacional
da resoluc~ao de um problema estara subjacente um algoritmo.
Num problema P existem dados (de entrada) que podemos agrupar muito geralmente
num vector x; e existem os resultados (dados de sada), que genericamente podemos designar
por y = P (x):
Denic~ao 1.6 Um problema diz-se Bem Condicionado se pequenos erros relativos nos da-
dos produzem pequenos erros relativos no resultado. Caso contrario, diz-se Mal Condi-
cionado.
Em concreto, dizemos que o problema P e bem condicionado para um dado x se existir
uma constante M 0 tal que7
jjy jj M jjx^jj; 8x^ 2 Vx;
onde Vx e uma vizinhanca de x:
No caso de dimens~ao nita, em que os dados de entrada podem ser vistos como x =
(x1; :::; xd); e claro que se algum dos pesos vericar pxi = 1; para dados (x1; :::; xd); ent~ao
o problema sera mal condicionado para esses dados, pois n~ao sera possvel encontrar a
constante M:
Um problema da mau condicionamento da-se no caso de cancelamento subtractivo. A
formula
x x = x x1 x x x x2 x x ;
1 2 1 2
1 2 1 2
re
ecte isso mesmo. Com efeito, para dados x = (x1; x2) em que x1 = x2 (n~ao nulos) e obvio
que px = px = 1:
1 2
Observac~ao:
Podemos observar que o problema de calcular uma func~ao real f podera ser mal condi-
cionado em x 6= 0 se f 0(x) = 1 ou se f (x) = 0 (excluindo indeterminac~oes)8.
7
No caso em que y = f (x1 ; :::;xd ) consideramos simplesmente jjy jj = jy j e jjx^ jj como o erro relativo dado por
uma certa norma vectorial, por exemplo :
jjxjj1 = max jxi j jx1 j + ::: + jxd j
max jxij ou jjx jj1 = jx1 j + ::: + jxd j
8
No caso de func~oes vectoriais, ou operadores A isto corresponde aos casos em que a derivada de Frechet (ou a
matriz jacobiana) n~0ao e limitada.
Ou seja, caso jjAxjj = 1 ou se jjAxjj = 0(, Ax = 0); isto deve-se a formula que obtemos no Anexo,
0
jj~Axjj jjxjjjjAx
jjAxjj jjx jj:
jj
Se A for um operador linear contnuo, bijectivo, com inversa contnua, ent~ao
jj~A xjj jjA 1jj jjAjj jjxjj;
1.3. Condicionamento e Estabilidade 13
assim,
~z = x x 1 ( x x 1 x + arr ) + arr = x + x x 1 arr + arr
2 1 2 1 2
e o peso q1 = xx 1 tende para innito quando x tende para zero, tornando o algoritmo
instavel para valores proximos de zero.
e este e o caso das matrizes invertveis. Como veremos, mais tarde (no captulo 4), ao valor jjA 1jj jjAjj chamaremos
numero de condic~ao da matriz A; e este valor estabelece uma maneira de identicar quais os sistemas em que a
exactid~ao da soluc~ao e mais (ou menos) afectada pela exactid~ao dos dados. Como e claro, um numero de condic~ao
pequeno garantira a priori melhor exactid~ao.
1.4. Exerccios 14
900%.
Se n~ao escandaliza que o resultado d^e 0:110 7 enquanto deveria ser 0:110 11; isto pode
ter consequ^encias mais drasticas em operac~oes subsequentes... basta pensar que fazendo de
seguida z3 = z2=x; ao inves de obtermos 1 iramos ter 10 000; etc.
Como e claro, para alem deste exemplo trivial, existem outras situac~oes em que a mu-
danca para um algoritmo computacionalmente estavel (so possvel se o problema for bem
condicionado) n~ao e t~ao simples!
(Nota: Este exemplo pode n~ao ser observavel, em certas maquinas, porque os programas
de calculo, as linguagens de programac~ao, ou as maquinas de calcular, utilizam dgitos
suplementares, os dgitos de guarda, que evitam `algumas' vezes estes problemas).
1.4 Exerccios
1.Considere os valores
A = 0:492; B = 0:603; C = 0:494; D = 0:602; E = 10 5
Com a nalidade de calcular
F = A+B + E
C + D;
dois indivduos, usando uma maquina com 3 dgitos na mantissa e com arredondamento
simetrico, efectuaram esse calculo de forma distinta, mas aritmeticamente equivalente.
O indivduo X calculou A + B , depois C + D, somou os valores, e dividiu por E , obtendo
F = 0.
Por seu turno, o indivduo Y calculou A + C , depois B + D, somou os valores, e dividiu
por E , tendo obtido F = 100.
Verique os calculos efectuados pelos dois indivduos e comente a disparidade de resul-
tados obtidos, atendendo a que se usaram processos matematicamente equivalentes.
2. Sabendo que cos(xi) para i = 1; :::; 20 e calculado com um relativo inferior a 10 6 ,
indique uma estimativa para o erro relativo de
20
Y
P= cos(xi)
k=1
baseando-se nas formulas obtidas para a propagac~ao do erro relativo em func~oes.
3. a) Determine para que valores de x o calculo de f (x) = 1 cos(x) conduz a um
problema mal condicionado.
b) Considere o seguinte algoritmo para o calculo de f
z1 = cos(x) ; z2 = 1 z1:
1.4. Exerccios 15
Mostre que o algoritmo e instavel para x 0 (apesar de o problema ser bem condicionado).
c) Baseado na formula 1 cos( x) = sin2 ( x ), proponha um algoritmo equivalente que seja
2 2
numericamente estavel para x 0.
2
Determinac~ao de Razes Reais e Complexas
O objectivo deste captulo e aproximar soluc~oes reais (ou complexas) de equac~oes da forma:
f (x) = 0
onde f devera ser, pelo menos, uma func~ao contnua numa vizinhanca da raiz. Os valores x
que vericam a equac~ao s~ao tambem chamados razes da equac~ao, ou ainda, zeros da func~ao
f:
Para casos particulares de f a determinac~ao das razes da equac~ao f (x) = 0 pode ser
considerada trivial, ja que a podemos reduzir algebricamente a problemas de resoluc~ao
elementar. Por exemplo, resolver uma equac~ao linear ax+b = 0; reduz-se a efectuar a divis~ao
b=a, enquanto para resolver uma equac~ao pdo segundo grau ax2 + bx + c = 0; podemos usar
uma formula resolvente que nos da x = b 2ba 4ac ; valores que s~ao trivialmente calculaveis
2
n~ao e necessario calcular a iterada xn para podermos apresentar uma majorac~ao do erro jenj;
ou seja, a partir da func~ao conseguimos prever (sem efectuar iterac~oes) que xn e um valor
sucientemente proximo do resultado. Ao contrario, numa estimativa a posteriori apenas
podemos estabelecer qual a majorac~ao do erro jenj se calcularmos o valor de xn; atraves do
calculo efectivo das iterac~oes.
Observac~ao:
Salientamos que, obtendo uma sucess~ao que converge para z , n~ao estamos apenas a de-
terminar valores xn que aproximam z . A propria sucess~ao pode identicar-se como repre-
sentante do numero real, ou seja, a propria sucess~ao e a soluc~ao exacta!! Basta relembrar
que denimos um numero real como uma classe de equival^encia de sucess~oes de Cauchy de
racionais.
Ainda que os valores xn sejam reais, podemos sempre tomar racionais x~n (para n sucien-
temente grande, retirados da sucess~ao de Cauchy que dene xn); de forma a que a sucess~ao
(~xn) seja uma sucess~ao de Cauchy de racionais1, representante da classe de equival^encia do
real z .
Apos enunciar alguns teoremas elementares da Analise Matematica, que nos ser~ao uteis
ao longo do paragrafo, comecaremos por apresentar dois metodos elementares { os metodos
da bissecc~ao e da falsa-posic~ao { que apesar de parecerem pouco sosticados e demasiado
triviais constituem uma ultima alternativa quando outros n~ao s~ao aplicaveis. De seguida,
apresentamos o metodo do ponto xo cuja simplicidade e ecacia merece todo o relevo. Ao
contrario dos anteriores, as possibilidades de generalizac~ao deste metodo para func~oes de
variavel complexa ou a casos ainda mais gerais (que veremos nos captulos seguintes) s~ao
notaveis. Como caso particular do metodo do ponto xo, assegurando uma grande rapidez de
converg^encia, surge o metodo de Newton. Essa rapidez de converg^encia tem como exig^encia
a diferenciabilidade da func~ao, que nem sempre se agura facil/possvel de efectuar. Uma
possibilidade de evitar o calculo da derivada e obter ainda uma rapidez de converg^encia
razoavel pode ser posta em pratica usando os metodos da secante ou de Steensen.
Este captulo contem ainda uma refer^encia ao metodo de Bernoulli, aplicavel apenas a
equac~oes algebricas e n~ao muito ecaz, mas que apresenta ideias completamente distintas
dos metodos anteriores (o interesse especial do metodo de Bernoulli residiu historicamente
na possibilidade de aproximar razes evitando ao maximo o calculo de divis~oes). No captulo
5 veremos que o metodo de Bernoulli resulta como caso particular de um metodo de deter-
minac~ao de valores proprios.
Finalmente,e includa uma pequena refer^encia a determinac~ao de razes complexas atraves
da generalizac~ao dos metodos do ponto xo, de Newton e da secante. Esta generalizac~ao
antecede e motiva a generalizac~ao do metodo do ponto xo num contexto mais geral, que
constitui o cerne do captulo seguinte.
1
E isto que fazemos na pratica, quando calculamos o limite da sucess~ao xn+1 = cos(xn ); x0 = 0: Em cada
iteraca~o efectuamos arredondamentos ao calcular o co-seno.
Assim, ao calcularmos x2 = cos(1); n~ao vamos guardar todos os dgitos que se identicariam com o real na
notaca~o cientca, vamos apenas considerar dgitos sucientes de forma a que x~2 constitua uma boa aproximaca~o
racional. A sucess~ao (~xn ) obtida dessa forma pode ent~ao identicar-se com o real que verica a equaca~o z = cos(z ):
2.1. Teoremas elementares da Analise e a Localizac~ao de Razes 18
2
Convem ainda estar atento a possveis erros, como quando se introduz FindRoot[x==Sin[x],fx,0.2g] e nos
aparece como resultado x -> 0.0116915, que n~ao tem qualquer signicado (a unica raiz de sin(x) = x e x = 0);
n~ao aparecendo qualquer mensagem de aviso.
2.2. Metodo da Bissecc~ao 19
O Teorema do Valor Medio permite ainda obter um resultado muito importante nas
estimativas a posteriori de erros de uma raiz f:
Teorema 2.3 (estimativa elementar de erros de razes). Seja x~ uma aproximac~ao da raiz
z da func~ao f 2 C 1([~x; z]); ent~ao
jez j = jx~ zj min jf (~x)jjf 0()j :
2[~x;z]
(Usamos a notac~ao [a; b] para designar um intervalo que e [a; b] se b > a; e [b; a] caso
contrario)
Demonstrac~ao: Exerccio (aplicac~ao imediata do teorema do valor medio):2
Observac~ao: A simplicidade deste resultado torna por vezes esquecida a sua utilidade. As-
sim, quando aplicarmos qualquer dos metodos que iremos desenvolver nas secc~oes seguintes
(ou outros metodos), e obtermos uma iterada xn; que aproxima a soluc~ao z; podemos ap-
resentar uma estimativa a posteriori baseada neste resultado.
exist^encia da raiz nesses intervalos atraves do teorema do valor intermedio, isso permite
obter a sucess~ao (xn ) que converge para essa raiz.
O metodo pode-se esquematizar num ciclo :
e razoavel e este processo justica-se, especialmente se a inclinac~ao jjf 0jj for inferior ao
`valor' da concavidade jjf 00jj: No entanto, aparece persistentemente um problema com a
concavidade que apenas e possvel contornar com uma modicac~ao do metodo (que veremos
no proximo paragrafo).
5
A formula (2.2) resulta de considerar (para qualquer y xo)
E (x) = f (x) p1 (x); Fy (x) = E (x)(y an )(y bn );
G(x) = Fy (x) Fx (y):
E facil vericar que G tem pelo menos 3 zeros, 0que s~ao an ; bn e y;00 porque E (an ) = E (bn ) = 0:
Consequentemente, pelo teorema de Rolle, G tem 2 zeros e G tem um, pelo menos.
Assim, 9n 2]an ; y; bn [: G00 (n ) = 0: Como E 00 = f 00 ; G00 (x) = f 00 (x)(y an )(y bn ) 2E (y); e obtemos
f 00 (n )(y an )(1 y00 bn ) 2E (y) = 0; ou seja,
E (y) = 2 f (n )(y an )(y bn );
o que corresponde a formula obtida.
2.3. Metodo da Falsa Posic~ao 22
Como an < z < bn; o quantidade (z an)(z bn) e00 sempre negativa, logo, pela formula
(2.3), o sinal de en+1 = z xn+1 e igual ao sinal de 2ff 0((nn)) :
Como normalmente supomos que o sinal de f 0 e constante (de forma a assegurar a uni-
cidade pelo T. Rolle), isto signica que o sinal de en+1 e determinado pelo sinal de f 00(n ):
A menos que f 00(z) = 0 (o que e extremamente improvavel), isto signica que a partir de
certa ordem o sinal de en+1 e xo (igual ao sinal de f 00(z) se f 0 > 0; e oposto se f 0 < 0):
Portanto, a partir de certa ordem p; as iteradas xp+1; xp+2; :::: v~ao car sempre do mesmo
lado da raiz, o que signica que um dos extremos se imobiliza.
Reparamos que se os sinais de ep+1; ep+2; ::: forem positivos, ent~ao as iteradas xp+1; xp+2; :::
v~ao car a esquerda da raiz signicando isso que temos bp = bp+1 = bp+2 = ::: Ora isto
acontece se f 00(z)f 0 > 0; ou o que e equivalente, se f 00(z)f (bp) > 0 (pois o sinal de f (bp) e
igual ao de f 0):
Reciprocamente teremos ap = ap+1 = ap+2 = ::: caso f 00(z)f 0 < 0; ou seja se f 00(z)f (ap) >
0 (porque o sinal de f (ap) e oposto ao de f 0):
Resumindo, se f 00 tiver sinal constante num intervalo [ap; bp]; ent~ao o extremo que tiver
esse sinal mantem-se.
Por exemplo, se f 00(z)f (ap) > 0; o metodo reduz-se a efectuar (para n > p) :
xn+1 = xn f (xn) f (xxn) afp(a ) : (2.4)
n p
Usando (2.3), a formula para o erro ca
en+1 = 2ff000((nn)) (z ap)en; ou ainda,
x2 ap ;bp jf 00 (x)j
jen+1j 2max
minx2 ap ;bp jf 0 (x)j (bp ap )jenj:
[
[
]
]
Para que a estimativa de erro seja mais ecaz que a do metodo da bissecc~ao torna-se
importante que factor
x2[ap;bp ] jf (x)j
00
K = 2max
min jf 0(x)j (bp ap) (2.5)
x2[ap;bp ]
seja inferior a 1=2; ja que e claro que jenj K n p jepj: Isso pode ser conseguido se o
comprimento do intervalo, bp ap; for sucientemente pequeno.
2.3. Metodo da Falsa Posic~ao 23
2.4. Metodo do Ponto Fixo num intervalo limitado 24
Ha innitas possibilidades para escolher g (que e denominada func~ao iteradora) de forma
a que a equival^encia se verique... por exemplo, basta pensar que se ! 6= 0 temos f (x) =
0 , x = x + !f (x): Como iremos ver, algumas escolhas de g ser~ao menos apropriadas que
outras, para o objectivo em vista.
Nos casos em que a derivada e menor que 1, temos (pelo teorema do valor medio)
jg(x) g(y)j < jx yj; o que signica que a dist^ancia entre dois pontos x e y e `en-
curtada' pela transformac~ao g; levando a noc~ao de contractividade. E intuitivo que, neste
caso de contractividade, a aplicac~ao sucessiva de g; ao `encurtar' as dist^ancias, origina a
converg^encia para um unico ponto { o ponto xo. De seguida provaremos estes resultados.
Proposic~ao 2.1 Se g 2 C 1([a; b]) e temos jg0(x)j L < 1, para x em [a; b], ent~ao a func~ao
g e contractiva nesse intervalo.
Demonstrac~ao:
Usando o teorema do valor medio de Lagrange, sabemos que, para quaisquer x; y em [a; b]
jg(y) g(x)j jg0()jjx yj;
para um certo 2]x; y[ [a; b] e podemos concluir, aplicando a hipotese. 2
2.4. Metodo do Ponto Fixo num intervalo limitado 26
2.4. Metodo do Ponto Fixo num intervalo limitado 27
Corolario 2.2 Seja g uma func~ao C 1([a; b]), tal que g([a; b]) [a; b] e
L = xmax
2[a;b]
jg0(x)j < 1
ent~ao as condic~oes do teorema do ponto xo em IR s~ao vericadas e portanto temos:
g tem um e um so ponto xo z em [a; b].
A sucess~ao xn+1 = g(xn) converge para esse ponto xo z, dado qualquer x0 em [a; b].
Vericam-se as majorac~oes de erro apresentadas no Teorema.
Demonstrac~ao:
E uma consequ^encia imediata dos resultados anteriores. Reparamos apenas que, como se
trata de um intervalo compacto, a derivada atinge um maximo inferior a 1 (o que poderia
n~ao acontecer se o intervalo fosse ilimitado). 2
Para alem disto, podemos dividir as condic~oes do corolario anterior em dois casos.
Proposic~ao 2.2 Seja g 2 C 1[a; b] tal que g([a; b]) [a; b]:
Se 0 < g0(x) < 1; 8x 2 [a; b] ent~ao se x0 2 [a; b] ha converg^encia do metodo do ponto
xo e e monotona (ou seja, as iteradas cam todas a esquerda [respect. a direita] da raiz,
se a iterada inicial estiver a esquerda [respect. a direita] da raiz).
Se 1 < g0(x) < 0; 8x 2 [a; b] e se g([a; b]) [a; b]; ent~ao se x0 2 [a; b] ha converg^encia
do metodo do ponto xo e e alternada (ou seja, as iteradas v~ao car alternadamente a
esquerda e a direita da raiz).
Demonstrac~ao:
Basta reparar que, se xn < z, temos
z xn+1 = g(z) g(xn) = g0()(z xn) > 0:
Portanto, se x0 < z, por induc~ao, vemos que temos sempre xn < z:
Usando o argumento anterior, agora se xn < z temos xn+1 > z; e reciprocamente, o que
prova a armac~ao. 2
Notamos ainda que, no caso em que sucess~ao e alternada, duas iteradas sucessivas denem
um intervalo onde se encontra a raiz.
Repare-se que esta sucess~ao dene aquilo que se designa por `fracc~ao contnua'6, ou seja,
x = a0 + b0 ; neste caso an = a; bn = b; ou seja, x = a + b
a1 + b1 a + a+ b b
a2 + b2 ...
.. .
Podemos aplicar a proposic~ao anterior. Basta ver que g (x) = a + b=x verica as condic~oes
requeridas no intervalo I = [a; a + b]:
Com efeito, 1 < g0 (x) < 0; 8x 2 I; porque g 0 (x) = b=x2 e crescente em I e temos
g0(a) = b=a2; g0(a + b) = b=(a + b)2 onde ambos os valores pertencem a ] 1; 0[ pois
a > b 1: Por outro lado, como g e decrescente em I e temos g(a) = a + b=a; g(a + b) =
a + a+b b ; ambos os valores pertencendo a [a; a + b]; e claro que g(I ) I: Para terminar
reparamos que, apesar de x0 = 1 2= I; temos x1 = a + b 2 I; pelo que podemos considerar
x1 como sendo a `nova iterada inicial'. As condic~oes est~ao vericadas 2
Ja vimos casos em que podemos assegurar converg^encia do metodo do ponto xo, vamos
agora estabelecer um criterio em que se conclui que n~ao pode haver converg^encia.
Teorema 2.5 (diverg^encia do metodo do ponto xo). Seja Vz vizinhanca de um ponto xo
z de g 2 C 1(Vz ), tal que jg0(z)j > 1: Neste caso, a sucess~ao xn+1 = g(xn) n~ao pode convergir
para esse ponto xo z (excepto se `acidentalmente' xm = z para algum m):
Demonstrac~ao:
Supondo, por absurdo, que (xn) converge para o ponto xo z 2 Vz ; ent~ao:
8" > 0 9p : n p : jz xn j < ":
Como jg0(z)j > 1; podemos sempre considerar um " > 0 sucientemente pequeno tal que
I = [z "; z + "] Vz em que jg0(x)j > 1; 8x 2 I: Aplicando o teorema do valor medio
jz xn+1j = jg0(n )j jz xn j;
como xn; z 2 I tambem n 2 I; logo jg0(n)j > 1 e temos jz xn+1j > jz xn j para n p;
pois z 6= xn: Isto signica que a sucess~ao jz xnj e crescente e consequentemente n~ao
converge para zero, o que provoca a contradic~ao.2
Demonstrac~ao:
Podemos sempre considerar um intervalo I = [z "; z + "] sucientemente pequeno, tal
que jg0(x)j < 1; 8x 2 I . Falta apenas ver que g(I ) I para aplicar o teorema do ponto
xo. Ora, se x 2 I; temos jz xj "; e portanto
jz g(x)j = jg(z) g(x)j = jg0()j jz xj ":
Logo g(x) 2 I; e a converg^encia e assegurada pelo teorema do ponto xo, considerando um
x0 2 I: 2
pois m tende para z; porque havendo converg^encia xm ! z: Como por hipotese g0(z) 6= 0;
o teorema esta provado. 2
Podemos agora perguntar qual sera a ordem de converg^encia quando g0(z) = 0.
7
Tambem e usada a denic~ao em que se exige apenas que exista um K > 0 tal que
jen j K jenjp:
+1
Teorema 2.7 (converg^encia supra-linear). Seja g uma func~ao C p(Vz ); com p 2; onde Vz
e uma vizinhanca de z ponto xo de g:
Se
g0(z) = ::: = g(p 1)(z) = 0; com g(p)(z)/=0 (2.12)
ent~ao
e m+1 ( 1)p
g (p) (z )
!1 epm =
mlim p! (2.13)
ou seja, o metodo do ponto xo tem converg^encia de ordem p e o coeciente assimptotico
e K1 = p1! jg(p)(z)j:
Demonstrac~ao:
Fazendo o desenvolvimento em serie de Taylor, para um xm 2 I
ou seja,
1)p g
(p)(m )
em+1 = ( e p
( m) :
p!
Conclumos, reparando (como zemos na proposic~ao anterior) que m ! z; logo lim jejmepm j j =
+1
p! jg (z )j = K1 > 0: 2
1 (p)
Demonstrac~ao:
Consideremos o caso em que f (a) < 0; f (b) > 0; f 0(x) > 0; f 00(x) 0; ja que os restantes
casos s~ao semelhantes.
Se tivermos f (x0) > 0 ent~ao as condic~oes 1), 2), 3) e 4a) s~ao vericadas e podemos provar
que xn z para todo n; porque
i) x0 > z; pois f (x0) > 0:
ii) fazendo o desenvolvimento em serie de Taylor em torno de xn; temos
0 = f (z) = f (xn) + f 0 (xn)(z xn ) + 21 f 00(n)(z xn)2:
Como f 00(x) 0; vem f (xn) + f 0(xn )(z xn ) 0 e dividindo por f 0(xn) > 0; obtem-se
z xn+1 = ff0((xxn)) + z xn 0; ou seja xn+1 z:
n
Por outro lado, tendo xn z; como f e crescente f (xn ) f (z) = 0; logo ff0((xxnn)) > 0 e
portanto xn+1 = xn ff0((xxnn)) < xn.
Mostramos assim que se trata de uma sucess~ao estritamente descrescente e limitada
(porque z xn x0); logo tem limite.
Esse limite e obrigatoriamente a soluc~ao unica de f (z) = 0 , z = g(z) = z ff0((zz)) nesse
intervalo, pois g e contnua.
{ Resta ver que se a condic00~ao 4b) for vericada temos converg^encia em todo o intervalo.
Reparamos que g0(x) = f (fx0)(fx)(x) 0 se x 2 [a; z]; logo g e decrescente e se f (x0) < 0 (que
2
e o caso que resta vericar) ent~ao x0 < z ) x1 = g(x0) > g(z) = z: Portanto x1 verica
f (x1) > 0 e aplica-se 4a) desde que x1 2 [a; b]:
Como x1 = x0 ff0((xx )) a; basta notar que x0 a ) x1 = g(x0) g(a) e que g(a) b
0
0
Proposic~ao 2.4 (converg^encia local). Seja f uma func~ao C 2(I ), onde I e um intervalo
que e vizinhanca da raiz z.
Se f 0(z ) 6= 0; f 00 (z) 6= 0; ent~ao a sucess~ao denida pelo metodo de Newton converge para
z (desde que x0 seja sucientemente proximo de z) com ordem de converg^encia quadratica,
lim em+1 = 1 f 00(z) :
m!1 e2m 2 f 0 (z )
00
O coeciente assimptotico de converg^encia sera K1 = 21 jjff 0((zz))jj > 0:
Dem: (Exerccio). 2
Observac~ao: Podemos obter facilmente metodos com converg^encia superior, usando metodos
de interpolac~ao de Hermite. Por exemplo,
0
xn+1 = xn 2f 0(x )f20f(x(xn) )f f(x(xn) )f 00(x ) (2.19)
n n n n
ou 00
xn+1 = xn ff0((xxn)) 2ff(0(xxn))ff(0x(nx)f)f(0x(xn )) (2.20)
n n n n
apresentam converg^encia local cubica. Um outro metodo possvel, com converg^encia local
de ordem 4 e
0 0 00
xn+1 = xn 6f 0 (x )f 0(x6f)f(x0(nx)f) (xn6)ff(x(xn)f) 0(x3f)f(x00n(x)f )(x+n )ff(x(x)nf)(x )f 000(x ) : (2.21)
n n n n n n n n n
Estes metodos podem ser interessantes quando aplicados a polinomios, ja que a deriva p c~ao
simplica a sua express~ao... uma possibilidade e a sua aplicac~ao ao calculo de a: No p
2.5. Metodo de Newton 36
entanto, de um modo geral, a utilizac~ao destes metodos de ordem superior e muito condi-
cionada pelo calculo de derivadas de ordem superior, exigindo ainda um numero superior
de operac~oes. Em termos de tempo de calculo, uma iterac~ao de um destes metodos pode
ser compensada atraves de duasn=iterac~ones de um metodo mais simples (como o metodo de
Newton)... basta reparar que 4 = 2 :
2
escrever-se na forma:
0 0
xn+1 = xn ff0((xxn )) f 0(x )2 f (fx(nx) )f 00(x ) = xn f 0(x )f 0f(x(xn) )f f(x(xn) )f 00(x ) (2.23)
2
n n n n n n n n
que possui uma formula semelhante a (2.19) e pode ser usado em conjunc~ao com esse metodo
no caso de ser desconhecida a natureza das razes.
3 = 0. Nem todos os numeros reais s~ao algebricos (aos numeros n~ao-algebricos, chamamos
transcendentes)! Isto n~ao e uma quest~ao trivial, e so foi esclarecida no nal do sec. XIX. O
2.7. Metodos para Equac~oes Algebricas 40
facto de Hermite ter demonstrado que e n~ao era algebrico, permitiu a Lindemann provar
que tambem n~ao era (gracas a formula de Euler, ei + 1 = 0; os numeros e e est~ao
relacionados). Resolveu-se assim um dos problemas mais antigos da geometria { a impos-
sibilidade da quadratura do crculo (ou seja, e impossvel, atraves de regra e compasso,
encontrar um quadrado com area igual a de um crculo).
Exerccio 2.4 Mostre que e impossvel aproximar um numero transcendente atraves do
metodo do ponto xo se a func~ao iteradora for uma func~ao racional com coecientes racionais
(ou seja, se g(x) = pq((xx)) ; em que p; q s~ao polinomios com coecientes racionais).
Comecamos por recordar o resultado fundamental acerca das razes de polinomios, devido
a Gauss10.
como jcn j jxMj 1 , jxj 1+ jMcnj , temos jpn (x)j > 0, o que signica que pn (x) = 0 so no caso
de jxj 1 + jcMn j n~ao se vericar. Portanto as razes est~ao localizadas para jxj < 1 + jMcnj : 2
Exerccio 2.5 Seja a 6= 0 e M~ = maxfja1j; : : :; janjg. Mostre que toda a raiz zk da equac~ao
p(x) = a0 + a1x + : : : + an xn = 0
verica
~
jzk j > (1 + jM
a j)
1
0
Consideremos agora polinomios de coecientes reais. Analisando o sinal desses coecientes
e possvel retirar alguma informac~ao acerca da localizac~ao das razes.
Denic~ao 2.4 Chamamos numero mnimo de variac~oes de sinal de uma lista de numeros,
La = (a0; a1; : : :; an);
ao numero de variac~oes de sinal que ocorre nessa ordem, excluindo os zeros. Esse numero
e designado por va : Chamamos numero maximo de variac~oes de sinal dessa lista quando
os zeros s~ao substitudos por valores positivos ou negativos, por forma a obter um numero
maximo de variac~oes de sinal. Esse numero e designado por va+ :
Exemplo 2.2 Consideremos a lista ( 2; 3; 0; 0; 1; 0; 0; 0): O numero mnimo de variac~oes
de sinal sera dado pelas variac~oes em 2; 3; 1; isto e, apenas ocorre uma variac~ao (v = 1):
Um numero maximo de variac~oes de sinal ocorre, por exemplo, se escolhermos:
2; 3; ; +; 1; ; +; ; com 6 variac~oes de sinal (v+ = 6):
Teorema 2.11 (Budan-Fourier). Seja [a; b] IR e p(x) um polinomio de coecientes reais,
onde consideramos as listas
La = p(a); p0(a); : : :; p(n)(a)
Lb = p(b); p0(b); : : :; p(n) (b) :
O numero de zeros em [a; b] e igual a va vb+ 2k , para um certo k 2 IN0 :
2.7. Metodos para Equac~oes Algebricas 42
tendo-se b0(x) = pn (x): Denindo pn 1 (x) = b1(y) + b2(y)x + ::: + bn(y)xn 1; reparamos que
b0(y) + (x y)pn 1 (y) = b0(y) + (x y)(b1(y) + b2(y)x + ::: + bn (y)xn 1) =
= b0(y) yb1(y) + (b1(y) yb2(y))x + ::: + (bn 1(y) ybn(y))xn 1 + bn(y)xn = pn (x)
porque temos bk (y) y bk+1(y) = ak : Ou seja, mostramos que pn (x) = b0(y)+(x y)pn 1(x):
Se y = z for um zero de pn ent~ao b0(z) = 0 e pn 1 (x) e o polinomio que resulta da divis~ao
por x z e pode ser usado para calcular as restantes razes.
Para alem disso, este esquema permite ainda obter a derivada de pn pois p0n (x) = pn 1 (x)+
(x y)p0n 1 (x) ) p0n (y) = pn 1 (y): Isto pode ser util ao efectuar o metodo de Newton,
considerando y = xn (pode ser assim evitada a derivac~ao algebrica).
11
Ver Anexo acerca das Equac~oes as Diferencas.
2.8. Generalizac~ao a razes complexas 44
Com efeito, como se trata de uma sucess~ao denida recursivamente, atraves da equac~ao
as diferencas, sabe-se que, no caso em que o polinomio tem razes distintas z1; : : :; zp; os
valores da sucess~ao s~ao dados por
xn = C1z1n + : : : + Cpzpn
para certas constantes C1; : : :; Cp n~ao todas nulas (determinadas a partir dos valores das
iteradas iniciais). Devemos escolher os valores iniciais de forma a que C1 6= 0:
Agora, supondo que jz1j > jz2j : : : jzpj; temos:
xn+1 = C1z1n+1 + : : : + Cpzpn+1 = z C1 + C2( zz )n+1 + : : : + Cp( zzp )n+1 ! z :2
2
1 1
1 1
xn C1z1n + : : : + Cpzpn C1 + C2( zz )n + : : : + Cp( zzp )n
2
1 1
Verica-se que xxnn = z1 + O(( zz )n); logo a rapidez de converg^encia sera tanto maior
+1 2
1
Apesar de precisarmos de 200 iterac~oes para obter um valor razoavelmente proximo da raiz
1:38879:::; notamos que o calculo das iteradas e extremamente simples! Apenas precisamos
de efectuar multiplicac~oes e subtracc~oes com numeros inteiros, que s~ao operac~oes que um
computador efectua com grande rapidez. Fazemos somente uma divis~ao quando paramos a
iterac~ao. Neste caso a converg^encia e lenta porque j zz j = 0:874::: 1:
2
Podemos interrogar-nos se, sob condic~oes semelhantes as do caso real, podemos assegurar
a converg^encia de metodos de ponto xo.
Isto pode ser conseguido, comecando por denir que g e uma func~ao contractiva num
conjunto D CI , se existir L < 1:
jg(a) g(b)j Lja bj; 8a; b 2 D:
Como a contractividade nem sempre e facil de vericar, vamos apresentar um resultado
semelhante ao que estabelecemos no caso real, em que exigiamos apenas que a derivada
fosse inferior a um certo L < 1. Para demonstrarmos esse resultado usamos o teorema do
valor medio de Lagrange, cuja generalizac~ao a func~oes complexas n~ao e semelhante, com
efeito apenas podemos estabelecer:
g(a) g(b) = Re(g0()(b a)) + Im(g0()(b a))i
para certos ; pertencentes ao segmento no plano complexo que une a e b: Como os valores
e n~ao s~ao necessariamente iguais, o resultado n~ao e igual.
Atraves deste resultado conclumos que se tivermos uma func~ao analtica, cuja derivada
e em modulo inferior a um L < 1 num conjunto convexo D; a func~ao e contractiva em D.
Corolario 2.3 Seja g analtica num conjunto D, convexo e fechado de CI , tal que g(D) D:
Se jg 0(x)j L < 1 8x 2 D, ent~ao as condic~oes do teorema do ponto xo vericam-se.
2.8.1 Metodo de Newton nos complexos
O metodo de Newton pode ser considerado em CI ; como um caso particular do metodo do
ponto xo. Com efeito, se a func~ao for analtica numa vizinhanca da raiz z e se f 0(z) 6= 0;
estabelecemos a equival^encia
f (z) = 0 , z = z ff0((zz)) :
e podemos aplicar a iterac~ao do ponto xo, pelo que o metodo de Newton pode esquematizar-
se novamente (
Iterada inicial : z0 2 CI
Iterar zn+1 = zn ff0((zznn)) ;
assegurando que f 0(zn) 6= 0; o que pode ser conseguido se tomarmos z0 sucientemente
proximo de z e se f 0(z) 6= 0. Ou seja, pode ser provado um teorema de converg^encia local,
que deixamos como exerccio.
Exerccio 2.7 Seja f analtica numa vizinhanca Vz duma raiz z 2 CI , tal que f 0(x) 6=
0; 8x 2 Vz , mostre que o metodo de Newton converge para essa raiz se considerarmos z0
sucientemente proximo de z: Observe ainda que a converg^encia do metodo de Newton,
nestas condic~oes, e quadratica.
Tambem e possvel estabelecer condic~oes para assegurar a converg^encia num certo con-
junto (numa bola que contenha a raiz), mas s~ao substancialmente mais complicadas de
provar (cf. [7]):
2.9. Exerccios 48
C = 2M jfjf0((zz0))jj2 1
0
com jjff0((zz ))jj R2 ; ent~ao existe um e um so zero de f em B (z0 ; R) e o metodo de Newton
0
Observac~ao:
Uma ultima palavra para referir que no caso em que as derivadas exigem um calculo
difcil, ou em que a func~ao n~ao e analtica, podemos implementar o metodo da secante ou o
metodo de Steensen (ver exerccio 4).
2.9 Exerccios
1. Prove que se uma func~ao f for contnua e estritamente monotona em [a; b]; e se f (a)f (b)
0; ent~ao o metodo da falsa posic~ao e o metodo da falsa posic~ao modicado convergem para
a raiz unica de f nesse intervalo.
4. Supondo que o metodo do ponto xo converge linearmente com uma func~ao iteradora
g 2 C 1(Vz ); temos para n sucientemente grande
z xn+1 g0(z)(z xn ); quando xn ! z:
a) Usando o resultado obtido no exerccio anterior mostre que
z xn 1 (x (xn 2xxn +1 )x ) ; quando xn ! z;
2
n+1 n n 1
o que corresponde a formula de extrapolac~ao de Aitken.
2.9. Exerccios 49
b) A formula anterior pode ser utilizada para obter o metodo de Steensen
xn+1 = xn g(g(x(g))(xn) 2g(xxn)) + x :
2
n n n
Mostre que se g0(z) 6= 1, o metodo de Steensen converge, pelo menos, quadraticamente
para z.
Observac~ao: Repare que, ainda que o metodo inicial divirja, com jg 0(z )j > 1, o metodo
de Steensen ira convergir quadraticamente (converg^encia local).
Considerando f (x) = g(x) x, metodo de Steensen aparece tambem sob a forma
xn+1 = xn f (x + ff((xxn))) f (x ) :
2
n n n
o que corresponde a uma variante do metodo de Newton considerando
f 0(x) f (x + ff(x(x))) f (x)
quando x ! z. Tal como o metodo de Newton, tem pelo menos converg^encia quadratica se
f 0(z) 6= 0.
5. Considere um intervalo I = [a; b] que tem um unico ponto xo z de uma func~ao
g 2 C 1(I ): Seja g0(z) = 1:
a) Mostre que se que se 0 < g0(x) < 1; 8x 2 I nfzg; ent~ao o metodo do ponto xo converge
qualquer que seja x0 2 I:
Sugest~ao: Verique que a sucess~ao denida pelo metodo do ponto xo e estritamente
monotona e limitada.
b) Aplique este resultado para mostrar que xn+1 = sin(xn) converge para 0; qualquer que
seja x0 2 IR:
6. Pretende-se resolver a equac~ao f (x) = 0 em que f 2 C 1(IR).
a) Mostre que se a func~ao vericar
b f 0(x) a < 0 ou 0 < a f 0(x) b
tem um unico zero em IR, e que podemos encontrar ! tal que o metodo iterativo
xn+1 = xn + !f (xn )
converge para esse zero, qualquer que seja x0 2 IR.
b) Aplique o metodo anterior a f (x) = 3x cos(2x)=2 + sin(4x)=4
7. Seja f uma func~ao diferenciavel em IR: Pretende-se estabelecer uma equival^encia em
todo IR;
f (x) = 0 , x = g(x);
em que g e diferenciavel em IR e g0(x) < 0; 8x 2 IR:
Mostre que existem func~oes f para as quais e impossvel estabelecer essa equival^encia.
Sugest~ao: Verique nessas condic~oes g tem um unico ponto xo.
2.9. Exerccios 50
(Isto signica que e escusado procurar um procedimento geral que encontre func~oes it-
eradoras cuja derivada e sempre negativa { em particular, func~oes iteradoras que levem
a uma converg^encia alternada. Esta procura teria sentido ja que isso permitiria encontrar
intervalos que contivessem a raiz!)
8. O processo iterativo
x0 = 1
xn+1 = (p p 1) xn + ap 1
pxn
permite obter em poucas iteradas uma boa aproximac~ao de
pp a
em que p; a > 1: Escolha um intervalo adequado em que estejam satisfeitas as condic~oes
sucientes para a converg^encia do p metodo de Newton.
Calcule uma aproximac~ao de 231 garantindo um erro absoluto inferior a 10 3:
3
Observac~ao: Claro que a aproximac~ao inicial x0 = 1 n~ao e boa e pode ser melhorada...
por exemplo, considerando p x0 = 1 + ap ; ou simplesmente encontrando um x0 tal que xp0 <
a < (x0 + 1)p::: (para 231 bastaria reparar que 63 = 216 < 231 < 343 = 73 e considerar
3
x0 = 6):
Uma utilidade deste resultado e a de permitir calcular aproximac~oes de razes de ordem
p utilizando apenas operac~oes elementares (... por exemplo, quando estamos na posse de
uma calculadora rudimentar que n~ao calcula razes!).
Acontece, por vezes, que as razes calculadas pela maquina aparecem so em precis~ao
simples, podendo servir esse valor como aproximac~ao inicial para este processo iterativo,
que ao m de muito poucas iterac~oes (normalmente 1 ou 2) garante todos os dgitos em
precis~ao dupla, ou mesmo superior!
Com efeito, como nesse caso a aproximac~ao ja e bastante boa, jen+1j p(p2pa1)pa p =p =p jenj2;
(
(
1)
2)
ou seja jen+1j 2ppp 1a jenj2 e possvel duplicar a precis~ao numa unica iterac~ao, desde que 2ppp 1a
n~ao seja muito maior que 1, o que acontece normalmente para valores n~ao muito elevados
de p:
9. Mostre que se tivermos uma equac~ao algebrica
p(x) = a0 + a1x + : : : + anxn = 0;
onde os coecientes ai 2 IR; n~ao e possvel vericar as condic~oes do teorema do ponto xo
usando um conjunto D = fz 2 CI : 0 jzj g para determinar uma raiz n~ao real de
p(x) = 0:
10. E evidente que se x 6= 0 e soluc~ao da equac~ao algebrica
P (x) = a0 + a1x + ::: + anxn = 0;
ent~ao y = 1=x e soluc~ao da equac~ao
Q(y) = a0yn + ::: + an 1y + an = 0:
2.9. Exerccios 51
a) Supondo que a0; an 6= 0; mostre que o numero de zeros reais (respect. complexos) de
P e igual ao de Q:
b) Conclua que basta analisar P e Q no circulo fz 2 CI : jzj 1g para localizarmos todos
os zeros desses polinomios em CI .
c) Quantas razes complexas tem a equac~ao x6 + ax4 + ax2 + 1 = 0; no caso de possuir
uma unica raiz real em [ 1; 1]?
d) Mostre que a equac~ao 4 (1 + 2i)x 64x2 + (16 + 32i)x3 = 0 tem uma e uma so raiz
em fz 2 CI : jzj > 1g:
Por outro lado, sendo ex ponto xo da derivac~ao, pois ex = (ex)0; e comecando com f0 = 0;
ao efectuarmos fn+1 = (fn)0 vamos obter sempre 0; que e um outro ponto xo. N~ao e dicil
ver que func~oes do tipo Cex ser~ao os pontos xos operador derivac~ao. Portanto, podemos ter
sucess~oes que convergem para os diferentes pontos xos se zermos f0 = pk (x) + Cex; onde
pk (x) e um polinomio de grau k, ja que ao m de k + 1 iterac~oes as derivac~oes sucessivas
anulam o polinomio. No entanto, se comecarmos com f0 = sin(x) vamos `orbitar' entre
co-senos e senos, n~ao havendo converg^encia!
Interessa pois saber sob que condic~oes poderemos garantir converg^encia, considerando
equac~oes mais gerais, em que as incognitas podem ser numeros, vectores, sucess~oes, func~oes,
etc...
A liberdade para as incognitas n~ao e total! Para garantirmos a exist^encia de um teorema
do ponto xo, num contexto t~ao geral, precisamos de ter uma estrutura (...um espaco) com
propriedades mnimas que permitam um resultado de exist^encia "construtivo", t~ao forte
como sera o teorema do ponto xo de Banach que iremos demonstrar.
Uma estrutura sucientemente geral que permite obter esse resultado e a noc~ao de Espaco
de Banach (que s~ao espacos vectoriais normados e completos), noc~ao que iremos denir neste
captulo.
Tambem poderamos obter o teorema do ponto xo de Banach para espacos metricos
completos (como foi originalmente apresentado), mas preferimos considerar apenas espacos
de Banach, ja que a deduc~ao e semelhante e mais simples, permitindo ainda apresentar
resultados relativos a derivac~ao de Frechet.
Comecamos por recordar a noc~ao de espaco normado.
3.1. Espacos Normados 53
Denic~ao 3.1 . Seja E um espaco vectorial, em que o corpo dos escalares e IR ou CI . Uma
aplicac~ao jj:jj : E ! [0; +1[ designa-se norma se vericar:
i) jjxjj = jj jjxjj , 8x 2 E; 8 2 IR (ou CI ).
ii) jjx + yjj jjxjj + jjyjj, 8x; y 2 E (desigualdade triangular)
iii) jjxjj = 0 , x = 0
A um espaco vectorial E munido de uma norma jj:jj, chamamos espaco vectorial normado
e indicamos (E; jj:jj) apenas em caso de ambiguidade. Normalmente apenas indicamos E ,
subentendendo qual a norma em quest~ao.
Observac~oes:
i) A partir de uma norma, podemos denir imediatamente uma dist^ancia d(x; y) = jjx
yjj; que nos permite quanticar uma certa proximidade entre dois elementos do espaco
vectorial (beneciando da relac~ao de ordem existente nos reais) e, consequentemente, da-
nos uma noc~ao de vizinhanca, que denira a topologia.
ii) E importante notar que estando denidas varias normas sobre um mesmo espaco vec-
torial, elas podem estabelecer um criterio de proximidade diferente... ou seja, e importante
estar subjacente qual a \norma" usada! Quando, ao longo do captulo, escrevemos xn ! x,
e fulcral termos presente segundo que norma isso acontece. Iremos ver que se o espaco vec-
torial tiver dimens~ao nita, todas as normas a denidas s~ao equivalentes, mas isso n~ao e
valido para espacos com dimens~ao innita... podera acontecer que uma sucess~ao convirja
segundo uma norma, mas n~ao segundo outra!
iii) Se no espaco vectorial estiver denido um produto interno x y; ent~ao a norma
natural associada a esse produto interno e jjxjj = (x x)1=2, e podemos usar a importante
desigualdade de Cauchy-Schwartz:
jx yj jjxjj jjyjj
iv) Reparamos que a generalizac~ao da noc~ao de modulo e explcita na propriedade jjxjj =
jj jjxjj; pois precisamos da noc~ao de modulo no corpo, para que esta propriedade se
verique.
3.1. Espacos Normados 54
Exerccio 3.2 . Mostre que os conjuntos B (a; r) = fx 2 E : jjx ajj < rg s~ao conjuntos
abertos, designados por bolas abertas, e que s~ao conjuntos fechados B (a; r) = fx 2 E :
jjx ajj rg, chamados bolas fechadas.
Para alem disso, reuni~oes de abertos s~ao abertos e intersecc~oes de fechados s~ao fecha-
dos, mas so podemos garantir que intersecc~oes de abertos s~ao abertos, ou que reuni~oes de
fechados s~ao fechados se forem em numero nito.
Nota importante: os conjuntos E e ; s~ao abertos e fechados!
Introduzimos ainda outras denic~oes:
{ Um conjunto A diz-se limitado se 9R 0 : 8x 2 A; jjxjj R
{ Um conjunto A diz-se compacto se toda a sucess~ao em A tem uma subsucess~ao conver-
gente, com limite pertencente a A:
Num espaco de dimens~ao nita, se um conjunto for fechado e limitado e um compacto,
mas em espacos de dimens~ao innita isso nem sempre acontece2. Na denic~ao de conjunto
compacto usamos a noc~ao de converg^encia:
Denic~ao 3.3 Uma sucess~ao (xn) num espaco normado E converge para x 2 E , e es-
crevemos xn ! x, se
jjxn xjj n!1
!0
E claro que o limite, a existir, e unico. Basta reparar que se x e y fossem limites da
sucess~ao (xn ); ent~ao para qualquer > 0 existe um n sucientemente grande tal que
jjx xnjj < ; jjxn yjj < ; logo jjx yjj jjx xnjj + jjxn yjj < 2: Ou seja,
8 > 0; jjx yjj < 2; o que implica x = y:
2
Basta pensar na bola B (0; 1) no espaco l1 : As sucess~oes u(k) (u(nk) ) tais que u(nk) = kn = 01 sese nn6==kk per-
tencem a B (0; 1) mas n~ao e possvel
1
extrar nenhuma subsucess~ao convergente da sucess~ao u(k) porque os elementos
constituem uma base do espaco l :
3.1. Espacos Normados 56
Como e claro, esta noc~ao de equival^encia entre normas signica que as topologias tambem
ser~ao equivalentes, ou seja, que os abertos e fechados ser~ao os mesmos, que um conjunto
sendo limitado para uma norma tambem o sera para outra, que a converg^encia numa norma
implica converg^encia na outra, etc... (verique estes resultados como exerccio).
Lema 3.1 . Seja E um espaco normado de dimens~ao nita. Ent~ao, qualquer que seja a
norma jj:jjN , existe R > 0:
jjxjjN R; 8x 2 fjjxjj1 1g
Demonstrac~ao:
Seja e(1); :::; e(d) uma base do espaco vectorial E; sabemos que sendo x = x1e(1)+:::+xne(n)
ent~ao
jjxjjN = jjx1e(1) + ::: + xde(d)jjN (jje(1)jjN + ::: + jje(d)jjN ) i=1
max jx j:
;:::;d i
Como jjxjj1 = maxi=1;:::;d jxij 1 basta tomar R = jje(1)jjN + ::: + jje(d)jjN > 0:2
Ora, qualquer que seja y 2 E; y 6= 0 podemos escrever y = jjyjj1 jjyyjj1 , onde x = jjyyjj1 2 S .
Portanto:
C1 jj jjyyjj jjN C2; 8y 2 E nf0g
1
e obtemos, como pretendiamos,
C1jjyjj1 jjyjjN C2jjyjj1 ; 8y 2 E
incluindo trivialmente o caso y = 0:2
Denic~ao 3.5 Uma sucess~ao (xn) num espaco normado E diz-se sucess~ao de Cauchy em
E se !1
jjxm xnjj m;n! 0:
Denic~ao 3.6 Um espaco vectorial normado E diz-se espaco de Banach se for completo,
ou seja, se toda a sucess~ao de Cauchy em E for uma sucess~ao convergente para um certo
x 2 E.
Observac~ao:
{ Os exemplos mais simples de espacos de Banach, s~ao os proprios corpos: IR ou CI .
{ Um espaco vectorial com produto interno que seja completo e normalmente designado
espaco de Hilbert. Como e obvio, usando a norma jjxjj = (x:x)1=2; um espaco de Hilbert sera
3.2. Espacos de Banach 58
Exerccio 3.3 Mostre que o espaco de func~oes C m[a; b], munido da norma
jjf jj1;m = sup jf (x)j + sup jf 0(x)j + ::: + sup jf (m)(x)j
x2[a;b] x2[a;b] x2[a;b]
e um espaco de Banach. Se m = 0, temos a norma ja apresentada para as func~oes contnuas,
e a completude resulta do facto da converg^encia uniforme de func~oes contnuas ser uma
func~ao contnua.
Exerccio 3.4 Verique que qualquer um dos espacos normados apresentados no exerccio
3.1 e um espaco de Banach.
Observac~ao: Consideremos a sucess~ao de func~oes contnuas em [0; 2]
(
fn (x) = x1 sese xx 22 [1[0;;2]1[;
n
ou seja, fn 2 C ([0; 2]): Vemos que (fn) e sucess~ao de Cauchy para a norma L1; porque
Z1
jjfm fn jj1 = 0 jxm xnjdx = j m 1+ 1 n +1 1 j m;n! !1
0:
No entanto vericamos que a sucess~ao (fn ) converge na norma L1 para uma func~ao que
e nula em [0; 1[ e e igual a 1 em [1; 2] (a menos de um conjunto de medida nula), ou seja,
converge para uma func~ao que e descontnua! Conclumos que C ([0; 2]) n~ao e completo para
a norma L1: Vejamos que para a norma habitual de C [a; b] que e jj:jj1; a sucess~ao em causa
n~ao e de Cauchy. Com efeito,
jjfm fn jj1 = sup jxm xn j
x2[0;1]
3.2. Espacos de Banach 59
A introduc~ao de operadores lineares e muito importante ja que, em muitos casos tenta
linearizar-se o operador para simplicar o seu estudo. Nalguns exemplos esta tecnica pode
ser vista como uma generalizac~ao da aproximac~ao local de uma func~ao atraves da tangente,
que utilizaremos quando falarmos de derivac~ao de Frechet.
Demonstrac~ao:
1o) Prova-se por induc~ao que qualquer xn 2 X; porque assumimos x0 2 X; e se xn 2 X;
temos xn+1 = Axn 2 X; pois A(X ) X:
2o) (xn) e sucess~ao de Cauchy.
Como A e contractivo em X e xn 2 X; 8n 2 IN temos
jjxn+1 xnjj = jjAxn Axn 1jj Ljjxn xn 1jj;
portanto jjxn+1 xnjj Lnjjx1 x0jj, e introduzindo somas e subtrac~oes sucessivas, obtemos
assim:
jjxn+m xnjj jjxn+m xn+m 1 jj + ::: + jjxn+1 xnjj Ln+m 1 jjx1 x0jj + ::: + Lnjjx1 x0jj =
= Ln (Lm 1 + ::: + 1)jjx1 x0jj = Ln 11 LL jjx1 x0jj 1 L L jjx1 x0jj
m n
7
Em espacos de dimens~ao nita podemos usar o teorema do ponto xo de Brouwer para garantir exist^encia em
conjuntos convexos e limitados. Em espacos de dimens~ao innita e utilizado um teorema de Schauder que exige que
o operador seja `compacto'.
3.3. Metodo do Ponto Fixo e o Teorema de Banach 63
Vimos assim que o teorema do ponto xo e t~ao geral que pode ser aplicado a equac~oes
que envolvem integrais, a sistemas de equac~oes, ou simplesmente a equac~oes em IR ou CI :
E claro que quanto mais pequena for a constante de contractividade L; mais rapida sera
a converg^encia. Tal como no caso real podemos falar em ordem de converg^encia. Assim,
dizemos que uma sucess~ao (xn) converge para z na norma jj:jj com ordem p (pelo menos8)
se existir um K > 0 tal que
jjz xn+1jj K jjz xnjjp (3.3)
O teorema do ponto xo garante pelo menos converg^encia linear na norma utilizada
(p = 1; e o factor K sera a constante de contractividade L < 1). Tal como no caso real,
podemos pensar em obter uma converg^encia de ordem superior usando um metodo do tipo
Newton, mas para isso precisamos de uma noc~ao de derivac~ao em espacos de Banach.
A noc~ao de derivac~ao sera tambem util porque demonstrar a contractividade nem sempre
e facil, e no caso de IR ou CI vimos que bastava que derivada fosse em modulo inferior a L < 1
(e que o conjunto fosse convexo) para que tivessemos a contractividade. Iremos estabelecer
um resultado semelhante no contexto dos espacos de Banach.
8
A denic~ao de ordem de converg^encia e ligeiramente modicada face ao caso real. N~ao e normalmente possvel
avaliar o limite
lim jjz xn+1 jj = K1 > 0;
n!1 jjz x jjp
n
pois as estimativas baseadas na expans~ao em serie de Taylor n~ao s~ao possveis... apenas podemos trabalhar com
majorac~oes!
3.4. Derivac~ao de Frechet 65
Exemplo 3.4 O exemplo mais simples, para alem da derivac~ao vulgar em IR ou CI ; aparece
em IRd : Com efeito, se considerarmos uma func~ao f : IRd ! IRd ; a derivada de Frechet
corresponde a considerar a matriz jacobiana,
2 @f1 @f1 3
(x) ::: @xd (x) 7
6 @x1. ...... 7 ;
Jf (x) = 64 .. 5
@fd (x) : : : @fd (x)
@x1 @xd
onde a derivada de Frechet corresponde a considerar a matriz jacobiana, que e uma aplicac~ao
linear IRd ! IRd . Isto e uma consequ^encia da formula de Taylor9 em IRd :
f (y) = f (x) + Jf (x)(y x) + o(jjy xjj)
{ Por exemplo, se A(x1; x2) = (x21 + x2; x1ex ) temos 2
" #
A(x ;x ) = 2exx 1 x 1ex
0
1 2
1 2 2
Observac~oes:
(i) { A derivada de Frechet de qualquer operador constante e o operador nulo.
(ii) { Seja A um operador linear, a sua derivada de Frechet em qualquer ponto x e sempre
o proprio operador linear (sendo assim constante em x)!
E bom interpretar correctamente esta armac~ao... Como A(x + h) A(x) Ah = 0;
para qualquer ponto x, a derivada e sempre A0x = A; ou seja e constante relativamente a x:
Assim a `segunda derivada' sera o operador nulo, ja que A0x+h A0x = A A = 0: Vemos
assim que tudo se mantem coerente com as propriedades habituais.
(iii) { A derivac~ao, assim denida, possui algumas das propriedades habituais, como a
linearidade: (A + B )0 = A0 + B 0 e (A)0 = A0; ou a propriedade para a composic~ao:
9
Ver Anexo.
3.4. Derivac~ao de Frechet 66
Observac~ao: Usando a denic~ao, e facil ver que as bolas s~ao conjuntos convexos: porque
se x; y 2 B (a; r) = fw 2 E : jjw ajj < rg; ent~ao
jjx + t(y x) ajj = jj(1 t)(x a)+ t(y a)jj (1 t)jjx ajj + tjjy ajj (1 t)r + tr = r:
Lema: Seja F um espaco de Banach e f : [a; b] ! F tal que jjft0jjL(R;F ) K; 8t 2 [a; b]:
Ent~ao jjf (b) f (a)jjF K (b a):
Corolario 3.1 (do Teorema do Ponto Fixo de Banach). Considere um operador Frechet-
diferenciavel A : X E ! X , ou seja A(X ) X onde X e um conjunto n~ao vazio convexo
e fechado num espaco de Banach E . Se tivermos
jjA0xjjL(E;F ) L < 1; 8x 2 X
as condic~oes do Teorema do Ponto Fixo de Banach est~ao vericadas.
Observac~oes:
(i) Se considerarmos os espacos IRd ou CI d e se o conjunto X for limitado ent~ao, sendo
fechado, e um compacto (porque s~ao espacos de dimens~ao nita) e basta exigir jjA0xjj < 1;
porque jjA0xjj e uma func~ao continua de IRd em IR e pelo teorema de Weierstrass atinge um
maximo L < 1:
No caso de se tratar de um conjunto ilimitado, exigir jjA0xjj < 1 n~ao basta! Podemos
pensar como contra-exemplo a func~ao A(x) = 1 + x2=(x + 1) que verica jA0(x)j < 1 no
intervalo X = [0; +1[ e A(X ) X , no entanto, esta func~ao n~ao tem qualquer ponto xo
em X . Se tracarmos o graco, reparamos que a bissectriz e uma assmptota do graco de g; e
portanto, apesar de se aproximar da bissectriz, nunca a intersecta. Isto ja n~ao acontece para
uma func~ao que verique jA0(x)j L < 1; pois esta condic~ao obriga a que haja intersecc~ao!
(ii) Mesmo ao aplicarmos este resultado em IR vemos como a convexidade e importante.
No caso de IR a convexidade traduz-se em conexidade e signica podermos aplicar o resul-
tado a um unico intervalo fechado (que pode ser ilimitado), ja que se considerassemos X
como sendo a reuni~ao de dois intervalos fechados, em que o modulo da derivada era inferior
a 1, poderamos ter um ponto xo em cada um deles, contrariando a unicidade.
Exemplo 3.5 Se considerarmos uma func~ao g(x) denida em IR tal que jg0(x)j L < 1
ent~ao existe um e um so ponto xo em IR.
Por exemplo, se considerarmos g(x) = a cos(x) com jaj < 1.
3.5. Exerccios 68
3.5 Exerccios
1. Seja E um espaco de Banach, e A um operador linear contnuo em E; isto e A 2 L(E; E ).
a) Mostre que se jjAjjL(E;E) < 1, ent~ao o operador (I A) 1 existe e pertence a L(E; E ).
Para alem disso, mostre que se verica a igualdade com a serie de Neumann (que e uma
generalizac~ao da serie geometrica),
1
(I A) 1 = Ak ; e que jj(I A) 1jjL(E;E) 1 jjA1jj
X
k=0 L(E;E )
Sugest~ao: A partir da equival^encia (I A)X = I , X = I + AX , escolha G(X ) = I + AX
como func~ao iteradora e aplique o teorema do ponto xo de Banach.
b) Mostre que se A 2 L(E; E ) for invertvel e se tivermos
jjB Ajj < 1 jjA 1jj
ent~ao B e invertivel e temos:
jjA 1 jj
jjB jj 1 jjA 1jj jjB Ajj
1
3.5. Exerccios 69
4. (Teorema de Picard-Lindelof)
a) Consideremos o problema de Cauchy
(
y0 = f (x; y)
y(x0) = y0
3.5. Exerccios 70
1
As normas induzidas n~ao s~ao as unicas normas matriciais que se podem denir em L(IRd ; IRd ). Por exemplo, a
4.1. Normas de Matrizes 72
Proposic~ao 4.1 Sejam A; B matrizes quadradas, x um vector e jjAjj uma norma matricial
de A induzida por jj:jj, em IRd . Temos:
a) jjAxjj jjAjj jjxjj (o que signica que a norma matricial e compatvel com a norma
vectorial)
b) jjAB jj jjAjj jjB jj (o que signica que a norma matricial e regular)
Demonstrac~ao:
a) Para um qualquer vector x 6= 0,
jjAjj = sup jjjjAy jj jjAxjj
jjyjj6=0 y jj jjxjj
logo jjAxjj jjAjj jjxjj e para x = 0 e trivial.
b) Como jjAB jj = supjjxjj1 jjABxjj usando a) temos:
jjAB jj sup jjAjj jjBxjj = jjAjj sup jjBxjj = jjAjj jjB jj: 2
jjxjj1 jjxjj1
Exemplo 4.1 Consideremos a norma (\da soma") jjxjj1 = Pdi=1 jxij: Queremos obter uma
express~ao para a norma induzida. Ora,
d
d X d
d X d d !
X X X X
jjAxjj1 = j aij xj j jaij j jxj j jxj j jaij j
i=1 j =1 i=1 j =1 j =1 i=1
d
X d
X
jxj j j=1
max;:::;d
jaij j jjxjj1
j =1 j =1
e portanto jjAjj1 , denindo = maxj=1;:::;d Pdi=1jaij j.
Com efeito, tambem temos jjAjj1, pois
Pd
escolhendo v = ek ; onde k e o ndice que da
o j maximo na denic~ao de ; isto e = i=1 jaik j, e como jjvjj1 = 1; obtemos:
X d
d X d
X
jjAvjj1 = j aij jk j = jaik j = ;
i=1 j =1 i=1
em que ij e o delta de Kronecker (ij = 0 se i 6= j; e ij = 1 se i = j ):
Assim, jjAjj1 jjAvjj1 = e conclumos a igualdade, ou seja:
n
X
jjAjj1 = j=1
max;:::;d
jaij j: (4.2)
i=1
norma de Frobenius v
uX
u d
jjAjjFr = t jaij j2
i;j=1
n~ao e induzida por nenhuma norma de IRd .
4.1. Normas de Matrizes 73
{ Para calcular esta norma matricial basta, portanto, somar em cada coluna os modulos
dos elementos, e encontrar o maximo desses valores. Este processo leva a que esta norma
tambem seja conhecida como \norma das colunas".
Denic~ao 4.1 Dada uma matriz C , com valores proprios 1; : : :; d , denimos raio es-
pectral de C como sendo o valor
(C ) = i=1
max j j
;:::;d i
(4.5)
O raio espectral esta relacionado com as normas induzidas, podendo ser encarado como
o nmo de todas as normas induzidas:
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 74
Teorema 4.1 (i) Qualquer que seja a norma matricial jj:jj (induzida por uma norma vec-
torial) temos, para qualquer matriz A;
(A) jjAjj: (4.6)
(ii) Dada uma qualquer matriz A, para todo o " > 0; existe2 uma norma induzida jj:jj tal
que:
jjAjj (A) + " (4.7)
Demonstrac~ao:
i) Como (A) = jj; para um certo valor proprio de A; temos Av = v para certo
v 6= 0; e portanto
jjAjj = sup jjjjAx
xjj
jj jj jjvjj jj:
jjvjj
x6=0
ii) Seguimos a demonstrac~ao de [17]. Consideramos a decomposic~ao na forma canonica
de Jordan A = PJP 1 em que J = JD + JE ; sendo JD uma matriz diagonal e JE a matriz
contendo os 1's na subdiagonal superior, respeitantes aos blocos de Jordan.
Tomando a matriz diagonal D" = ["i 1ij ] em que ij e o delta de Kronecker, obtemos
D" 1 JD" = JD + " JE ; e portanto
jjD" 1 JD"jj1 jjJDjj1 + " = (A) + " :
Resta ver que existe uma norma induzida jj:jj tal que jjAjj = jjD" 1 JD" jj1: Para isso
consideramos como norma vectorial jjxjj = jjD" 1 P 1xjj1:
Basta vericar que
jjAjj = supx6=0 jjjjAxxjjjj = supx6=0 jjjjDD"" PP
1
1
Axjj1 = sup
x
1
jj
1
1
jjD" 1 JP 1 xjj1
x6=0 jjD" 1 P 1 xjj1 =
= supx6=0 jj(D" jjPJD1"D)P" 11xDjj1" xjj1 = supy=P 1 D" 1 x jjD" jjJD
1 1 1
" yjj1 = jjD 1 JD jj : 2
yjj1 " " 1
y6=0
Tendo discutido as normas matriciais em IRd ; estamos nas condic~oes de aplicar o corolario
do teorema do ponto xo usando a matriz jacobiana, que corresponde a derivada de Frechet
em IRd.
2
A norma obtida em (ii) depende a priori da matriz A:
Note-se que 8A; 8" > 0 9jj:jj : jjAjj (A) + "; n~ao e equivalente a 8" > 0 9jj:jj : 8A; jjAjj (A) + ":
Por outro lado, convem referir que o facto de se garantir que se trata de uma norma induzida permite saber que
se trata de uma norma compatvel e regular.
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 75
Exemplo 4.4 Se retomarmos o sistema que ja vimos num exemplo anterior:
8 8
>
< 3x1 + x2 = 1 < x1 = 1=3 x2 =3
>
>
2x1 + 4x2 + x3 = 0 , > x2 = x1=2 x3=4
: x2 + 2x3 = 2 : x3 = 1 x2=2
em que consideramos G : IR3 ! IR3 denido por
2 3 2 32 3
1=3 0 1=3 0 x1
G(x) = 64 0 75 + 64 1=2 0 1=4 75 64 x2 75 = b + Ax
1 0 1=2 0 x3
temos jjJG (x)jj1 = jjAjj1 = 5=6 < 1; e garantimos a exist^encia e unicidade de soluc~ao em
IR3; bem como a converg^encia do metodo. Alternativamente, com a norma jj:jj1; tambem
obteriamos a contractividade, pois jjAjj1 = 3=4 < 1:
4.2. Metodos Iterativos para Sistemas de Equac~oes N~ao Lineares 76
Demonstrac~ao:
Basta usar a denic~ao de homeomorfo: X e homeomorfo a Y se existir uma aplicac~ao
contnua F : X ! Y bijectiva e com inversa contnua.
Nesse caso consideramos Y = B (0; 1); e temos H = FGF 1 : B (0; 1) ! B (0; 1) que e
contnua por hipotese, logo pelo Teorema de Brouwer, existe pelo menos um z : Hz = z; o
que e equivalente a GF 1z = F 1z; logo F 1z e um ponto xo de G: 2
Metodo de Jacobi
Corresponde a considerar M = D; N = L + U; garantindo que a diagonal de D n~ao tenha
elementos nulos. Desta forma obtemos o metodo
(
x(0) 2 IRd (4.11)
x(n+1) = D 1 b D 1 (L + U )x(n)
que e o chamado metodo de Jacobi.
4.3. Metodos Iterativos para Sistemas Lineares 80
Exemplo 4.7 Com efeito, ja usamos o Metodo de Jacobi num exemplo anterior! Consid-
eremos o sistema linear 8
>
<10x1 + 3x2 + x3 = 14
>
2x1 10x2 + 3x3 = 5
: x + 3x + 10x = 14
1 2 3
A aplicac~ao do metodo de Jacobi ca
8 (k+1)
< x1
>
> = 101 (14 3x(2k) x(3k))
x(k+1) = 1 ( 5 2x(k) 3x(k) )
> 2 (k+1) 101
>
:
1
(k )
3
(k )
x3 = 10 (14 x1 3x2 )
ou seja, basta escrever na primeira equac~ao a componente x1 em func~ao das outras. Na
segunda equac~ao, escrevemos x2 em func~ao das outras, etc... Neste exemplo, comecando
com x(0) = (0; 0; 0) obtemos sucessivamente
x(1) = (1:4; 0:5; 1:4); :::; x(6) = (1:000251; 1:005795; 1:000251)
que ja esta bastante proximo5 da soluc~ao x = (1; 1; 1).
Podemos reparar que o calculo da segunda componente x(2k+1) ao inves de utilizar o valor
x(1k) poderia utilizar o valor, entretanto ja calculado, x(1k+1). E, da mesma forma, no calculo
de x(3k+1), podiamos ja utilizar os valores x(1k+1) e x(2k+1).
Se zermos isso estamos a considerar um outro metodo:
Metodo de Gauss-Seidel
Neste caso consideramos M = L + D e N = U , assumindo de novo que a diagonal
de D n~ao possui elementos nulos (e consequentemente, M , matriz triangular inferior, sera
invertvel).
No entanto, n~ao vamos inverter a matriz M . A partir de
x(k+1) = M 1b M 1 Nx(k);
obtemos Mx(k+1) = b Nx(k) e escrevemos
(L + D)x(k+1) = b Ux(k) , Dx(k+1) = b Ux(k) Lx(k+1)
e daqui surge ent~ao o metodo
(
x(0) 2 IRd (4.12)
x(k+1) = D 1 b D 1 Ux(k) D 1 Lx(k+1)
que e chamado metodo de Gauss-Seidel.
5
Neste caso, usando (4.13),
" #
1 0 3 1
C = D (L + U ) = 10
1
2 0 3 ; temos jjC jj1 = 0:5
1 3 0
e podemos obter a estimativa a priori jje(n) jj1 10:50n:5 jjx1 x0 jj1 = 1:4 0:5n 1 ; prevendo-se que jje(6)jj1
0:04375; o que acontece, pois vimos que o erro absoluto e jje(6)jj1 = 0:005795:
4.3. Metodos Iterativos para Sistemas Lineares 81
Proposic~ao 4.3 Se existir uma norma matricial induzida para a qual a matriz C denida
em (4.10) verique
jjC jj < 1;
ent~ao a matriz A e invertvel e o metodo iterativo (p.ex: Jacobi ou Gauss-Seidel) converge
para a soluc~ao z do sistema Ax = b; qualquer que seja x(0) 2 IRd . Temos ainda as estima-
tivas apresentadas no teorema do ponto xo com L = jjC jj; por exemplo:
6
Neste caso, usando (4.13),
" # " # " #
10 0 0 1
0 3 1 0 0:3 0:1
C = (L + D) 1 U = 2 10 0 0 0 3 = 0 0:06 0:28 ; e temos jjC jj1 = 0:4
1 3 10 0 0 0 0 0:012 0:094
o que da um valor da norma de C inferior ao do metodo de Jacobi, conrmando a maior rapidez de converg^encia.
A estimativa a priori daria, neste caso, jje(6) jj 1 10:4 (0:4)6 1:4 = 0:009557:::
4.3. Metodos Iterativos para Sistemas Lineares 82
Demonstrac~ao:
Como ja dissemos, nestas condic~oes podemos aplicar o T. Ponto Fixo a G em IRd, o que
nos da exist^encia e unicidade de soluc~ao, o que implica a invertibilidade de A: Repare-se
que podemos construir a inversa de A resolvendo sistemas Axi = ei em que os vectores ei
s~ao as colunas da matriz identidade, ja que as soluc~oes destes sistemas xi ir~ao corresponder
as colunas da matriz inversa de A:
Por outro lado, garante-se a converg^encia com qualquer x(0) 2 IRd ; bem como as estima-
tivas de erro apresentadas no teorema do ponto xo.2
Corolario 4.3 O metodo iterativo x(n+1) = G(x(n) ) em que G e dado por (4.10) converge
para a soluc~ao do sistema, dado qualquer x(0) 2 IRd ; se e so se (C ) < 1
Demonstrac~ao:
i) Se (C ) < 1, se considerarmos " = (1 (C ))=2 > 0 vimos que existe uma norma jj:jj
tal que
jjC jj (C ) + " = 12 + (2C ) < 1
e pela proposic~ao conclumos a converg^encia.
ii) Falta provar que (C ) < 1 e condic~ao necessaria.
Supondo que (C ) 1 vamos concluir que existiria pelo menos um x(0) para o qual n~ao
haveria converg^encia.
Seja um valor proprio cujo modulo e o maximo, i.e: jj = (C ) 1, e consideremos v
um vector proprio associado, temos Cv = v.
Sucessivamente, iremos obtendo C 2v = Cv = 2v, etc... C k v = k v, portanto:
jjC kvjj = jjk vjj = jjk jjvjj
Ora, escrevendo o metodo, a partir de x = G(x) = w + Cx (no caso dos M. Jacobi
e Gauss-Seidel w = M 1b e C = M 1N ), temos x(k+1) = w + Cx(k), e, subtraindo as
igualdades, obtemos:
x x(k+1) = C (x x(k)):
Aplicando sucessivamente, camos com x x(k) = C k (x x(0)).
Assim, se escolhermos x(0) tal que v = x x(0), vemos que
jjx x(k)jj = jjC k(x x(0))jj = jjC kvjj = jjk jjvjj 6! 0
pois 1:2
Observac~oes:
i) Da demonstrac~ao conclui-se, obviamente, que se (C ) < 1; a matriz A e invertvel, pois
e uma consequ^encia do teorema do ponto xo.
ii) A condic~ao e necessaria apenas se pretendermos que haja converg^encia para qualquer
iterada inicial x(0):
Com efeito, a demonstrac~ao de que (C ) < 1 e condic~ao necessaria, permite concluir
tambem que, mesmo se (C ) 1; basta existir um valor proprio tal que jj < 1 para que
4.3. Metodos Iterativos para Sistemas Lineares 83
haja converg^encia dado um certo x(0) apropriado (p. ex: escolhendo-o igual a diferenca entre
o vector soluc~ao e vector proprio associado).
Existe uma condic~ao mais simples de vericar para assegurar a converg^encia dos metodos
de Jacobi e Gauss-Seidel, que envolve a comparac~ao dos modulos da diagonal da matriz
com a soma dos modulos dos outros elementos, mas salientamos que e apenas uma condic~ao
suciente de converg^encia.
Denic~ao 4.2 Uma matriz quadrada A diz-se que tem diagonal estritamente dominante
por linhas se vericar
d
X
jaiij > jaij j 8i 2 f1; : : : ; dg; (4.14)
j =1;j /=i
e diz-se que tem diagonal estritamente dominante por colunas se vericar
d
X
jajj j > jaij j 8j 2 f1; : : : ; dg: (4.15)
i=1;i/=j
Proposic~ao 4.4 Se a matriz quadrada A tiver diagonal estritamente dominante por linhas,
ou por colunas, ent~ao e invertvel e para qualquer x(0) 2 IRd os metodos de Jacobi e Gauss-
Seidel convergem para a soluc~ao unica do sistema Ax = b:
Demonstrac~ao:
Veremos apenas o caso em que tendo diagonal estritamente por linhas, o metodo de
Jacobi converge.
No caso do metodo de Jacobi C = D 1 (L + U ) e temos
(
cij = 0 se i = j
aii se i 6= j
aij
Portanto d d
j aaij j
X X
jjC jj1 = i=1max
;:::;d
jcij j = i=1
max;:::;d
j =1 j =1;j 6=i ii
e assim d
j aaij j < 1
X
jjC jj1 < 1 , i=1
max;:::;d j =1;j 6=i ii
o que e equivalente a
d
X
8i = 1; : : : ; d jaij j < jaiij:
j =1;j 6=i
Portanto, a matriz ter diagonal estritamente dominante por linhas e equivalente a jjC jj1 <
1; o que (como vimos) implica a invertibilidade da matriz A e a converg^encia do metodo
para qualquer x(0) 2 IRd:2
4.3. Metodos Iterativos para Sistemas Lineares 84
Uma escolha razoavel para j!j e um valor proximo de (1A) ; que pode ser aproximado
atraves do teorema de Gerschgorin (que veremos no proximo captulo).
Exerccio 4.2 (condic~ao necessaria, Kahan) : Mostre que e necessario que ! 2]0; 2[ para
que haja converg^encia do metodo, qualquer que seja a iterada inicial.
Sugest~ao: Provar primeiro que (C! )d j1j jdj e que j det(C! )j = j1 !jd :
Para estabelecermos a relac~ao entre os erros relativos dos dados jjbjj = jjbjjbjj~bjj e os erros
relativos dos resultados jjxjj = jjxjjxjjx~jj vai ser importante estabelecer uma noc~ao que envolve
a norma de matrizes :
Denic~ao 4.3 Designa-se por numero de condic~ao de uma matriz A; relativamente a
norma jj:jj; o valor : cond(A) = jjAjj jjA 1 jj
Observac~oes:
i) Como e obvio, podemos concretizar estes resultados para qualquer uma das normas.
Por exemplo, podemos retirar a majorac~ao :
jjxjj1 cond1 (A)jjbjj1
onde cond1 (A) designa o numero de condic~ao relativamente a norma da soma, ou seja :
cond1 (A) = jjAjj1jjA 1jj1
ii) Se a norma da matriz identidade e jjI jj = 1 (o que acontece sempre para as normas
induzidas), e como jjI jj = jjAA 1jj jjAjj jjA 1jj , obtemos cond(A) 1.
No caso de considerarmos que a propria matriz tem erros, o sistema a resolver ca ent~ao:
A~x~ = ~b
e designando jjAjj = jjA A~jj=jjAjj; o erro relativo da matriz, podemos obter o seguinte
resultado (cf. [1]):
Proposic~ao 4.6 Se o erro relativo da matriz e sucientemente pequeno, vericando jjAjj <
1=cond(A); temos:
cond(A) (jj jj + jj jj):
jjxjj 1 cond (4.20)
(A)jj jj A
A
b
Destes resultados podemos concluir que um numero de condic~ao elevado n~ao nos per-
mite estabelecer boas majorac~oes para o erro relativo (mas n~ao podemos inferir o mau
condicionamento). Quanto maior for o numero de condic~ao, pior sera a majorac~ao de erro
relativo obtida. Consequentemente, para matrizes cujo numero de condic~ao seja elevado,
um pequeno erro relativo no vector b; `pode provocar' um grande erro relativo na soluc~ao
do sistema. Se o numero de condic~ao for baixo (nunca sera inferior a 1...) podemos concluir
acerca do bom condicionamento da resoluc~ao do sistema.
Armazenando os coecientes mik podemos obter uma factorizac~ao da matriz A na forma:
2 32 3
1 0 ::: 0 6 a(1) 11 a(1)
12 : : : a(1)
d1
6 .. ... 77 66 0 a(2) . . . ... 777
A = LU = 666 ..21 .1. . . .
6 m
76
. . . a(d 1) 777 ;
22
0 75 64 ...
76 ...
4 . . . d 1;d 5
md1 : : : md;d 1 1 0 ::: 0 add (d)
Observac~ao:
A factorizac~ao A = LU em que L e uma matriz triangular inferior com diagonal prin-
cipal unitaria, e U e uma matriz triangular superior, e obtida de forma unica se os pivots
vericarem a(kkk) 6= 0.
Factorizac~ao da Matriz
(Em cada Passo k: )
Calculo dos mik :
(d k) divis~oes { correspondentes a um total de Pdk=11 (d k) operac~oes.
Calculo dos aij :
(d k)2 multiplicac~oes e subtracc~oes { correspondentes a um total de Pkd=11 (d k)2
operac~oes.
Calculo dos b(k)
(Em cada Passo k : )
d k multiplicac~oes e subtracc~oes correspondentes a um total de Pdk=11 (d k) operac~oes.
Substituic~ao:
No total teremos : d + Pdk=11 k = 12 d(d +1) multiplicac~oes e divis~oes, Pdk=11 k = 21 d(d 1)
subtracc~oes
Como Pdk=11 (d k) = 21 d(d 1) e tambem Pdk=11 (d k) = 21 d(d 1)(2d 1):
4.4. Metodos Directos para Sistemas Lineares 90
e facil ver que a sucess~ao do numero total de operac~oes, ao considerarmos uma dimens~ao
da matriz elevada, e assimptoticamente equivalente a 32 d3: Este valor e bastante reduzido
se comparado com o numero de operac~oes que seria necessario efectuar se resolvessemos o
sistema pela Regra de Cramer (nesse caso teramos (d +1)! operac~oes, o que por exemplo,
para d = 10 corresponderia a efectuar 40 000 000 de operac~oes (; =) ao inves de 430 pelo
Metodo de Gauss).
4.4.4 Pesquisa de Pivot
Ja vimos que ao resolver um sistema Ax = b podemos ter problemas de condicionamento,
mas mesmo que esses problemas n~ao ocorram podemos ter problemas de instabilidade
numerica. Para minorar esses problemas, consideramos tecnicas de pesquisa de pivot. No en-
tanto, se o problema for mal condicionado, essas tecnicas de pesquisa de pivot t^em uma util-
idade limitada, ja que um problema mal condicionado ser(k )
a sempre numericamente instavel.
Da mesma forma que quando o pivot e nulo (i.e: akk = 0) somos obrigados a efectuar
uma troca de linhas, no caso de valores proximos de zero, se n~ao f^or efectuada uma troca de
linhas ou colunas, os erros de arredondamento (surgidos na factorizac~ao da matriz) podem
provocar grandes erros nos resultados.
Isto acontece se houver um grande desiquilibrio de grandezas nos elementos da matriz {
muito maiores face ao pivot (o que e equivalente, dividindo, a que ele seja proximo de zero).
Para contornar este problema de estabilidade numerica, usam-se as seguintes estrategias:
PESQUISA PARCIAL DE PIVOT : (normalmente por linhas)
Em cada Passo k da eliminac~ao de Gauss, troca-se a linha k com a linha r , onde r e tal
que :
ja(rkk)j = i=max ja(k)j
k;:::;d ik
isto, como e claro, so no caso de k 6= r:
PESQUISA TOTAL DE PIVOT :
Em cada Passo k da eliminac~ao de Gauss, troca-se a linha k com a linha r e a coluna k
com a coluna s , onde r, s s~ao tais que :
ja(rsk)j = i;jmax ja(k)j
=k;:::;d ij
isto, como e claro, so no caso de k 6= r ou k 6= s:
4.4. Metodos Directos para Sistemas Lineares 91
Passo k : (k = 2; :::; d)
(
ukj = akj Pkr=1P
1l u
kr rj (j = k; :::; d)
1 k
lik = ukk aik r=1 lir urk (i = k + 1; :::; d)
1
Para factorizar a matriz, usando o metodo de Doolittle s~ao necessarias o mesmo numero
de operac~oes que no metodo de eliminac~ao de Gauss. Ha, no entanto, vantagens com-
putacionais apreciaveis no que diz respeito ao armazenamento dos elementos da matriz
relativamente ao metodo de Gauss.
Observac~ao: De forma semelhante, podemos pensar numa factorizac~ao em que ao inves
de L; sera a matriz U que tera a diagonal principal unitaria. Esse outro processo, em tudo
semelhante a este, e denominado usualmente por Metodo de Crout.
Vamos agora ver alguns metodos particulares para certo tipos de matrizes, em que pode-
mos reduzir o numeros de operac~oes. Comecamos pelas matrizes simetricas e depois vamos
ver o caso das matrizes tridiagonais.
Metodo de Cholesky
Pode ser encarado como uma simplicac~ao do metodo de Doolittle para matrizes simetricas
(A = AT ); de forma a que decomposic~ao seja A = LLT :
Se pensarmos numa matriz unidimensional, reparamos imediatamente que isso corre-
sponde a encontrar l11 : a11 = l11 2 ; e caso consideremos apenas numeros reais, isto sera
apenas possvel se a11 0: Por outro lado, para resolver a11x1 = b1 devemos considerar
sempre a11 6= 0: Vemos assim que no caso unidimensional isso corresponde a exigir que
a11 > 0: No caso de uma matriz real de qualquer dimens~ao, isso corresponde a noc~ao de
matriz denida positiva7...
Como e claro, vericar que a matriz e denida positiva e mais moroso do que resolver o
sistema... Assim, o metodo so e aplicado a matrizes que sabemos, por resultados teoricos,
serem denidas positivas e simetricas. Veremos, no proximo captulo, que uma condic~ao
suciente para que a matriz seja denida positiva e ter a diagonal positiva e estritamente
dominante (por linhas ou colunas).
Para este tipo de matrizes e valida a factorizac~ao: A = LLT , e o metodo consiste nos
seguintes passos:
7
Relembramos alguns criterios para vericar que uma matriz e denida positiva:
(i) xT Ax > 0; 8x 6= 0;
(ii) os valores proprios s~ao todos positivos,
(iii) os menores principais s~ao todos positivos.
4.4. Metodos Directos para Sistemas Lineares 93
Passo 1 :
l11 = pa11
(
li1 = al i (i = 2; :::; d)
1
11
Passo k : (k = 2; :::; d)
8 q
< lkk = akk Pkr=11 lkr2
: lik = 1 aik Pk 1 lir lkr (i = k + 1; :::; d)
lkk r=1
Esta construc~ao da matriz L n~ao e unica. No caso dos reais, depende apenas do sinal
escolhido para as raizes, sendo unica a menos de multiplicac~ao por uma matriz diagonal em
que os elementos s~ao 1 ou 1: No caso dos complexos depende do ramo escolhido para as
raizes.
No metodo de Cholesky, o numero de operac~oes e aproximadamente metade do efectuado
nos metodos de Gauss e Doolittle, porque aproveitamos o facto de a matriz ser simetrica,
tendo-se d3=6 (+; ); d3=6 (; ); e d (p:):
Observac~ao: Caso se esteja a trabalhar com complexos, n~ao e necessario exigir que a
matriz seja denida positiva! Uma outra possibilidade para evitar o problema de exigir que
a matriz seja denida positiva (ou de calcular razes quadradas) consiste em considerar a
decomposic~ao
A = LDLT :
operac~oes, (+; ) ou (; ); isto da um total de 43 d3 operac~oes, (+; ) ou (; ):
O processo de diagonalizac~ao completa (metodo de Gauss-Jordan) envolve o mesmo
numero de operac~oes. Na primeira fase, em que obtemos a matriz triangular superior, efec-
tuamos d3 operac~oes para a factorizac~ao, mas tambem d operac~oes no segundo membro
3
(calculo dos b(k) e d2 ); o que da d2 : Depois, para efectuarmos a diagonalizac~ao com-
2 3
pleta eliminamos no sentido inverso, mas a e apenas necessario calcular os multiplicadores,
o que envolve apenas d2 operac~oes, porque temos zeros na parte triangular inferior. No
2
entanto, voltamos a ter d operac~oes no segundo membro o que da mais d2 : Na realidade,
3
Matrizes Tridiagonais
Este e o caso de matrizes em que, a excepc~ao das tr^es diagonais principais, todos os
outros elementos s~ao nulos. Ou seja:
aij = 0; se ji j j > 1:
Estas matrizes aparecem em muitos problemas praticos (por exemplo, no caso de inter-
polac~ao por splines, ou na resoluc~ao de equac~oes diferenciais...)
Devido a sua estrutura simples, o numero de operac~oes necessario para resolver um
sistema, pode ser consideravelmente reduzido, ja que podemos escrever A = LU; onde L
sera uma matriz triangular inferior, bidiagonal, com diagonal unitaria, e U uma matriz
triangular superior, bidiagonal:
2
a11 a12 0 : : : 0 3 2 1 0 : : : 0 3 2 u11 u12 0 : : : 0 3
6 a21 a22 . . .
6 ... ... 77 66 l 1 . . . . . . ... 77 66 0 u . . . . . . ... 77
6 7 6 21 7 6 22 7
6 0 ... ...
6 . . 7 6 . . . . . . .
. 7 6 .
. . . . . . . 7
. 7= 6 0 . . . . . .
0 7 6 . 7 6 7
6 7 6 . 0 7
6 . 7 6 . 7 6 . 7
6 .
4 .
. . . . . .
. . . . . . ad 1;d 5 4 .. . . . . 1 0 5 4 .. . . . . . . ud 1;d 75
7 6 7 6 . .
0 : : : 0 ad;d 1 add 0 : : : 0 ldd 1 1 0 : : : : : : 0 udd
O metodo de factorizac~ao de Doolittle reduz-se ent~ao a:
Passo 1: (
u11 = a11; u12 = a12
l21 = ua
21
11
Passo k : (k = 2; :::; d) 8
< ukk = akk lk;k 1 uk 1;k
>
>
uk;k+1 = aak;k+1
: l
k+1;k = ukk
+1k ;k
3) Correcc~ao Residual.
Podemos contornar eventuais erros (devidos a um mau condicionamento ou a instabil-
idade numerica) resultantes da resoluc~ao de um sistema linear com um metodo directo,
usando um metodo iterativo!
Trata-se do metodo de Correcc~ao Residual:
Supondo que ao resolver o sistema Ax = b obtinhamos um vector impreciso x(0); ma
aproximac~ao de x; podemos considerar resolver
Ae(1) = r(0)
em que r(0) = Ax(0) b: Se o valor x(1) = x(0) + e(1) ainda n~ao e sucientemente bom,
repetimos sucessivamente o processo, obtendo um metodo iterativo, chamado metodo da
correcc~ao residual:
Ae(n+1) = r(n)
em que e(n+1) = x(n+1) x(n); r(n) = Ax(n) b: Cada iterac~ao necessita de apenas d2
operac~oes, porque guardamos as matrizes L e U da factorizac~ao.
4.5. Exerccios 96
4.5 Exerccios
1. Para encontrar as razes de uma equac~ao algebrica
p(x) = a0 + a1x + ::: + amxm = 0
podemos desenvolver a factorizac~ao p(x) = am(x z1):::(x zm) estabelecendo um sistema
de equac~oes n~ao lineares em CI m
8
>
>
< a0 = am( z1):::( zm)
(S ) > ...
>
: a
m 1 = am(z1 + ::: + zm )
que tem soluc~ao unica (devido ao teorema fundamental da algebra). Este processo leva a
um metodo rapido e ecaz para calcularmos todas as razes se aplicarmos o metodo de
Newton a resoluc~ao deste sistema n~ao linear.
a) Suponha que existem soluc~oes complexas para uma equac~ao algebrica cujos coecientes
s~ao reais. Havera possibilidade de converg^encia do metodo de Newton para a soluc~ao do
sistema (S ) se considerarmos todas as iteradas iniciais reais? Porqu^e?
b) Para o caso de equac~oes do terceiro grau, escreva o sistema em CI 3 que deve resolver
em cada iterac~ao se pretender aplicar o metodo de Newton. Aplique esse metodo para
determinar aproximadamente as soluc~oes de x3 +3x +1 = 0; calculando tr^es iterac~oes, apos
ter escolhido uma iterada inicial conveniente.
em que C > 1; M 6= 0.
a) Mostre que a matriz e denida positiva e conclua que e possvel decomp^o-la na forma
A = LLT .
b) Considere uma matriz 3 3, com M = 16; C = 2. Determine a inversa, usando o
metodo de Cholesky.
5. Considere um sistema Ax = b em que o segundo membro e dado com um erro relativo
jjbjj1 < 0:1.
a) Sabendo que a matriz e simetrica e que jjAjj1 7; jjA 1jj1 1, determine um
majorante para jjxjj1
b) Se a matriz for 2 3
6 1 0
6 1 3 1 7
4 5
1 2 4
determine um majorante para cond (A), baseado na localizac~ao dos valores proprios.
5
Determinac~ao de Valores e Vectores Proprios
de Matrizes
5.1 Noco~es basicas
Seja E um espaco vectorial. Dizemos que 2 CI e um valor proprio de uma aplicac~ao linear
A se:
9v 2 E; v 6= 0 : Av = v;
e a v 2 E chamamos vector proprio de A associado a : Um mesmo valor proprio pode ter
associados varios vectores proprios, que geram um subespaco vectorial, designado subespaco
proprio S associado a : Para qualquer u 2 S e obvio que Au = u:
Podemos considerar sempre uma base ortonormada em S: Ao longo de cada elemento
da base u a aplicac~ao A ca invariante e comporta-se como uma aplicac~ao linear a uma
dimens~ao (i.e: como uma "recta" de inclinac~ao ): Quando um dos valores proprios e = 0;
o subespaco proprio associado e o proprio nucleo (kernel) da aplicac~ao A: No caso geral,
S = Ker(A I ):
Lembramos que se dois valores proprios ; s~ao distintos, ent~ao os vectores proprios
associados a s~ao independentes dos que est~ao associados a : Basta reparar que se 0 = 6
v 2 S \ S ; ent~ao v = Av = v ) ( )v = 0 ) = :
Apenas nos interessa considerar o caso em que o espaco vectorial E tem dimens~ao nita
d; que podemos identicar a um certo IRd : No caso de operadores em dimens~ao innita,
o processo habitual e aproximar o operador linear por uma matriz (operador linear de
dimens~ao nita) e a determinar os valores proprios. Ou seja, `formalmente' consideramos
An ! A; e ao determinar n : Anvn = n vn; obtemos uma sucess~ao tal que n ! :
Comecamos por rever algumas propriedades algebricas dos valores proprios em dimens~ao
nita.
Como S = Ker(A I ) 6= f0g; e valor proprio de A se e so se
pA () = det(A I ) = 0;
o que dene uma equac~ao polinomial. Encontrando as razes desta equac~ao podemos obter
a decomposic~ao
pA () = (1 ):::(d )
em que 1; :::; d s~ao os valores proprios de A: Podemos ter razes multiplas nessa equac~ao e,
nesse caso, dizemos que e um valor proprio com multiplicidade algebrica p se for uma raiz
com multiplicidade p: Distinguimos multiplicidade algebrica de multiplicidade geometrica,
5.1. Noc~oes basicas 99
que determina a dimens~ao do subespaco proprio S: A multiplicidade geometrica nem sem-
pre coincide com algebrica, para ilustrar esse facto, podemos dar como exemplo a matriz
" #
1 "
0 1
onde = 1 e um valor proprio de multiplicidade algebrica 2; raiz da equac~ao (1 )2 = 0;
mas que tem apenas multiplicidade geometrica 1; no caso de " 6= 0; porque tem apenas um
vector proprio independente, v = (1; 0); e que no caso " = 0 tem multiplicidade geometrica
2:
Sabemos que a multiplicidade geometrica e sempre menor ou igual que a algebrica. No
entanto, enquanto que a soma das multiplicidades algebricas e sempre igual a dimens~ao da
matriz d; a soma das multiplicidades geometricas pode variar muito com pequenas variac~oes
das entradas da matriz... basta ver o exemplo anterior!
4 . . . . . 0 5 7 6
4 .. . .
. . 1 75
0 : : : 0 Jnr (r ) 0 : : : 0 i nini
em que ni corresponde a multiplicidade algebrica do valor proprio i : O caso que nos
interessara especialmente e aquele em a matriz A e diagonalizavel, ou seja em que os blocos
Jni t^em apenas um elemento.
Matrizes Hermitianas
No caso em que A e uma matriz hermitiana, a forma normal de Schur assegura que existe
uma matriz unitaria U tal que:
Ax = UDU x = 1 (u1:x) u1 + ::: + d (ud x) ud
em que u1; :::; ud s~ao vectores proprios (ortonormais entre si) associados aos valores proprios
1; :::; d: A matriz U e uma matriz de mudanca de base formada por esses vectores proprios,
enquanto que a matriz D e a matriz diagonal com os respectivos valores proprios. Trata-se
de um caso em que a matriz e diagonalizavel.
5.2. Teorema de Gerschgorin 101
Exerccio 5.1 (Quociente de Rayleigh). Mostre que se A for hermitiana ent~ao o maior
valor proprio verica max = maxx6=0 xxAxx :
No entanto, estes resultados podem ser melhorados. O proximo teorema permite obter
informac~oes a priori, mais concretas, acerca da localizac~ao dos valores proprios, atraves dos
elementos da matriz.
Exerccio 5.2 No caso da intersecc~ao de duas bolas se reduzir a um ponto, mostre que
basta vericar que esse ponto n~ao e valor proprio, para concluir que cada uma das bolas
contem um valor proprio.
1
Referimos que este argumento simples esta ausente ou obscuro na maioiria da literatura (e.g. [1]). A maior
diculdade da demonstrac~ao reside em provar que i(t) denem caminhos contnuos, o que pode ser visto em [17]
que mostra a continuidade das razes de um polinomio face a variac~ao dos coecientes.
5.3. Metodo das Pot^encias 104
Vamos comecar por ver um processo extremamente simples { o metodo das pot^encias...
que funciona apenas em circunst^ancias particulares!
E um metodo muito simples que pode ser encarado como um metodo de ponto xo, em
que se procura um vector proprio u de norma 1 (associado a um valor proprio 6= 0) no
conjunto S = fx 2 IRd : jjxjj = 1g: Escrevendo
Au = u , u = Au ;
e reparando que jjAujj = jjujj = jj; obtemos
u = jj jjAuAujj :
O metodo iterativo poderia car
u ( n+1) j j Au
= jjAu(n)jj ;
(n)
mas isso implicava um conhecimento a priori do argumento 2 [0; 2[ do valor proprio,
caso fosse um numero complexo, pois jj = e i.
No entanto, no caso de se tratar de um valor proprio real jj = 1; e a situac~ao e mais
facil de resolver... sob certas condic~oes. Devemos comecar por reparar que, havendo sempre
mais que um valor proprio, a converg^encia de uma tal sucess~ao n~ao esta bem determinada.
Na realidade vamos apenas garantir a converg^encia de um tal metodo no caso de se tratar
de uma matriz real simetrica em que um dos valores proprios e dominante:
j1j > i=2
max j j
;:::;d i
Seja A uma matriz diagonalizavel (em particular, hermiteana) com um valor proprio
dominante. Nesse caso, podemos estabelecer o metodo das pot^encias2 :
( (0)
u : jju(0)jj1 = 1;
u(n+1) = n jjAuAunnjj1 ; ( )
( )
2
Uma outra possibilidade e considerar simplesmente
x(0) 2 Rd ;
x(n+1) = Ax(n) ;
e apenas normalizar no nal dividindo por jjAx(n) jj ja que a divis~ao sucessiva por jjAx(n)jj tem apenas como objectivo
evitar a diverg^encia, mantendo sempre o vector com norma 1.
E alias facil vericar que se i s~ao escalares,
n A(:::(1A(0 x(0) ):::) = n :::0 An x(0)
e portanto a normalizac~ao no nal leva ao mesmo resultado. Como podemos ver, se u(n) = jjxx((nn)) jj ;
Au(n) = jjx(n)jj A( x(n) ) = Ax(n) :
jjAu(n) jj jjAx(n)jj jjx(n) jj jjAx(n)jj
5.3. Metodo das Pot^encias 105
Proposic~ao 5.1 Seja A uma matriz diagonalizavel (em particular, hermitiana) com um
valor proprio dominante j1 j > j2 j ::: jd j: Se a iterada inicial u(0) tiver componente
n~ao nula relativamente ao vector proprio associado ao valor proprio dominante, o metodo
das pot^encias converge para esse vector proprio (unitario), e uma aproximac~ao para o valor
proprio dominante e
(n+1) = [Au(n+1) ]i
(n+1)
ui
para qualquer ndice i (desde que u(i n+1) 6= 0); sendo normalemente escolhido o ndice com
componente igual a 1. Estabelecemos, tambem, uma estimativa de erro:
k
2
jjv1 u(k) jj
C
1
jjv1 u(0)jj
Demonstrac~ao:
Seguimos a demonstrac~ao de [1], no entanto podemos provar o mesmo resultado atraves
do teorema do ponto xo (exerccio... difcil!).
Comecamos por reparar que
Au(n+1) = n A( jjAu Au(n) ) = A2u(n)
(n)jj1 n
jjAu(n)jj1
e portanto
jjAu(n+1)jj1 = jjjjAAuu(n)jjjj1
2 (n)
1
donde obtemos
Au(n+1) = A2u(n) :
u(n+2) = n+1 jjAu(n+1)jj n+1 n 2 (n)
1 jjA u jj 1
Aplicando este raciocnio sucessivamente, retiramos
u(n+2) = n+1:::0 jjAAn+2uu(0)jj :
n+2 (0)
1
Como podemos escrever u(0) na base do vectores proprios
u(0) = 1v1 + ::: + dvd
5.3. Metodo das Pot^encias 106
com 1 6= 0; obtemos
Anu(0) = An 1 (Au(0)) = An 1(11 v1 + ::: + dd vd) = ::: = 1n1 v1 + ::: + dnd vd =
= n1 1v1 + 2( )nv2 + ::: + d ( d )n vd
2
1 1
se a matriz tivesse apenas os elementos da diagonal. Nesse caso, o vector proprio associado
ao valor proprio 15 seria justamente esse vector. A escolha assim feita tenta evitar a
necessidade de exigirmos que haja uma componente n~ao nula segundo o vector proprio
que desconhecemos, mas que sabemos estar associado a um valor proprio que esta na bola
centrada em 15.
Efectuando as iterac~oes, obtemos
Au(0) =
u(1) = 0 jjAu ( 15; 12; 11; 10) = (1; 12 ; 11 ; 10 )
(0)jj1 jj( 15; 12; 11; 10)jj1 15 15 15
e como Au(1) = ( 16:4; 4:0; 8:8; 7:8); a primeira aproximac~ao do valor proprio sera (1) =
16:4: Prosseguindo os calculos obtemos
Au(1) =
u(2) = 1 jjAu ( 16:4; 4:0; 8:8; 7:8) = ( 1; 0:2439; 0:5366; 0:4756)
(1)jj1 jj( 16:4; 4:0; 8:8; 7:8)jj1
e como Au(2) = ( 16:0122; 9:56098; 9:7439; 8:7439); temos (2) = 16:0122::: Podamos
obter ainda (3) = 16:1546; (4) = 16:0831; o que se aproximaria do valor correcto
= 16:1089::: podemos ver que isto signica o seguinte decrescimo do erro absoluto:
0:2911; 0:0967; 0:0457; 0:0258; o que signica que o erro decresceu multiplicado pelos fac-
tores 0:3321; 0:4726; 0:5645 que ir~ao tender para j2 =1 j = 0:6288:::
Escolhendo como iterada inicial u(0) = (0; 1; 0; 0): A escolha deve-se as mesmas raz~oes
que as justicadas no exemplo anterior, atendendo a que agora procuramos o valor proprio
que esta na bola com centro em 10.
Resolvendo LUw = u(0); obtemos (0:0117; 0:8596; 0:1410; 0:1397); portanto
Dem:
Supondo que A = Q1R1 = Q2R2; ent~ao R1R2 1 = Q1Q2; o que signica que a matriz
triangular superior R1R2 1 seria uma matriz ortogonal (porque Q1Q2 e).
No entanto, as unicas matrizes nestas condic~oes s~ao matrizes diagonais, logo R1R2 1 = D;
ou seja R1 = DR2 e Q1Q2 = D; ou seja Q2 = Q1D:
Verica-se que essa diagonal verica DD = Q1Q2Q2Q1 = I; ou seja jdii j = 1: 2
Teorema 5.3 (Bauer-Fike). Seja A uma matriz hermitiana. No caso de A~ ser uma aprox-
imac~ao (hermitiana) de A; temos o resultado
8j 9i : ji ~j j jjA A~jj2 (5.1)
em que i s~ao os valores proprios de A e ~j os de A:
~
No caso mais geral, em que ha a matriz tem forma canonica de Jordan diagonal, A =
P 1 DP (com D = diag(1; :::; d)); temos
8j 9i : ji ~j j cond1(P )jjA A~jj1: (5.2)
(o que tambem e valido para algumas outras normas, como jj:jj1; jj:jj2):
Demonstrac~ao:
i) Comecamos por ver que o resultado sai facilmente para a norma jj:jj1 (ou mesmo para
jj:jj1):
Seja B = P (A A~)P 1 ; temos B = D C em que C = P AP ~ 1 tem os valores proprios
~ Pelo teorema de Gerschgorin, aplicado a C = D B; sabemos que dado um valor
de A:
proprio ~j de C existe uma linha i :
X
ji bii ~j j jbik j;
k6=i
e portanto X
ji ~j j jbik j jjB jj1 jjP jj1jjA A~jj1jjP 1 jj1:
k
ii) Para mostrar que e valido para a norma jj:jj2; vemos que
min j ~j cond2(P )jjA A~jj2;
i=1;:::;d i
para qualquer valor proprio ~; e a partir daqui podemos aplicar de novo o teorema de
Gerschgorin para concluir o teorema.
Suponhamos que ~ 6= i para qualquer i (sen~ao seria trivial, pois o mnimo seria zero) e
seja v~ um vector proprio de A: ~
~ ~
Como A v~ = v~;
(~ I A)~v = (A~ A)~v (5.3)
e substituindo A; temos (~ I A)~v = (~I P 1 DP )~v = P 1(~ I D)P v~ o que implica, por
(5.3), que
(~I D)P v~ = P (A~ A)P 1P v~:
Como ~ 6= i ; a matriz diagonal ~I D tem inversa, e obtemos
P v~ = (~ I D) 1 P (A~ A)P 1P v~:
Notando que jj(~I D) 1 jj2 = ((~I D) 1 ) = min j1~ i j (o que tambem e valido para
outras normas ditas 'monotonas'), temos
jjP v~jj2 min j~1 j jjP (A~ A)P 1jj2 jjP v~jj2
i
5.7. Calculo de razes polinomiais 112
o que origina
~ j jjP jj2jjP 1jj2jjA A~jj2:
min j
i=1;:::;d i
No caso de matrizes hermitianas, basta referir que pela decomposic~ao na forma normal
de Schur podemos encontrar matrizes P unitarias tal que A = P DP; pelo que jjP jj2 =
jjP jj2 = 1:
Observac~ao: Como a estimativa do numero de condic~ao de P n~ao e normalmente possvel,
o resultado util na pratica e aquele obtido para as matrizes hermitianas. A propriedade
que provamos indicia um bom condicionamento do calculo de valores proprios para estas
matrizes3 (a menos que os valores proprios estejam muito proximos de zero, o que poderia
levar a grandes erros relativos).
Esta noc~ao pode ser aplicada para a localizac~ao das razes de polinomios atraves do
teorema de Gerschgorin (ver exerccio 2, no nal do captulo) ou mesmo para aproxima-las
usando um qualquer metodo de valores proprios, ja que identicar os valores proprios de C
e equivalente a determinar as razes de p:
Deste facto retiramos tambem que a determinac~ao de valores proprios e um problema
teoricamente equivalente a resoluc~ao de equac~oes algebricas, mas mais complicado de imple-
mentar na pratica, ja que a determinac~ao do polinomio caracterstico para qualquer matriz
envolve calculos suplementares (ver tambem exerccio 1).
3
Seguimos a prova de [17]. De notar que em [1] e apenas demonstrado que
max min ji ~j j jjA A~jj2;
j=1;:::;d i=1;:::;d
o que aparenta a aproximac~ao entre os valores proprios, mas n~ao exclui a possibilidade de que todos os ~ j estejam
proximos de um certo i estando afastados de todos os outros, n~ao havendo uma verdadeira aproximac~ao entre
todos eles.
5.7. Calculo de razes polinomiais 113
Exemplo 5.3 Tomemos como exemplo o metodo das pot^encias aplicado a C: Executar a
iterac~ao
x(n+1) = Cx(n)
e equivalente a considerar
(
x(in+1) = x(i+1
n)
se i = 1; :::; d 1;
( n+1) ( n) ( n)
xd = a0x1 ::: ad 1xd caso i = d:
Reparamos assim que x(1n) = x2(n 1) = ::: = x(dn d+1); x(2n) = ::: = x(dn d+2) ; etc... de um
modo geral, x(i n) = xd(n d+i) ; o que corresponde a substituir valores na iterada n por valores
em iteradas anteriores.
Ora, designando yk = x(dk d+1); obtemos x(i n) = yn+i 1 ; pelo que o sistema anterior reduz-
se a equac~ao as diferencas
yn+d = a0yn ::: ad 1yn+d 1 :
A mesma equac~ao as diferencas que encontramos no metodo de Bernoulli.
Para concluirmos que o metodo de Bernoulli aparece como um caso particular do metodo
das pot^encias, reparamos que no caso do metodo das pot^encias consideramos como aprox-
imac~ao do valor proprio dominante4 :
(n+1)
(n) = [Cx(n) ]1 = x1 (n) = yyn+1 ;
(n)
x1 x1 n
ou seja, a mesma aproximac~ao que consideramos no metodo de Bernoulli para a raiz dom-
inante!
Outros metodos para valores proprios levam a outras aproximac~oes, n~ao havendo neces-
sariamente um metodo especco para polinomios que lhes corresponda, como neste caso
aconteceu com o metodo de Bernoulli.
Observac~ao:
Ver tambem a nota de rodape anterior, considerando o metodo das pot^encias sem a normalizac~ao sucessiva!
4
cujas razes s~ao as inversas de p(x); como vimos num exerccio do Captulo 2 (basta tomar
0 0 0
y = 1=x): Isto e perfeitamente natural, ja que e claro que os valores proprios da matriz
inversa s~ao os inversos da original.
5.8 Exerccios
1. Considere o seguinte metodo, baseado na aplicac~ao do teorema de Cayley-Hamilton,
para encontrar o polinomio caracterstico de uma matriz A de dimens~ao d :
Calcular Ak ; para k = 2; :::; d
Determinar os coecientes i tais que 0I + 1A + ::: + d 1 Ad 1 + Ad = 0:
Indique uma estimativa do numero de operac~oes (; =) necessarias a esse calculo.
Use este metodo para determinar a equac~ao caracterstica de A com a = 0:
2. Considere a matriz companheira do polinomio com coecientes reais p(x) = a0 + a1x +
::: + an 1xn 1 + xn 2
0 1 0 0 3
6
6 ... 0 ... ... ... 77
6 7
6
6 ... ... ... 0 777
7
6
6
4 0 0 1 5
a0 a1 an 2 an 1
que tem p como polinomio caracterstico.
a) Mostre que se jan 1j > 1 + M; com M = maxfja0j; ja1j + 1; :::; jan 2j + 1g ent~ao existe
uma e uma so raiz real dominante em [ an 1 1; an 1 +1]; e que as restantes se encontram
na bola fjzj M g:
b) Considere p(x) = 2 6x2 + 4x3 16x4 + 2x5:
Localize as razes dominante num intervalo de comprimento 2 e as restantes numa bola
de raio 1.
Determine aproximadamente a raiz dominante usando duas iterac~oes do metodo das
pot^encias.
3. Seja A uma matriz real N N , que verica:
jaii ajj j > ri + rj ; 8i; j = 1; :::; N (i 6= j )
5.8. Exerccios 115
em que
N
X
rk = jakkj + jakj j
j =1
Mostre que os valores proprios da matriz s~ao reais.
4. Considere uma matriz A 2 CI N CI N e varias sucess~oes (k) 2 l1. Supondo que
jaiij > jj(i)jj1 8i = 1; : : : ; N
jaij j j(ji)j 8i; j = 1; : : : ; N; (i 6= j )
a)[1:5] Mostre que a matriz A e invertvel.
b)[1:5] Mostre que se A for hermitiana e tiver a diagonal positiva, ent~ao e denida positiva
e o raio espectral verica
(A) i=1max ja j + jj(i)jj1 :
;:::;N ii
c)[2:0] Mostre que e possvel resolver o sistema Ax = b, para qualquer b 2 IRN , usando o
metodo de Jacobi, e que se verica:
jjx x(n)jj1 1 L L jjbKjj1
n
Comecamos por observar que os metodos de minimizac~ao podem ser utilizados para
resolver equac~oes f (x) = 0; bastando considerar a minimizac~ao de jjf (x)jj; ja que nesse
caso os pontos de mnimo ir~ao coincidir com as razes!
Comecamos por denir as noc~oes de pontos de mnimo para uma func~ao f : X IRd !
IR:
{ Dizemos que x 2 X e um ponto de mnimo absoluto estrito de f em X; se
f (y) > f (x); 8y 2 X; com y 6= x:
{ Dizemos que x 2 X e um ponto de mnimo relativo estrito de f; se f (y) >
f (x); 8y 2 Vx ; com y 6= x; onde Vx e uma vizinhanca de x:
Iremos considerar inicialmente casos de minimizac~ao sem constric~oes, ou seja, casos em
que n~ao restringimos a variavel a um subconjunto do espaco, fazendo a minimizac~ao em
todo o espaco.
Outro metodo comum, conhecido como metodo do gradiente, ou declive maximo (em
ingl^es: steepest descent), segue a ideia do percurso efectuado por uma esfera sob acc~ao da
forca da gravidade, quando colocada em cima duma superfcie irregular... e facil observar
que ela desce ao longo das direcc~oes tangentes aos pontos que percorre ate atingir o ponto
mais baixo - o mnimo. Concretamente, consiste em considerar
d(n) = rf (x(n));
Este metodo pode, numa primeira analise, ser encarado como um metodo de ponto xo,
escrevendo
rf (x) = 0 , x = x !rf (x)
x(n+1) = x(n) !n rf (x(n)):
6.1. Minimizac~ao sem constric~oes 118
Desta forma teremos (d(n) )T Ad(n 1) = 0; ou seja, a nova direcc~ao de descida e ortogonal
ao produto da matriz pela anterior, dizendo-se que as duas direcc~oes s~ao A-conjugadas.
3
Exclui-se o metodo de Newton, ja que em cada iterac~ao, deveramos resolver o sistema
A(x(n+1) x(n) ) = (Ax(n) b)
... ou seja um sistema com a propria matriz A:
6.2. Metodo dos mnimos quadrados 120
E esta propriedade dos sistemas lineares que motiva a adopc~ao da mesma escolha para os
sistemas n~ao lineares.
No caso dos sistemas lineares o metodo do gradiente conjugado atinge a soluc~ao exacta
ao m de um numero de iterac~oes menor ou igual que a dimens~ao da matriz, constituindo
um dos metodos mais populares para a resoluc~ao de sistemas lineares, especialmente para
matrizes simetricas e denidas positivas!
ent~ao A(x + h) > Ax; 8h 6= 0: Ora, isto signica que temos um mnimo em x: A recproca e
tambem verdadeira e resulta de vericar (...) que, xado h; a func~ao real f (t) = A(x + th)
tem mnimo em t = 0 o que implica que 0 = f 0(0) = A0xh:
Exerccio 6.1 Considere w(ti) valores obtidos para os pontos t1; :::; tn. Mostre que se pre-
tendermos uma aproximac~ao polinomial com a base vk (t) = tk ; obtemos v = 0 + 1 t + ::: +
ptp; em que 2 3 2 3 2 3
n + 1 : : : Pni=1 tpi 7 6 0 7 6 Pni=1 w(ti) 7
6
6 ... ... ... 7 6 .. 7 = 6 .. 7
4 5 4 . 5 4 P . 5
Pn p Pn 2p n t p w (t )
i=1 it : : : i=1 it p i=1 i i
e obtenha as formulas para a regress~ao linear (o caso p = 1):
Exerccio 6.2 Considere uma func~ao w denida no intervalo [0; 1]: Mostre que se preten-
dermos uma aproximac~ao polinomial com a base vk (t) = tk ; obtemos v = 0 + 1 t + ::: + ptp;
em que 2
1 : : : p+1 1 3 2 3 2 R 1 w(t) dt 3
0
6 . . . 7 6 . 7 6 0 . 7
6 .. . . . 5 4 . 75 = 64 R ..
. 7 6 . 7
4 5
1 ::: 1 1 tp w(t) dt
p+1 2p+1 p 0
e mostre que a matriz (chamada matriz de Hilbert) e mal condicionada.
6.3 Exerccios
1. Considere uma func~ao f que toma os seguintes valores:
x -2 -1 0 1 2
f(x) -10 -4 -2 1 5
e que tem um unico zero z 2 [0; 1]. Pretende-se aproximar esta func~ao por uma func~ao
do tipo g(x) = a + bx + cx3, no sentido dos mnimos quadrados.
a) Mostre que os valores a; b; c vericam:
2 3 2 3 2 3
5 0 0 a 10
6 7 6 7 6 7
4 0 10 34 5 4 b 5 = 4 35 5
0 34 130 c 125
6.3. Exerccios 123
Escrevemos tambem f (x) = O(xp); quando x ! a; se existir uma constante C > 0 tal que
(para x numa vizinhanca de a)
j fjx(xjp) j C:
camos a saber n~ao so que converge para 2; mas tambem que os valores v~ao aproximar-se
de 2 de forma semelhante a que x1 se aproxima de zero, quando x ! 1:
3
Diremos que uma func~ao f e p-diferenciavel se existir f (p)(x) = f 0(f (p 1)(x)) = f 0(:::f 0(x):::):
Uma func~ao f : I IR ! IR e de classe C p em I; se para qualquer x 2 I
xn 2 I; xn ! x =) f (p)(xn) ! f (p)(x);
assumindo-se que existem as derivadas! Isto corresponde a dizer que as derivadas de ordem
p s~ao contnuas. Como uma func~ao diferenciavel e contnua, o facto das derivadas de ordem
p serem contnuas implica obviamente que as de ordem inferior tambem o sejam.
Convem ter presente que se f; g forem diferenciaveis ent~ao f +g e tambem diferenciavel
quaisquer que sejam ; 2 IR: Para alem disso fg; f g s~ao tambem diferenciaveis, e fg e
diferenciavel nos pontos x tais que g(x) 6= 0: Quanto a potenciac~ao, f g ; e diferenciavel nos
pontos x > 0 ou se g(x) > 0:
Corolario 7.1 (Rolle). Seja f 2 C 1([a; b]). Se f (a) = f (b) ent~ao 9 2]a; b[: f 0() = 0:
6 0 para todo o x em [a; b], ent~ao existe no maximo um z 2 [a; b] tal
Portanto, se f 0(x) =
que f (z) = 0.
de jf (x)j e analisar os extremos de f (x): Se f (x) tiver x como mnimo e x+ como maximo
nesse intervalo ent~ao jf (x)j tera maxfjx j; jx+jg como maximo e minfjx j; jx+jg como
mnimo (a menos que x seja negativo e x+ positivo, ja que nesse caso o mnimo sera zero).
Para evitar o incomodo de calcular derivac~oes para determinar se ha extremos relativos,
podemos usar propriedades acerca da monotonia de func~oes1:
Se f; g s~ao crescentes f + g tambem e, e se ambas forem positivas fg tambem o sera... se
f e crescente f; f1 ser~ao decrescentes, etc...
Um teorema fundamental, que pode ser visto como uma generalizac~ao do teorema do
valor medio, e a expans~ao em serie de Taylor com resto de Lagrange:
Teorema 7.3 (Taylor). Se f 2 C p+1(]a; b[); ent~ao para quaisquer x; y 2]a; b[; existe 2
]a; b[:
f (y) = f (x) + f 0(x)(y x) + ::: + p1! f (p)(x)(y x)p + (p +1 1)! f (p+1)()(y x)p+1:
Convem aqui observar que, no caso limite, se f 2 C 1(]a; b[); a serie de Taylor
X 1 (p)
p ! f (x)(y x)p;
p0
pode n~ao coincidir com a func~ao. O exemplo classico e a func~ao
(
f (x) = xe0 sese xx > 00;
x 2
ja que embora f 2 C 1(IR); tem todas as derivadas nulas em zero, i.e. f (p)(0) = 0; 8p:
Para que a serie de Taylor coincida com a func~ao, e necessario exigir mais que a diferencia-
bilidade ad innitum, e necessario exigir que a func~ao seja analtica. Uma func~ao analtica
em I e aquela que admite uma representac~ao em serie de pot^encias nesse intervalo, sendo
no fundo uma generalizac~ao natural do conceito de polinomio, ou seja a generalizac~ao de
um conceito algebrico. Isto re
ecte bem a diferenca entre conceitos algebricos e conceitos
da analise. Quando trabalhamos com func~oes de variavel complexa a situac~ao e diferente,
e pode-se provar que a coincidem as noc~oes de diferenciabilidade e analiticidade.
1
Para deduzir estas e outras propriedades, e comodo usar o facto que uma func~ao diferenciavel f e crescente se
f 0 0:
Assim,
f 0 0; g0 0 ) (f + g)0 = f 0 + g0 0;
mas para obter
f 0 0; g0 0 ) (fg)0 = f 0 g + fg0 0;
devemos exigir que f e g sejam positivas.
A composic~ao de func~oes crescentes e crescente, pois (f g)0 = f 0 (g)g0 ; mas e preciso ter em atenc~ao o domnio.
7.1. Resultados Elementares de Analise 127
Estas condic~oes podem ser resumidas na express~ao ddfz = 0; fazendo a mudanca de variaveis
x = 21 (z + z); y = 21i (z z):
Com efeito,
df = 1 ( @u + i @u ) + 1 (i @v @v )
dz 2 @x @y 2 @x @y
@u @v ) = 0; 1 i( @u + @v ) = 0; ou seja, as condic~oes
e a condic~ao ddfz = 0 e equivalente a 12 ( @x @y 2 @y @x
de Cauchy-Riemann. Um polin
o mio verica trivialmente as condic~oes de Cauchy-Riemann
em CI , visto dzdzk = 0; no entanto, a func~ao f (z) = z n~ao e diferenciavel, pois ddzz = 1 6= 0; o
mesmo acontecendo com f (z) = Re(z); pois Re(z) = 12 (z + z); e assim ddz [ 21 (z + z)] = 21 6= 0:
Por outro lado, analogamente,
df = 1 ( @u i @u ) + 1 (i @v + @v );
dz 2 @x @y 2 @x @y
@u + i @v )+
e quando a func~ao e diferenciavel, as condic~oes de Cauchy-Riemann d~ao dzdf = 12 ( @x @x
1 (i @v + @u ); ou seja, a derivada ca f 0 (z ) = @f (z ); ou equivalentemente f 0 (z ) = i @f (z ):
2 @x @x @x @y
Entende-se por func~ao analtica num aberto X; uma func~ao que admite expans~ao em
serie de pot^encias em torno de qualquer x 2 X que e valida numa vizinhanca desse ponto.
Ha que distinguir a analiticidade em CI de duas maneiras, ja que a identicac~ao topologica
entre CI e IR2 pode prestar-se a confus~oes. Assim, uma func~ao analtica em IR2; em que as
pot^encias s~ao pot^encias de cada uma das variaveis, pode n~ao ser analtica em CI ; ja que
nesse caso as pot^encias resultam apenas de multiplicac~ao complexa com uma variavel! O
recproco e verdadeiro.
Teorema 7.7 As func~oes de variavel complexa, diferenciaveis num aberto X CI ; s~ao
analticas em X:
2i
i
2
i iz
Especial cuidado deve-se ter com a potenciac~ao em geral. Isto deve-se ao logaritmo estar
apenas bem denido em certos ramos. Com efeito, sendo
zw = ew log(z);
7.1. Resultados Elementares de Analise 129
Outro aspecto especial aparece nas divis~oes. Quando um denominador se anula podemos
ter tr^es tipos de singularidades a saber, removveis, isoladas ou essenciais. Com efeito,
devemos considerar um teorema que surge como uma generalizac~ao da expans~ao em serie
de Taylor.
Teorema 7.8 (Laurent): Se f e analtica na coroa A = fz : r1 < jz z0j < r2g; ent~ao para
qualquer z 2 A; X
f (z) = ak (z z0)k :
k 2Z
Os coecientes ak s~ao dados por
Z
1
ak = 2i jz f (z) dz;
z j=r (z z0)k+1
0
Se ak = 0; para k < 0; a func~ao e analtica. Se existir k < 0 tal que ak 6= 0; ent~ao f tem
uma singularidade em z0; que se designa essencial se houver uma innidade de k < 0 para
os quais ak 6= 0; e que se designa isolada no caso contrario. No caso de se tratar de uma
singularidade isolada, dizemos que a func~ao e meromorfa em jz z0j < r2; e se km for o
menor valor de k para o qual ak 6= 0; tambem dizemos que z0 e um polo de ordem km: O
coeciente a 1 e designado como o resduo de f em z0:
Teorema 7.9 (Liouville). As unicas func~oes inteiras limitadas s~ao as constantes.
7.2. Equac~oes as Diferencas 130
perceber melhor se encararmos estas equac~oes as diferencas como resultado nal de uma discretizac~ao. Assim,
pensemos em discretizar uma equac~ao diferencial
x00 (t) + ax0 (t) + bx(t) = 0
num intervalo [a; b]; usando N pontos igualmente espacados tn = a + nh; com h = bNa :
Ao considerar uma aproximac~ao das derivadas na seguinte forma
x0 (t ) x(tn + h) x(tn ) = xn+1 xn
n h h
e
x00 (tn ) xn+1 2hx2n + xn 1
obtemos
xn+1 2xn + xn 1 + a xn+1 xn + bx = 0
n
h2 h
ou seja, uma equac~ao as diferencas... (neste caso trata-se de uma aproximac~ao por diferencas nitas, que sera apenas
estudada em detalhe em Analise Numerica II).
7.2. Equac~oes as Diferencas 131
{A quest~ao que se coloca e a de saber como e possvel obter, a partir de uma equac~ao
suciente geral como (7.1), uma soluc~ao simplicada tal como apresentamos (7.3) para a
equac~ao (7.2), mas com quaisquer condic~oes iniciais.
N~ao especicando as condic~oes iniciais, comecamos por observar que qualquer soluc~ao
da equac~ao (7.1) e dada atraves da soma de uma soluc~ao particular com uma soluc~ao da
equac~ao homogenea.
Proposic~ao 7.2 Seja (xn ) uma soluc~ao da equac~ao (7.1) para certas condic~oes iniciais.
Qualquer soluc~ao (yn) de (7.1) para outras condic~oes iniciais resulta da soma de (xn) com
uma certa soluc~ao da equac~ao homogenea associada.
Demonstrac~ao:
Segundo as hipoteses consideradas, temos
xn+p+1 + apxn+p + : : : + a0xn = bn
e
yn+p+1 + apyn+p + : : : + a0yn = bn ;
para n 0: E obvio que se subtrairmos as duas equac~oes obtemos
(yn+p+1 xn+p+1) + ap(yn+p xn+p) + : : : + a0(yn xn) = 0
e portanto (yn) resulta da soma da soluc~ao particular (xn) com (yn xn) que e soluc~ao da
equac~ao homogenea associada a (7.1). 2
Para encontrar uma soluc~ao particular de (7.1), podemos recorrer a dois processos, o
primeiro intuitivo, e que consiste em tentar descobrir uma possvel soluc~ao atraves do
"aspecto" do segundo membro, ou seja de bn : Assim, por exemplo, se tivermos uma equac~ao
do tipo
xn+2 + axn+1 + bxn = A + Bn;
procuramos soluc~oes na forma xn = + n; e obtemos
(1 + a + b) + (2 + a) + (1 + a + b)n = A + Bn
equac~ao que nos da o sistema 2 2
" #" # " #
1+a+b 2+a = A : (7.5)
0 1+a+b B
que so n~ao possui soluc~ao se a + b = 1:
7.2. Equac~oes as Diferencas 134
2) Outros exemplos levam a outras escolhas, por exemplo, num outro caso:
xn+2 xn+1 + xn = 2n ;
escolhemos soluc~oes do tipo xn = 2n e obtemos
(22 2 + )2n = 2n;
o que nos da = 1=3; e portanto a soluc~ao geral sera
p p
1 i
xn = 3 (2n ) + c1( 2 )n + c2( 2 3 )n:
1 3 1 + i
No entanto, este metodo baseia-se numa `intuic~ao' a que n~ao podemos recorrer em casos
mais complicados. Temos porem um metodo que e similar ao que e usado em equac~oes
diferenciais ordinarias { o metodo da variac~ao de constantes.
7.2.3 Metodo da variaca~ o de constantes
Dado que a equac~ao homogenea de ordem p tem p soluc~oes distintas (linearmente indepen-
dentes), associadas as raizes, chamemos a essas soluc~oes
x(1); : : : ; x(p)
que se tratam de sucess~oes. O facto de serem linearmente independentes esta directamente
relacionado com o facto da sucess~ao dos determinantes
2 (2) (p) 3
x
6 (1)
(1)
n x n x n
6 xn 1 x (2) x(p) 7
n 1 n 1 7
wn = det 666 .. .
. . . .
.
7
7
4 . . . . 75
n p+1 xn p+1 xn p+1
(p)
x(1) (2)
nunca ser nula. A esta sucess~ao de determinantes chamamos Wronskiano (em analogia ao
caso das equac~oes diferenciais ordinarias).
7.2. Equac~oes as Diferencas 135
O Wronskiano permite construir uma soluc~ao particular para uma sucess~ao (bn) qualquer
(e.g. [11]) 2
x (1) x (2) x(p) 3
6 (1) n n n
(p) 7
X n b 6 x
xn = wi det 666 i.. 1
x(2)
i 1 x i 1 7
7
. .
.
. . . . .
.
.
7
7
i=0 i 4 5
xi p+1 xi p+1 xi p+1
(1) (2) ( p)
(...estamos a supor aqui que as condic~oes iniciais s~ao dadas em x p+1; :::; x0; para que o
somatorio comece em 0, sen~ao deveriamos comecar o somatorio em p 1)
pois a equac~ao caracteristica tem 1 como raiz dupla, obtemos como Wronskiano
" #
1 n
wn = det 1 n 1 = 1:
Assim, pelo metodo de variac~ao de constantes temos
n 1 " # n
xn =
X
det 1 n =
X
( i 1 n ) = (n + 1)(n + 2)
i=0 1 1 i 1 i=0 2
e a soluc~ao geral sera ent~ao dada por
xn = (n + 1)(2 n + 2) + C1 + C2n:
Se x0 = 0; x1 = 0; as constantes seriam C1 = 1; C2 = 2:
7.2.4 Exerccios
1. Considere a sucess~ao denida por
xn+2 = 92 xn+1 2xn
em que x0 = 2 e x1 = 1: Mostre que xn converge para zero.
2. O processo de construc~ao de uma estrutura com 10 colunas obedece a seguinte regra:
{ A altura ak de uma coluna k deve ser igual a seguinte media ponderada de alturas de
colunas mais proximas:
ak = 21 (ak 1 ak+1) + ak 2:
Tendo ja sido construdas as duas primeiras colunas, com alturas a1 = 4; a2 = 8; bem como
a ultima, com a10 = 180; determine qual a altura da coluna a5:
7.3. Teoria de Erros em Espacos Normados 136
E preciso ter em mente que mesmo em IRd podemos terpmedic~oes de erro diferentes,
consoante a norma utilizada. Assim se o valor exacto for (; 2; 1) e tivermos obtido como
valor aproximado (3:14; 1:4; 1:01); o erro absoluto com a norma jj:jj1 e igual a
p
jjejj1 = maxfj 3:14j; j 2 1:5j; j1 1:001jg = 0:0857864:::
enquanto se considerarmos a norma jj:jj1 ja obtemos um valor diferente,
p
jjejj1 = j 3:14j + j 2 1:5j + j1 1:001j = 0:0883791:::
e o mesmo se passa com os erros relativos.
7.3.2 Propagaca~o de Erros
Se tivermos um ponto x~ que aproxima x; ao calcularmos a imagem por um operador Frechet
diferenciavel A num conjunto X que contem os pontos x~; x; vamos obter um valor aprox-
imado Ax~ que sera diferente do valor Ax: Para controlarmos o erro que se propaga ao
aplicarmos esta func~ao, usamos a propria denic~ao,
eAx = Ax Ax~ = A0xex + o(ex)
quando jjexjj tende para zero. Desta forma, desprezando o termo o(ex); podemos denir
e~Ax = A0xex
e para o erro relativo, quando Ax 6= 0; obtemos
A xjj jjA0xex jj jjxjj jjA0xjj
jj~Axjj = jjjje~Ax jj = jjAxjj jjAxjj jjxjj
7.3. Teoria de Erros em Espacos Normados 137
Reparamos ainda que se A for um operador linear contnuo, bijectivo, com inversa contnua,
ent~ao reencontramos o numero de condic~ao jjA 1jj jjAjj;
jj~Axjj jjA 1jj jjAjj jjxjj;
porque, como ja referimos a derivada de Frechet de um operador linear e o proprio operador,
e por outro lado,
jjA 1jj = sup jjA 1yjj = sup jjA 1Axjj = sup jjxjj :
y6=0 jjy jj Ax6=0 jjAxjj Ax6=0 jjAxjj
Exemplo
Rb 7.5 Como exemplo, podemos tentar avaliar o comportamento de um integral
a f (x)dx atraves da variac~ao da func~ao f: Denimos
Zb
Af = f (x)dx;
a
notando que A : C ([a; b]) ! R: Como o integral e linear ja vimos que A0f = A; e como
jjAjj1 = sup jAf j sup jAf j = jb aj;
f 6=0 jjf jj 1 f 6=0 jjf jj 1
temos
j~Af j jjf jjj1Afjb j aj jjf jj1:
Assim, se f (x) = x2 + 1; e [a; b] = [ 1; 1]; temos j~Aj 82=23 jjf jj1 = 32 jjf jj1: Assim se
aproximarmos f (x) por 23 nesse intervalo, estimamos que o erro relativo do integral n~ao
sera maior que 83 ; porque jjf jj1 = jjxjj+1
x +1jj1 2 = 4 : Com efeito, jA j = 8=3 = 8 :
3=2jj1 1=2 1 j8=3 3j 1
2
2
@
~(x; y) = x @x (x; y) x + y @y (x; y) y
@
(x; y) (x; y)
Outra possibilidade e estabelecer uma desigualdade em termos de normas,
jj~f (x)jj = jjjje~ff((xx))jjjj = jjJjjff((xx))ejjxjj jjJfjj(fx()xjj)jjjjxjj jjxjj:
Exemplo 7.6 Assim, quando tivermos uma rotina que dependa de varias variaveis que
podem estar afectadas de erro, por exemplo, ao calcularmos uma rotina4
AproxInteg[Exp[-c x^2],fx,a,bg]
os valores de a; b; c podem vir afectados de um erro que pode condicionar o resultado. En-
carando esta rotina como uma func~ao regular : IR3 ! IR; bastara obter valores para
@ ; @ ; @ ; para que possamos ter uma ideia dos erros relativos envolvidos. Mas como e
@a @b @c
claro, o calculo destas derivadas parciais para alem de nem sempre ser facil, implicaria
um conhecimento exacto da rotina `AproxInteg' (... neste caso concreto isso ate seria facil,
porque a rotina em causa re
ecte o calculo aproximado de um integral parametrico, cuja
derivac~ao seria elementar).
Para contornar na pratica este tipo de problemas, podemos ser levados a recorrer a
soluc~oes menos correctas do ponto de vista teorico. Ou seja, podemos procurar uma aprox-
imac~ao numerica da derivada, em torno dos pontos a; b; c:
Num caso concreto, suponhamos que queremos ver qual o comportamento da rotina para
valores de a 1; b 1; c 1:
Calculando 1 (( 1+ ; 1; 1) ( 1; 1; 1)); para aproximar @ @a ; usando = 0:001 obtemos
@ 0:368247; e de forma semelhante @ 0:367512; @ 0:378844: Por outro lado
@a @b @c
vemos que ( 1; 1; 1) 1:49365: Assim, usando a norma do maximo jjJ( 1; 1; 1)jj1
0:378844; e obtemos
j( 1; 1; 1)j 01::378844
49365 jje( 1;1;1)jj1:
Se calcularmos agora ( 1:03; 1:01; 1:01); como jje( 1;1;1)jj1 = 0:03; n~ao devemos ter um
erro relativo superior a 0:00763: Com efeito, se calcularmos o valor, vemos que da 1:50407;
que correspondera a um erro relativo de 0:006976; dentro dos limites estimados.
Podera haver algumas diferencas, que depender~ao, entre outros factores, da proximi-
dade dos coecientes aproximados face aos exactos, ou ainda da norma escolhida, mas
os princpios gerais mant^em-se presentes.
4
O nome AproxInteg e apenas ilustrativo, so nos interessa saber que a rotina e regular (F-diferenciavel) para a
abordagem numerica, dendole experimental, que exp^omos neste exemplo. Com efeito, a rotina usada foi NIntegrate,
que aproxima o valor de um integral num intervalo.
8
Outros Exerccios
CAPITULO 1
1. Mostre que, usando a aproximac~ao cos(x) 1 x2 + x24 , se t^em as seguintes estimativas
2 4
p
jcos(x)j 28802
para qualquer x 2 [ =4; =4]. p
2. Ao calcular-se a express~ao f (x) = x x2 1 numa maquina usando o sistema
de virgula
utuante VF(10,6,-30,30) com arredondamento simetrico, vericou-se que para
valores de x muito grandes o erro relativo era tambem grande.
a) Verique que o erro relativo e 100% para x = 2000. Qual o valor do erro relativo para
valores de x ainda maiores?
b) Qual a raz~ao desse erro relativo grande: o problema e mal condicionado ou ha insta-
bilidade numerica? Justique e apresente uma forma de calcular f (x) que n~ao apresente
erros relativos t~ao grandes.
3. Determine uma func~ao f (x) que verique
f (x) xe xx
Sugest~ao: Verique primeiro que
Zy !
f (y) C exp f (x)
ex dx :
e repare que esta formula permite obter a func~ao f a partir da express~ao do erro relativo.
CAPITULO 2
1. Mostre que a equac~ao z sin(zX ) sin(Y ) = 0 tem um unico ponto xo para os
par^ametros X 2] 1; 1[; 8Y 2 IR, e que a sucess~ao
zn+1 = sin(zn X ) + sin(Y )
converge se z0 = 0:1
8. Outros Exerccios 140
b) Considere X = 2:5 e Y = 0. Experimentalmente verique que a sucess~ao (zn) vai ter
dois sublimites: = 0:997934::: e = 0:602602:::
Justique a inexist^encia de limite atraves do comportamento da func~ao iteradora e mostre
que existe uma raiz da equac~ao em [; ].
2. Considere f (x) = 0 , x = g(x) uma equac~ao em IR que tem pelo menos duas razes
z1 e z2 consecutivas (ou seja, n~ao existe nenhuma outra raiz entre elas).
a) Mostre que se g 2 C 1(IR) e jg0(z1)j < 1 ent~ao g0(z2) 1.
b) Suponha que z2 2 I = [a; b], que jg0(x)j > 1; 8x 2 I e que I g(I ). Mostre que o
metodo xn+1 = g 1(xn) converge para z2 qualquer que seja x0 2 I .
c) Seja f 2 C p(IR), tal que a raiz z2 tem multiplicidade p 1, e seja g tal que g0(z2) > 1.
Indique uma func~ao iteradora que assegure uma converg^encia local linear para z2, e uma
outra que assegure converg^encia quadratica, para cada caso de p.
3. Considere o intervalo I = [a; b] IR, e as func~oes g; h 2 C 1(I ) tais que g h 6= h g.
Sabemos que g(I ) I; h(I ) I , e que
jg0(x)j L1; jh0(x)j L2; 8x 2 I;
com L1L2 < 1.
a) Se estabelecermos em I :
x = g(x) , x = h(x) , f (x) = 0;
mostre que existe uma unica raiz z 2 I de f (x) = 0 e indique (justicando) tr^es func~oes
iteradoras distintas que assegurem uma converg^encia para essa raiz, qualquer que seja x0 2
I.
b) Supondo que a < 0 e b 0, mostre que o zero z da func~ao f em I verica:
jzj minfjh(1g(0))Lj;Ljg(h(0))jg
1 2
c) Suponha agora que os pontos xos de g e h em I s~ao diferentes. A equac~ao x = g(h(x))
tem uma soluc~ao unica em I ? Justique.
d) Mostre que as equac~oes:
2x cos( x20:+5 1 ) = sin( x2 1+ 1 )
x = (cos(x=2) +4sin(x))2 + 4
t^em uma unica soluc~ao no intervalo [0; 1] e indique func~oes iteradoras convergentes para a
soluc~ao.
Sugest~ao: Usar func~oes g e h apropriadas e aplicar o anterior.
4. Considere uma func~ao g contnua no intervalo [0; 1], diferenciavel, que verica:
g(0) = 21 ; g0(x) = 21 x cos2(g(x))
Mostre que a func~ao g tem um unico ponto xo no intervalo [0; 1].
8. Outros Exerccios 141
5. Sabendo que h(x); h0(x) 2 C 1([ 1; 1]) s~ao crescentes, e que h tem uma raiz em [ 1; 1],
pretende-se determinar a raiz da equac~ao
F (x) = x + h(x) = 0
usando o metodo (
x0 = a; x1 = b
xn+1 = xn (Fxn(xnx)n F ()xFn(xn))
1
1
Mostre que F tem uma unica raiz em I e que existem a; b 2 I para os quais ha converg^encia.
Qual a ordem de converg^encia?
6. Considere a equac~ao
4z3 (1 + 2i)z2 64z + 16 + 32i = 0
Escreva-a na forma z = g(z) por forma a que se veriquem as condic~oes do teorema do
ponto xo no conjunto D = fz 2 CI : jzj 1g.
Determine z1 e z2 a partir de z0 = 0 e calcule a raiz da equc~ao com menor modulo.
7. Considere a equac~ao
cos(z) 2z e 2 = 0
iz
Aplique o Teorema do Ponto Fixo, a uma func~ao iteradora conveniente que convirja para
a soluc~ao situada no subconjunto D = fz 2 CI : Im(z) 1g.
8. Considere a equac~ao
a + sin(x) + x2 = 0
a) Seja a = 1. Verique que as condic~oes sucientes para a converg^encia do Metodo de
Newton est~ao asseguradas no intervalo [ 2; 1].
b) Indique um intervalo para valores de a em que essas condic~oes estejam asseguradas.
c) Seja c a soluc~ao da equac~ao cos(x) = 2x. Mostre que se considerarmos a = sin(c)
c2, o metodo de Newton converge linearmente para a raiz da soluc~ao, se considerarmos uma
iterada inicial sucientemente proxima. Indique uma modicac~ao do metodo, por forma a
obter converg^encia quadratica.
9. Ao utilizar o metodo do ponto xo para determinar uma raiz de uma equac~ao, foram
obtidos os seguintes valores
x3 = 0:914260304; x4 = 0:825329540; x5 = 0:884002249; x6 = 0:847330076
a) Sabendo que a func~ao iteradora era um polinomio do quarto grau, da forma p(x) =
x4 + x2 +
determine aproximadamente as duas razes reais da equac~ao.
b) Determine os valores possveis para x2.
c) Determine uma estimativa para a majorac~ao do erro absoluto em x20.
10. Considere a equac~ao polinomial
p(x) = x5 6x4 + 4x3 + 12x2 5x 5 = 0
a) Indique o anel no plano complexo que contem todas as raizes.
8. Outros Exerccios 142
CAPITULO 3
1. a) Mostre que IRn e um espaco de Banach para a norma
jjxjj1 = maxfjx1j; : : :; jxnjg
b) Conclua que IRn e espaco de Banach para qualquer norma denida em IRn .
2. Mostre que C [a; b] e um espaco de Banach para a norma
jjf jj1 = xmax
2[a;b]
jf (x)j
Considere E = IRn . Mostre que uma matriz A com a diagonal estritamente dominante
por linhas e invertvel, escrevendo A = DC em que D e a matriz diagonal e, vericando
que jjI C jj1 < 1, aplique a alnea anterior.
Conclua que o processo iterativo
X0 = I ; Xn+1 = I + Xn C Xn
permite obter uma matriz X tal que A 1 = D 1 X .
3. Considere a sucess~ao de func~oes em C ([a; b]),
fn+1(x) = g(fn(x))
para um qualquer f0 2 X = ff 2 C ([a; b]) : f ([a; b]) [a; b]g.
a) Mostre que X e fechado em C ([a; b]) para a norma jj:jj1.
b) Mostre que se g([a; b]) [a; b] e g for contractiva em [a; b], ent~ao a sucess~ao (fn)
converge uniformemente para f (x) = z, em que z e o ponto xo de g em [a; b].
c) Aplique o resultado anterior para determinar a func~ao que e o limite da sucess~ao de
func~oes em C ([0; 1]),
fn+1(x) = cos(fn(x))
para um qualquer f0 que verique f0([0; 1]) [0; 1].
4. a) Verique que a sucess~ao wk = k(k1+1) esta em l1, ou seja,
1
X
jjwjj1 = jwk j < +1
k=1
e determine jjwjj1.
b) Mostre que se a iterada inicial x(0) 2 l1, a sucess~ao de sucess~oes denida por
x(n+1) = (x(n))=2 + w
8. Outros Exerccios 143
a) Mostre que as condic~oes necessarias e sucientes para que o metodo de Jacobi convirja
dado qualquer x(0) 2 IR3 n~ao se vericam.
b) Considerando x(0) = (0; 1; 5) verique que o metodo diverge, e considerando x(0) =
(0; 1; 5), ou mais em geral, x(0) = ( 1; 1; 0) + ( 1; 0; 5) o metodo converge. Justique.
4. Considere o sistema de equac~oes:
8
< 2x + y + " cos(z ) = 0
>
>
x + 3y 3"xz = 0
: "x2 + y + 3z = 0
a) Mostre que para 0 < " < 21 o sistema tem soluc~ao unica no conjunto
S = f(x; y; z) 2 IR3 : jxj; jyj; jzj 12 g:
b) Usando a func~ao iteradora
G(x; y; z) = (y=2 + " cos(z)=2; x=3 "xz; "x2=3 y=3);
mostre que, aplicando o metodo do ponto xo, se tem:
n
jz znj 65n 1 jj(x1 x0; y1 y0; z1 z0)jj1
qualquer que seja o vector inicial (x0; y0; z0) 2 S .
c) No caso " = 0, mostre que o metodo de Jacobi converge e que temos
jj(xk; yk ; zk )jj1 ( 12 )k jj(x0; y0; z0)jj1
para qualquer (x0; y0; z0) 2 IR3.
5. Pretende-se resolver o sistema
2 3 2 3 2 3
1 1=2 1=3 0:905
6 1=2 1=3 1=4 7 6 7 = 6 0:421 7
4 5 4 5 4 5
1=3 1=4 1=5
0:265
a) Aplique o metodo de Cholesky, vericando as condic~oes para uma matriz real.
b) Supondo que o segundo membro foi obtido com um erro absoluto que verica jjebjj1
0:01, determine um majorante para o erro relativo da soluc~ao.
6. Seja A uma matriz n n, em que n e um valor suf. grande. Qual o melhor algoritmo
para resolver o sistema A2x = b:
7. Considere um sistema Ax = b em que o segundo membro e dado com um erro relativo
jjbjj1 < 0:1.
a) Sabendo que a matriz e simetrica e que jjAjj1 7; jjA 1jj1 1, determine um
majorante para jjxjj1
b) Se a matriz for 2 3
6 1 07
6
4 1 3 1 5
1 2 4
determine um majorante para cond (A), baseado na localizac~ao dos valores proprios.
8. Outros Exerccios 145
CAPITULO 5
1. Dada a matriz 2 3
6 0 1
6 2 1 0 75 ;
A=4
2 1 1
aplicando o T. de Gerschgorin determine um domnio em CI (o mais pequeno possivel), onde
se encontram os valores proprios de A.
b) Conclua que existe um valor proprio dominante para A, e determine uma aproximac~ao
utilizando o metodo das pot^encias.
c) Diga qual o raio espectral da matriz A=10? O que pode concluir acerca da converg^encia
do seguinte metodo:
2. Considere a matriz 2 3
1+i 1 1
6 1 1 i 1 75
4
1 0 3 + 4i
a) Indique um domnio do plano complexo onde se situam os valores proprios.
b) Determine um majorante para o modulo do determinante da matriz.
c) Entre que valores se pode situar o raio espectral da matriz? A matriz e invertvel?
3. Considere a matriz 2 3
8 1 1
6 1 3 1 75
4
0 1=2 1
a) Justique que todos os valores proprios da matriz s~ao reais, e indique intervalos que
os contenham.
b) Verique que a matriz possui um valor proprio dominante e aproxime-o considerando
tr^es iteradas do metodo das pot^encias, usando como vector inicial v(0) = (1; 0; 0).
4. Considere a matriz
2 3
10 3 2 cos(b) cos(b) 7
A = 64 1 25 5 sin(a) 5
1 5 sin(a) + sin(b) 50
a)[1:5] Localize os valores proprios de A usando o teorema de Gershgorin.
b)[1:5] Indique os valores de b para os quais podemos obter uma decomposic~ao A = LLT ,
em que L e uma matriz triangular inferior real.
c)[1:5] Para que valores de h 2 IR3 e possvel utilizar o metodo de Jacobi para resolver
um sistema Ax = h? Indique uma estimativa de erro para jje(n)jj1 em func~ao de jjhjj1,
sabendo que x(0) = 0.
8. Outros Exerccios 146
CAPITULO 6
1. Pretende-se minimizar a func~ao
f (x; y) = x2 + y2 + x + y sin(xy)=2
no conjunto X = [ 1; 1] [ 1; 1]
a) Mostre que existe um e um so ponto crtico no conjunto X .
Sugest~ao: Escreva a equac~ao que permite obter os pontos crticos, e aplique o teorema do
ponto xo.
b) Prove que esse ponto crtico e o mnimo da func~ao em X .
c) Usando o metodo do ponto xo, determine uma aproximac~ao para esse mnimo, com
um erro absoluto nas componentes inferior a 0.01.
d) Aproxime esse mnimo usando duas iteradas do metodo do gradiente com x(0) = 0.
(exerccio facultativo)
2. Pretende-se encontrar o mnimo absoluto em IR de
f (x) = 1 + j5x cos(2x) + 2 sin(x)j
a) Mostre que ha um unico ponto em IR que e mnimo absoluto de f .
b) Determine aproximadamente o valor desse mnimo, de forma a que o erro absoluto
seja inferior a 0:01, e determine exactamente o valor da func~ao nesse mnimo.
3. Pretende-se encontrar a func~ao da forma g(x) = a exp(x) + b exp( x) que melhor
aproxima a func~ao f (x) = exp(x=2) no intervalo [ 2; 2]
a) Para determinar a e b utilize o metodo dos mnimos quadrados discreto, considerando
os pontos f 2; 1; 0; 1; 2g.
(Nota: N~ao esquecer de mostrar que as func~oes base s~ao linearmente independentes, para
esse conjunto de pontos)
b) Para determinar a e b utilize agora o metodo dos mnimos quadrados contnuo, con-
siderando todo o intervalo [ 2; 2].
c) Compare os valores obtidos nas alneas anteriores e comente. Comente o condiciona-
mento das matrizes obtidas nas alneas anteriores
4. Considere uma func~ao f que toma os seguintes valores:
x -2 -1 0 1 2
f(x) -10 -4 -2 1 5
e que tem um unico zero z 2 [0; 1]. Pretende-se aproximar esta func~ao por uma func~ao
do tipo g(x) = a + bx + cx3, no sentido dos mnimos quadrados.
a) Mostre que os valores a; b; c vericam:
2 3 2 3 2 3
5 0 0 7 6 a 7 6 10 7
6
4 0 10 34 5 4 b 5 = 4 35 5
0 34 130 c 125
b) Seja a = 2; b = 25=12; c = 5=12 a soluc~ao do sistema da alnea anterior. Determine
uma aproximac~ao da raiz w do polinomio g em [0; 1] calculando x2 pelo metodo de Newton
com x0 = 1 (justique a converg^encia).
c) Sabendo que jz wj < 0:01, determine um majorante para o erro absoluto que come-
temos se utilizarmos o valor x2 obtido em b) para aproximar z.
8.1. Exerccios de Exame 147
x = (cos(x=2) +4sin(x))2 + 4
t^em uma unica soluc~ao no intervalo [0; 1] e indique func~oes iteradoras convergentes para a
soluc~ao.
Sugest~ao: Usar func~oes g e h apropriadas e aplicar o anterior.
2.[2:0] Considere uma func~ao g contnua no intervalo [0; 1], diferenciavel, que verica:
g(0) = 21 ; g0(x) = 21 x cos2(g(x))
Mostre que a func~ao g tem um unico ponto xo no intervalo [0; 1].
3. Considere a matriz
2 3
3 sin(a2) cos(b)
A = 4 sin(a ) exp(b=) + 2 sin(a + b) 75
6 2
cos(b) sin(a + b) 5
2
a)[1:5] Mostre que a matriz A e denida positiva para quaisquer a; b 2 IR e que o metodo
de Gauss-Seidel converge quando aplicado a um sistema do tipo Ax = v com v 2 IR3.
8.1. Exerccios de Exame 148
2.[2:0] Considere g 2 C 1(IR) uma func~ao limitada e estritamente decrescente. Mostre que
existe um unico ponto xo de g em IR. Conclua que tambem existe um unico ponto xo
de g quando g e limitada e estritamente crescente. E necessario exigir que a func~ao seja
estritamente monotona em IR ou bastara exigir apenas num intervalo? Qual?
3. Considere uma matriz A 2 CI N CI N e varias sucess~oes (k) 2 l1. Supondo que
jaiij > jj(i)jj1 8i = 1; : : : ; N
jaij j j(ji)j 8i; j = 1; : : : ; N; (i 6= j )
a)[1:5] Mostre que a matriz A e invertvel.
b)[1:5] Mostre que se A for hermitiana e tiver a diagonal positiva, ent~ao e denida positiva
e o raio espectral verica
(A) i=1max ja j + jj(i)jj1 :
;:::;N ii
c)[2:0] Mostre que e possvel resolver o sistema Ax = b, para qualquer b 2 IRN , usando o
metodo de Jacobi, e que se verica:
jjx x(n)jj1 1 L L jjbKjj1
n
Conclua que se jjAjj < 1 e n > log( 12!L )= log(L), ent~ao podemos considerar Yn como iterada
inicial X0, no metodo da alnea a), e assim obter uma rapidez de converg^encia quadratica.
5. Considere a func~ao f : IR3 ! IR:
f (x) = ejjxjj + x1 + x2 + x3
2
2
a)[1:5] Mostre que a func~ao h(t) = t=et verica h(t) < 0:5. Sugest~ao: Determine uma
2
4.a)[2:0] Seja E um espaco de Banach e X um conjunto n~ao vazio, fechado. Mostre que
um operador contnuo A : E ! E que verica X A(X ) (pode assumir que A(X ) e
fechado) e
jjAx Ayjj Ljjx yjj; 8x; y 2 X
para um certo L > 1; tem um e um so ponto xo z 2 X; e que o metodo xn = Axn+1
converge para esse ponto xo, qualquer que seja x0 2 X:
8.1. Exerccios de Exame 153
b)[1:0] Seja A uma contracc~ao num aberto n~ao vazio X; onde se sabe que existe um ponto
xo z de A:
Mostre que existe um subconjunto de X onde s~ao vericadas as condic~oes do Teorema
do Ponto Fixo de Banach, e conclua que pode assegurar converg^encia local do metodo do
ponto xo.
8.1.5 Exame de 27 de Junho de 98
1. Considere a equac~ao em IR:
q
j sin(x) + 3xj + sin(x) 1 = 0:
a)[1:0] Mostre que a equac~ao tem duas razes, uma positiva e uma negativa.
b)[1:5] Determine uma aproximac~ao da raiz positiva pelo metodo de Newton, mostrando
a converg^encia num intervalo apropriado, de forma a garantir um erro relativo inferior a
10 3 :
c)[2:0] Ao calcular a sucess~ao denida por x0 = 0; xn+1 = 31 23 sin(xn); aproximou-se o
calculo do seno por sin(x) x 16 x3: Considerando que essa aproximac~ao implica um erro
xj ; determine um majorante do erro jx y j em que x e o limite de
absoluto inferior a j1205
n
(xn); e em que yn e dado por
y0 = 0; yn+1 = 13 23 yn + 19 yn3 ::
d)[1:5] Localize as razes de 0 = 31 35 y + 91 y3; comecando por indicar a coroa circular que as
contem. Aplique o metodo de Bernoulli efectuando 5 iterac~oes, justicando a converg^encia..
2.[1:0] Sabemos que podemos aproximar pa; para qualquer a 2 N; usando o metodo do
ponto xo com x0 = 1 e com a func~ao iteradora g(x) = x2+x a ; que se trata de uma func~ao
2
Pretende-se encontrar qual das tr^es primeiras guras melhor aproxima cada uma das
outras duas, no sentido dos mnimos quadrados. Consideramos 1; 2; 3 func~oes base e
f1; f2 as func~oes a aproximar no sentido dos mnimos quadrados. Temos a tabela com os
respectivos valores:
i= 1 2 3 4 5 6
1 0 1 1 1 1 0
2 0 0 1 1 1 1
3 0 1 0 1 1 0
f1 6 20 13 17 13 17
f2 6 20 13 6 13 17
8.1. Exerccios de Exame 155
Determine qual das func~oes base tem maior componente na aproximac~ao de fi e associe
essa componente a gura pretendida.
Use a decomposic~ao de Cholesky para resolver o sistema normal.
8.1.6 Exame de 23 de Julho de 98
1.[1:5] Mostre que existe um unico ponto xo da gaussiana g(x) = e (x 25)2=2
e determine
uma sua aproximac~ao com um erro absoluto inferior a 10 50 : Indique tambem o erro relativo.
Sugest~ao: Para a estimativa de erro use o teorema do valor medio.
2. Considere a equac~ao em IR
2 3
x3 10 2 1
6
det 4 1 x + 6 0 75 = 0
3 (8.4)
0 1 x3
a)[1:5] Aplicando o Teorema de Gerschgorin, mostre que existem e s~ao apenas tr^es, as
razes reais de (8.4) e que se tem
p p p p
z1 2 [ 9; 11]; z2 2 [ 7; 5]; z3 2 [ 1; 1]:
3 3 3 3
b)[1:5] Determine uma aproximac~ao da maior raiz positiva de (8.4) pelo metodo da secante
mostrando a converg^encia para as iteradas iniciais escolhidas, de forma a garantir um erro
relativo inferior a 10 2 :
c)[1:5] Decomponha a matriz
2 3
16 2 1
B = 64 1 0 0 75
0 1 6
na forma B = LU usando o metodo de Doolittle, e resolva os sistemas Bx = (0; 1; 0) e
Bx = 131 (13; 96; 16):
d)[2:0] Calcule duas iteradas pelo metodo das iterac~oes inversas para obter uma aprox-
imac~ao da maior raiz negativa de (8.4), indicando uma estimativa do erro.
3. Considere a matriz companheira do polinomio com coecientes reais p(x) = a0 + a1x +
::: + an 1xn 1 + xn 2
0 1 0 0 3
6
6 ... 0 ... ... ... 77
6 7
6
6 ... ... ... 0 777
7
6
6
4 0 0 1 5
a0 a1 an 2 an 1
que tem p como polinomio caracterstico.
a)[1:5] Mostre que se jan 1j > 1 + M; com M = maxfja0j; ja1j + 1; :::; jan 2j + 1g ent~ao
existe uma e uma so raiz real dominante em [ an 1 1; an 1 + 1]; e que as restantes se
encontram na bola fjzj M g:
8.2. Resoluc~oes 156
6. Pretende-se aproximar a func~ao f (x) = sin(x) no intervalo [0; 1] por func~oes g(x) =
a + b(x 12 )2:
a)[1:0] Sabendo que R01 sin(x)(x2 x)dx = 4 ; mostre que os par^ametros da func~ao g
3
que melhor aproxima f no sentido dos mnimos quadrados s~ao soluc~oes do sistema:
" #" # " 2 #
1 121 a =
1 1
12 80 b 8
2
2
3
b)[1:5] Tomando 3:14 no segundo membro, o sistema tera uma soluc~ao aproximada
(~a; ~b); majore o erro relativo jj(a;b)jj1:
8.2 Resoluco~es
8.2.1 Resoluca~o do Exame de 26 de Junho de 97
1. a) Como g(I ); h(I ) I , temos h(g(I )); g(h(I )) I .
8.2. Resoluc~oes 157
1. c) Sim. Basta reparar que em a), para mostrar que existia ponto xo de g h n~ao
utilizamos a hipotese de g e h terem o mesmo ponto xo.
1. d) Considerando g(x) = 21 (cos(x=2)+sin(x)), h(x) = x 1+1 vemos que podemos escrever
2
Assim L1L2 = 38 < 1, e podemos concluir pelo que vimos anteriormente em a) e c).
( Se n~ao usassemos a sugest~ao, seriamos envolvidos em calculos muito mais complica-
dos...)
2. Comecamos por observar que a func~ao g e soluc~ao de uma equac~ao diferencial que
verica condic~oes que asseguram exist^encia e unicidade para aquela condic~ao inicial, e ate
podemos ver que g 2 C 1, mas isto sai fora do nosso ^ambito.
Vemos que jg0(x)j = 21 jxj j cos(g(x))j2 21 , por outro lado g0(x) 0, e g e crescente.
Como g(0) = 21 2 [0; 1], se g(1) 2 [0; 1], cam vercadas as condic~oes do corolario do
teorema do ponto xo, e podemos assegurar exist^encia e unicidade de ponto xo. Ora,
como pelo teorema do valor medio:
g(1) g(0) = g0() = 21 cos2(g()) 2 [0; 21 [
pois 2]0; 1[, temos g(1) 2 [ 21 ; 1[ [0; 1].
3. a) Vimos, como consequ^encia do teorema de Gershgorin, que sendo a matriz simetrica,
basta ver que a matriz tem a diagonal positiva e estritamente dominante para que seja
denida positiva. Por outro lado, para mostrar que o metodo de Gauss-Seidel converge,
tambem basta ver que tem a diagonal estritamente dominante.
Ora, todos os elementos da diagonal s~ao positivos e j sin(a2)j+j cos(b)j 2 < 3, j sin(a2)j+
j sin(a + b)j 2 < 2 + eb= , j cos(b)j + j sin(a + b)j 2 25 .
3. b) No caso b = 0 temos
2 3
3 sin(a2) 1
A = 64 sin(a2) 3 sin(a) 75
1 sin(a) 25
e como a matriz e denida positiva, os valores proprios s~ao reais e positivos. Pelo teorema
de Gerschgorin, j 3j 1 + j sin(a2)j 2, j 3j j sin(a)j + j sin(a2)j 2, j 25 j
1 + j sin(a)j 2.
Concluimos assim que 2 [ 21 ; 5].
3. c) Neste caso, eb= > 5 e pelo T. de Gershgorin, a segunda linha garante que j
eb= 2j 2 , (5 <) eb= eb= + 4. Portanto existe um valor proprio tal que > 5,
por outro lado, a primeira e ultima linha garantem j 3j 2 e j 25 j 2, ou seja v~ao
existir dois valores proprios 5.
Concluimos assim que ha um valor proprio dominante > 5.
Quando a = 0; b = 7 2 3
3 0 17
A = 64 0 e7 + 2 0 5 ;
1 0 5
2
e reparamos que = e7 + 2 e valor proprio associado ao vector proprio (0; 1; 0). (Esta
conclus~ao sai imediatamente aplicando o T. Gerschgorin).
8.2. Resoluc~oes 159
4. a) L(E; E ) e espaco de Banach com a norma jj:jjL(E;E) que designamos jj:jj para
abreviar. Ora, (I A) 1 e a soluc~ao de (I A)X = I , X = 1 I + 1 AX = G(X ),
e vemos que G e contractiva em L(E; E ). Pois, para quaisquer X; Y 2 L(E; E ),
jjG(X ) G(Y )jj = jj 1 AX 1 AY jj = 1 jjA(X Y )jj 1 jjAjj jjX Y jj
e L = 1jjAjj < 1, por hipotese. Aplicamos o teorema do ponto xo a L(E; E ) (que e
fechado, pois e o proprio espaco) e conclumos a exist^encia e unicidade de soluc~ao Z =
(I A) 1. Usando X0 = 0 obtemos X1 = G(X0 ) = 1I e
jj(I A) 1jj = jjZ X0jj 1 1 L jjX1 X0jj = 1 11 jjAjj jj 1I jj
como jjI jj = 1, obtemos a desigualdade.
Finalmente, considerando X1 = 1I obtemos
n
Xn+1 = Ak+1 :
X k
k=0
Provamos por induc~ao. Para n = 0 e imediato, ja que se convenciona A0 = I . Supondo que
a formula e valida para Xn
nX1 Ak !
1 1 1
Xn+1 = I + AXn = I + A 1
k+1 =
k=0
como A e linear,
nX1 Ak+1 ! Xn Ak !
= I+
1
k+2 = I +
1
k+1
k=0 k=1
e obtemos a express~ao de Xn+1 .
4. b) Podemos aplicar a alnea a) ja que a matriz pertence a L(IR3; IR3).
No exerccio 3b) escrevemos a matriz e e facil ver que jjAjj1 5. Portanto, pela alnea
anterior, considerando = 6 > 5 jjAjj1, sabemos que 6I Ae invertvel e que
jj(6I A) 1jj 6 jj1 Ajj 1
1
5. a) As func~oes base s~ao 0(x) = 1, 1(x) = x, 2(x) = x3, que s~ao polinomios linear-
mente independentes para x0 = 2; x1 = 1; x3 = 0; x4 = 1; x5 = 2.
4
X 4
X
(0; 0) = 0(xk )2 = 1=5
k=0 k=0
4
X 4
X
(0; 1) = 0(xk )1(xk ) = 1:xk = 2 1 + 0 + 1 + 2 = 0
k=0 k=0
(0; 2) = 0; (1; 1) = 4 + 1 + 0 + 1 + 4 = 10;
8.2. Resoluc~oes 160
Basta vericar que existe um e um so ponto xo de g no intervalo [1; 2].
Ora g0(x) = e x > 0, portanto g e crescente e temos g(1) = 1:024035; g(2) = 1:40076 2
[1; 2], logo g([1; 2]) [1; 2].
Por outro lado, em [1; 2], jg0(x)j = 1:62e x 1:62e 1 = 0:59596::: < 1, logo podemos
aplicar o teorema do ponto xo e concluir acerca da exist^encia e unicidade.
1. b) Se repararmos que Np=D = 1:62, como a equac~ao (2) aproxima (1), podemos
experimentar os valores obtidos:
xa = g(1) ) ta = xa=N 0:005689 e xb = g(2) ) tb = xb=N 0:007782
8.2. Resoluc~oes 161
Sendo !
f (t) = p tD 1 + (1 + t1)N 1
vericamos que f (ta) = 1:082 e f (ta) = 13:45, pelo que existe raiz neste intervalo, que
podemos determinar usando, por exemplo, o metodo da secante em que t 1 = ta = 0:005689,
t0 = tb = 0:007782 e obtemos sucessivamente:
t1 = 0:0058449359; t2 = 0:0058505816
e temos jt2 t1j < 0:001.
Portanto concluimos que t 0:00585 ) T 7:02%.
2. a) Considerando h(x) = x g(x) temos h 2 C 1(IR) e h(z1) = h(z2) = 0. Como
n~ao existe mais nenhuma raiz entre z1 e z2, concluimos que ou h(x) > 0; 8x 2]z1; z2[ ou
h(x) < 0; 8x 2]z1; z2[.
No nosso caso, h0(z1) = 1 g0(z1) > 0, e como h0(z1) = limx!z xh(xz) (porque h tem
+
derivada contnua e h(z1) = 0), concluimos que h(x) > 0 num intervalo ]z1; z1 + "[. Portanto
1 1
Conclui-se que para termos uma func~ao iteradora que convirja para qualquer raiz e
necessario haver descontinuidades.)
3. a) Reparamos que, por linhas, j 10j j3 2 cos(b)j + j cos(b)j 6, j 25j
j5 sin(a)j + 1 6, j 50j 1 + j5 sin(a) + sin(b)j 7.
Por colunas, conseguimos ainda j 10j 2, j 50j 6, o que signica 1 2 [8; 12],
2 2 [19; 31], 3 2 [44; 56], porque os tr^es circulos s~ao disjuntos, e logo existe apenas um
valor proprio em cada um deles que tera que ser real, pois os coecientes da matriz s~ao
reais, e o polinomio caracteristico teria raizes complexas conjugadas (o que contradiria a
exist^encia de um unico valor proprio).
3. b) Da alnea a) retiramos que a matriz e denida positiva, logo basta que a matriz
seja simetrica para podermos obter a decomposic~ao de Cholesky A = LLT . Para isso, basta
que 3 2 cos(b) = 1; cos(b) = 1; 5 sin(a) + sin(b) = 5 sin(b), isto signica que cos(b) = 1 e
sin(b) = 0, ou seja, b = 2k.
3. c) Como a matriz A tem a diagonal estritamente dominante, podemos aplicar o metodo
de Jacobi para qualquer h 2 IR3.
No caso do metodo de Jacobi, temos
2 3
0 :3 :2 cos(b) 0:1 cos(b) 7
jjC jj1 = jj 4 0:04
6
0 0:2 sin(a) 5 jj1 0:6
0:02 0:1 sin(a) + 0:02 sin(b) 0
Como
jje(n)jj1 1 L L jjx(1) x(0)jj1
n
com L = jjC jj1. Ora x(0) = 0 ) x(1) = (h1=10; h2 =25; h3 =50), logo jjx(1)jj1 jjhjj1=10 e
portanto:
jje(n)jj1 0:46 jjhjj1
n
3. d) Utilizando o Teorema de Gerschgorin, ja dissemos, em a), que se a matriz for real
e os circulos forem disjuntos ent~ao os valores proprios s~ao reais. Vejamos que as hipoteses
implicam que os circulos sejam disjuntos:
Se j aiij ri
j ajj j jaii ajj j j aiij > ri + rj ri = rj
(para j 6= i), o que signica que n~ao esta em nenhum outro circulo.
4. a) Vamos aplicar o corolario do Teorema do ponto xo. Como o conjunto X e fechado
e convexo, basta mostrar que G(X ) X e que jjG0f jjL(E;E) L < 1; 8f 2 X , onde
Zx
G(f )(x) = (f (t))2dt (x):
0
8.2. Resoluc~oes 163
Ora se f 2 X , temos Zx
jjG(f )jj1 = xmax j (f (t))2dt (x)j
2[0;a] 0
Zx
xmax max jf (t)j2 1 dt + xmax
2[0;a] t2[0;x] 0 2[0;a]
j(x)j ajjf jj21 + jjjj1:
Como jjf jj1 1, jjjj1 a, concluimos que jjG(f )jj1 2a < 1, logo G(f ) 2 X .
Por outro lado, G0f = A0f porque e imediato que a derivada de Frechet de em ordem a f
e zero, e temos
jjA0f jjL(E;E) = sup jj(A0f )hjj1 sup 2ajjhjj1jjf jj1 2ajjf jj1:
jjhjj1 1 jjhjj1 1
Portanto em X , temos jjG0f jjL(E;E) 2ajjf jj1 2a < 1:
4. b) Basta reparar que denindo fn+1 = G(fn ) com f0 = 0 2 X , obtemos f1 = e
portanto, como L = 2a,
jjf f0jj1 1 1 L jjf1 f0jj1 = 1 1 2a jjjj1 1 a 2a
erro relativo que e um milionesimo do inicial! Aproveitamos para reparar que no metodo
do ponto xo, obtemos sempre (8.7), e quando nos aproximamos do ponto xo xk z =
g(z) g(xk ); logo xk g0(z)xk ; e portanto de um modo geral basta haver converg^encia
() jg0(z)j < 1) para que o problema seja bem condicionado.
+1
2.a)
A desigualdade e equivalente a g(x) = (2f (x) cos(f ( x2 )) + 1) 13 x: Podemos concluir
que a igualdade se verica apenas nos pontos xos de g: Em IR ha apenas um ponto xo
porque jg0(x)j = 13 j2f 0(x) + 21 f 0( x2 ) sin(f ( x2 ))j 31 25 = 56 < 1; 8x 2 IR: Esse ponto xo e zero
pois g(0) = 0 1 + 1 = 0: Nos outros casos, ou g(x) > x ou g(x) < x: Como g0(0) < 1
implica g(x) < x para x proximo de zero, positivo, ent~ao estamos no segundo caso.
b)
Usando a) para f (x) = sin(x); que verica as condic~oes, obtemos imediatamente para
x 0:
x
2 sin(x) cos(sin( 2 )) 3x + 1 + 2 sin(x) = 4x 2
ou seja, equivalentemente, x = g(x) com
g(x) = 1 + cos(sin( x2 )):
Imediatamente, g0(x) = 12 cos( x2 ) sin(sin( x2 )) e jg0(x)j 21 < 1; 8x 0; o que implica
a contractividade em [0; +1[ conjunto fechado. Por outro lado g(x) 2 [0; 2]; implica
g([0; +1[) [0; +1[; estando nas condic~oes do teorema do ponto xo, sabemos que ha
apenas um ponto xo, e a converg^encia e assegurada, sendo alternada porque g0(x) < 0
para x 2 [0; 2]; ja que o coseno e o seno s~ao positivos em [0,1] (e sin(x) x):
Assim sendo, podemos prever a priori que comecando com x0 = 1; (je0j < 1); sejam
necessarias n iteradas: jenj ( 12 )n < 10 2 ) n > 2 log 10= log 2 6:64:: ) n 7: Mas a
posteriori v^emos que s~ao precisas menos, porque
x0 = 1; x1 = 1:88726:::; x2 = 1:68972:::; x3 = 1:73313:::
8.2. Resoluc~oes 165
e como a converg^encia e alternada sabemos que z 2 [x2; x3] e temos mesmo je3j 41 jx3
x2j = 0:0109::: pelo que ainda e necessaria mais uma iterada para podermos assegurar um
erro absoluto inferior a 10 2 ; e obtemos x4 = 1:7233804::: Como informac~ao, o valor exacto
seria 1.725163...
3.
A equac~ao caracterstica associada a xn+2 92 xn+1 + 2xn = 0 e r2 92 r + 2 = 0; que tem
como razes r1 = 21 ; r2 = 4; o que da como soluc~ao geral da equac~ao (homogenea):
xn = A( 21 )n + B (4)n
para obtermos x0 = 2; x1 = 1; resolvemos o sistema
(
A + B = x0 = 2
+ B 4 = x1 = 1
A 21
o que da A = 2; B = 0; e a soluc~ao e xn = 2( 21 )n que converge para zero.
Deixamos como observac~ao importante que se o dado inicial estivesse afectado de um
pequeno erro, por exemplo, x0 = 2 + 10 4 ; ja obteriamos uma sucess~ao divergente como
soluc~ao (trata-se portanto de um problema mal condicionado)!
4a).
Comecamos por ver que A e injectivo em X; porque Ax = Ay implica jjx yjj
1
L jjAx Ayjj = 0; logo x = y: Assim, existe aplicac~ao inversa denida em A(X ); e
A 1 : A( X ) ! X
e uma bijecc~ao. Vamos ver que estamos nas condic~oes do teorema de Banach para A 1 em
A( X ) :
i) A(X ) e n~ao vazio (porque se x 2 X 6= ;; Ax 2 A(X )) e fechado. Foi admitido, mas
podemos provar:
Porque se yn 2 A(X ) e yn ! y; ent~ao sendo yn = Axn; com xn 2 X; temos jjxn xmjj
1 jjAx
n Axmjj = L jjyn ym jj: Mas como (yn ) e sucess~ao de Cauchy (porque converge),
1
L
ent~ao (xn) tambem e, e converge para x 2 X: Ora sendo A contnuo, yn = Axn ! Ax; a
unicidade do limite implica y = Ax; logo y 2 A(X ):
ii) A 1(A(X )) A(X ); porque A 1(A(X )) = X:
iii) A 1 e uma contracc~ao em A(X ): Dados quaisquer y1; y2 2 A(X ); escrevemos y1 =
Ax1; y2 = Ax2; e temos
jjA 1y1 A 1y2jj = jjx1 x1jj L1 jjAx1 Ax2jj = L1 jjy1 y2jj
em que L1 < 1:
Pelo Teorema de Banach 91z 2 A(X ) : A 1z = z; mas tambem Az = z; pelo que
z 2 X: Por outro lado yn+1 = A 1yn converge se y0 2 A(X ): Equivalentemente, escrevendo
yn = Axn; temos Axn+1 = A 1(Axn) = xn ; com x0 2 X:
4b)
8.2. Resoluc~oes 166
Sendo X aberto contendo o ponto xo z, existe sempre uma bola aberta B (z; r) X;
com r > 0; e uma bola mais pequena, fechada, B (z; r0) X; com r0 < r: Vemos que a se
cumprem as condic~oes do T. de Banach:
i) z 2 B (z; r0) 6= ;; e B (z; r0) e fechado
ii) A e contractivo em B (z; r0); porque e contractivo em X B (z; r0):
iii) Para alem disso A(B (z; r0)) B (z; r0) porque
x 2 B (z; r0) ) jjAx zjj = jjAx Azjj Ljjx zjj Lr0 < r0 ) Ax 2 B (z; r0)
8.2.4 Resoluca~o do Exame de 27 de Junho de 98
1.a) Comecamos por reparar que sin(x) + x 0 se x 0; pois sin(x) e positivo para
0 < x < 1:
Portanto, se x 0; temos sin(x) + 3x 0; logo j sin(x) + 3xj + sin(x) = 2 sin(x) + 3x
2(sin(x) + x) 0:
Se x 0; como o seno e mpar, o resultado anterior da-nos sin(x) + x 0; logo j sin(x) +
3xj + sin(x) = sin(x) 3x + sin(x) = 3x 0:
Como a radiciac~ao e bijectiva de IR+ ! IR+ ;
q
j sin(x) + 3xj + sin(x) = 1 () j sin(x) + 3xj + sin(x) = 1:
E, como vimos, podemos distinguir dois casos:
Se x 0 ent~ao j sin(x) + 3xj + sin(x) = 1 , 3x = 1 , x = 1=3: Portanto so existe
uma raiz negativa.
Se x 0 ent~ao j sin(x) + 3xj + sin(x) = 1 , 2 sin(x) + 3x 1 = 0: Temos duas maneiras
de chegar ao resultado:
i) Designando f (x) = 2 sin(x)+ 3x 1; e uma func~ao diferenciavel em IR e temos f 0(x) =
3 2 cos(x) > 0: Portanto, existindo uma raiz, ela sera unica, pois a func~ao f e estritamente
crescente em IR: E facil ver que a raiz existe, e e positiva, porque, por exemplo, podemos
aplicar o T. valor intermedio em [0; 12 ] ja que f (0) = 1 e f ( 21 ) 1:459:
ii) Designando g(x) = 31 (1 2 sin(x)): Pelo teorema do ponto xo em IR; como jg0(x)j =
j 3 cos(x)j 32 < 1; podemos garantir que existe uma unica raiz em IR; que e positiva porque
2
g([0; 12 ]) [0; 12 ]; porque g e decrescente nesse intervalo e g(0) = 1=3; g( 12 ) = :013716 2 [0; 21 ]:
1.b) Consideremos f (x) = 2 sin(x) + 3x 1; f 2 C 2[0; 12 ]: Vamos utilizar o intervalo
[0; 12 ]; em que ja mostramos que existia uma raiz. Condic~oes do M. de Newton:
i) f (0)f ( 21 ) = ( 1) 1:459 0; ii) f 0(x) = 2 cos(x) + 3 6= 0; pois cos(x) = 32 e
impossvel. (Ja tinham sido vericadas em 1.a))
iii) f 00(x) = 2 sin(x) 0; se x 2 [0; 21 ]: iv) j ff0(0)(0) j = j 5 j 0:5; j f 0 (0:5) j = 4:755 = 0:307
1 f (0:5) 1:459
0:5:
Consideramos x0 = 0:25; imediatamente temos je0j 0:25: Obtemos x1 = 0:2004219;
logo je1j max jf 00 (x)j 2 2 sin( )
2jf 0 (x )j je0j 4:937 0:25 = 0:01216:::
1
2 2
0
Com x2 = :2005366; e o erro je2j 22jfsin( 0 (x )j je1j 4:9598 0:01216 = 2:8586 10 e como
) 2 0:95885 2 5
1
2
1
jx ynj j60
yj + ( 2 )n jy y j 1 + ( 2 )n 1 :
5
0
3 1920 3 2
(ii) Outro processo, semelhante... mas 'mais correcto', seria utilizar desigualdade trian-
gular
jx ynj jx xnj + jxn ynj:
Falta-nos apenas a estimativa para jxn yn j: Observando que
jxn+1 yn+1j = 31 23 sin(xn ) 13 23 (yn 61 yn3 ) = 23 j sin(xn) (yn 61 yn3 )j ()
como sabemos que j sin(yn) (yn 16 yn3 )j jy120
n j ; somando e subtraindo sin(y ) obtemos
5
n
1.d) A coroa circular e denida por 1+5 1 < jz j < 1 + 5 = 1 ; ou seja 1 < jz j < 16:
3 9 6
Pela regra de Descartes ha duas (ou zero) razes positivas e uma negativa. Como p(1) =
8.2. Resoluc~oes 168
4
3 + 91 < 0 e p(0) = 13 > 0; concluimos que s~ao todas reais e ir~ao car nos intervalos
] 16; 0[; ]0; 1[; ]1; 16[:
Ha uma raiz dominante porque z1 + z2 + z3 = 0 (o coeciente em x2 e zero) logo z1 = z3
sse z2 = 0; o que n~ao acontece. Assim, o metodo de Bernoulli converge. Fazendo y0 =
0; y1 = 0; y2 = 1; com
yn+3 = 15yn+1 3yn
obtemos y3 = 0; y4 = 15; y5 = 3; y6 = 225; y7 = 90 e encontramos y 22590 = 52 que
ainda se encontra muito longe da raiz dominante (que esta proximo de 5):
2. Se g(x) e uma func~ao racional podemos escrev^e-la como fracc~ao de dois polinomios de
coecientes inteiros
g(x) = pq((xx)) :
Caso existisse uma tal func~ao iteradora, seria ponto xo de g; logo = qp(()) , q()
p() = 0; o que signicava que era raiz de uma equac~ao polinomial com coecientes
inteiros, ou seja um numero algebrico, o que e falso, pois sabemos que e transcendente.
3. Reparamos que a regra enunciada corresponde a uma equac~ao as diferencas homogenea
ak+1 + 2ak ak 1 2ak 2 = 0:
Associando a equac~ao caracterstica r3 + 2r2 r 2 = 0; e facil ver que 1; 1; e 2 s~ao
as soluc~oes dessa equac~ao, e assim temos a soluc~ao global
ak = A + B ( 1)n + C ( 2)n:
As constantes podem ser determinadas a partir do sistema
8 2 32 3 2 3
>
< A + B + C = a0 = 4 1 1 1 A7 6 4
>
A B 2 C = a1 = 8
: A + ( 1)9 B + ( 2)9 C = a = 180
, 6
4 1 1 2 76
54 B 5 = 4 8
7
5
9 1 1 512 C 180
obtendo-se C = 172=510 = 0:33726; B = 1:49412; A = 5:83137:
Assim, a4 = 5:83137 1:49412 ( 1)4 0:33726 ( 2)4 = 1:05883: Neste caso a coluna
seria uma especie de estalactite....
4. Como BA : X ! X; em que X e espaco de Banach (logo fechado, n~ao-vazio), basta
ver qual a condic~ao a imp^or a KA e KB para que haja contractividade e concluir acerca da
converg^encia. Ora,
jjBAx1 BAx2jjX KB jjAx1 Ax2jjY KB KA jjx1 x2jjX ; 8x1; x2 2 X;
portanto sera suciente que KA KB < 1:
Considerando A = 2I em que I e a matriz identidade em IRd ; temos claramente jjAx1
Ax2jj = 2jjx1 x2jj; logo KA = 2: Por outro lado com B = 13 I obtemos BA = 23 I e como e
claro temos contractividade. Neste caso simples, podemos mesmo ver que xn = ( 23 )nx0 que
converge para zero.
8.2. Resoluc~oes 169
5. a) Como sin(a) 2 [0; 1]; pelo T.Gerschgorin (aplicado a linhas e colunas) os valores
proprios t^em que pertencer a reuni~ao de bolas denidas por
j 9 sin(a)j j cos(a)j ; jz 1 cos(a)j j cos(a)j ; j + 2j 1
por outro lado podemos aplicar a desigualdade triangular, j 9j j sin(a)j j 9
sin(a)j 1 ) j 9j 2; e da mesma forma j 1j j cos(a)j j 1 cos(a)j
cos(a) ) j 1j 2j cos(a)j: Como n~ao ha intersecc~ao das bolas (a unica possibilidade
seria em = 1 caso tivessemos cos(a) = 1::: o que n~ao acontece), os tr^es valores proprios
que t^em que ser reais (a matriz e real) e pertencem a [ 3; 1]; a [ 1; 3]; e a [7; 11]:
Sabendo agora que s~ao reais, vemos que 2 [7; 11] pode ser melhorado para
2 [9 + sin(a) cos(a); 9 + sin(a) + cos(a)] [8 + sin(a); 10 + sin(a)] [8; 11]:
Da mesma forma, podemos melhorar 2 [ 1; 3] para 2 [1+cos(a) cos(a); 1+cos(a)+
cos(a)] = [1; 1+ 2 cos(a)] [1; 3] intervalo ao qual zero n~ao pertence. Como n~ao pode haver
nenhum valor proprio nulo, a matriz e invertvel.
Outra possibilidade para concluir da invertibilidade e ver que a matriz tem a diagonal
estritamente dominante por linhas, porque j9 + sin(a)j > 4; j1 + cos(a)j > 1 e j 2j > 1:
b) Existe valor proprio dominante que esta no intervalo [8; 11]; todos os valores proprios
s~ao distintos, podemos aplicar o metodo das pot^encias. Comecamos a iterac~ao com o vector
x(0) = (1; 0; 0): Portanto, x(1) = 0 jjAxAx jj1 = + (9;91;0) = (1; 91 ; 0); e x(2) = + (9+1=39+1
(0)
(0)
;1+2=9;1=9) =
=3
(1; 11=84; 1=84): Calculando Ax = ( 42 ; 42 ; 28 ) obtemos 9:4048:
(2) 395 53 3
c) O calculo de Ak pode ser efectuado guardando Ak 1: Para calcular o produto de duas
matrizes efectuamos d3 operac~oes (; =); logo necessitamos de d 1 vezes d3 operac~oes d4:
Podemos melhorar este valor elevado, determinando apenas a linha (ou coluna) Ak(i) de Ak
que nos interessa para resolver o sistema, ja que Ak(i) = Ak(i) 1A envolve apenas d2 operac~oes,
reduzindo assim o numero de operac~oes para d 1 vezes d2:
Agora, determinar os coecientes 0; :::; d 1 e resolver o sistema
0I + 1A + ::: + d 1 Ad 1 + Ad = 0
que tem soluc~ao caso as matrizes I; A; :::; Ad 1 sejam linearmente independentes. No caso
de se obter uma linha (ou coluna) independente para I; A; :::; Ad 1, e possvel determinar
esses coecientes em d3=3 operac~oes (caso contrario poderamos ter que vericar d2 d
sistemas...). No caso favoravel, o numero total de operac~oes (; =) sera d3 d + 31 d3 43 d3:)
No caso concreto de A com a =2 0, basta reparar3 2 que 3 a2 primeira3linha de A2 = (84; 34; 7) e a
1 9 84 0 790
de A3 e (790; 327; 70): Obtemos 64 0 3 34 75 64 1 75 = 64 327 75 ; e como tambem sabemos
0 1 7 2 70
que o traco de A e 2 obtemos imediatamente 2 = 9; assim 1 = 70 72 = 7; 0 =
790 91 842 = 790 + 819 = 29: O polinomio caracterstico e 3 92 7 + 29:
6. Sejam 1; :::; d os valores proprios de C! ; sabemos que j det(C! )j = j1 dj: Re-
paremos que
det(C! ) = det(D + !L) 1 det((1 !)D !U ) = det(D 1 ) det((1 !)D) = j1 !jd
8.2. Resoluc~oes 170
porque as matrizes L e U t^em diagonais nulas. Assim, (C )d j1j jdj = j1 !jd; o
que prova a sugest~ao. Sendo necessario que (C! ) < 1 pela teoria, logo j1 !j (C! ) < 1
implica (com ! real) ! 2]0; 2[:
7. (Identicac~ao de caracteres) Basta reparar que (m; n ) = P6i=1 m(i)n(i): Assim,
p.ex.
(1; 1) = 0+ 1+ 1+ 1+ 1+ 0 = 4; (1; 2) = 0 0+ 1 0+ 1 1+ 1 1+1 1+0 1 = 3; etc:::
obtendo-se os sistemas normais (respectivamente para f1 e f2) :
2 32 3 2 3 2 32 3 2 3
4 3 3 a1 63 4 3 3 a2 52
6 76 7 6 7 6 7 6 7 6 7
4 3 4 2 5 4 b1 5 = 4 60 5 ; 4 3 4 2 5 4 b2 5 = 4 49 5
3 2 3 c1 50 3 2 3 c2 39
2 32
2 p0 0 2 p23 1 3
6 76 7
usando a decomposic~ao da matriz A = LLT = 64 32 27 7 6 0 27 p1 7 (a matriz
q0 54 2 7 5
q
1 2p17 57 0 0 5
7
do sistema normal esta sempre nas condic~oes de aplicabilidade do metodo de Cholesky),
obtemos de Lg = (63; 60; 50); g = (31:5; 9:63809; 5:40899); e de Ltx = g assim x =
(4:8; 6:2; 6:4): A maior componente e a terceira, pelo que a gura pretendida que melhor
aproxima f1 e a associada a 3:
Finalmente, para f2; de Lg = (52; 49; 39); g = (23; 7:59929; 1:69031); e de Ltx = g
obtemos x = (7; 6; 2); e a gura pretendida e a associada a 1:
8.2. Resoluc~oes 171
crescente e como temos f (0)f (1) = e 25 =2(1 e 24 =2) < 0; conclumos que existe uma e
2 2
10 25
2
=6 : Quando a aproximac~ao e 0 o erro relativo e sempre 100%; porque jj = jzjzj0j = 1:
2.a) Sol:
Trata-se de determinar as raizes do polinomio caracterstico de
2 3
10 2 1
A = 64 1 6 0 75 ; ou seja, encontrar = x3 : det(I A) = 0
0 1 0
Basta agora localizar os 's usando o T. Gerschgorin. Isso da-nos, por colunas, 2
B (10; 1) [ B ( 6; 3) [ B (0; 1); e como as bolas s~ao disjuntas podemos concluir que existe
um valor proprio em cada uma, que sera sempre real, pois a matriz tambem o e. Por linhas
obtemos 2 B (10; 3) [ B ( 6; 1) [ B (0; 1):
Intersectando a informac~ao, podemos ordenar 1 2 [9; 11]; 2 2 [ 7; 5]; 3 2 [ 1; 1]; o
que signica que p p p p
z1 2 [ 9; 11]; z2 2 [ 7; 5]; z3 2 [ 1; 1]:
3 3 3 3
2.b) Sol:
Calculando o determinante temos p() = ( 10)( + 6) (2 1) = 0 , p() =
3 42 62 + 1 = 0:
i) No intervalo I = [9; 11] temos p(9) = 152; p(11) = 166: ii) Por outro lado p0() =
32 8 62 e sempre positivo em I porque p00() = 6 8 > 0 em I; logo p0 e crescente e
como p0(9) = 109 > 0; ca provado. iii) Ja vimos que p00() > 0; basta escolher duas iteradas
iniciais positivas. Escolhendo x 1 = 11; x0 = 10:5; como p(11) = 166; p(10:5) = 66:625; ca
provado iv)a).
Fazemos agora as iterac~oes n~ao esquecendo que pxn 31 xn e portanto bastara encontrar
3
Assim, 2 3 2 32 3
16 2 1 7 1 0 0 7 6 16 2 1 7
6 6 1
4 1 0 0 5 = 4 16 1 0 5 4 0 81 161 5
0 1 6 0 8 1 0 0 132
Resolvemos Ly = (0; 1; 0) e obtemos y1 = 0; y2 = 1; y3 = 8; depois Ux = (0; 1; 8) da
x3 = 1316 ; x2 = 8(1 131 ) = 1396 ; x1 = 1620813 = 1:
De forma analoga teramos para o segundo sistema x = (1248; 9310; 1517)=169
2.d) Sol:
Escolhemos = 6 como aproximac~ao e temos
2 3
16 2 1
A + 6I = 64 1 0 0 75
0 1 6
que e a matriz do sistema anterior! Escolhendo x(0) = (0; 1; 0); estamos nas condic~oes
pretendidas em c).
Rapidamente obtemos
1 (13; 96; 16)
x(1) = 1 jj((AA++66II)) 1xx(0)jj = 13 96=13 = ( 96 13 ; 1; 16 )
1 (0)
1 96
e daqui
x = 1 jj(A + 6I ) 1x(1)jj = (1248; 9310
A I
( + 6 ) 1 x(1) ; 1517)=169 = (0:134049; 1; 0:162943)
(2)
1 9310=169
portanto, como Ax(2) = ( 0:822448; 6:13404; 1); obtemos (2) = 6:13404; e daqui
z2 1:83055:
Vejamos que p((2)) = 0:002563865; e como p0 ( 7) = 141; p0 ( 5) = 53; com p0 crescente,
temos
jz2 (2)j min jp(z2) p((2))j 0:002563865
x2[ 7; 5] jp0(x)j 53
3.a) Sol:
Basta ver que pelo T.Gerschgorin por colunas temos 2 B (0; ja0j) [k B (0; jak j + 1) [
B (jan 1j; 1): Esta ultima bola e disjunta das restantes porque
jk j maxk fja0j; jakj +1g = M; por outro lado jn 1 + an 1j 1; logo jn 1 j jan 1j 1:
Assim como jk j M < jan 1j 1 jn 1 j; n~ao ha intersecc~ao das bolas!
3.b) Sol:
Neste caso 2 3
6
0 1 0 0 0 7
6 0 0 1 0 0 7
6 7
6 0 0 0 1 0 7
6 7
6 0 0 0 0 1 7
4 5
1 0 3 2 8
e portanto pelo teorema anterior temos j5 8j 1: Por outro lado como por linhas jij 1;
e j5 8j 6 n~ao intersecta a outra, conclumos que est~ao todas as outras na bola B (0; 1):
8.2. Resoluc~oes 173
Como a raiz dominante e tal que j5 8j 1;escolhemos x(0) = (0; 0; 0; 0; 1):
Ax(0) = (0; 0; 0; 1; 8) = (0; 0; 0; 1 ; 1); x(2) = Ax(1) = (0; 0; 2 ; 4 ; 1)
x(1) = 0 jjAx (0)jj 1 8 8 1
jjAx(1)jj 31 31
1
2 32 3
6
0 1 0 0 0 76 0 7
6
6 0 0 1 0 0 77 66 0 7
7
6
6 0 0 0 1 0 77 66 0 7
7
6 0 0 0 0 1 75 64 1 7
4 8 5
1 0 3 2 8 1
4.a) Sol:
Para determinar a derivada precisamos de calcular
Am(fR + h) Am(f ) = R0x(fR(y) + h(y))mdy R0xR(f (y))mdy =
= 0x mf (y)m 1h(y)dy + 0x Pf;h (y)h(y)2dy = 0x mf (y)m 1h(y)dy + o(jjhjj1)
R
portanto A0m;f (h) = m 0x f (y)m 1 h(y)dy
4.b) Sol:
X e fechado e convexo, vamos provar as outras condic~oes do Corolario do T. Ponto Fixo
de Banach. Comecamos por ver que
jjAm;f jjL(:;:) = sup jjA0m;f (h)jj1 Z1
jjhjj1 m 0 jf (x)j dx < mK
0 m 1 m 1
h6=0
e portanto como temos
Zx Zx
f (x) = 41 (x) 14 0 (f (y))5dy + 14 0 (f (y))2dy = Bf (x)
ent~ao Bf0 = 41 A05;f + 41 A02;f e temos para f 2 X
jjBf0 jjL(:;:) = jj 14 A05;f + 41 A02;f jjL(:;:) 41 (5( 34 )4 + 2( 43 )2) < 1
Falta ver que B (X ) X: Ora,
Zx Zx
1
jjBf (x)jj 4 jj(x)jj + 4 jj 0 (f (y)) dyjj + 4 jj 0 (f (y))2dyjj 34 :
1 5 1
4.c) Sol:
Comecando com f0 = 0; temos
f1 = 41
portanto
jje0jj 1 1 L jjf1 f0jj = 4jj 14 jj 1
8.2. Resoluc~oes 174
[19] Stoer J., Bulirsch R.: Introduction to Numerical Analysis, 2nd ed. Springer Texts in
Appl. Math., 1993.
[20] Wilkinson J. H.: The Algebraic Eigenvalue Problem. Clarendon Press, Oxford, 1965
(1988).
[21] Zeidler E. : Nonlinear Functional Analysis and its Applications. Springer-Verlag, New
York, 1993.