Escolar Documentos
Profissional Documentos
Cultura Documentos
Mínimos Quadrados
8.1 Introdução
Nos capítulos quatro e seis vimos como se resolvem problemas eletrostáticos
em coordenadas cartesianas, cilíndricas e esféricas. A técnica usada foi o da
separação de variáveis. Com geometria mais complexa esta técnica torna-
se muito trabalhosa senão impossível de ser implementada. É preciso então
desenvolver outras técnicas mais simples para contornar as dificuldades. En-
tre elas destacam-se os algoritmos dos elementos finitos e equações integrais
(método dos momentos e método dos elementos de fronteira). Estes algo-
ritmos se baseiam na generalização do método das projeções em espaços
euclidianos. Por isso vamos iniciar este capítulo com uma síntese sobre es-
paços euclidianos e o método das projeções, em particular, o método dos
mínimos quadrados.
521
522 CAPÍTULO 8. MÍNIMOS QUADRADOS
x+ (y + z) = (x + y) +z,
x + y = y + x,
x + 0 = x para todo x de V,
x + (−x) = 0.
α (x + y) = αx + αy,
(α + β) x = αx + βx,
(αβ) x = α (βx) ,
7 f + g 3
6 2 f
5
4 g 1
3
2 f -1 1 2 3 4
1 -2 -f
-1 1 2 3 4 -3
6 7
5 2f 6
4 5
3 4
2 3
1 f 2 f + 0
1 0
-1 1 2 3 4
-2 -1 1 2 3 4
Figura 8.1:
α1 x1 + α2 x2 . . . αn xn ,
α1 x1 + α2 x2 . . . αn xn = 0.
2
Este espaço vetorial é fundamental na teoria da relatividade restrita e em eletromag-
netismo avançado (eletrodinâmica)[6].
8.2. ESPAÇOS VETORIAIS 527
α cos θ − β sin θ = 0.
αβ sin θ + β 2 cos θ = 0,
α2 cos θ − αβ sin θ = 0.
¡ ¢
Somando a primeira com a segunda, resulta α2 + β 2 cos θ = 0. Como
α e β são reais, segue imediatamente que α = 0 e β = 0. Logo, sin θ e cos θ
são linearmente dependentes.
8.2.1 Bases
Definimos uma base de V como sendo uma seqüência {e1 , e2 . . . en } de
vetores linearmente independentes de V e que gera V .
Seja V um espaço vetorial e seja {e1 , e2 . . . en } uma base de V . Os
elementos de V podem ser representados por n-uplas relativas à essa base
da seguinte maneira
n
X
x = α1 e1 + α2 e2 . . . αn en = αi ei . (8.1)
i=1
α − β = 1,
α + 3β = 0.
5
Resolvendo o sistema resulta α = 4 e β = − 14 .
e
L (αx) = αL (x) , (8.4)
para todos os vetores x1 , x2 , x de V1 e todos escales α.O espaço vetorial V1 é
o domínio do operador L e o conjunto de vetores y de V2 tais que y = L (x)
para algum vetor x de V1 , é chamado de imagem de L e é designado de I (L).
É importante enfatizar que o domínio e a imagem são partes integrantes da
definição do operador linear L. Em outras palavras, um operador linear L é
constituído de três atores: o domínio, a imagem e a regra que associa a cada
elemento do domínio um único elemento da imagem satisfazendo as relações
(8.3) e (8.4). Simbolicamente escreve-se L : V1 → V2 , mas para facilitar a
comunicação é praxe escrever L (x) ou simplesmente Lx para designar um
operador linear.
Segue da definição que
em particular
e
L (0) = 0.
Vejamos alguns xemplos de operadores lineares:
e
(αL) (x) = αL (x)
onde x ∈ V1 e α um número real. O elemento zero de L (V1 , V2 ) é o operador
nulo.
Como prometido, vamos agora complementar os nossos espaços vetori-
ais com uma estrutura geométrica que permitirá, entre outros benefícios,
definir bases em espaços de dimensão infinita e construir os fundamentos
dos algoritmos numéricos acima mencionados.
• hx, yi = hy, xi
q
kxk = x21 + x22 + . . . + x2n , (8.8)
enquanto que a norma do vetor f em C [a, b] ou em CP [a, b] é
µZ b ¶ 12
2
kxk = f (x) dx . (8.9)
a
hx, yi
cos θ = . (8.11)
kxk kyk
Se, no entanto, um dos vetores é zero, convenciona-se que cosθ = 0.
Da geometria elementar sabemos que dois vetores geométricos são per-
pendiculares se, e somente se o ângulo θ entre eles é π/2 ou equivalentemebte
cos θ = 0. Da definição do cosseno entre dois vetores de um espaço euclidiano
8.11, vemos que o vetor zero é perpendicular a todos os demais vetores do
espaço e que, em geral, dois vetores são perpendiculares ou ortogonais se e
somente se hx, yi = 0.
Uma família de vetores x1 , x2 ,. . .,xi ,. . . de um espaço euclidiano é dito
um conjunto ortogonal se xi 6= 0 para todo i, e
hxi , xj i = 0,
536 CAPÍTULO 8. MÍNIMOS QUADRADOS
hxi , xi i = 1,
para todo i, então o conjunto é dito ortonornal.
Exemplo 8.33 Em CP [−T /2, T /2] os vetores 1, cos (2πt/T ) , sin (2πt/T ),. . .,
cos (2nπt/T ), sin (2nπt/T ) são ortogonais. Isso decorre do fato que
Z T /2
cos (2nπt/T ) dt = 0, se n 6= 0,
−T /2
Z T /2
sin (2nπt/T ) dt = 0 para todo n,
−T /2
Z T /2 ½
0 se m 6= n,
cos (2mπt/T ) cos (2nπt/T ) dt =
−T /2 T /2 se m = n 6= 0
Z T /2
sin (mπt/T ) cos (nπt/T ) dt = 0 para todos n, m.
−T /2
Z T /2 ½
0 se m 6= n,
sin (mπt/T ) sin (nπt/T ) dt =
−T /2 T /2 se m = n 6= 0
onde g é o conjugado de g.
£ ¤
Exemplo 8.35 Na seção 5.3 vimos que o conjunto Jν (γ νk x/a)/ a2 Jν+1
2 (γ k ) /2
em que k = 1, 2 . . . e γ νk o k-ésimo zero da função de Bessel de primeira
espécie de ordem ν é ortonormal em CP [0, a].
hx, e1 i
α1 = . (8.12)
he1 , e1 i
Procedendo-se da mesma maneira com os outros elementos da base, re-
sulta
hx, ek i
αj = k = 2, 3 . . . n, (8.13)
hek , ek i
e assim determina-se todas as demais componentes do vetor.
Se a base for ortonormal, ou seja hek , ek i = 1, k = 2, 3 . . . n, as compo-
nentes do vetor x se reduzem a hx, ek i e por conseqüência o vetor x, pode
ser escrito, em termo de suas componentes, da seguinte maneira
538 CAPÍTULO 8. MÍNIMOS QUADRADOS
n
X
x = hx, e1 i e1 + hx, e2 i e2 + . . . + hx, en i en = hx, ek i ek .
k=1
Estamos agora preparados para definir o que seja uma base em um espaço
euclidiano de dimensão infinita.
Definição: Um conjunto ortonormal e1 , e2 , . . . ek . . . é uma base de um
espaço euclidiano V se, e somente se, todo vetor de V puder ser escrito sob
a forma
∞
X
x= hx, ek i ek (8.14)
k=1
x^n
1
0.75
0.5 x
0.25 x2
x4
x
-1 -0.5 0.5 1
-0.25
x3 -0.5
-0.75
-1
Figura 8.2:
E x d
y
W
Figura 8.3:
ax + by + c = −x2 − y2 , (8.17)
onde
a = −2x0 ,
b = −2y0 ,
c = −r2 + x20 + y02 . (8.18)
xn = α1 φ1 + α2 φ2 + . . . + αn φn , (8.19)
Mas, * +
n
X n
X
kx−xk2 = x− αj φj , x− αj φj ,
j=1 j=1
X n
∂g ®
(α) = −2 hx, φi i + 2 αj φi , φj
∂αi
j=1
resultando em
n
X ®
φi , φj αj = hx, φi i .
j=1
.
544 CAPÍTULO 8. MÍNIMOS QUADRADOS
AT Apn = AT x (8.21)
0a + 0b + c = 0,
4a + 0b + c = −16,
0a + 4b + c = −16,
5a + 6b + c = −61,
1.5a + 5, 8b + c = −35.89,
5.7a + 2.2b + c = −37.33. (8.22)
Esse sistema contém mais equações do que incógnitas, isto é, ele é su-
perdeterminado. Assim, vamos usar o algoritmo dos mínimos quadrados
para encontrar estimativas α, β e γ para os parâmetros a, b e c respectiva-
mente.
Dito isto, podemos reescrever o sistema (8.22) da seguinte maneira,
In[2]:= Show[ParametricPlot[
{raio Cos[t] + x0, raio Sin[t] + y0},{t, 0, 2 Pi},
AspectRatio -> Automatic,
PlotRange -> {{-1, 7}, {-1, 7}},
AxesLabel -> {’’x’’, ’’y’’},
DisplayFunction -> Identity],
ListPlot[p, PlotStyle -> PointSize[0.03],
546 CAPÍTULO 8. MÍNIMOS QUADRADOS
y
7
x
-1 1 2 3 4 5 6 7
-1
Figura 8.4:
f = Table[0, {n}];
f[[1]] = PadRight[g, Length[g] + n - 1];
Do[f[[i]] = RotateRight[f[[i - 1]]], {i, 2, n}];
ff = Table[f[[1]].f[[i]], {i, n}];
grammM = Table[0, {i, n}, {j, n}];
Do[Do[
grammM[[i, j]] = ff[[j - i + 1]];
grammM[[j, i]] = grammM[[i, j]], {j, i, n}], {i, n}];
d = Table[f[[i]].h, {i, n}];]
e a seqüência de saída
¡ ¢ ¡ ¢3
hn = 2e−2pn 3 − e−2pn / 1 + e−2pn , n = 0, 1, 2, 3 . . . 68
em que
sn = ln 0.01 + 0.46880599n
e
pn = sn − 4.61438099.
satisfazendo (8.24), calcular o filtro wn , n = 0, 1, 2 . . . 18, pela técnica de
minimização de Wiener-Hopf..
Como no exemplo anterior, o primeiro passo é construir a matriz Toeplitz.
Mas antes é preciso os valores numéricos das seqüências gn e hn . Isto é feito
com os códigos abaixo
expsn = Exp[-sn];
expsn^2 Exp[-expsn], {n, 0, 49}];
h = Table[pn = Log[0.01] - 4.61438099 + 0.46880599 n;
exppn = Exp[pn]^2;
2 exppn (3 - exppn )/(1 + exppn )^3, {n, 0, 67}];
In[2]:= toepliz[19, g, h]
w = LinearSolve[grammM, d]
Out[2]:= {0.000122903, 0.0000153859, 0.000351468, 0.000842316,
0.00168714, 0.0055245, 0.0118159, 0.0336638, 0.0785758,
0.200715, 0.43771, 0.810527, 0.455154,-1.76824,0.951516,
-0.274542, 0.0683672, -0.0166309, 0.00287612}
Uma das aplicações mais importante do filtro que acabamos de calcular
é na avaliação numérica da transformada seno
Z ∞
f (x) = fb(kx ) sin kx xdkx .
0
w = {0.000122902672844, 0.000015385916686,
0.000351467883517, 0.000842315821590,
0.001687139470392, 0.005524496064518,
0.011815947701293, 0.033663760509023,
0.078575848297852, 0.200715064354590,
0.437709952407059, 0.810527355159963,
0.455153510230750, -1.768242579810762,
0.951516049629524, -0.274542303754665,
0.068367188550033, -0.016630911939534,
0.002827410835328};
conv = 0;
Do[
g = s[[i]]/xs;
conv = conv + kfun[g] w[[i]],
{i, 19}]]
Exemplo 8.38 Para ilustrar como este programa funciona vamos avaliar
numericamente a integral
Z ∞
4kx
sin kx xdkx
0 1 + 4kx2
Portanto,
0.01
0.0001
1. ´ 10 - 6
1. ´ 10 - 8
Figura 8.5:
Z ∞
sin (1/4kx ) sin kx xdkx ,
0
π ¡√ ¢ √
J1 x /2 x.
2
0.1
0.01
0.001
0.0001
0.00001
1. ´ 10 - 6
0.1 0.2 0.5 1 2 5 10
Figura 8.6:
e a seqüência de saída
¡ ¢ ¡ ¢3
hn = 2e−pn 1 − 3e−2pn / 1 + e−2pn , n = 0, 1, 2, 3 . . . 68
em que
sn = ln 0.001 + 0.48n
e
pn = sn − 6.0.
satisfazendo (8.24), calcular o filtro wn , n = 0, 1, 2 . . . 18, pela técnica de
minimização de Wiener-Hopf..
Como no exemplo anterior, o primeiro passo é construir a matriz Toeplitz.
Mas antes é preciso os valores numéricos das seqüências gn e hn . Isto é feito
com os códigos abaixo
In[2]:= toepliz[19, g, h]
w = LinearSolve[grammM, d]
Out[2]:= {0.00612466, -0.00702725, 0.0137508, -0.00523338, 0.0169891, 0.00571415,
0.0275067, 0.0282107, 0.0614688, 0.0797096, 0.149697, 0.188832,
0.294491,
0.135993, -0.392742, -1.63696, 1.37142, -0.390445, 0.0523505}
0.013750794139757, -0.005233384134847,
0.016989100234466, 0.005714153748705,
0.027506651846972, 0.028210676704202,
0.06146881903935, 0.079709612795005,
0.14969650530124, 0.188832233754121,
0.294490836806041, 0.13599301365803,
-0.39274173001427, -1.6369585742209,
1.371422221036944, -0.3904445935540
0.052350502262016};
conv = 0;
Do[
g = s[[i]]/xs;
conv = conv + kfun[g] w[[i]],
{i, 19}]]
Exemplo 8.41 Para ilustrar como este programa funciona vamos avaliar
numericamente a integral
Z ∞ ³ p ´
J0 a kx cos (kx x) dkx
0
Portanto,
In[2]:= a=1;
Clear[kx, x]f
funIn[kx_] := BesselJ[0, a Sqr[kx]]
funOut[x_] := Sin[a^2/(4 x)]/x
LogLogPlot[Abs[(cosTrans19[funIn, x]; conv/x - funOut[x])/funOut[x]],
{x, ..1, 10.},
PlotRange -> {{.1, 10}, {10^-6, 10}}];
6
O erro relativo é determinado pela diferença entre o valor exato e o valor aproximado
dividida pelo valor exato.
8.2. ESPAÇOS VETORIAIS 555
0.01
0.0001
-6
× 10 0.2 0.5 1 2 5 10
Figura 8.7:
Integrando por partes duas vezes e lembrando-se que f (0) = f (1) = g (0) =
g (1) = 0, visto que f , g ∈ X , obtemos
Z 1
¯1
0
hLf , gi = − f (x) g (x) 0 + ¯ f 0 (x) g 0 (x) dx
0
Z 1
¯1
= f (x) g 0 (x)¯0 − f (x) g 00 (x) dx = hf , Lgi
0
Para comprovar que L é positivo definido basta observar, após integrar por
partes (8.26) e usar f (0) = f (1) = 0, que
Z 1
£ 0 ¤2
hLf , f i = f (x) dx = 0
0
podemos escrever
Z µ ¶ Z ∙ µ ¶ µ ¶¸
∂u ∂v ∂u ∂v ∂ ∂u ∂ ∂u
h∆u, vi = + dxdy − v + v dxdy
Ω ∂x ∂x ∂y ∂y Ω ∂x ∂x ∂y ∂y
Z µ ¶ Z
∂u ∂v ∂u ∂v ∂u ∂u
= + dxdy + v dx − v dy,
Ω ∂x ∂x ∂y ∂y ∂Ω ∂y ∂x
onde fizemos as indentificações P = −v∂u/∂y e Q = v∂u/∂x. Como v ∈ X ,
segue que v (s) = 0 na fronteira ∂Ω e então a integral de linha se anula,
resultando portanto,
Z µ ¶
∂u ∂v ∂u ∂v
h∆u, vi = + dxdy.
Ω ∂x ∂x ∂y ∂y
Procedendo de forma análoga com h∆v, ui tem-se
Z µ ¶
∂v ∂u ∂v ∂u
h∆v, ui = + dxdy.
Ω ∂x ∂x ∂y ∂y
8.2. ESPAÇOS VETORIAIS 559
h∆u, vi = h∆v, ui ,
d2 u (x)
(Lu) (x) = − .
dx2
De acordo com o Teorema 8.1,
Z 1
hLu, vi = hu, viL = u0 (x) v 0 (x) dx.
0
∂ 2u ∂2u
−∆u = + .
∂x2 ∂y 2
De acordo com o Teorema 8.1,
Z µ ¶
∂u ∂v ∂u ∂v
hu, vi∆ = h∆u, vi = + dxdy
Ω ∂x ∂x ∂y ∂y
forma um segundo produto interno em X .
Com esses exemplos chegamos ao fim desta incursão em álgebra linear. É
oportuno lembrar que o que foi visto são apenas pequenas pinceladas sobre
o assunto, embora suficientes para o nosso propósito aqui. Iniciamos com os
espaços vetoriais genéricos. Neles, destacamos dois conceitos fundamentais:
base de um espaço vetorial de dimensão finita e operadores lineares. Se nosso
interesse fosse apenas em espaços vetoriais de dimensão finita pararíamos aí..
Mas não é o caso, estamos interessados nos espaços de dimensão infinita,
particularmente nos espaços de funções. Mais especificamente, na projeção
de um vetor de um espaço de dimensão infinita sobre um subespaço de di-
mensão finita. Os axiomas algébricos que caracterizam os espaços vetoriais
não são suficientes para lidar com questões geométricas, como ortogonali-
dade, projeções etc. Com este propósito definimos o produto interno de dois
vetores e introduzido os espaços euclidianos. Nestes, a partir do produto
interno, introduzimos os conceitos de norma de um vetor, de ortogonali-
dade, de convergência em média e de projeções em subespaços de dimensão
finita, dando origem ao algoritmo dos mínimos quadrados.na forma de um
teorema chamado Teorema da Projeção. A técnica de Wiener-Hopf para
562 CAPÍTULO 8. MÍNIMOS QUADRADOS
estimativa de filtros digitais foi vista como uma das aplicações deste teo-
rema. Finalmente, discorremos sobre os operadores simétricos e positivos
definidos e a partir deles introduzimos novos produtos internos e daí novos
espaços euclidianos que juntamente com o Teorema da Projeção constituem
os alicerces dos métodos numéricos aplicados a problemas de contorno em
eletromagnetismo, tais como elementos finitos, equações integrais e método
dos momentos.