Escolar Documentos
Profissional Documentos
Cultura Documentos
Elementi
di
Calcolo Tensoriale
su
&
Spazi Vettoriali
Sergio Benenti
20 giugno 2012
Indice
Palinsesto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Spazi vettoriali puri
iii
1
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
39
ii
2.3 Endomorfismi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3.1
2.3.2
2.3.3
Rappresentazione esponenziale . . . . . . . . . . . . . . . . . . . . . 53
2.3.4
Rappresentazione di Cayley . . . . . . . . . . . . . . . . . . . . . . . 54
2.3.5
Rappresentazione quaternionale . . . . . . . . . . . . . . . . . . . . . 55
La forma volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4.2
Aggiunzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4.3
Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4.4
Endomorfismi assiali . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4.5
Rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
iii
Palinsesto
Argomenti trattati in questa dispensa.
euclidea
Su spazi vettoriali
pseudo-euclidea, iperbolica
Con struttura
simplettica
altre
puri
euclidei (1)
Su spazi affini
Calcolo
semi-euclidei (2)
tensoriale
pseudo-euclidei (3)
Pure
con connessione
riemanniana (4)
Su variet`
a differenziabili
simplettica (6)
altre
Applicazioni:
(1) Meccanica razionale.
(2) Spazio-tempo newtoniano.
(3) Spazio-tempo di Minkowski: relativit`
a ristretta.
(4) Meccanica lagrangiana.
(5) Relativit`
a generale.
(6) Meccanica hamiltoniana.
Capitolo 1
Richiami e notazioni
u + v = v + u,
u, v E,
(u + v) + w = u + (v + w),
u, v, w E,
0 E | u + 0 = u, u E,
u E, v E | u + v = 0.
a (u + v) = a u + a v,
a K, u E, v E,
(a + b)u = a u + b u,
a, b K, u E,
1 u = u,
1 = unit`
a in K, u E.
Gli elementi di E si dicono vettori, gli elementi di K scalari. Denotiamo i vettori, salvo
lelemento neutro 0 E (zero o vettore nullo), con lettere grassetto (quasi sempre
minuscole). Con lo stesso simbolo 0 denotiamo anche lo zero del campo K. Per ogni
vettore u si ha 0u = 0. Si denota con u il vettore opposto a u, cio`e il vettore per
cui u + (u) = 0. Scriviamo v u al posto di v + (u). Il vettore nullo e lopposto di
un qualunque vettore sono unici (perche unici sono, in un qualunque gruppo, lelemento
neutro e il reciproco di un qualunque elemento).
1
Tra gli spazi vettoriali sopra un assegnato campo K ritroviamo il campo stesso e tutte le
sue potenze cartesiane Kn , cio`e linsieme delle n-ple di elementi del campo.
Un sottoinsieme S E `e un sottospazio se le propriet`
a (i) e (ii) valide in E valgono
anche per tutti gli elementi di S. Se K e L sono due sottospazi, denotiamo con K + L
la loro somma, cio`e linsieme dei vettori di E costituito da tutte le possibili somme di
elementi di K e di L. La somma K + L e lintersezione K L di due sottospazi vettoriali
sono a loro volta dei sottospazi. Denotiamo con E F la somma diretta di due spazi
vettoriali (sul medesimo corpo K): `e il prodotto cartesiano E F dotato della naturale
struttura di spazio vettoriale definita dalle operazioni (u, w) + (u0 , w0 ) = (u + u0 , w + w 0 )
e a(u, w) = (au, aw). Denoteremo anche con u w un generico elemento di E F . Si
dice anche che uno spazio vettoriale E `e la somma diretta di due suoi sottospazi K e
L se E = K + L e se K L = {0}. In tal caso ogni vettore `e la somma di due vettori
univocamente determinati di K e L. E risulta pertanto identificabile con K L.
Una scrittura del tipo
a v 2 + a v 2 + . . . + a vk =
k
X
ai vi
i=1
ai vi = 0
ai = 0.
i=1
Uno spazio vettoriale `e detto a dimensione finita se ammette una base costituita da
un numero finito n di vettori, cio`e un insieme di n vettori indipendenti che generano
tutto E tramite tutte le loro possibili combinazioni lineari. Il numero n coincide col
massimo numero di vettori indipendenti in un qualunque insieme di vettori. Esso prende
il nome di dimensione dello spazio. Scriveremo En oppure dim(E) = n per indicare che
la dimensione dello spazio vettoriale E `e n. Una generica base di E sar`
a denotata con
(e1 , e2 , . . . , en ) o brevemente con (ei ), dove lindice i sar`
a inteso variare da 1 a n. La
scrittura
n
X
1
2
n
v = v e2 + v e2 + . . . + v en =
v i ei
i=1
Si noti che non ha importanza la scelta dellindice, purche la lettera usata appartenga
ad un insieme precedentemente convenuto (per esempio, lettere latine minuscole, lettere
greche, lettere latine maiuscole dopo la I, e cos` via). Se per esempio conveniamo che le
lettere latine minuscole a partire dalla h varino da 1 a n, la precedente scrittura `e del tutto
equivalente alle seguenti:
v = v h eh ,
v = v j ej ,
v = v k ek ,
...
La diversa collocazione degli indici e la sommatoria sottintesa per indici ripetuti in alto
e in basso sono convenzioni tipiche del calcolo tensoriale, i cui primi elementi saranno
illustrati in questo capitolo. Il formalismo che ne deriva `e agevole e sintetico.
Le formule riguardanti il calcolo vettoriale o tensoriale sono in genere di tre tipi. Una formula `e di tipo intrinseco o assoluto se essa coinvolge vettori o tensori ed operazioni definite
su questi senza lintervento di basi. Ad una formula di tipo intrinseco corrisponde sempre
una formula con indici o in componenti, conseguente alla scelta di una base generica. Vi
sono infine formule, con indici, valide soltanto per una base particolare o per una classe
particolare di basi. Per sottolineare questa circostanza useremo sovente unuguaglianza
con asterisco: =.
Per quel che riguarda il concetto di dimensione `e opportuno ricordare che per due sottospazi di uno spazio vettoriale E vale la formula di Grassmann (Hermann G
unther
Grassmann, 1809-1877)
dim(K + L) + dim(K L) = dim(K) + dim(L).
Unapplicazione A : E F da uno spazio vettoriale E ad uno spazio vettoriale F si dice
lineare se
A(a u + b v) = a A(u) + b A(v)
(u, v E, a, b K).
applicazioni lineari
spazio duale di E
L(E; E) = End(E)
endomorfismi lineari su E
L(E, E; R) = T2 (E)
forme bilineari su E
1.2
q volte
(1.1)
(1.2)
K = K,
K L L K,
(K + L) = K L ,
K + L = (K L) .
(1.3)
La loro dimostrazione `e lasciata come esercizio. Si noti che la seconda di queste uguaglianze
sottintende lintervento dellisomorfismo canonico tra lo spazio e il suo biduale e che inoltre,
in virt`
u di questo isomorfismo, le ultime due uguaglianze (1.3) esprimono la medesima
propriet`
a.
Ad ogni base (ei ) di E corrisponde un base duale in E , che denotiamo con (i ), definita
implicitamente dalluguaglianza:
hej , i i = ji
(1.4)
se
i=j
se
i 6= j
v i = hv, i i
(1.5)
= i i
i = hei , i
(1.6)
hv, i = i v i
(1.7)
La loro dimostrazione `e lasciata come esercizio. Si osservi la diversa posizione degli indici
delle componenti di un covettore (in basso, anziche in alto come per le componenti dei
vettori) e la simmetria formale di queste uguaglianze. Lequivalenza (1.5) mostra che
le componenti di un vettore sono ottenute valutando sul vettore gli elementi della base
duale. Analogamente la (1.6) mostra che le componenti di un covettore coincidono con le
valutazioni di questo sugli elementi della base di E. Infine la (1.7) mostra che la valutazione
tra un vettore ed un covettore `e data dalla somma dei prodotti delle componenti omologhe.
Osservazione 1.2.1 Rappresentazione geometrica dei covettori. Ad ogni covettore
E si possono far corrispondere due sottoinsiemi di E:
A0 = {x E |hx, i = 0},
A1 = {x E |hx, i = 1}.
1.3
Forme bilineari
(1.8)
si chiamano componenti della forma bilineare secondo la base. Per ogni coppia di vettori
di E si ha:
(u, v) = ij ui v j
(1.9)
Le componenti [ij ] formano una matrice quadrata n n. Conveniamo che il primo indice
sia indice di riga, il secondo di colonna. Si chiama rango della forma il rango della
matrice [ij ].2
1
u=0
(1.10)
v = 0.
(1.11)
(1.12)
Questa si semplifica in
ij ui = 0
ui = 0,
(1.13)
Si ha ovviamente TT = .
Definizione 1.3.2 Una forma bilineare si dice simmetrica (rispettivamente, antisimmetrica) se
T =
(risp. T = ),
(1.14)
cio`e se
(1.15)
Questa condizione si esprime, qualunque sia la base scelta, nella simmetria (risp. nella
antisimmetria) della matrice delle componenti (basta porre (u, v) = (ei , ej ) nella (1.13)):
ij = ji ,
(risp. ij = ji ).
(1.16)
Una forma bilineare `e decomponibile nella somma della sua parte simmetrica S e
della sua parte antisimmetrica A . Vale cio`e luguaglianza
= S + A
posto
S = 12 ( + T ),
A = 12 ( T )
(1.17)
Osservazione 1.3.1 Un esempio elementare ma importante di forma bilineare `e dato dal prodotto tensoriale di due forme lineari , E . Esso `e definito
dalluguaglianza
( ) (u, v) = hu, ihv, i
(1.18)
Se (i ) `e la base duale di una base (ei ) di E allora gli n2 prodotti i j formano una base
di L(E, E; R). Cos` una qualunque forma bilineare pu`
o esprimersi come combinazione
lineare di questi:3
= ij i j
(1.19)
1.4
Sia una forma bilineare simmetrica. Due vettori si dicono coniugati (o anche ortogonali) rispetto a se (u, v) = 0. In particolare un vettore si dice isotropo se `e coniugato
con se stesso, (u, u) = 0, unitario se invece (u, u) = 1.
Due sono i concetti fondamentali associati ad una forma bilineare simmetrica: quello di
base canonica e quello di segnatura.
Una base (ei ) di E si dice canonica (sempre rispetto a ) se tutti i suoi vettori sono
unitari o isotropi e fra loro coniugati, cio`e se, dopo un eventuale riordinamento della base,
la matrice della componenti assume la forma:
1p
0
0
(1.20)
[ij ] =
0 1q 0
0
0
0
dove 1p e 1q denotano le matrici unitarie di ordine p e q rispettivamente. In una base
canonica si ha quindi (si confronti con la (1.9):
(u, v) =
p
X
a=1
u v
p+q
X
ub v b .
(1.21)
b=p+1
Si dimostra4 che esistono basi canoniche e inoltre che in ogni base canonica la matrice
delle componenti `e sempre del tipo (1.20), vale a dire che gli interi p e q sono invarianti
rispetto alla scelta di basi canoniche. Questa notevole propriet`
a `e nota come teorema
di Sylvester o legge di inerzia delle forme quadratiche (James Joseph Sylvester,
1814-1897). Alla coppia di interi non negativi (p, q) si d`
a il nome di segnatura della
forma bilineare simmetrica .
3
4
M2 ,
...
, Mn = [ij ].
Allora lintero q della segnatura (p, q) `e uguale al numero delle variazioni di segno della
successione di numeri
1,
M1 ,
det M2 ,
...
det Mn = det[ij ],
1.5
Forme quadratiche
1
2
h
i
(u + v) (u) (v)
(1.22)
(1.23)
Una dimostrazione si trova in F.G. Tricomi, Lezioni di Analisi Matematica I (CEDAM, Padova).
10
1
2
1
2
1
2
(u + v) (u) (v)
(u + v, u + v) (u, u) (v, v)
= (u, v).
Vi `e dunque una corrispondenza biunivoca fra forme quadratiche e forme bilineari simmetriche. Stante questa corrispondenza tutte le definizioni e le propriet`
a stabilite per le
forme bilineari si trasferiscono alle forme quadratiche, e viceversa.
Esempio 1.5.1 Consideriamo E = R2 e la funzione
: R2 R : (x, y) 7 x y.
Calcoliamone la polarizzazione seguendo la definizione (1.22) con u = (x1 , y1 ) e v =
(x2 , y2 ):
h
i
((x1 , y1 ), (x2 , y2 )) = 12 (x1 + x2 )(y1 + y2 ) x1 y1 x2 y2
=
1
2
1
2
(x1 y1 + x1 y2 + x2 y1 + x2 y2 x1 y1 x2 y2 )
(x1 y2 + x2 y1 ) .
1
2
(x1 y2 + x2 y1 )
(risp. (u) 0)
u E.
In particolare si dice definita positiva (risp. definita negativa) se essa si annulla solo
sul vettore nullo, cio`e se oltre alla condizione precedente vale limplicazione
(u) = 0
u = 0.
p
p+q
X
X
(ua )2
(ub )2 .
a=1
b=p+1
(1.24)
11
Di qui si osserva che: (a) una forma quadratica `e semidefinita positiva se q = 0; (b) `e
definita positiva se p = n. Analogamente per il caso negativo.
Per una forma bilineare simmetrica semi-definita positiva (o negativa) vale la disuguaglianza di Schwarz (Hermann Schwarz, 1843-1921)
(u, v)
2
(u)(v),
u, v E
(1.25)
v =v u+
m
X
v i ei .
i=1
Ci`
o mostra che i vettori indipendenti (e1 , . . . , em , u) formano una base ortogonale di E (e
quindi anche che m = n 1). 2
***
Dimostrazione del Teorema di Sylvester. Siano (ei ) e (ei0 ) due basi canoniche per la forma
bilineare simmetrica . Per la (1.24) si ha, per ogni u E, luguaglianza
(u) =
p
X
a=1
a 2
(u )
p+q
X
b=p+1
b 2
(u ) =
p
X
a0 =1
a0 2
(u )
0 +q 0
pX
(ub )2 .
(1.26)
b0 =p0 +1
b=p+1
Ebb xb = 0,
b0 = p0 + 1, . . . , p0 + q 0 .
(1.27)
12
Si tratta di q 0 equazioni nelle q incognite (xp+1 , . . . , xp+q ). Siccome q 0 < q, questo sistema
ammette certamente una soluzione non nulla (up+1 , . . . , up+q ). Sia u E il vettore che
ha tutte le altre componenti nulle: u1 = . . . = up = up+q+1 = . . . = un = 0. Per la prima
parte della (1.26) si ha sicuramente (u) < 0. Con una tale scelta si ha daltra parte
0
ub = Eib ui =
p+q
X
Ebb ub = 0
b=p+1
perche (up+1 , . . . , up+q ) `e una soluzione del sistema (1.27). Dalla seconda della (1.26) segue
allora (u) 0: assurdo. Per simmetria lipotesi p0 < p conduce pure ad un assurdo.
Dunque p0 = p. 2
Dimostrazione della disuguaglianza di Schwarz. Fissati i vettori u e v, qualunque sia
x R, si ha (u + x v) 0 perche `e semidefinita positiva. Questa disuguaglianza si
traduce in
T (x) x2 (v) + 2 x (u, v) + (u) 0,
(1.28)
2
dove (v) 0. Se (v) > 0, il discriminante = (u, v) (u)(v) del trinomio
T (x) non pu`
o essere positivo, altrimenti T (x) avrebbe due radici reali e distinte e la (1.28)
sarebbe violata. Da 0 segue la disuguaglianza (1.25). Se (v) = 0, perche la (1.28) sia
sempre soddisfatta deve essere necessariamente (u, v) = 0. La (1.25) `e allora soddisfatta
come uguaglianza. Se u `e proporzionale a v (in particolare nullo), si verifica subito che
vale luguaglianza nella (1.25). Viceversa, se vale luguaglianza risulta = 0 e pertanto
il trinomio T (x) ammette una radice doppia x0 tale che (u + x0 v) = 0. Se `e definita
positiva deve necessariamente essere u + x0 v = 0. 2
Osservazione 1.5.1 Le considerazioni qui svolte sulle forme quadratiche trovano applicazione nella teoria dei massimi e minimi di una funzione a pi`
u variabili e nella classificazione delle coniche, quadriche e iperquadriche.
1.6
Endomorfismi lineari
Denotiamo con End(E) lo spazio delle applicazioni lineari L(E; E) di uno spazio vettoriale
E in se stesso, cio`e lo spazio degli endomorfismi lineari di E. Denotiamo semplicemente
con BA la composizione di due endomorfismi B A. Loperazione di composizione degli
endomorfismi conferisce allo spazio End(E) la struttura di algebra associativa con unit`
a;
lunit`
a `e lapplicazione identica di E in se stesso, che denotiamo con idE o con 1E o
semplicemente con 1. Denotiamo con 0 : E E lapplicazione che manda tutti i vettori
di E nello zero.
Gli endomorfismi invertibili sono detti automorfismi o trasformazioni lineari di E.
Formano un gruppo che denotiamo con Aut(E). Si denota con A1 linverso di un
automorfismo A.
Scelta una base (ei ) dello spazio E, ad ogni endomorfismo A End(E) risulta associata
una matrice quadrata [Aji ]nn , detta matrice delle componenti di A nella base (ei )
13
e definita dalluguaglianza
A(ei ) = Aji ej
(1.29)
(1.30)
(1.31)
(1.32)
(AB)i
Si noti che se si conviene che lindice in basso sia indice di colonna, il prodotto matriciale
nella (1.32) `e righe per colonne: righe della prima matrice (Bik ) per le colonne della seconda
o che la scrittura Ajk Bik a secondo membro della (1.32) `e
matrice (Ajk ). Si noti bene per`
j
del tutto equivalente a Bik Ak .
6
14
[A, B] = [B, A] ,
Le prime due, di verifica immediata, mostrano che il commutatore `e antisimmetrico e bilineare. La terza, la cui verifica richiede un semplice calcolo, prende il nome di identit`
a
di Jacobi (Carl Gustav Jacob Jacobi, 1804-1851). Uno spazio vettoriale dotato di unoperazione binaria interna soddisfacente a queste tre propriet`
a prende il nome di algebra
di Lie (Marius Sophus Lie, 1842-1899). Dunque End(E) `e un algebra di Lie. Vedremo
nel corso di queste lezioni altri esempi di algebre di Lie.
1.7
15
associate che invece non risentono di questo cambiamento. Queste grandezze si chiamano
invarianti dellendomorfismo: pur essendo calcolate attraverso le componenti, non dipendono dalla scelta della base e sono quindi intrinsecamente legate allendomorfismo. Il
seguente teorema mette in evidenza i primi due invarianti fondamentali.7
Teorema 1.7.1 Il determinante det[Aij ] e la traccia Aii (cio`e la somma degli elementi della diagonale principale) della matrice delle componenti di un endomorfismo non
dipendono dalla scelta della base.
ei = Eii ei0
ei0 = Eii0 ei
(1.36)
dove (Eii ) e (Eii0 ) sono matrici regolari una inversa dellaltra, cio`e tali che
0
Eii Eij0 = ij ,
(1.37)
Siano (Aji ) e (Aji0 ) le matrici delle componenti di un endomorfismo A rispetto alle due
basi date. Secondo la definizione (1.29) abbiamo
j
A(ei ) = Ai ej ,
j0
A(ei0 ) = Ai0 ej 0 .
(1.38)
det[Eii ] det[Ejj0 ] = 1
0
7
8
i = Eii i
i = Eii0 i
16
det[Aji ] = det[Aji0 ]
e la prima tesi del teorema `e dimostrata. Ritorno ora alla (1.38) e vi pongo j = i
sottintendendo al solito la somma sullindice ripetuto i:
0
A primo membro ho la traccia della matrice [Aji ]. A secondo membro tengo ancora conto
della sommatoria su i e osservo che
0
Eii Eji0 = ji 0
essendo le due matrici coinvolte una inversa dellaltra. Ottengo dunque, per la propriet`
a
di ,
0
j0 0
Aii = Ai0 ji 0 = Aii0 .
Anche la seconda parte della tesi `e dimostrata. 2
Dopo questo teorema `e lecito introdurre la seguente definizione:
Definizione 1.7.1 Il determinante e la traccia di un endomorfismo A End(E)
sono i numeri
det A = det[Aij ],
trA = Aii ,
dove [Aij ] `e la matrice delle componenti di A rispetto ad una qualunque base di E.
Osservazione 1.7.1 Si dimostra che per la traccia ed il determinante di un endomorfismo valgono le seguenti propriet`
a:
tr(a A) = a tr(A),
tr(AB) = tr(BA),
tr(1) = n,
(1.39)
det(a A) = an det(A),
det(1) = 1.
1.8
Introduciamo ora un altro concetto fondamentale nella teoria degli endomorfismi lineari,
che come prima cosa ci consentir`
a di definire ulteriori invarianti.
17
(1.40)
n
= (1) det
A11 x
A12
A21
...
An1
A22 x . . .
An2
..
.
..
.
A1n
A2n
..
..
.
. . . Ann x
(1.41)
Pn
k=0 (1)
k I (A) xnk
k
(1.42)
(1.43)
18
Ricordiamo che un minore principale `e il determinante di una sottomatrice quadrata principale e che una sottomatrice quadrata si dice principale se la sua diagonale
principale `e formata da elementi della diagonale principale della matrice che la contiene.
Applicando questo teorema per k = n si ritrova In (A) = det A, mentre per k = 1 si trova
I1 (A) = trA
(1.44)
Dunque tra gli invarianti principali ritroviamo non solo il determinante ma anche la traccia.
1.9
(1.46)
(1.47)
Tale sistema ammette soluzioni non banali se e solo se annulla il determinante della
matrice dei coefficienti, cio`e, vista la definizione (1.40), se e solo se `e radice del polinomio
caratteristico di A. Le radici del polinomio caratteristico, cio`e le soluzioni dellequazione
caratteristica, algebrica di grado n,
P (A, x) = 0,
prendono il nome di autovalori di A. Il loro insieme {1 , 2, . . . , n} prende il nome di
spettro di A.
Gli autovalori sono invarianti, nel senso sopra detto. Vista la forma (1.41) con cui si scrive
il polinomio caratteristico, dai noti teoremi sulle radici delle equazioni algebriche segue
che linvariante principale Ik (A) `e la somma di tutti i possibili prodotti di k autovalori.
Risulta in particolare:
I1 (A) = tr A = 1 + 2 + . . . + n ,
(1.48)
In (A) = det A = 1 2 . . . n .
19
Chiamiamo molteplicit`
a algebrica di un autovalore , e la denotiamo con ma(), la sua
molteplicit`
a come radice del polinomio caratteristico.
Gli autovalori possono essere reali o complessi.
Consideriamo il caso reale.
Ad ogni autovalore reale corrisponde un sottospazio K E di autovettori ad esso
associati, soluzioni cio`e dellequazione (1.45). Chiamiamo molteplicit`
a geometrica di
la dimensione del sottospazio invariante associato K , e la denotiamo con mg(). Si
dimostra (la dimostrazione `e in appendice al paragrafo) che `e sempre
ma() mg()
(1.49)
Tuttavia, per alcuni tipi di endomorfismi vale sempre luguaglianza, per esempio per gli
endomorfismi simmetrici in spazi strettamente euclidei, che esamineremo pi`
u avanti. Osserviamo che sottospazi invarianti K1 e K2 corrispondenti ad autovalori distinti hanno
intersezione nulla:
1 6= 2
K1 K2 = 0
(1.50)
***
Dimostrazione della disuguaglianza (1.49). Sia un autovalore reale di un endomorfismo
A. Lequazione caratteristica di A pu`
o ovviamente anche scriversi
h
i
det (A 1) (x ) 1 = 0,
cio`e
20
vale a dire linvariante Ir (A 1), non si annulli. Dunque: ma() n r. Questa dimostrazione vale anche nel caso in cui `e complesso, perche anche in questo caso
mg() = n r dove r `e il rango della matrice (Aji ij ). 2
***
Se `e un autovalore complesso allora gli autovettori associati sono complessi: il sistema
(1.46) fornisce soluzioni complesse v i = ui + i w i.
Si `e cos` condotti a considerare la complessificazione dello spazio E, cio`e lo spazio C(E)
delle combinazioni v = u + i w, con u, w E, per le quali si definiscono le due operazioni
di somma e di prodotto per un numero complesso in maniera formalmente analoga a quella
della somma e del prodotto di numeri complessi.
Poiche lequazione caratteristica ha coefficienti reali, ad ogni autovalore complesso =
= a ib avente la stessa molteplicit`
a + ib corrisponde un autovalore coniugato
a. Si
osserva inoltre che se v = u + i w `e autovettore associato a , allora il vettore coniugato
e che ogni altro vettore complesso ottenuto
= u i w `e autovettore associato a ,
v
moltiplicando v per un numero complesso qualunque `e ancora autovettore associato a .
Osservazione 1.9.1 Se v = u + i w `e un autovettore associato ad un autovalore strettamente complesso = a + ib (cio`e tale che b 6= 0), allora i vettori reali componenti (u, w)
sono indipendenti. In caso contrario infatti, da una relazione del tipo u = cw seguirebbe
v = (c + i)w e quindi dalla (1.45), dividendo per c + i, A(w) = w con solo elemento complesso: assurdo. Decomposta allora la (1.45) nella sua parte reale e immaginaria,
risulta
A(u) = au bw,
A(w) = aw + bu.
(1.51)
Di qui si osserva che il sottospazio generato dai vettori indipendenti (u, w) `e invariante
in A. Sia questo sottospazio (bidimensionale) e si 0 il sottospazio invariante corrispondente ad un secondo vettore complesso v0 = u0 + iw0 sempre associato a . Non pu`
o
che essere = 0 oppure 0 = 0. Infatti, se un vettore non nullo x appartenesse
allintersezione, con opportuna moltiplicazione degli autovettori per un numero complesso,
ci si pu`
o ricondurre al caso in cui u = u0 = x. Dalla prima delle (1.51) seguirebbe
A(x) = ax bw,
A(x) = aw + bx,
Da queste propriet`
a si deduce che ogni autovalore complesso individua un sottospazio
invariante K che `e somma diretta di sottospazi invarianti bidimensionali. La sua dimensione `e quindi pari e inoltre K = K . In questo caso per molteplicit`
a geometrica di
sintende la met`
a della dimensione di K . Vale ancora la disuguaglianza (??), mentre la
(1.50) va sostituita dalla pi`
u generale
2
1 6= 2 , 1 6=
K1 K2 = 0
(1.52)
21
1.10
Il teorema di Hamilton-Cayley
A1 = A,
A2 = A A,
...
Ak = A
. . . A},
| A{z
...
k volte
Pk (x) = a0 xk + a1 xk1 + . . . + ak
si pu`
o associare lendomorfismo
Pk (A) = a0 Ak + a1 Ak1 + . . . + ak 1.
Un polinomio Pk (x) si dice annichilante di A se Pk (A) si annulla identicamente.
Sussiste a questo proposito il notevole teorema di Hamilton-Cayley (William Rowan
Hamilton, 1805-1865; Arthur Cayley, 1821-1895):
Teorema 1.10.1 Il polinomio caratteristico di un endomorfismo `e annichilante:
An I1 (A) An1 + I2 (A) An2 . . . + (1)n In (A) 1 = 0.
Una prima importante conseguenza di questo teorema `e che la potenza n-sima di un
endomorfismo risulta essere una combinazione lineare delle precedenti, inclusa A0 = 1.
Cos` dicasi delle potenze An+1 e successive. Pertanto: tutte le potenze di un endomorfismo
A formano un sottospazio di End(E) al pi`
u di dimensione n, generato dallidentit`
a1 e
dalle prime n 1 potenze di A.9
***
Dimostrazione del teorema di Hamilton-Cayley. Basiamo la dimostrazione sullosservazione seguente. Se sussite unuguaglianza del tipo
C(x) (A x 1) = Pk (x) 1
(1.53)
= a0 xk + a1 xk1 + . . . + ak 1
Al pi`
u, perche non `e escluso che lidentit`
a 1 e le prime n 1 potenze di A siano linearmente dipendenti.
22
C 1 = a0 1,
C A C 2 = a2 1,
C k1 A C k = ak1 1,
C k A = ak 1.
Moltiplicando a destra rispettivamente per Ak , Ak1 , . . . , A le prime k di queste uguaglianze, e sommando poi membro a membro si trova 0 = Pk (A), come asserito. Ci`
o posto,
si tiene conto del fatto, dimostrato pi`
u avanti ( 1.19), che per ogni endomorfismo B esiste
e lendomorfismo complementare, per cui
sempre un endomorfismo B,
e B = det(B) 1.
B
e perche lendomorfismo
Questa `e del tipo (1.53), con k = n e C(x) = (1)n B,
e
complementare B ha come componenti dei determinanti di ordine n 1 della matrice
[Bji ] = [Aij x ji ], ed `e quindi un polinomio di grado n 1 in x. Pertanto P (A, A) = 0. 2
1.11
Tensori
e [Aji ].
Quindi lanalisi e lapplicazione di queste due nozioni deve ricorrere al calcolo delle matrici
(quadrate). Questo `e una circostanza che le accomuna, pur essendo due nozioni ben distinte. Ma, come vedremo, un altro fatto le accomuna: le forme bilineari e gli endomorfismi
possono essere visti come tensori.
Una generale definizione di tensore `e la seguente:
23
1.11. Tensori
Definizione 1.11.1 Un tensore di tipo (p, q) sopra uno spazio vettoriale E `e unapplicazione multilineare del prodotto
(E )p E q = |E E {z
. . . E} |E E
{z. . . E}
p volte
q volte
in R. Un tensore di tipo (0, 0) `e per definizione un numero reale. Denotiamo con Tqp(E)
lo spazio tensoriale di tipo (p, q) su E, cio`e lo spazio
Tqp (E) = L(E , E , . . . , E , E, E, . . ., E ; R),
|
{z
} |
{z
}
p volte
q volte
T00 (E) = R.
Vediamo che cosa `e lo spazio Tq (E) per i primi valori della coppia di interi (p, q) non
entambi nulli. Innanzitutto:
T01 (E) = L(E ; R) = E = E,
T10 (E) = L(E; R) = E ,
T20 (E) = L(E, E; R) (forme bilineari su E),
(1.54)
(1.55)
E , v E.
(1.56)
(1.57)
24
(1.58)
(1.59)
Inoltre, al variare della base secondo le formule (1.36) e in analogia alla (1.38), le componenti di un tensore di tipo (1,2) variano secondo la legge
i
Kji0 h0 = Eii Ejj0 Ehh0 Kjh
.
0
(1.60)
Questa formula si deduce direttamente dalla definizione (1.58) scritta per la base accentata, tenendo conto quindi delle relazioni fra le basi, ed `e facilmente estendibile al caso di
un tensore di tipo qualunque, tenendo conto del formalismo degli indici ripetuti in alto e in
basso. A questo proposito osserviamo che per passare dalla base (ei ) alla base accentata
(ei0 ) viene usata la matrice (Eii0 ), con laccento in basso. Gli indici in basso non accentati
delle componenti vengono trasformati in indici accentati (sempre in basso) con la stessa
matrice. Per questo gli indici in basso delle componenti vengono detti indici covarianti.
Quelli in alto, invece, vengono detti indici contravarianti, perche nel trasformarsi fanno
intervenire la matrice inversa. Pertanto, un tensore di tipo (p, q) viene anche detto tensore
a p indici di contravarianza e q indici di covarianza. Un tensore di tipo (p, 0) viene detto tensore contravariante di ordine p, un tensore di tipo (0, q) tensore covariante
di ordine q. Denoteremo gli spazi tensoriali T0p (E) e Tq0 (E) semplicemente con T p (E) e
Tq (E).
1.12
Somma tensoriale
Sui tensori possono definirsi varie operazioni che nel loro insieme costituiscono il cosiddetto
calcolo tensoriale.
Innanzitutto vediamo la somma di due tensori. Essa pu`
o eseguirsi, a prima vista, solo fra tensori dello stesso tipo. Tuttavia in molte circostanze, come questa, torna utile
considerare la somma diretta di tutti gli spazi tensoriali, di tutti i tipi, ordinati come
segue:
T (E) = T00 (E) T01 (E) T10 (E) T02 (E) T11 (E) T20 (E) T03 (E) . . .
= R E E T02 (E) T11 (E) T20 (E) T03 (E) . . .
10
(1.61)
Se si vuole, si pu`
o dire che le componenti di un tensore di questo tipo formano una matrice cubica
di lato n.
25
1.13
Prodotto tensoriale
Dati due tensori, di tipo qualsiasi, K Tqp(E) e L Tsr (E), il loro prodotto tensoriale12
K L
p+r
`e per definizione un tensore di tipo (p + r, q + s): K L Tq+s
. Dunque, secondo la
definizione generale di tensore, `e innanzitutto unapplicazione multilineare
K L: E
. . . E } |E E
| E {z
{z. . . E} R.
p+r volte
q+r volte
(1.62)
a1 , a2 , . . . , aq , b1 , b2 , . . . , bs ,
(1.63)
e di q + s vettori,
il primo fattore K si prende i primi p covettori ed i primi q vettori e fornisce il numero
K(1 , 2 , . . ., p ; a1 , a2 , . . . , aq ).
Il secondo fattore L prende quel che resta e fornisce il numero
L(1 , 2 , . . . , r ; b1 , b2 , . . . , bs ).
Allora, il valore di K L sulle due successioni (1.62) e (1.63) `e per definizione il prodotto
di questi due numeri.
Per esempio, se K T21 (E) e L T11 (E), K L `e il tensore di tipo (2, 3) tale che
(K L)(, , u, v, w) = K(, u, v) L(, w),
per ogni , E , u, v, w E.
11
12
(1.64)
26
(1.65)
(1.67)
(1.68)
(1.69)
27
1.14
Basi tensoriali
Lassegnazione di una base (ei ) dello spazio vettoriale E genera automaticamente una base
per ogni spazio tensoriale Tqp (E). Sia i ) la base duale su E . Partiamo, come al solito,
dai casi pi`
u semplici.
1 I prodotti ei ej formano una base di T20 (E), cio`e delle forme bilineari su E , sicche
per ogni forma bilineare
K : E E R
(1.70)
vale la rappresentazione13
K = K ij ei ej
(1.71)
K ij = K(i , j )
(1.72)
Infatti per ogni coppia di covettori , E per la (1.70) e per la definizione di prodotto
tensoriale si ha
K(, ) = K ij ei ej (, ) = K ij i j .
Daltra parte, per la (1.71) e per la bilinearit`
a risulta
K ij i j = K(i , j ) i j = K(i i , j j ) = K(, ),
ed il ciclo si chiude.
2 I prodotti i j formano una base di T02 (E), cio`e delle forme bilineari su E
K : E E R,
(1.73)
(1.74)
Kij = K(ei , ej )
(1.75)
(1.76)
28
(1.77)
(1.78)
costituiscono una base di Tqp(E) e per ogni K Tqp (E) vale la rappresentazione
i i ...i
(1.79)
i i ...i
1.15
p
Kj11,j22 ,...,j
q
si pu`
o prendere uno degli indici contravarianti (in alto) e porlo uguale ad uno degli indici
covarianti (in basso) ed intendere di eseguire la sommatoria su questi, secondo la convenzione degli indici ripetuti. Si dimostra che, cos` facendo, si ottiene un tensore di tipo
(p 1, q 1).14 Una tale operazione prende il nome di contrazione o saturazione.
i , ho due possibilit`
Per esempio, se K T21 (E) ha componenti Khj
a di saturazione:
i
Uj = Kij
,
i
Vh = Khi
.
29
1.16
Tensori antisimmetrici
Definizione 1.16.1 Un tensore A Tp0 (E) si dice antisimmetrico se per ogni scambio di due suoi qualunque argomenti il suo valore cambia di segno:
A(. . . , u, . . . , v, . . .) = A(. . . , v, . . . , u, . . .).
Cos` dicasi per un tensore A T0p (E). I vettori, i covettori e gli scalari, che sono di
tipo (0, 1), (1, 0) e (0, 0) rispettivamente, sono per definizione antisimmetrici. Lintero p
prende il nome di grado del tensore antisimmetrico.
I tensori antisimmetrici svolgono un ruolo importante nelle applicazioni del calcolo tensoriale. Si dimostra che i tensori antisimmetrici contenuti in Tp0 (E) (rispettivamente, in
T0p (E)) ne formano un sottospazio che denotiamo con p(E) (rispettivamente, con V p (E)).
Il teorema seguente fornisce una definizione equivalente di antisimmetria:
Teorema 1.16.1 Un tensore A Tp0 (E) `e antisimmetrico se e solo se esso si annulla
quando due dei suoi argomenti coincidono. Lo stesso dicasi per A T0p (E).
` sufficiente dimostrare questo teorema nel caso p = 2. Da A(u, v) =
Dimostrazione. E
A(v, u) segue ovviamente A(u, u) = 0. Viceversa se A(v, v) = 0 per ogni v, allora si
ha, ponendo v = v 1 + v2 ,
0 = A(v1 + v2 , v1 + v 2 )
= A(v1 , v1 ) + A(v1 , v2 ) + A(v2 , v1 ) + A(v2 , v2 )
= A(v1 , v2 ) + A(v2 , v1 ),
vale a dire
A(v1 , v2 ) = A(v2 , v1 ). 2
Due implicazioni notevoli:
Teorema 1.16.2 1. Un tensore antisimmetrico si annulla quando i suoi argomenti
sono linearmente dipendenti. 2. Un tensore antisimmetrico con p > n `e nullo.
30
(prodotto misto).
ovvero
A = A ,
(1.82)
1.17
T0p(E).
Antisimmetrizzazione
Vedi 2.4.1.
1 P
Gp T
p!
(1.83)
31
cio`e da
A(T )(v1 , . . . , vp) =
per ogni v 1 , . . . , vp E.
1 P
Gp T (v1 , . . . , v p )
p!
(1.84)
Per rendere effettiva questa definizione dobbiamo verificare che il tensore T A `e antisimmetrico. Volendo applicare il Teorema 1.16.3, osserviamo che per qualunque Gp si ha
successivamente:
A(T )
1 P
Gp T
p!
1 P
=
Gp T
p!
1 P
=
Gp T ( ) = A(T ),
p!
=
tenuto conto che = e inoltre che, mentre varia in tutto Gp , anche varia
in tutto Gp.
Tutto quanto precede si riferisce a tensori covarianti (indici in basso) ma si pu`
o ripetere
per i tensori contravarianti (indici in alto), per i quali loperatore di antisimmetrizzazione
`e lapplicazione lineare
A : T0p (E) V p (E) : T 7 A(T )
definita come nella (1.83).
1.18
Prodotto esterno
1
2
1
2
( )
(1.85)
hv1 , i hv2 , i hv1 , i hv2 , i
(1.86)
1
2
1
2
(a b b a)
ha, 1 i hb, 2 i ha, 2 i hb, 1 i
(1.87)
(1.88)
32
(1.89)
a b = A(a b)
(1.90)
)
(v
,
v
)
1
2
G2
=
1
2
( ) (v1 , v2 )
1
2
( ) (v2 , v1 )
1
2
( ) (v1 , v2 )
1
2
( ) (v1 , v2 )
1
2
( ) (v1 , v2 ).
Le formule (1.89) e (1.90) suggeriscono una naturale estensione del prodotto esterno al
caso di pi`
u di due vettori o covettori:
(1.91)
a1 . . . ap = A(a1 . . . ap )
(1.92)
1 P
Gp (1 . . . p ) (v 1 , . . . , vp )
p!
(a1 . . . ap ) (1 , . . . , p) =
1 P
Gp (a1 . . . ap ) (1 , . . . , p )
p!
(1.93)
(1.94)
1
6
1 2 3 + 2 3 1 + 3 1 2
i
2 1 3 + 1 3 2 + 3 2 1
(1.95)
33
Nella prima riga abbiamo le permutazioni cicliche, quindi pari, dei tre indici (1, 2, 3). Nella
seconda riga, col segno , abbiamo quelle dispari.
1.19
Algebra esterna
(1.96)
a1 . . . ap ,
a E
(1.97)
(1.98)
34
a
= 1 . . . q 1 . . . p
(1.99)
(b1 1 + b2 2 ) = b1 1 + b2 2
(1.100)
4 Siccome il prodotto esterno fra forme elementari `e bilineare e siccome una p-forma,cio`e
un elemento di p(E) `e combinazione lineare di p-forme elementari, il prodotto esterno si
estende per linearit`
a a forme di grado qualsiasi. Vale ancora lanticommutativit`
a graduata
(1.98). Per questa via il prodotto esterno si estende anche a pi`
u di due forme. Vale la
propriet`
a associativa:
= ( ) = ( )
(1.101)
+
M
p (E).
p=0
Sappiamo che per p > n = dim(E) gli spazi p (E) si riducono allo zero. Sappiamo inoltre
che 0 (E) = R e 1 (E) = E . Di conseguenza la somma diretta (E) risulta essere
(E) = R E 2 (E) . . . n (E) 0 0 . . .
(1.102)
Questo `e uno spazio vettoriale, detto spazio delle forme esterne su E, rispetto allordinaria somma + tra tensori. Il prodotto esterno, definito per due forme omogeneee, si
estende per linearit`
a a due qualunque elementi di questa somma diretta. Il risultato `e che
(E), con le due operazioni + e diventa unalgebra, detta appunto algebra esterna
su E.
Si dimostra che
e
n
n!
dim p(E) =
=
p
p! (n p)!
(1.103)
dim (E) = 2n .
(1.104)
Tutto quanto sin qui visto si ripete pari pari per gli spazi
dei p-vettori
V p (E)
35
1.20
Il simbolo di Levi-Civita
La definizione `e la medesima.
36
(1.106)
(1.107)
o, inversamente,
qualunque sia la permutazione degli indici (i1 , i2 , . . . , in). Si noti bene che a secondo
membro di questultima formula non `e intesa la sommatoria sugli indici, che sono ripetuti
ma entambi in basso. Analoghe formule valgono ovviamente per una qualunque n-pla (i )
di covettori in E .
3 Il determinante di un endomorfismo A pu`
o essere definito come quel numero det(A)
per cui vale luguaglianza
A(v1 ) A(v 2 ) . . . A(vn ) = det(A) v 1 v2 . . . vn
(1.108)
per qualunque n-pla di vettori v i E. Per riconoscerlo, nella (1.108), al posto dei vettori
v si sostituiscano i vettori di una base (ei ) qualsiasi di E. Si ottiene
A(e1 ) A(e2 ) . . . A(en ) = Ai11 Ai22 . . . Ainn ei1 ei2 . . . ein
= Ai11 Ai22 . . . Ainn i1 i2 ...in e1 e2 . . . e3
applicando la (1.106) nel secondo passaggio. Ma, come abbiamo gi`
a visto, il termine
Ai11 Ai22 . . . Ainn i1 i2 ...in `e proprio uguale a det[Aij ]. Si conclude quindi che la (1.108) vale
per un qualunque sistema di vettori indipendenti. Essa vale ovviamente anche quando i
vettori sono dipendenti, nel qual caso sono nulli ambo i membri.
37
= A B(v1 ) . . . A B(v n )
= det(A) det(B) v 1 . . . v n .
5 Dalla (1.105) segue la regola dello sviluppo del determinante rispetto ad una linea.
Posto infatti
e1 = i i ...i Ai2 . . . Ain ,
A
(1.109)
i1
n
n
1 2
2
la (1.105) diventa
e1 .
det[Aij ] = Ai11 A
i1
(1.110)
Si riconosce allora nella (1.109), stante la definizione del simbolo di Levi-Civita e la sua
antisimmetria, lepressione del complemento algebrico del termine Ai11 della prima
riga della matrice [Aij ] (conveniamo che gli indici in basso siano indici di riga) cio`e del
determinante della matrice quadrata di ordine n 1 ottenuta sopprimendo la riga 1 e la
colonna i1 , preceduto dal segno (1)1+i1 . La (1.110) rappresenta allora lo sviluppo del
determinante rispetto alla prima riga. Analogamente si procede per lo sviluppo rispetto
ad unaltra riga, o ad una colonna.
6 Dalla (1.109), stante lantisimmetria del simbolo di Levi-Civita, segue inoltre
e1i = i i ...in Ai1 Ai2 . . . Ainn = 0.
Ai21 A
1 2
2 2
1
Quindi: la somma dei prodotti degli elementi di una riga per i complementi algebrici di
una riga diversa `e nulla. Dalla (1.109) si osserva ancora che
e1i = det(Aij ).
A
1
Ai11
Da queste considerazioni, particolarizzate al caso di una riga (la prima), si trae la formula
generale, valida per ogni endomorfismo lineare A,
dove
ej Ai = det(A) j
A
k
i
k
ej = det(A)
A
i
Aij
(1.111)
(1.112)
38
ej
A
i
Aij 0
=
det(A)
=
det(A)
0
Aij
Aij
Aij 0
ej00 E h0 E i0 Ak
=A
j
k
h
i
i
Aj
ej00 E j0 E i0 .
=A
i
i
j
(1.113)
1
e
A
det(A)
(1.114)
Capitolo 2
Uno spazio vettoriale euclideo `e una coppia (E, g) costituita da uno spazio vettoriale
E e da un tensore metrico g su E. Un tensore metrico (detto anche metrica) `e per
definizione una forma bilineare g su E simmetrica e regolare, cio`e tale da soddisfare alle
condizioni:
(
g(u, v) = g(v, u),
(2.1)
g(u, v) = 0 v E = u = 0.
La forma bilineare simmetrica g `e anche detta prodotto scalare. Per il prodotto scalare
si usa comunemente la notazione u v, poniamo cio`e1
u v = g(u, v).
(2.2)
Uno spazio vettoriale euclideo `e quindi uno spazio vettoriale dotato di un prodotto scalare.
Chiamiamo norma e la denotiamo con k k : E R la forma quadratica corrispondente
al tensore metrico
kvk = v v = g(v, v).
(2.3)
Chiamiamo invece modulo di un vettore il numero positivo
|v| =
|v v|.
(2.4)
In molti testi il prodotto scalare `e denotato con u v, simbolo che noi invece riserveremo al prodotto
vettoriale nello spazio euclideo tridimensionale.
2
La norma k k qui definita non `e una norma nel senso usuale dellAnalisi. Lo `e invece il modulo | |,
che per`
o viene in genere considerato solo nel caso in cui la forma quadratica g `e definita positiva.
39
40
kvk > 0,
genere spazio
vE
genere luce
kvk = 0,
genere tempo
kvk < 0.
Un vettore del genere luce `e anche detto isotropo. Un vettore isotropo `e ortogonale a se
stesso.
Una base canonica di uno spazio euclideo (E, g) `e una base canonica rispetto alla forma
bilineare simmetrica g, quindi una base costituita da vettori unitari fra loro ortogonali.
Sappiamo dalla teoria delle forme quadratiche che due basi canoniche sono sempre formate
da un egual numero p di vettori del genere spazio e quindi da un egual numero q di vettori
del genere tempo. Siccome il tensore metrico `e non degenere si ha sempre p + q = n =
dim(E). La coppia di interi (p, q) `e detta segnatura dello spazio euclideo. Si usa anche
dire che lo spazio ha segnatura
. . } .
. . +} | .{z
|+ .{z
p volte
q volte
Molti autori riservano il nome di spazio euclideo al caso in cui la metrica `e definita positiva,
cio`e di segnatura (n, 0). Per mettere in evidenza questa condizione noi useremo il termine
spazio strettamente euclideo, riservando il termine di spazio pseudo-euclideo o
semi-euclideo al caso di una metrica indefinita.
(2.5)
|v| = v v,
la disuguaglianza di Schwarz diventa
|u v| |u| |v|.
(2.6)
uv
.
|u| |v|
(2.7)
41
(2.8)
|u|2 + |v|2 + 2 |u v|
Considerata una base (ei ) dello spazio euclideo (E, g), le componenti del tensore metrico
gij = g(ei , ej ) = ei ej
(2.9)
det[gij ] 6= 0.
(2.10)
Queste condizioni sono in effetti equivalenti alle (2.1). Accanto alla matrice metrica
(gij ) torna utile considerare la matrice inversa, che denotiamo con (g ij ). Essa `e definita
dalluguaglianza
gij g jk = ik .
(2.11)
In una base canonica, detta anche ortonormale, la matrice metrica `e
1p
0
.
[gij ] =
0 1q
(2.12)
(2.13)
p
X
a=1
quindi
kuk =
p
X
a=1
u v
a 2
(u )
n
X
ub v b ,
(2.14)
(ub )2 .
(2.15)
b=p+1
n
X
b=p+1
La presenza del tensore metrico consente di definire su di uno spazio euclideo, oltre al
prodotto scalare, alcune altre fondamentali operazioni e precisamente:
(I) un isomorfismo canonico tra E e il suo duale E ;
42
(2.16)
(2.17)
(2.18)
Questa `e la definizione in componenti dellapplicazione [. Si osserva quindi che le componenti del covettore v [ si ottengono per abbassamento degli indici delle componenti (v i)
di v mediante la matrice metrica. Lapplicazione inversa `e definita dalle relazioni inverse
delle (2.18):
v i = g ij vj
(2.19)
Essa consiste quindi nellinnalzamento degli indici tramite linversa della matrice metrica.
Osservazione 2.1.2 Le (g ij ) prendono il nome di componenti contravarianti del
tensore metrico, mentre alle (gij ) si d`
a il nome di componenti covarianti. Similmente, alle componenti (vi ) di v[ si d`
a il nome di componenti covarianti del vettore v,
riservando alle (v i ) il nome di componenti contravarianti. Loperazione di innalzamento e di abbassamento degli indici si pu`
o applicare anche ai tensori. Si possono cos`
stabilire diversi isomorfismi fra spazi tensoriali aventi la stessa somma di indici covarianti
e contravarianti, per esempio tra T11 (E) e T2 (E), come sar`
a visto nel prossimo paragrafo.
Osservazione 2.1.3 Si `e visto ( 1.2) che un covettore `e geometricamente rappresentato da una coppia di iperpiani paralleli (A0 , A1 ). Nellidentificazione ora vista di E
con E , ad , cio`e a questa coppia di piani, corrisponde il vettore v = ] che `e ortogonale
43
al sottospazio A0 e il cui prodotto scalare con i vettori del laterale A1 vale 1. Se quindi
denotiamo con u il vettore ortogonale ad A0 appartenente ad A1 , si ha
v=
u
.
kuk
Osservazione 2.1.4 Ad ogni base (ei ) di E si fa corrispondere unaltra base, detta base
reciproca o base coniugata (e a volte, impropriamente, anche base duale), denotata con
(ei ) e definita implicitamente dalle relazioni
ei ej = ji .
(2.20)
Si verifica che
ei = g ij ej ,
ei = gij ej ,
(2.21)
e che
ei = (i )].
(2.22)
La figura che segue mostra per esempio il caso dello spazio euclideo bidimensionale. Assunta (c1 , c2 ) come base canonica, le basi (e1 , e2 ) e (e1 , e2 ) sono basi una reciproca dellaltra,
essendo e1 e1 = e2 e2 = 1, e1 e2 = e2 e1 = 0. In uno spazio strettamente euclideo,
se (ei ) `e una base canonica, allora ei = ei : la base coincide con la sua reciproca. Se
lo spazio `e pseudoeuclideo, di segnatura (p, q), questuguaglianza vale solo per gli indici
i p. Per i rimanenti si ha ei = ei .
Basi reciproche.
(2.23)
detto spazio ortogonale a K. Confrontando questa definizione con quella del polare K
data al 1.2 e tenuto conto della definizione (2.16), si vede che
K = (K )].
(2.24)
44
K = K,
K L L K,
(2.25)
(K + L) = K L ,
K + L = (K L) .
2.2
Sia (E, g) uno spazio euclideo (di segnatura qualsiasi). Ad ogni endomorfismo A su E si
associa un altro endomorfismo AT di E, detto endomorfismo trasposto di A, definito
dalluguaglianza
AT (u) v = u A(v)
Per loperatore di trasposizione T valgono le seguenti propriet`
a:
T
1 = 1,
ATT = A,
(A + B)T = AT + B T ,
(AB)T = B T AT ,
T
k
Ak = AT
(k N),
T
T
T
[A, B] = [B , A ].
(2.26)
(2.27)
45
Se in particolare A `e un automorfismo:
(A1 )T = (AT )1 .
(2.28)
(2.29)
= g ik gjh Ahk .
(2.30)
Ci`
o significa che la matrice delle componenti dellendomorfismo trasposto AT coincide con
la trasposta della matrice delle componenti di A (si scambiano cio`e righe con colonne).
Questa propriet`
a `e valida solo in questo caso. Se la metrica non `e definita positiva e la
base `e canonica allora la (2.30) `e verificata a meno del segno per certe coppie di indici
(quali ?).
Osservazione 2.2.2 Dalla (2.29) deduciamo che
det(AT ) = det(A),
tr(AT ) = tr(A).
(2.31)
A(u) v = A(v) u,
46
Ogni endomorfismo `e decomponibile nella somma della sua parte simmetrica e della sua
parte antisimmetrica:
)
AS = 12 (A + AT )
(2.33)
A = AS + AA .
A
1
T
A = 2 (A A )
Segue che
AT = AS AA .
(2.34)
Alcune propriet`
a da ricordare:
(I) La potenza k-esima di un endomorfismo simmetrico `e sempre simmetrica, qualunque
T
k
sia k. Da AT = A segue infatti per la (2.27)4 Ak = AT = Ak .
(VI) Il commutatore di due endomorfismi simmetrici, oppure di due endomorfismi antisimmetrici, `e antisimmetrico. Questo segue dallultima delle (2.27) e dallanticommutativit`
a
del commutatore. Da questultima propriet`
a segue che gli endomorfismi antisimmetrici
formano una sottoalgebra di Lie di End(E).
` importante sottolineare che le precedenti definizioni fanno interOsservazione 2.2.3 E
venire in maniera essenziale la metrica g. Esse sono del tutto analoghe a quelle viste per
le forme bilineari, dove per`
o la nozione di trasposizione e quelle conseguenti di simmetria
e di antisimmetria non richiedono la presenza sullo spazio vettoriale di alcuna struttura
aggiuntiva. Lanalogia risulta ulteriormente confermata nelle considerazioni seguenti.
Ad ogni endomorfismo A possiamo far corrispondere una forma bilineare, che denotiamo
ancora con A, ponendo:
A(u, v) = A(u) v
(2.35)
(2.36)
47
(2.37)
Loperazione ora definita `e un isomorfismo tra End(E) e T2 (E). Si osservi che accanto
alla (2.35) sussiste una definizione alternativa analoga, che genera un altro isomorfismo:
A(u, v) = u A(v). Si osservi inoltre che A `e un endomorfismo simmetrico (rispettivamente, antisimmetrico) se e solo se la corrispondente forma bilineare `e simmetrica (risp.
antisimmetrica).
Osservazione 2.2.4 Il tensore metrico, come forma bilineare, corrisponde allendomorfismo identico.
Osservazione 2.2.5 Si consideri il prodotto tensoriale di due vettori A = a b. Si
tratta di un tensore doppio contravariante. Le sue componenti in una base qualsiasi sono
Aij = ai bj . A questo tensore si fa corrispondere un endomorfismo, denotato ancora con
A e detto diade, ponendo
A(u) = (a u) b,
(2.38)
e quindi ancora una forma bilineare ponendo
A(u, v) = (a u) (b v).
(2.39)
Aij = ai bj .
(2.40)
Pi`
u in generale ad ogni tensore doppio contravariante A, di componenti (Aij ), per quanto
visto al paragrafo precedente, corrisponde un endomorfismo ed una forma bilineare (che
denotiamo sempre con A) le cui componenti si ottengono con labbassamento degli indici:
Aji = Akj gki ,
(2.41)
48
Teorema 2.2.2 Gli autovalori di un endomorfismo simmetrico in uno spazio strettamente euclideo sono reali.
l n,
(2.42)
49
n
X
=1
c c
(2.43)
n
X
(c c ) c =
=1
n
X
c = c .
=1
A(v) =
n
X
v c
(2.44)
=1
50
[A ] =
(2.45)
1 1m1
...
2 1m2
...
..
.
..
.
..
..
.
. . . l 1ml
(2.46)
Questa base canonica (c) si trasforma in una base canonica (c0 ) rispetto alla forma
bilineare simmetrica A ponendo
1
c0 = p
c
||
51
2.3
Endomorfismi ortogonali
u, v E
(2.47)
u E
(2.48)
`e infatti ovvio che la (2.47) implica la (2.48). Viceversa, se vale la (2.48) risulta
Q(u + v) Q(u + v) = (u + v) (u + v)
(u, v E).
(2.49)
QT = Q1
(2.50)
ovvero
Dunque le formule (2.47), (2.48), (2.49) e (2.50) sono tutte definizioni equivalenti di
endomorfismo ortogonale.
Poiche det(QT ) = det(Q), la (2.49) implica (det(Q))2 = 1 cio`e
det(Q) = 1.
(2.51)
Gli endomorfismi ortogonali il cui determinante vale +1 sono chiamati rotazioni; quelle
con determinante 1 rotazioni improprie. Lidentit`
a 1 `e ovviamente una rotazione. Il
prodotto di due (o pi`
u) rotazioni `e una rotazione. Il prodotto di due rotazioni improprie
`e una rotazione. Il prodotto di una rotazione per una rotazione impropria `e una rotazione
impropria.
Linsieme di tutti gli endomorfismi ortogonali sopra uno spazio (E, g) `e un gruppo rispetto allordinaria composizione degli endomorfismi, cio`e un sottogruppo di Aut(E), detto
52
gruppo ortogonale di (E, g). Lo denotiamo con O(E, g). Le rotazioni formano un sottogruppo, detto gruppo ortogonale speciale, che denotiamo con SO(E, g). Le rotazioni
improprie non formano ovviamente sottogruppo. Se due spazi vettoriali hanno uguale
dimensione e segnatura, allora i rispettivi gruppi ortogonali sono isomorfi.
Passando alle componenti, osserviamo che un endomorfismo Q `e ortogonale se e solo se le
sue componenti (Qji ) rispetto ad una base generica verificano le uguaglianze
gij Qih Qjk = ghk
(2.52)
che sono in tutto 12 n(n + 1). Queste si ottengono dalla (2.47) scritta per una generica
coppia (eh , ek ) di vettori della base.
Se lo spazio `e strettamente euclideo e se la base scelta `e canonica, allora le (2.52) diventano
n
X
Qih Qik = hk
(2.53)
i=1
Ci`
o significa che il prodotto della matrice (Qij ) per la sua trasposta `e la matrice unitaria.
Le matrici soddisfacenti a questa propriet`
a sono dette matrici ortogonali.
Se la base `e canonica ma lo spazio non `e strettamente euclideo la formula (2.53) non `e pi`
u
valida. In ogni caso, le matrici delle componenti in una base canonica degli endomorfismi
ortogonali (o delle rotazioni) di uno spazio di segnatura (p, q) formano un gruppo denotato
con O(p, q) (oppure SO(p, q)). Si denotano in particolare con O(n) e SO(n) i gruppi delle
matrici nn ortogonali, cio`e soddisfacenti alla (2.53), e di quelle ortogonali a determinante
unitario. La scelta di una base canonica stabilisce un isomorfismo tra O(E, g) e O(p, q).
Osservazione 2.3.1 Gli autovalori, complessi o reali, di un endomorfismo ortogonale in
uno spazio strettamente euclideo sono unitari: || = 1. Infatti, dallequazione Q(v) = v
v. Moltiplicando scalarmente
segue, applicando la coniugazione, lequazione Q(
v) =
v
. Poiche Q `e
membro a membro queste due uguaglianze si ottiene Q(v) Q(
v) = v
2.3.1
av
a.
aa
(2.54)
Esso `e una simmetria rispetto al piano ortogonale ad a, nel senso che, come si verifica
immediatamente,
S a (a) = a,
S a (v) = v
53
2.3.2
QS =
1
2
(Q + QT ),
QA =
1
2
(Q QT ).
(2.55)
Segue che
QQT = (QS + QA )(QS QA ) = (QS )2 (QA )2 + QA QS QS QA ,
QT Q = (QS QA )(QS + QA ) = (QS )2 (QA )2 QA QS + QS QA .
Se Q `e unisometria, allora entrambe queste espressioni devono valere 1, sicche sottraendo
membro a membro segue subito
QA QS QS QA = [QA , QS ] = 0
(2.56)
(QS )2 (QA )2 = 1.
(2.57)
e quindi
Viceversa, se valgono entrambe queste condizioni allora le predette espressioni valgono 1.
`e cos` dimostrato che le condizioni (2.56) e (2.57) sono necessarie e sufficienti affinche un
endomorfismo Q sia ortogonale. Dalla (2.57) si deduce in particolare che un endomorfismo
ortogonale Q `e simmetrico se e solo se esso `e involutorio, cio`e se Q2 = 1. Lo si riconosce
comunque anche dal fatto che, valendo la (30 ), la condizione QQ = 1 `e equivalente a
Q = QT . Osserviamo infine che se lendomorfismo ortogonale Q `e simmetrico allora,
qualunque sia il vettore v, il vettore v Q(v) `e autovettore di Q con autovalore 1.
Infatti:
Q(v Q(v)) = Q(v) Q2 (v) = Q(v) v = (v Q(v)).
2.3.3
Rappresentazione esponenziale
X
1 k
A
e =
A ,
(2.58)
k!
k=0
54
detta esponenziale di A. Questa `e convergente, nel senso che qualunque sia A e comunque si fissi una base di E, le n2 serie di numeri reali date dalle componenti di eA sono tutte
convergenti (anzi, assolutamente convergenti) o, se si vuole, che tale `e la serie vettoriale
X
1 k
A (v),
k!
k=0
X
X
1 k
1 k
A (v) =
v = e v.
k!
k!
k=0
k=0
(eA)T = eA .
Di qui segue che: se A `e antisimmetrico allora eA `e una rotazione. Infatti:
T
eA (eA )T = eA eA = eA eA = e(AA) = 1.
Inoltre la condizione det(eA ) = 1 segue dal fatto che nello spettro di un endomorfismo
antisimmetrico gli autovalori non nulli si distribuiscono in coppie di segno opposto, sicche
la loro somma `e uguale a zero. Allora, per quanto sopra detto,
det(eA ) =
n
Y
Pn
ei = e
i=1
= e0 = 1.
i=1
2.3.4
Rappresentazione di Cayley
(2.59)
55
2.3.5
Rappresentazione quaternionale
Veniamo infine ad una interessante rappresentazione delle rotazioni nello spazio euclideo
tridimensionale E3 . Si consideri nella somma diretta di spazi vettoriali R E3 il prodotto
(interno) definito da
(a, u)(b, v) = (ab u v, av + bu + u v)
(2.60)
(2.61)
(a, u)
k(a, u)k
(2.62)
dove si `e posto
k(a, u)k = (a, u) (a, u) = a2 + u2 .
Quindi tutti gli elementi sono invertibili, fuorche quello nullo (0, 0). Si ottiene unalgebra
associativa, non commutativa, con unit`
a (1, 0). Si pone per comodit`
a (a, 0) = a e (0, v) =
v. Il prodotto scalare `e conservato dal prodotto interno, nel senso che
k(a, u)(b, v)k = k(a, u)k k(b, v)k.
(2.63)
Da questa propriet`
a segue per esempio che gli elementi unitari, cio`e quelli per cui k(a, u)k =
1, formano un sottogruppo del gruppo degli elementi non nulli.
Un modo conveniente per rappresentare questalgebra, e quindi riconoscerne facilmente
le propriet`
a fondamentali, consiste nella scelta di una base canonica (i, j, k) dello spazio
vettoriale e nella rappresentazione di un generico elemento (a, u = b i + c j + d k) nella
somma formale
a + b i + c j + d k,
(2.64)
detta quaternione. Il prodotto di due quaternioni, in conformit`
a alla definizione (2.60),
`e lestensione lineare dei seguenti prodotti fondamentali:
i2 = j 2 = k 2 = 1,
i j = k,
j k = i,
k i = j.
(2.65)
Definita questalgebra, ad ogni suo elemento non nullo (a, u) si associa unapplicazione
Q : E3 E3 definita da
Q(v) = (a, u)v(a, u)1 .
(2.66)
Lasciamo come esercizio di dimostrare che: (i) il secondo membro definisce effettivamente
un vettore; (ii) che lapplicazione cos` definita `e un endomorfismo ortogonale, anzi una
rotazione; (iii) che lapplicazione
f : (R E3 )\{0} SO(E3 )
56
2.4
2.4.1
La forma volume
Due basi ordinate di uno spazio vettoriale (ci riferiamo ad uno spazio vettoriale di dimensione n qualsiasi) si dicono concordi o equiorientate se la matrice della trasformazione
da una base allaltra ha determinante positivo. Si stabilisce in questo modo una relazione
di equivalenza nellinsieme delle basi ordinate. Le classi di equivalenza sono due e prendono
il nome di orientamenti. Quando si sceglie una base e la si ordina, come si fa usualmente,
corredandone gli elementi con un indice che va da 1 a n, si sceglie automaticamente un
orientamento dello spazio. Se si scambiano fra di loro due vettori della base, oppure se si
cambia verso ad un numero dispari di vettori della base, si cambia orientamento.
Consideriamo ora lo spazio vettoriale euclideo tridimensionale E3 , pur avvertendo che le
considerazioni svolte in questo sottoparagrafo si estendono a spazi euclidei di dimensione
57
superiore. Fissata una base canonica (c ) = (c1 , c2 , c3 ), col che risulta anche fissato un
orientamento, definiamo una 3-forma : E3 E3 E3 R ponendo
u1 u2 u3
1
2
3
(u, v, w) = det v
v
v
(2.67)
w1 w2 w3
Che lapplicazione cos` definita sia multilineare e antisimmetrica segue immediatamente
dalle propriet`
a del determinante.
` importante la circostanza che la definizione (2.67) di non dipende dalla scelta della
E
base canonica, purche questa appartenga allorientamento prefissato. Per riconoscerlo
basta osservare che, ricordata la definizione di determinante, la definizione (2.67) si pu`
o
3
porre in forma sintetica utilizzando il simbolo di Levi-Civita a tre indici:
(u, v, w) = u v w
(2.68)
= .
(2.69)
Questultima propriet`
a `e manifestamente indipendente dalla base canonica di partenza:
se si ripetesse la definizione (2.67) scegliendo unaltra base canonica si giungerebbe al
medesimo risultato (2.69). Pertanto la definizione di data dalla (2.67) `e invariante
rispetto alla scelta della base canonica.
Il significato di `e notevole: il determinante nella definizione (2.67) rappresenta il volume
del parallelepipedo individuato dai vettori (u, v, w), pi`
u precisamente il volume con segno:
positivo se questi vettori formano, nellordine, una base concorde con quella canonica
prefissata, negativo in caso contrario; nullo se i vettori sono dipendenti.
Per riconoscerlo si pu`
o scegliere una base canonica (c ) tale che c1 sia parallelo ad u e il
sottospazio individuato da (c1 , c2 ) contenga il vettore v (vedi figura). Allora:
u = u1 c1 ,
v = v 1 c1 + v 2 c2 ,
w = w 1 c1 + w 2 c2 + w 3 c3
Vedi 1.20.
u1
1
(u, v, w) = det
v2 0
v
w1 w2 w3
= u1 v 2 w 3 .
(2.70)
58
&
La forma volume.
Per quanto ora visto il tensore antisimmetrico covariante prende il nome di forma volume. La sua definizione si estende facilmente a spazi euclidei di dimensione qualsiasi. Si
osservi che di forme volume ne esistono due, una opposta allaltra, una per ogni orientamento. Lorientamento che di solito si assume nello spazio euclideo tridimensionale `e quello
della mano destra: i vettori di una base canonica ordinata (c1 , c2 , c3 ) = (i, j, k) sono
rispettivamente orientati come indice-medio-pollice (o pollice-indice-medio) della mano
destra.
La forma volume `e un ente fondamentale nello spazio euclideo. Per suo tramite, come si vedr`
a nei prossimi paragrafi, si possono definire due operazioni fondamentali: laggiunzione
e il prodotto vettoriale.
Teorema 2.4.1 Le componenti della forma-volume rispetto ad una qualunque base
(ei ), legata ad una base canonica (c ) dalle uguaglianze ei = Ei c, sono date da
hij = J hij ,
J = det[Ei]
(2.71)
hij = g hij ,
g = det[gij ],
gij = ei ej
(2.72)
59
Dimostrazione. Posto che le due basi sono legate da relazioni del tipo ei = Ei c, e
posto che la base (c) `e canonica e quindi che le componenti del tensore metrico rispetto
a questa coincidono col simbolo di Kronecker, risulta
gij = Ei Ej ,
per cui
det[gij ] = (det[Ei])2 .
(2.73)
(2.74)
Infatti, richiamata e adattata al caso n = 3 la formula generale analoga alla (1.107) per i
covettori, possiamo scrivere
1 2 3 = .
Per cui
( 1 2 3 )(u, v, w) = ( )(u, v, w)
= u v w ,
come nella (2.68). Dunque la forma volume ammette la definizione equivalente (2.74).
2.4.2
Aggiunzione
Introdotta la forma volume, ad ogni vettore u E3 si fa corrispondere una forma bilineare antisimmetrica, sempre su E3 , chiamata aggiunta di u, denotata con u e definita
dalluguaglianza
(u)(v, w) = (u, v, w)
(2.75)
60
Posto
= u,
si ha successivamente:
ij
= (ei , ej ) = (u)(ei , ej )
= (u, ei , ej ) = uh (eh , ei , ej ) = uh hij .
(2.76)
= u
vale a dire:
La corrispondenza
(2.77)
u3
u2
3
[ ] =
0
u
u2 u1
(2.78)
: E3 2 (E3 ) : u 7 u
che cos` si genera `e un isomorfismo. Con lo stesso simbolo denotiamo la corrispondenza
inversa, denotiamo cio`e con il vettore aggiunto della 2-forma . In questo modo si
ha u = u e = . Dalla (2.78) si vede che
23 = u1 ,
31 = u2 ,
12 = u3 ,
(2.79)
u =
(2.80)
1
2
ijh jh
(2.81)
(2.82)
61
(2.83)
g g ik g jl g hm klm =
1
g ijh det[g rs] = ijh ,
g
(2.84)
1 hij
1
hij =
3!
3!
(2.85)
Per riconoscere la coerenza tra la (2.84) e la (2.85), cio`e che a = a, occorre osservare
che per il simbolo di Levi-Civita vale luguaglianza
= 3!
(2.86)
Accanto a questa valgono anche le seguenti, la cui verifica `e lasciata come esercizio:
= 2 ,
2.4.3
= .
(2.87)
Prodotto vettoriale
Per mezzo della forma volume definiamo unoperazione binaria interna su E3 , detta prodotto vettoriale e denotata con , ponendo
u v w = (u, v, w)
(2.88)
Si tenga presente che il prodotto vettoriale `e in alcuni testi denotato con ed `e anche chiamato prodotto esterno. Tuttavia il simbolo `e oggi universalmente usato per il prodotto
esterno di forme antisimmetriche ( 1.18).
Segue subito dalla definizione (2.88) che il prodotto vettoriale u v `e ortogonale ai due
fattori:
u v u = 0, u v v = 0.
(2.89)
62
Segue inoltre che, se si prendono i tre vettori di una base canonica appartenente allorientamento scelto, si ha
c1 c2 = c3 ,
c2 c3 = c1 ,
c3 c1 = c2 .
(2.90)
u v = v u,
(a u + b v) w = a u w + b v w,
(2.91)
u (v w) + v (w u) + w (u v) = 0.
Pertanto il prodotto vettoriale istituisce sullo spazio euclideo tridimensionale una struttura
di algebra di Lie. Le prime due propriet`
a sono di immediata verifica. La terza si pu`
o
far seguire, con qualche calcolo, dalla formula del doppio prodotto vettoriale
u (v w) = u w v u v w
(2.92)
(u v) w = u w v v w u
(2.93)
che `e equivalente a
b = v u,
Per come `e definito il prodotto vettoriale il primo membro `e lineare rispetto ad ogni
fattore. Cos` dicasi della quantit`
a tra parentesi a secondo membro. Allora il fattore
deve essere un numero indipendente dai vettori (u, v, w) che compaiono nelluguaglianza.
Se si considera per esempio una base canonica appartenente allorientamento scelto e si
prende (u, v, w) = (c1 , c1 , c2 ), posto che si veda la (2.90) c1 c2 = c3 e c1 c3 = c2 ,
risulta luguaglianza c3 = ( c3 ). Deve quindi essere = 1 e la (2.92) `e dimostrata.
63
(2.95)
(2.96)
(u v) = u v .
(2.97)
ovvero anche
Di qui la possibilit`
a di esprimere il prodotto vettoriale mediante un determinante formale:
c1
c2
c3
2
3
u v = det u u u
1
2
3
v v v
(2.98)
Tenuto conto delle (2.96) e (2.97), nonche della seconda delle (2.87), si pu`
o ridimostrare
la formula (2.92) del doppio prodotto vettoriale alla maniera seguente:
u (v w) = u (v w) = u v w
= u v w = u w v u v w.
(2.99)
Osservazione 2.4.3 Loperazione combinata di prodotto vettoriale e prodotto scalare, u v w, `e chiamata prodotto misto. Dalla definizione (2.88) seguono subito,
64
u v w = v u w, u v w = u w v, . . .
u v w = v w u = w u v,
(2.100)
u v w = u v w.
2.4.4
Endomorfismi assiali
(2.101)
Infatti, in virt`
u delle definizioni sopra date, si ha successivamente
a(v) u = a(v, u) = (a, v, u) = a v u,
per cui, stante larbitariet`
a del vettore u, segue la (2.101). Siccome laggiunzione `e una corrispondenza biunivoca fra vettori e forme bilineari antisimmetriche, e quindi endomorfismi
antisimmetrici, concludiamo che nello spazio euclideo tridimensionale ogni endomorfismo
antisimmetrico `e del tipo (2.101), cio`e del tipo a, con a E3 . Si noti che il vettore a
`e un autovettore di a, corrispondente allautovalore nullo; infatti a(a) = a a = 0.
Per questo motivo gli endomorfismi antisimmetrici sono anche chiamati endomorfismi
assiali.
La corrispondenza biunivoca cos` stabilita tra i vettori e gli endomorfismi antisimmetrici
`e un isomorfismo dalgebre di Lie (si ricordi che, propriet`
a (VI) al 2.2, in ogni spazio
euclideo gli endomorfismi antisimmetrici formano, con il commutatore, unalgebra di Lie).
Sussiste infatti luguaglianza
[A, B] = (A) (B)
(2.102)
[a, b] = (a b)
(2.103)
Infatti, posto a = A e b = B, si ha
A B(u) = a (b u)
e quindi, utilizzando lidentit`
a di Jacobi per il doppio prodotto vettoriale,
[A, B](u) = a (b u) b (a u)
= a (b u) + b (u a)
= u (a b) = (a b) u = (a b)(u).
65
Osservazione 2.4.4 Sappiamo che in E3 , come in ogni spazio euclideo, esiste una corrispondenza biunivoca fra vettori e covettori ( 2.1). Al 1.18 abbiamo definito il prodotto
esterno di due covettori. Il legame tra questo prodotto esterno e il prodotto vettoriale `e
espresso dalluguaglianza
(u v) = u[ v[
(2.104)
Infatti, tenuto conto della formula (2.93) sul doppio prodotto vettoriale, si ha successivamente:
(a b)(u, v) = (a b, u, v) = (a b) u v
=aubvav bu
= hu, a[ ihv, b[ i hv, a[ ihu, b[ i = a[ b[ (u, v).
2.4.5
Rotazioni
Consideriamo le rotazioni dello spazio E3 . Ricordiamo, dalla teoria generale svolta al 2.3,
che una rotazione `e una isometria con determinante uguale a +1 e che i suoi autovalori,
se lo spazio `e strettamente euclideo, sono unitari, quindi del tipo ei = cos + i sin .
Per n = 3 gli autovalori sono radici di un polinomio di terzo grado a coefficienti reali.
Quindi almeno uno di essi `e reale, gli altri due complessi coniugati o reali. Imponendo la
condizione che il prodotto di tutti e tre gli autovalori sia uguale a 1 = det(Q) si trova che
lunico spettro possibile di una rotazione `e del tipo
(1, ei, ei ).
(2.105)
Ci`
o premesso, se escludiamo il caso Q = 1, il cui spettro `e (1, 1, 1), lautovalore 1 determina un sottospazio unidimensionale di autovettori K1 E3 che chiamiamo asse della
rotazione. Il numero che compare nella (2.105), determinato a meno del segno e di
multipli di 2, prende il nome di angolo della rotazione.
'
&
66
Si pu`
o rappresentare la rotazione Q mediante una coppia (u, ) dove u `e un versore
dellasse e `e langolo della rotazione, orientato in maniera tale che per ogni vettore c
ortogonale a u il passaggio da c a Q(c) secondo il verso di sia tale da produrre un
avvitamento nel verso di u (`e sottintesa la scelta del solito orientamento dello spazio,
secondo la regola della mano destra). Si dice allora che (u, ) sono versore e angolo
della rotazione Q o anche che u `e il versore dellangolo .
Si osservi che le coppie (u, ) e (u, ) d`
anno luogo alla stessa rotazione come anche,
in particolare, le coppie (u, ) e (u, ). Se si sceglie una base canonica (c ) tale che
c3 = u, allora la matrice delle componenti della rotazione Q generata dalla coppia (u, ),
con u versore di , ha la forma seguente:
cos sin 0
(2.106)
[Q] = sin cos 0
.
0
0
1
Infatti, tenuto presente che in una base canonica
Q = Q = Q(c ) c ,
si vede con laiuto della figura che Q11 = Q(c1 ) c1 = cos , Q12 = Q(c1 ) c2 = sin , e
cos` via.
Oltre alla coppia versore-angolo vi sono varie altre rappresentazioni della rotazioni, per
esempio quella esponenziale e quella quaternionale, gi`
a esaminate ai 2.3.3 e 2.3.5. Oltre
a queste `e da prendersi in considerazione quella fornita dagli angoli di Eulero (Leonhard
Euler, 1707-1783), basata sulla relazione fra una terna ortonormale di vettori, detta terna
fissa, e la terna ruotata: la prima `e una base canonica (c ) = (i, j, k); la seconda `e la
terna (Q(c )) = (i0 , j 0 , k0 ). Gli angoli di Euler (, , ), detti rispettivamente angolo di
nutazione, di rotazione propria, di precessione e soddisfacenti alle limitazioni
0 < < ,
0 < 2,
(2.107)
0 < 2,
sono definiti, nellipotesi che k0 = Q(c3 ) sia distinto da k = c3 , come segue (si guardi la
figura).
(I) Langolo di nutazione `e langolo compreso tra k e k 0 .
(II) Si consideri lintersezione fra il piano (i0 , j 0 ) e il piano (i, j): `e una retta detta linea
dei nodi. Questa `e individuata dal versore del prodotto vettoriale k k0 che denotiamo
con N (infatti la retta in questione `e ortogonale sia a k che a k0 ).
(III) Langolo di rotazione propria `e langolo formato da (N , i0 ) di versore k0 e langolo di
precessione `e langolo formato da (i, N) di versore k. Da questa definizione discende che
assegnati comunque tre angoli soddisfacenti alle limitazioni (2.107) risulta univocamente
definita la terna ruotata (si veda anche lEsercizio 2 seguente).
'
&
67
***
Esempio 2.4.1 Poniamoci il problema di:
(I) determinare la coppia (u, ) a partire dalla rotazione Q e, viceversa,
(II) di determinare la rotazione Q a partire dalla coppia (u, ).
Osserviamo innanzitutto che, data Q, il versore u `e un autovettore associato allautovalore
1, quindi determinabile risolvendo un sistema di equazioni lineari. Tuttavia, `e pi`
u semplice
la sua determinazione attraverso la parte antisimmetrica di Q, almeno quando questa non
`e nulla, perche si ha
sin u = QA .
(2.108)
Se infatti si guarda alla matrice (2.106), che `e ottenuta scegliendo opportunamente una
base canonica, e si ricorda la relazione tra le componenti di una forma bilineare antisimmetrica e quelle del vettore aggiunto, data per esempio dalla (2.78), si trova luguaglianza
0
a3 a2
0
sin 0
3
1
[A] = a
0
a = sin
0
0
,
2
1
a
a
0
0
0
0
(2.109)
68
Questa ci consente fra laltro di osservare che linvariante primo (la traccia) e linvariante secondo di una rotazione coincidono. Il problema inverso (II) pu`
o essere risolto con
luso della rappresentazione esponenziale. Infatti, data una qualunque coppia (u, ), e
introdotto lendomorfismo aggiunto U = u, la rotazione
Q = eU
(2.110)
U 2n+1 = (1)n U .
Si ha allora successivamente:
eU
1
1 2n 2n P
U + n=0
2n+1 U 2n+1
2n!
(2n + 1)!
P
P (1)n1 2n
(1)n
2
2n+1
=1+
U
+
U,
n=1
n=0
2n!
(2n + 1)!
=
n=0
vale a dire
Q = eU = 1 + sin U + (1 cos )U 2 .
(2.111)
(2.112)
che quindi in questo caso produce tr(U 2 ) = 2. La formula (2.111), tenuto conto delle
espressioni U (v) e U 2 (v) sopra scritte, consente anche di esprimere il generico vettore
Q(v) mediante la coppia (u, ):
Q(v) = cos v + (1 cos ) u v u + sin u v.
(2.113)
69
Esempio 2.4.2 La matrice delle componenti della rotazione Q determinata dagli angoli
di Euler (, , ) `e:
[Q] =
sin sin + cos cos cos
sin cos cos sin cos
sin sin
cos sin
sin sin
cos sin
.
cos
(2.114)
= (i, ),
= (k, ).
cos sin 0
,
[] =
sin
cos
0
0
1
1
0
0
[] =
0 cos sin ,
0 sin cos
cos sin 0
[] =
sin cos 0 .
0
0
1
Q = .
Eseguendo il prodotto (righe per colonne, secondo le convenzioni adottate) delle prime
due matrici si ottiene
.
[ ] =
sin
cos
cos
cos
sin
0
sin
cos
70
2.5
1 0 . . . 0
0 1 ... 0
[gij ] =
(2.115)
..
.. . .
..
.
. .
.
0 0 ... 1
Lo spazio iperbolico di dimensione 4 prende il nome di spazio vettoriale di Minkowski
(Hermann Minkowski, 1864-1909). Questo spazio `e di fondamentale importanza per la
teoria della Relativit`
a Ristretta. Ricordiamo ancora che un vettore ortogonale a se stesso
`e detto isotropo o del genere luce.
Ci limitiamo in questo paragrafo ad esaminare alcune propriet`
a fondamentali degli spazi
iperbolici in generale e, in particolare, dello spazio iperbolico bidimensionale. Si tenga
presente che per spazio iperbolico alcuni autori intendono uno spazio di dimensione pari
2n e segnatura (n, n).
Teorema 2.5.1 Un vettore (non nullo) ortogonale ad un vettore del genere tempo `e un
vettore del genere spazio. Il sottospazio ortogonale ad un vettore del genere tempo `e uno
spazio strettamente euclideo (di dimensione n 1).
Dimostrazione. Sia v un vettore del genere tempo. Si consideri il sottospazio unidimensionale K generato da v e il suo ortogonale K . Non pu`
o essere v K perche v
sarebbe anche ortogonale a se stesso, quindi isotropo. Dunque K K = 0 e il sottospazio
K `e a metrica non degenere (si veda lOss. 2.1.6). Si pu`
o quindi determinare su K , che
`e di dimensione n 1, una base canonica (c ). Se consideriamo anche il versore c0 di v,
otteniamo una base canonica. Siccome c0 `e del genere tempo tutti gli altri vettori della
base sono del genere spazio, altrimenti si violerebbe il teorema di Sylvester, posto che la
segnatura `e (n 1, 1). Dunque tutti i vettori di K sono del genere spazio e questo `e
strettamente euclideo. 2
In maniera analoga si dimostra che
Teorema 2.5.2 Il sottospazio ortogonale ad un vettore del genere spazio `e uno spazio
iperbolico se n > 2 o del genere tempo se n = 2.
71
Dal Teorema 2.5.1 segue che i sottospazi del genere tempo hanno dimensione 1. Segue anche che, fissato un sottospazio K H del genere tempo, risulta definita una
decomposizione spazio-temporale dello spazio iperbolico H nella somma diretta
H = K S,
dove S `e il sottospazio strettamente euclideo ortogonale a K (S = K ).
Teorema 2.5.3 Il sottospazio ortogonale ad un vettore (non nullo) del genere luce `e a
metrica degenere contenente il vettore stesso. Tutti i vettori del sottospazio indipendenti
da questo sono del genere spazio.
72
Per dimostrare che le classi di equivalenza sono due dobbiamo dimostrare lmplicazione
u v > 0,
vw>0
u w < 0.
(2.117)
uw=
n1
X
=1
u w u0 w 0 ,
u v = g00 u0 = u0 ,
w v = w0 .
=1
n1
X
(w )2 (w 0 )2 < 0.
=1
=1
u w
!2
n1
X
(u )2
=1
n1
X
(w )2 < (u0 w 0 )2 .
=1
=1
(x)2 (x0 )2 = 0.
(2.118)
Questa `e lequazione di un cono di centro lorigine (vettore nullo). Il cono di luce `e diviso
in due falde, L+ e L , ciascuna delle quali separa dai vettori del genere spazio i vettori
delle classi T + e T rispettivamente, i quali stanno allinterno di ciascuna falda (vedi
figura).
'
&
Il cono di luce.
73
=1
(x)2 (x0 )2 = 1.
(2.119)
Si tratta di un iperboloide a una falda. I vettori unitari del genere tempo sono invece
caratterizzati dallequazione
n1
X
(x )2 (x0 )2 = 1.
(2.120)
=1
di T (risp. di T ).
Dimostrazione. Siano u, v T + . Ci`o significa che kuk < 0, kvk < 0, u v < 0. Di
qui segue ku + vk = kuk + kvk + 2 u v < 0; quindi la somma u + v `e del genere tempo.
Inoltre: u (u + v) = u u + u v < 0. Dunque u e la somma u + v sono ortocroni. 2
Osservazione 2.5.1 (I) Si verifichi che nello spazio End(E) degli endomorfismi sopra
uno spazio vettoriale E si definisce un prodotto scalare ponendo
A B = tr(AB).
(2.121)
74
(II) Si dimostri che, nel caso n = 2, la segnatura del tensore metrico cos` definito `e (3,1).
Lo spazio H4 = End(E2 ) degli endomorfismi su di uno spazio bidimensionale `e quindi uno
spazio di Minkowski.
(III) Si dimostri che lassegnazione di un tensore metrico definito positivo su E2 implica
la definizione di una decomposizione spazio-temporale di H4 .
(IV) Si estendano queste considerazioni al caso dello spazio Hn2 = End(En ), dimostrando
che la segnatura del prodotto scalare definito dalla (2.121) `e
n(n + 1) n(n 1)
,
.
2
2
Esaminiamo ora, per meglio comprendere la struttura di uno spazio iperbolico, il caso pi`
u
semplice dello spazio iperbolico bidimensionale H2 .
Fissata una base canonica (c0 , c1 ), con c0 del genere tempo, osserviamo innanzitutto che
il cono di luce, insieme dei vettori isotropi, ha ora equazione
(x1 )2 (x0 )2 = 0,
e si riduce pertanto alle rette isotrope di equazione x1 x0 = 0 e x1 + x0 = 0, che sono
le bisettrici dei quadranti individuati dai vettori della base. Volendo raffigurare su di un
piano i vettori (c0 , c1 ), unitari e ortogonali fra loro, dobbiamo tener presente che il foglio
su cui riportiamo la figura che segue, fissato un punto corrispondente al vettore nullo,
`e la rappresentazione intuitiva dello spazio bidimensionale strettamente euclideo, non di
quello iperbolico. Per esempio, contrariamente al nostro senso euclideo, i vettori che si
trovano sulle bisettrici hanno lunghezza nulla. Cos`, i vettori unitari del genere tempo
sono caratterizzati dallequazione
(x0 )2 (x1 )2 = 1,
e descrivono quindi uniperbole di vertici i punti (1, 0) e asintoti le rette isotrope, mentre
i vettori unitari del genere spazio sono caratterizzati dallequazione
(x1 )2 (x0 )2 = 1,
e descrivono pertanto liperbole di vertici i punti (0, 1) con gli stessi asintoti. Se ora
prendiamo un vettore u unitario del genere tempo, la retta descritta dai vettori ortogonali
a questo ha equazione
u1 x1 u0 x0 = 0.
Si consideri quindi uno dei due vettori v unitari e ortogonali a u; sappiamo che questi
sono del genere spazio. Allora
ku vk = kuk + kvk + 2 u v = 1 + 1 + 0 = 0.
Ci`
o significa che il vettore differenza u v `e isotropo, quindi giacente su una delle due
bisettrici (asintoti). Concludiamo che, nella rappresentazione euclidea, due vettori del
piano iperbolico non isotropi, unitari e ortogonali, stanno in posizione simmetrica rispetto
ad una delle due bisettrici (vedi figura).
'
&
Ortogonalit`
a dei vettori nel piano iperbolico.
75
Si osservi ancora, guardando dinuovo la figura, che per un osservatore iperbolico la coppia (u, v) `e una base canonica, quindi del tutto equivalente alla coppia (c0 , c1 ), ottenibile
da questa mediante una rotazione, cio`e mediante un elemento di SO(1, 1). Siamo quindi
condotti ad esaminare il gruppo delle isometrie sullo spazio iperbolico bidimensionale. Ci
limitiamo a quelle di determinante +1, cio`e alle rotazioni. Ricordiamo inanzitutto che le
componenti Qji di un qualunque endomorfismo Q sono legate alle componenti (Qij ) della
forma bilineare corrispondente dalle equazioni Qij = gjk Qki . Pertanto, essendo nel caso
presente
g00 = 1, g11 = 1, g01 = g10 = 0,
risulta:
Posto inoltre
Q00 = Q00 ,
Q01 = Q10 ,
Q(c0 ) = a c0 + b c1 ,
cio`e
[Qji ]
Q10 = Q01 ,
Q11 = Q11 .
Q(c1 ) = c c0 + d c1 ,
"
a b
c d
d2 c2 = 1,
bd ac = 0,
ad bc = 1.
Dalle ultime due si trae a = d e b = c. Dalla prima segue a2 1. Possiamo allora porre
a = cosh ,
b = sinh ,
(2.122)
76
oppure
a = cosh ,
b = sinh .
(2.123)
Poiche a = Q(c0 ) c0 , nel primo caso abbiamo a > 0, quindi una rotazione ortocrona,
conservante cio`e la classe di ogni vettore del genere tempo. La matrice delle componenti
di una rotazione ortocrona ha quindi la forma:
#
"
cosh sinh
j
[Qi ] =
.
(2.124)
sinh cosh
Nel secondo caso si ha una rotazione non ortocrona e la matrice corrispondente `e:
"
#
cosh
sinh
j
[Qi ] =
.
(2.125)
sinh
cosh
Il parametro che interviene in queste due rappresentazioni prende il nome di pseudoangolo della rotazione. Esso pu`
o variare da a +, ricoprendo tutte le rotazioni
ortocrone. Per = 0 si ha ovviamente Q = 1. La composizione di due rotazioni di
pseudoangolo 1 e 2 `e la rotazione di pseudoangolo 1 + 2 : lo si desume dalla (2.124)
utilizzando le propriet`
a elementari delle funzioni trigonometriche iperboliche. Sempre in
base a tali propriet`
a, si osserva che si pu`
o scegliere come parametro rappresentativo la
tangente iperbolica dello pseudoangolo,
= tanh =
sinh
,
cosh
1
[Qji ] = p
.
1 2
1
(2.126)