Você está na página 1de 3

Álgebra Linear Aplicada

Marta de Fátima Severiano de Oliveira


April 2022

1 Exercı́cios
Exercı́cio 1.1 Provar que o teorema do núcleo e da imagem, isto é, para uma
matriz Am×n , n = dim(Ker(A)) + dim(Im(A)).

À toda transformação linear A : E → F associa-se dois subespaços vetoriais


essenciais: o núcleo de A, que é um subespaço de E, e a imagem de A, que é um
subespaço de F . Entendemos por imagem de A, o subconjunto Im(A) ⊂ F ,
formado por todos os vetores w = Av ∈ F que são imagens de elementos de E
pela transformação A. Já o núcleo Ker(A) da transformação linear A : E → F
é o conjunto dos vetores v ∈ E tais que Av = 0.

Teorema do Núcleo e da Imagem


Sejam E, F espaços vetoriais de dimensão finita. Para toda transformação
linear A : E → F tem-se dim E = dim N (A) + dim Im(A).
Primeiramente, provaremos o seguinte: Se {Au1 , . . . , Aup } é uma base de
Im(A) e {v1 , . . . , vq } é uma base de Ker(A), então {u1 , . . . , up , v1 , . . . , vq } é
uma base de E.
De fato, se tivermos α1 u1 + · · · + αp up + β1 v1 + βq mvq = 0, então, aplicando
o operador A, obtemos que

α1 Au1 + · · · + αp Aup = 0. (1)

Como Au1 , . . . , Aup são linearmente independentes, concluı́mos que α1 =


· · · = αp = 0. Portanto, 1 se reduz a

β1 v1 + · · · + βq vq = 0.
Porém, v1 , . . . , vq também são linearmente independentes, deduzimos que
β1 = · · · = βq = 0. Portanto, u1 , . . . , up , v1 , . . . , vq são linearmente indepen-
dentes.
Agora, tomemos um vetor arbitrário w ∈ E. Dado que Aw ∈ Im(A),
escrevemos

A[w − (α1 u1 + · · · + αp up )] = 0.

1
Logo, w − (α1 u1 + · · · + αp up ) pertence ao núcleo de A. Portanto, tal vetor
pode ser expresso como combinação linear dos elementos {v1 , . . . , vq }. Por fim,

w − (α1 u1 + · · · + αp up ) = β1 v1 + · · · + βq vq ,
ou seja, w = α1 u1 + · · · + αp up + β1 v1 + · · · + βq vq . Com isso, provamos que
os vetores u1 , . . . , up , v1 , . . . , vq geram E e, então, constituem uma base deste.

A matriz de uma transformação linear


Se quisermos definir uma transformação linear A : Rn → Rm , para cada
j = 1, . . . , n, um vetor v = (a1j , a2j , . . . , amj ) ∈ Rm e definimos vj = A · ej
como a imagem do j-ésimo vetor da base pela transformação linear A, onde
ej = (0, . . . , 1, . . . , 0). Daı́, determina-se a imagem A · v de qualquer vetor
v = (x1 , . . . , xn ) ∈ Rn . Portanto, com v = x1 e1 + · · · + xn en :
 
n
X X n
X
A·v = a1j xj , a2j xj , . . . , amj xj  ,
j=1 j=1 j=1

isto é,

A(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , ym ),
onde

y1 = a11 x1 + a12 x2 + · · · + a1n xn

y2 = a21 x1 + a22 x2 + · · · + a2n xn

..
.

ym = am1 x1 + am2 x2 + · · · + amn xn


(2)

Em suma, uma transformação linear A : Rn → Rm é determinado por uma


matriz a = [aij ] ∈ M (m × n).
Os vetores-colunas dessa matriz são as imagens A · ej dos vetores da base
canônica de Rn . De maneira análoga, os vetores linha são a imagem de AT · ei
da base canônica de Rm .

Conclusão

2
Não é difı́cil notar que podemos transformar uma transformação linear
A : E ⊂ Rn → F ⊂ Rm pode ser transformada em uma matriz Am×n e vice-
versa. Assim, como corolário, o teorema do núcleo e da imagem para trans-
formações lineares vale também para matrizes. O restante fica evidente com a
prova do exercı́cio abaixo.

Exercı́cio 1.2 Provar que para uma matriz Am×n , a dimensão do espaço linha
é igual a dimensão do espaço coluna, que é, por sua vez, a dimensão da imagem
de A, denominada rank (ou posto) de A.

A definição de posto
Seja A : E → F uma transformação linear entre espaços vetoriais finitos.
Definimos o posto de A como a dimensão de sua imagem. Pelo Teorema do
Núcleo e da Imagem, é notável que dim Im(A) ≤ dim E. Além disso, é óbvio
que dim Im(A) ≤ dim F . Podemos, também, concluir que o posto de A é igual
à dimensão de E se, e somente se, A é injetiva e será igual à dimensão de F se,
e somente se, A é sobrejetiva.

Bases de um espaço vetorial


Uma base de um espaço vetorial E é um conjunto B ⊂ E linearmente
independente que gera E. Logo, todo vetor v ∈ E se exprime, de forma única,
como combinação linear v = α1 v1 + · · · + αm vm de elementos v1 , . . . , vm de base
B. Suponhamos, sem perda de generalidade, n < m e que as n colunas tomadas
sejam linearmente independentes.
Considerando uma matriz Am×n : E → F como uma transformação linear,
teremos um sistema idêntico a 2. Tomemos xj = A · ej como a j-ésima coluna
da matriz A. Admita que A1 = {y1 , . . . , yn } e A2 = {yn+1 , . . . , ym }. Queremos
provar que yj ∈ A2 é uma combinação dos elementos de A1 .
Suponhamos que existam γ1 , . . . , γm tais que

yj − (γ1 y1 + . . . γn yn ) = 0.
Ou seja,

[aj1 − (γ1 a11 + . . . γn a1n )]x1 + · · · + [ajn − (γ1 an1 + · · · + γn ann )]xn = 0.

Mas, {x1 , . . . , xn } são linearmente independentes, logo yj só pode ser escrito
como uma combinação da base que gera A1 .

2 Bibliografia
[1] Elon Lages Lima. Álgebra Linear.

Você também pode gostar