Você está na página 1de 14

Universidade Federal do Paraná 1◦ semestre 2015.

Algebra Linear, CM 005 Olivier Brahic

Lista de exercícios 7
Independência Linear.

Exercício 1: Determine se os seguintes vetores são linearmente independentes em R2 :


             
2 3 −2 1 2 1 −1
a) , , c) , , , e) , ,
1 2 1 3 4 2 1
         
2 4 −2 1 2
b) , , d) , , ,
3 6 1 −2 −4

Exercício 2: Determine se os seguintes vetores são linearmente independentes em R3 :


           
1 0 1 2 −2 4
a)  0 ,  1 ,  0 , d)  1 ,  −1 ,  2 ,
0 1 1 −2 2 −4
       
1 0 1 1
   
1 0
b)  0 ,  1 ,  0 ,  2 , e)  1 ,  2 ,
0 1 1 3 3 1
     
2 3 2
c)  1  ,  2 ,  2 ,
−2 −2 0

Exercício 3: Para cada um dos conjuntos de vetores no exercício 2, descreva geometricamente a


cobertura dos vetores dados.

Exercício 4: Determine se os seguintes vetores são linearmente independentes em R2×2 :


         
1 0 0 1 1 0 0 1 2 3
a) , , c) , , ,
1 1 0 0 0 1 0 0 0 2
     
1 0 0 1 0 0
b) , , ,
0 1 0 0 1 0

Exercício 5: Sejam x1 , . . . , xn vetores linearmente independentes em um espaço vetorial.

a) Se adicionarmos um vetor xn+1 à coleção, ainda teremos uma coleção linearmente independente de
vetores ? Explique.

b) Se eliminarmos um vetor, por exemplo x1 , da coleção, ainda teremos uma coleção linearmente
independente de vetores ? Explique.

1
Exercício 6: Sejam x1 , x2 , x3 vetores linearmente independentes em Rn , e seja:

y1 = x1 + x2 , y2 = x2 + x3 , y3 = x3 + x1 .

São y1 , y2 , y3 linearmente independentes ? Demostre sua resposta.

Exercício 7: Sejam x1 , x2 , x3 vetores linearmente independentes em Rn , e seja:

y1 = x2 − x1 , y2 = x2 + x1 + x3 , y3 = x3 + 2x1 .

São y1 , y2 , y3 linearmente independentes ? Demostre sua resposta.

Exercício 8: Determine se os seguintes vetores são linearmente independentes em P3 :

a) 1, x2 , x2 − 1. b) 2, x2 , x, 2x, 2x + 3. c) x + 2, x2 − 1.

Exercício 9: Para cada um dos itens seguintes, mostre que os vetores dados são linearmente indepen-
dentes em C[−1, 1]: Para cada um dos itens seguintes, mostre que os vetores dados são linearmente
independentes em C[−1, 1]:

a) cos πx, sin πx. b) x, ex , e2x c) x2 , ln(1+x2 ), 1+x2 d) x3 , |x3 |

Exercício 10: Demostre que qualquer conjunto finito de vetores que contém o vetor nulo deve ser
linearmente independente.

Exercício 11: Demostre que qualquer subconjunto não vazio de um conjunto de vetores linearmente
independentes {v1 , . . . , vn } é também linearmente independente.

Exercício 12: Seja A uma matriz m × n, mostre que se A tem vetores colunas linearmente indepen-
dentes, então N (A) = {0}.

Exercício 13: Seja A uma matriz 3 × 3 e sejam x1 , x2 , x3 vetores linearmente independentes em R3 .


Mostre que os vetores: y1 = Ax1 , y2 = Ax1 , y3 = Ax3 são linearmente independentes.

2
Correções

Correção do Exercício 1:
| |
a) Lembremos que os vetores v1 := 2, 1 e v2 := 3, 2 são linearmente independentes se e somente
se para escalares x1 , x2 ∈ R, temos a seguinte implicação:

x1 · v1 + x2 · v2 = 0R2 =⇒ x1 = x2 = 0.

Calculemos que a condição x1 · v1 + x2 · v2 = 0R2 é equivalente a:


(
2x1 + 3x2 = 0
     
2 3 0
x1 · v1 + x2 · v2 = 0R2 ⇐⇒ x1 · + x2 · = ⇐⇒
1 2 0 x1 + 2x2 = 0.

Logo v1 e v2 são linearmente independentes se e somente se o sistema à direita tem única solução
(x1 , x2 ) = (0, 0), o que é o caso pois a matriz de coeficientes tem determinante 4 − 3 = 1, diferente
de 0.
| |
b) Os vetores v1 := 2, 3 e v2 := 4, 6 não são linearmente independentes pois eles verificam a
relação não trivial:
2v1 − v2 = 0R2 .

Observação. Note que neste caso, temos:


(
2x1 + 3x2 = 0
     
2 4 0
x1 · v1 + x2 · v2 = 0R2 ⇐⇒ x1 · + x2 · = ⇐⇒
3 6 0 x1 + 2x2 = 0.

É fácil resolver o sistema para ver que ele tem soluções não triviais, pois o conjunto soluções é dado
por: S = {(x1 , x2 ) ∈ R2 | (x1 , x2 ) = α · (2, −1) onde α ∈ R}.
| | |
c) Os vetores v1 := −2, 1 , v2 := 1, 3 e v3 := 2, 4 não são linearmente independentes pois
verificam a seguinte relação não trivial:

2v1 − 10v2 + 7v3 = 0R2 .

Apesar de ser ’evidente’, esta relação é facilmente obtida resolvendo o sistema:


(
−2x1 + x2 + 2x3 = 0
x1 + 3x2 + 4x3 = 0.

Observação. Aqui, pode se argumentar simplesmente que 3 vetores em R2 não podem ser linear-
mente independentes pois R2 tem dimensão 2.

3
  
d) Os vetores −2, 1 , 1, −2 e 2, −4 não são linearmente independentes pois verificam a seguinte
relação não trivial:
0 · v1 + 2 · v2 − v3 = 0R2 .
Esta relação é facilmente obtida, ou por inspeção, ou resolvendo o sistema:
(
−2x1 + x2 + 2x3 = 0
x1 − 2x2 − 4x3 = 0.

Observação. Aqui também, pode se argumentar simplesmente que 3 vetores em R2 não podem ser
linearmente independentes pois R2 tem dimensão 2.
 
1 −1
e) A matriz tem determinante diferente de 0, logo o sistema:
2 1
(
x1 − x2 = 0
2x1 + x2 = 0
 
tem única solução (x1 , x2 ) = (0, 0). Segue que os vetores 1, 2 e −1, 1 são linearmente indepen-
dentes.

Observação. Aqui, pode-se concluir também resolvendo direitamente o sistema, mostrando que ele
tem conjunto solução S = {(0, 0)}. Porem, este método da mais contas.

Correção do Exercício 2:

a) Os vetores em R3 dados por v1 := 1, 0, 0 , v2 := 0, 1, 1 e v3 :=


  
1, 0, 1 são linearmente
independentes se e somente se temos a seguinte implicação:

x1 · v1 + x2 · v2 + x3 · v3 = 0R3 =⇒ x1 = x2 = x3 = 0,

onde x1 , x2 , x3 ∈ R são escalares.


Calculemos que a condição x1 · v1 + x2 · v2 + x3 · v3 = 0R3 é equivalente a:
       
1 0 1 0
x1 · v1 + x2 · v2 + x3 · v3 = 0R3 ⇐⇒ x1 · 0 + x2 · 1 + x3 · 0 = 0
0 1 1 0

x1 + x3 = 0

⇐⇒ x2 =0

x2 + x3 = 0.

Logo v1 , v2 e v3 são linearmente independentes se e somente se o sistema tem única solução


(x1 , x2 , x3 ) = (0, 0, 0), o que é o caso como é fácil verificar resolvendo.

4
b) Os vetores em R3 dados por v1 := 1, 0, 0 , v2 := 0, 1, 1 , v3 := 1, 0, 1 e v4 := 1, 2, 3 , são
   

linearmente independentes se e somente se temos a seguinte implicação:

x1 · v1 + x2 · v2 + x3 · v3 + x4 · v4 = 0R3 =⇒ x1 = x2 = x3 = x4 = 0,

onde x1 , x2 , x3 , x4 ∈ R são escalares.


Calculemos que a condição x1 · v1 + x2 · v2 + x3 · v3 + x4 · = 0R3 é equivalente a:
         
1 0 1 1 0
x1 · v1 + x2 · v2 + x3 · v3 + x4 · v4 = 0R3 ⇐⇒ x1 · 0 + x2 · 1 + x3 · 0 + x4 · 2 = 0
        
0 1 1 3 0

x1 + x3 + x4 = 0

⇐⇒ x2 + 2x4 = 0

x2 + x3 + 3x4 = 0.

Logo v1 , v2 , v3 e v4 são linearmente independentes se e somente se o sistema tem única solução


(x1 , x2 , x3 , x4 ) = (0, 0, 0, 0), o que não é o caso, pois tem conjunto solução:

S = {(x1 , x2 , x3 , x4 ) ∈ R4 | (x1 , x2 , x3 , x4 ) = α · (0, −2, −1, 1) onde α ∈ R}

Observação. Note pela sequencia que o conjunto solução admite uma variável livre.
 
2 3 2
c) A matriz  1 2 2 tem determinante diferentes de 0, logo o sistema:
−2 −2 0

 2x1 + 3x2 + 2x3 = 0

x1 + 2x2 + 2x3 = 0

−2x1 − 2x2 =0

  
tem única solução (x1 , x2 , x3 ) = (0, 0, 0). Segue que os vetores 2, 1, −2 , 3, 2, −2 , 2, 2, 0 , são
linearmente independentes.

Observação. Aqui, pode-se concluir também resolvendo direitamente o sistema, mostrando que ele
tem conjunto solução S = {(0, 0, 0)}. Porem, este método da mais contas.
    
2 −2 4
d) Os vetores v1 :=  1 , v2 := −1 e v3 :=  2  satisfazem a seguinte relação não trivial:
−2 2 −4

v1 − 2v2 + v3 = 0R3 ,

logo não são linearmente independentes.

5
Observação. Note que não é a unica relação que v1 , v2 , v3 satisfazem, por exemplo temos:
v1 − v2 = 0R3 , v2 + 2 · v3 = 0R3
Neste caso, resolvendo o sistema:

 2x1 − 2x2 + 4x3 = 0

x1 − x2 + 2x3 = 0

−2x1 + 2x2 − 4x3 = 0

obtemos um conjunto solução com duas variáveis livres:


S = {(x1 , x2 , x3 ) ∈ R3 | (x1 , x2 , x3 ) = (α, −α + β, 2β), onde α, β ∈ R}.
 
e) Os vetores 1, 1, 3 e 0, 2, 1 são linearmente independentes pois o sistema:

 x1
 =0
x1 + 2x2 = 0

3x1 + x2 = 0

tem única solução (x1 , x2 ) = (0, 0).

Correção do Exercício 3:
 
 rápida de argumentar é a seguinte. Os vetores v1 := 1,30, 0 , v2 := 0, 1, 1 e
a) A maneira mais
v3 := 1, 0, 1 são 3 vetores linearmente independentes (como vimos) no R que tem dimensão 3,
logo Cob{v1 , v2 , v3 } = R3 .
Pode-se argumentar também que Cob{v1 , v2 , v3 } = R3 da seguinte maneira, que talvez é mais
instrutiva. A matriz:  
1 0 1
0 1 0
0 1 1
tendo determinante diferente de zero, sabemos que para quaisquer escalares b1 , b2 , b3 ∈ R, o sistema:

x1 + x3 = b1

x2 = b2

x2 + x3 = b3 .

admite uma solução (sabemos também que esta solução é única, mas não se precisa aqui, so a
existência nos importa). Assim, vemos que para qualquer vetor b = (b1 , b2 , b3 ) ∈ R3 existem
escalares x1 , x2 , x3 ∈ R tais que:
x1 · v1 + x2 · v2 + x3 · v3 = b.
Segue que qualquer vetor de R3 é combinação linear de v1 , v2 , v3 , ou seja:
Cob{v1 , v2 , v3 } = R3 .

6
b) Lembremos que v1 , v2 , v3 , e v4 são os vetores em R3 dados por
   
v1 := 1, 0, 0 , v2 := 0, 1, 1 , v3 := 1, 0, 1 v4 := 1, 2, 3 .

Vimos que v1 , v2 , v3 são linearmente independentes em R3 , logo dim Cob{v1 , v2 , v3 , v4 } ≥ 3, e :

3 = dim R3 ≥ dim Cob{v1 , v2 , v3 , v4 } ≥ 3 ⇒ Cob{v1 , v2 , v3 , v4 } = R3 .

Pode ser justificado de maneira mais ’pedestre’ assim. Observe que para qualquer vetor b =
(b1 , b2 , b3 ) em R3 , b é combinação linear de v1 , v2 , v3 , v4 se e somante se o seguinte sistema admite
uma solução:
         
1 0 1 1 b1
x1 · v1 + x2 · v2 + x3 · v3 + x4 · v4 = b ⇐⇒ x1 · 0 + x2 · 1 + x3 · 0 + x4 · 2 = b2 
0 1 1 3 b3

x1 + x3 + x4 = b1

⇐⇒ x2 + 2x4 = b2

x2 + x3 + 3x4 = b3 .

Agora, segue do item a) que este sistema sempre tem soluções (com x4 = 0...). Segue que:

Cob{v1 , v2 , v3 , v4 } = R3 .
 
2 3 2
c) A matriz  1 2 2 tendo determinante diferente de 0, sabemos que, para qualquer triplo de
−2 −2 0
escalares b1 , b2 , b3 ∈ R, o seguinte sistema:

 2x1 + 3x2 + 2x3 = b1

x1 + 2x2 + 2x3 = b2

−2x1 − 2x2 = b3

admite uma solução (S = 6 ∅). Assim, vemos que para qualquer vetor b = (b1 , b2 , b3 ) ∈ R3 existem
escalares x1 , x2 , x3 ∈ R tais que:

x1 · v1 + x2 · v2 + x3 · v3 = b.

Segue que qualquer vetor de R3 é combinação linear de v1 , v2 , v3 , ou seja Cob{v1 , v2 , v3 } = R3 .


 
Aqui podemos  argumentar de outra maneira, assim: os vetores v1 = 2, 1, −2 , v2 = 3, 2, −2 e
v3 = 2, 2, 0 sendo linearmente independentes, Cob{v1 , v2 , v3 } tem dimensão 3, sendo um subes-
paço de R3 , conclua-se que Cob{v1 , v2 , v3 } = R3 .
  
d) Vimos que os vetores v1 := 2, 1, −2 , v2 := −2, −1, 2 e v3 := 4, 2, −4 são colineares entre
deles, pois temos por exemplo:

v1 + v2 = 0R3 , 2 · v1 − v3 = 0R3 .

7
logo parece lógico que eles cobram só uma reta em R3 , e que temos as seguinte igualdades de
subconjuntos em R3 :

Cob{v1 , v2 , v3 } = Cob{v1 , v2 } = Cob{v2 , v3 } = Cob{v3 , v1 } = Cob{v1 } = Cob{v2 } = Cob{v3 }


= {(b1 , b2 , b3 ) ∈ R3 | (b1 , b2 , b3 ) = λ · v1 , onde λ ∈ R}
= {(b1 , b2 , b3 ) ∈ R3 | (b1 , b2 , b3 ) = 2λ, λ, −2λ , onde λ ∈ R}


Para justificar isto de maneira rigorosa: consideremos b = (b1 , b2 , b3 ) ∈ Cob{v1 , v2 , v3 }, isso é, uma
combinação linear de v1 , v2 e v3 , então, por definição, b é da forma:

b = x1 · v1 + x2 · v2 + x3 · v3 .

onde x1 , x2 , x3 ∈ R são escalares. Usando as relações v2 = −v1 e v3 = 2v1 obtemos:

b = x1 · v 1 + x2 · v 2 + x3 · v 3 ,
= x1 · v1 − x2 · v1 − 2x3 · v1 ,
= (x1 − x2 + 2x3 ) · v1 .

Logo b é da forma b = λv1 onde λ = x1 − x2 + 2x3 ∈ R, isso é b ∈ Cob{v1 }. Segue que:

Cob{v1 , v2 , v3 } ⊂ Cob{v1 }.

A inlusão inversa Cob{v1 } ⊂ Cob{v1 , v2 , v3 } sendo evidente, concluamos que

Cob{v1 , v2 , v3 } = {(b1 , b2 , b3 ) ∈ R3 | (b1 , b2 , b3 ) = 2λ, λ, −2λ , onde λ ∈ R} = Cob{v1 }




e) É claro que dois vetores v1 := 1, 1, 3 e v2 := 0, 2, 1 so não podem gerar o R3 inteiro. Alem


 

disso, v1 e v2 sendo linearmente independentes, é claro também que Cob{v1 , v2 } é um plano em


R3 pois tem dimensão 2. Para descrever esse espaço, olhemos pela definição:

Cob{v1 , v2 } = {(b1 , b2 , b3 ) ∈ R3 | (b1 , b2 , b3 ) = x1 · v1 + x2 v2 , onde x1 , x2 ∈ R}


= {(b1 , b2 , b3 ) ∈ R3 | (b1 , b2 , b3 ) = (x1 , x1 + 2x2 , 3x1 + x2 ) onde x1 , x2 ∈ R}.

Agora, a descrição de Cob{v1 , v2 } acima não é muito satisfatória, pois dado um vetor (b1 , b2 , b3 ) ∈
R3 , ela não deixa claro se b pertence em Cob{v1 , v2 } ou não.
Mais satisfatória é a seguinte descrição: para determinar Cob{v1 , v2 }, temos que encontrar todos
os vetores (b1 , b2 , b3 ) ∈ R3 tal que o seguinte sistema:

 x1
 = b1
x1 + 2x2 = b2

3x1 + x2 = b3

8
seja consistente. Efetuando as operações em linhas (L3 → L3 − 3L1 =: L03 ) e (L2 → L2 − L1 =: L02 ),
pois (L02 → L02 − 2L03 ) obtemos o seguinte systema equivalente:
 
 x1
 = b1 x1
 = b1
x1 + 2x2 = b2 ⇐⇒ + 0 = b1 + b2 − 2b3
 
3x1 + x2 = b3 x2 = −3b1 + b3 .
 

Portanto, o sistema admite uma solução se e somente se b1 + b2 − 2b3 = 0. Segue que:

Cob{v1 , v2 } = {(b1 , b2 , b3 ) ∈ R3 | b1 + b2 − 2b3 = 0}

que determine um plano em R3 , como expectado.

Correção do Exercício 4: Determine se os seguintes vetores são linearmente independentes em R2×2 :


   
1 0 0 1
a) Aplicando a definição, os vetores v1 := e v2 := são linearmente independentes se
1 1 0 0
e somente se para escalares x1 , x2 ∈ R, temos a seguinte implicação:

x1 · v1 + x2 · v2 = 0M2 (R) =⇒ x1 = x2 = 0.

Calculemos que a condição x1 · v1 + x2 · v2 = 0M2 (R) é equivalente a:

     
1 0 0 1 0 0
x1 · v1 + x2 · v2 = 0R2 ⇐⇒ x1 · + x2 · =
1 1 0 0 0 0
     
x1 0 0 x2 0 0
⇐⇒ + =
x1 x1 0 0 0 0
   
x1 x2 0 0
⇐⇒ =
x1 x1 0 0
(
x1 = 0
⇐⇒
x2 = 0.

Logo v1 e v2 são linearmente independentes.


     
1 0 0 1 0 0
b) Aplicando a definição, os vetores v1 := , v2 := e v3 := são linearmente
1 1 0 0 1 0
independentes se e somente se para quaisquer escalares x1 , x2 , x3 ∈ R, temos a seguinte implicação:

x1 · v1 + x2 · v2 + x3 · v3 = 0M2 (R) =⇒ x1 = x2 = x3 = 0.

9
Calculemos que a condição x1 · v1 + x2 · v2 + x3 · v3 = 0M2 (R) é equivalente a:
       
1 0 0 1 0 0 0 0
x1 · v1 + x2 · v2 = 0R2 ⇐⇒ x1 · + x2 · + x3 · =
1 1 0 0 1 0 0 0
       
x1 0 0 x2 0 0 0 0
⇐⇒ + + =
x1 x1 0 0 x3 0 0 0
   
x1 x2 0 0
⇐⇒ =
x1 + x3 x1 0 0
 
x1
 =0 x1
 =0
⇐⇒ x2 = 0 ⇐⇒ x2 =0
 
x1 + x3 = 0. x3 = 0.
 

Portanto v1 , v2 e v3 são linearmente independentes.


     
1 0 0 1 2 3
c) Os vetores v1 := , v2 := e v3 := não são linearmente independentes pois
0 1 0 0 0 2
satifazem a seguinte relação não trivial:

2v1 + 3v2 − v3 = 0M2 (R) .

Correção do Exercício 5:

a) Se adicionarmos um vetor xn+1 à coleção, tem que discernir dois casos:

• se xn+1 ∈ Cob{x1 , . . . , xn } então a coleção {x1 , . . . , xn , xn+1 } não fica linearmente indepen-
dente. De fato, neste caso, xn é da forma xn+1 = λ1 x1 + · · · + λn xn , onde λ1 , . . . λn ∈ R
são escalares. Segue que x1 , . . . , xn , xn+1 não são linearmente independentes pois satisfazem
a seguinte relação:
λ1 x1 + · · · + λn xn + λn+1 xn+1 = 0V ,
onde λn+1 = −1. Note que a relação acima não é trivial pois λn+1 = −1 6= 0.
• se xn+1 ∈
/ Cob{x1 , · · · , xn } então a coleção {x1 , · · · , xn , xn+1 } fica linearmente independente.
De fato, sejam escalares λ1 , . . . , λn ∈ R tais que λ1 x1 + · · · + λn xn + λn+1 xn+1 = 0V . Então
necessariamente λn+1 = 0, pois caso contrario teríamos:

λ1 λn
xn+1 = x1 + · · · + xn ⇒ xn+1 ∈ Cob{x1 , . . . , xn },
λn+1 λn+1

o que é contrario a nossa hipótese. Segue de λn+1 = 0 que:

λ1 x1 + · · · + λn xn = 0V ,

logo λ1 = · · · = λn = 0 também, pois x1 , . . . , xn são linearmente independentes por hipótese.

10
b) Se eliminarmos um vetor, por exemplo x1 , a coleção {x2 , · · · , xn } fica linearmente independente.
De fato sejam escalares λ2 , . . . , λn ∈ R tais que λ2 x2 + · · · + λn xn = 0V . Em particular, temos:

λ1 x1 + · · · + λn xn = 0V ,

onde λ1 = 0. Os vetores x1 , . . . , xn sendo linearmente independentes, isto implica que λ1 = · · · =


λn = 0. Em particular λ2 = · · · = λn = 0. Portanto x2 , . . . , xn são linearmente independentes.

Correção do Exercício 6: Sejam λ1 , λ2 , λ3 ∈ R escalares tais que λ1 · y1 + λ2 · y2 + λ3 · y3 = 0V .


Então, usando as igualdades obtemos:

λ1 · y1 + λ2 · y2 + λ3 · y3 = 0V ⇐⇒ λ1 · (x1 + x2 ) + λ2 · (x2 + x3 ) + λ3 · (x3 + x1 ) = 0V


⇐⇒ (λ3 + λ1 ) · x1 + (λ1 + λ2 ) · x2 + (λ2 + λ3 ) · x3 = 0V .

Os vetores x1 , x2 , x3 sendo linearmente independentes, esta relação implica que λ1 , λ2 , λ3 satisfazem o


seguinte sistema: 
 λ3 + λ1 = 0,

λ1 + λ2 = 0,

λ2 + λ3 = 0.

Reolvendo o sistema obtemos que λ1 = λ2 = λ3 = 0. Portanto y1 , y2 , y3 são linearmente independen-


tes.

Correção do Exercício 7: Sejam λ1 , λ2 , λ3 ∈ R escalares tais que λ1 · y1 + λ2 · y2 + λ3 · y3 = 0V .


Então, usando as igualdades obtemos:

λ1 · y1 + λ2 · y2 + λ3 · y3 = 0V ⇐⇒ λ1 · (x2 − x1 ) + λ2 · (x2 + x1 + x3 ) + λ3 · (x3 + 2x1 ) = 0V


⇐⇒ (−λ1 + λ2 + 2λ3 ) · x1 + (λ1 + λ2 ) · x2 + (λ2 + λ3 ) · x3 = 0V .

Os vetores x1 , x2 , x3 sendo linearmente independentes, esta relação implica que λ1 , λ2 , λ3 satisfazem o


seguinte sistema: 
 −λ1 + λ2 + 2λ3 = 0,

λ1 + λ2 = 0,

λ2 + λ3 = 0.

Resolvendo o sistema obtemos por exemplo que (λ1 , λ2 , λ3 ) = (1, −1, 1) é solução não trivial. Portanto
y1 , y2 , y3 satisfazem a seguinte relação não trivial:

y1 − y2 + y3 = 0,

logo não são linearmente independentes.


Observação. A relação y1 − y2 + y3 = 0 era também fácil encontrar por inspeção. Pode observar
também que o resultado não depende do fato que x1 , x2 , x3 sejam linearmente independentes.

Correção do Exercício 8:

11
a) Os vetores 1, x2 e x2 − 1 em P3 não são linearmente independentes pois satisfazem a seguinte
relação não trivial:
1 − x2 + (x2 − 1) = 0.

b) Os vetores 2, x2 , x, 2x e 2x + 3 não são linearmente independentes, pois são 4 vetores no P3 , que


é um espaço de dimensão 3.
Outra maneira de argumentar é de encontrar uma relação não trivial. Por isso, calculemos que para
λ1 , λ2 , λ3 , λ4 ∈ R escalares temos:

2λ1 + λ2 x2 + λ3 x + λ4 (2x + 3) = 0P3 ⇐⇒ λ2 x2 (λ3 + 3λ4 )x(2λ1 + 3λ4 ) = 0P3



 −λ1 + λ2 + 2λ3 = 0,

⇐⇒ λ1 + λ2 = 0,

λ2 + λ3 = 0.

Resolvendo o sistema obtemos por exemplo que (λ1 , λ2 , λ3 ) = (1, −1, 1) é solução não trivial.
Portanto y1 , y2 , y3 satisfazem a seguinte relação não trivial:

y1 − y2 + y3 = 0,

logo não são linearmente independentes.

c) Sejam λ1 , λ2 ∈ R escalares tais que λ1 (x + 2) + λ2 (x2 − 1) = 0P3 , temos:

λ1 (x + 2) + λ2 (x2 − 1) = 0P3 ⇐⇒ λ2 x2 + λ1 x + (2λ1 − λ2 ) = 0P3




 λ2 = 0,
⇐⇒ λ1 = 0,

2λ1 − λ2 = 0.

O sistema tendo conjunto solução S = {(0, 0)}, conclua-se que x + 2 e x2 − 1 são linearmente indepen-
dentes.

Correção do Exercício 9:

a) O wronskiano vale W (cos πx, sin πx) = π, logo não se anula identicamente em [−1, 1], portanto
cos πx, sin πx são linearmente independentes.

b) O wronskiano vale W (x, ex , e2x ) = 2(x−1)e3x , logo não se anula identicamente em [−1, 1], portanto
x, ex e e2x são linearmente independentes.
−8x 3
c) O wronskiano vale W (x2 , ln(1 + x2 ), 1 + x2 ) = (1+x 2 )2 , logo não se anula identicamente em [0, 1],
2 2 2
portanto x , ln(1 + x ) e 1 + x são linearmente independentes.

12
d) Neste caso, o wronskiano vale W (x3 , |x3 |) = 0, ele se anula identicamente em [−1, 1] e não podemos
determinar se x3 , |x3 | são linearmente independentes ou não.
Voltando à definição, sejam λ1 , λ2 ∈ R escalares tais que λ1 x3 +λ2 |x3 | = 0, avaliando em x ∈ [−1, 0)
e x ∈ (0, −1], obtemos:
(
λ1 − λ2 = 0,
λ1 + λ2 = 0.

logo λ1 = λ2 = 0, agora pode-se concluir que x3 e |x3 | são linearmente independentes em [−1, 1].
Observação. Note que x3 e |x3 | são linearmente dependentes em C[0, 1] e em C[−1, 0] !

Correção do Exercício 10: Seja {v1 , . . . , vk } um conjunto de vetores em V tais que vk = 0V . Então
v1 , . . . , vk satisfazem a relação não trivial:

λ1 v1 + · · · + λn vn = 0V ,

onde λ1 = λn−1 = 0 e λn = 1, portanto são linearmente dependentes.

Correção do Exercício 11: Consideremos {v1 , . . . , vk } ⊂ {v1 , . . . , vn } um subconjunto de vetores


não vazio, onde {v1 , . . . , vn } são linearmente independentes.
Sejam λ1 , . . . , λk ∈ R escalares tais que λ1 v1 + · · · + λn vk = 0V , então temos:

λ1 v1 + · · · + λn vn = 0V ,

onde λn+1 = · · · = λn = 0. Os vetores {v1 , . . . , vn } sendo linearmente independentes, esta relação


implica que λ1 = · · · = λn = 0, em particular λ1 = · · · = λk = 0. Portanto {v1 , . . . , vk } são linearmente
independentes.

Correção do Exercício 12: Seja A uma matriz m × n, da forma:


 

A =  a1 · · · an 

onde a1 , ȧn ∈ Rm são vetores linearmente independentes. Por definição, N (A) = {x ∈ Rn | A · x =


0Rm }, ou seja:

x = (x1 , . . . , xn ) ∈ N (A) ⇐⇒ A · x = 0Rm


⇐⇒ x1 a1 + · · · + xn an = 0Rm

Os vetores a1 , . . . , an ∈ Rm sendo linearmente independentes, esta ultima equação implica que x1 =


· · · = xn = 0 logo x = 0V . Segue que N (A) ⊂ {0V }. A inclusão inversa sendo evidente, conclua-se que
N (A) = {0V }.
Observação. É fácil ver que de fato, N (A) = {0V } se e somente se as colunas de A são linearmente
independentes.

13
Correção do Exercício 13: Notemos X, Y ∈ M3 (R) as matrizes 3 × 3 dadas por:
   

X = x 1 x 2 x 3  Y = y1 y2 y3  .

Note que agora, a hipotese que y1 = A · x1 , y2 = A · x1 , e y3 = A · x3 se escreva simplesmente:

A · X = Y.

Podemos fazer qualquer um dos dois raciocinos que seguem para provar que y1 , y3 , y3 são linearmente
independentes:

• usando determinantes: a matriz A sendo invertível, det A 6= 0, e x1 , x2 , x3 sendo linearmente


independentes det X 6= 0. Logo:

A·X = Y
⇒ det(A) · det(X) = det Y ⇒ det(Y ) 6= 0.
| {z } | {z }
6=0 6=0

o que implica que y1 , y2 , y3 são linearmente independentes.

• usando algebra matricial: sejam λ1 , λ2 , λ3 escalares tais que λ1 y1 +λ2 y2 +λ3 = 0R3 e notemos
L a matriz linha L = (λ1 , λ2 , λ3 ) ∈ M(R)1,3 . Então temos:

λ1 y1 + λ2 y2 + λ3 y3 = 0R3 ⇐⇒ Y · L = 0R3 .

Os vetores x1 , x2 , x3 sendo linearmente independentes, a matrix X é invertível, logo:

Y · L = 0R3 ⇐⇒ A · X · L = 0R3
−1
⇐⇒ A · A · X · L = A−1 · 0R3
⇐⇒ X · L = 0R3
−1 −1
⇐⇒ X ·X · L = X −1 · 0R3
⇐⇒ L = 0R3 .

Portanto y1 , y2 , y3 são linearmente independentes.

Observação. É fácil generalizar este resultado a n vetores x1 , . . . , xn linearmente independentes no


Rn , e para qualquer matriz A ∈ Mn (R) invertível.

Referências
[1] Steven J. Leon, Álgebra Linear com aplicações, 8a edição, LTC 2011.

14

Você também pode gostar