Escolar Documentos
Profissional Documentos
Cultura Documentos
2):
Propriedades de uma matiz escalonada reduzida por linhas:
Se uma linha não consistir inteiramente de zeros, então o primeiro número não nulo da linha é um
1 e é chamado de pivô.
Se existirem linhas constituídas inteiramente de zeros, então elas são agrupadas nas linhas
inferiores da matriz.
Em quaisquer duas linhas sucessivas que não consistem só em zeros, o pivô da linha inferior
ocorre mais à direita do que o pivô da linha superior.
Cada coluna que contém um pivô tem zeros nas demais entradas.
Exemplo Importante: Sistemas lineares em três incógnitas
a) A última equação (0 x +0 y +0 z=1) torna o sistema inconsistente, pois ela não é
1 000
b)
[ ] 0
0
1
120
001
0 3 −1
satisfeita por nenhum valor de x , y ou z .
[ ] 0
0
1−4 2
0 0 0
que os sistema linear corresponde apenas às equações x +3 z=−1 e
y−4 z=2. Tendo em vista que x e y são os pivôs da matriz, eles são as
variáveis líderes, sedo z a variável livre. Assim, podemos resolver o
sistema para as variáveis líderes, em função das livres: x=−1−3 z e y=2+ 4 z . Como z é tido
como um parâmetro nessas equações, podemos atribuir um valor arbitrário t a ele. Dessa forma,
teremos as seguintes equações paramétricas (soluções do sistema): x=−1−3 t , y=2+ 4 t e z=t .
Para qualquer valor de t haverá uma solução.
c) O m i t i n d o a s e q u
1 −5 1 4
[0 0 00
0 0 00 ]
equação x−5 y + z=4. Como x é o pivô, podemos converter tal equação para a
equação paramétrica x=5 y−z + 4. Atribuindo os valores s e t aos parâmetros
y e z , respectivamente, teremos o seguinte conjunto solução:
x=4+5 s−t , y=s e z=t .
Definição: “se um sistema linear tem uma infinidade de soluções, então um conjunto de equações
paramétricas é denominado uma solução geral do sistema se, a partir dessas equações, puderem ser
obtidas todas as soluções pela substituição dos parâmetros por valores numéricos”.
Método de Eliminação de Gauss-Jordan:
1. Localizamos a coluna mais à esquerda que não seja constituída inteiramente de zeros.
2. Permutamos a primeira linha com uma outra linha, se necessário, para obter uma entrada nula ao
todo da coluna encontrada no passo 1.
3. Se a entrada que agora está no topo da coluna encontrada no passo 1 é a , multiplicamos a
primeira linha inteira por 1/a para introduzir um pivô.
4. Somamos múltiplos convenientes da primeira linha às linhas inferiores para obter zeros em todas
as entradas abaixo do pivô.
5. Agora, desconsideramos a primeira linha da matriz e repetimos o processo para a matriz
resultante. Fazemos isso até a matriz ficar na forma escalonada.
6. Após a matriz chegar a forma escalonada, tomamos a última linha não nula da matriz e somamos
múltiplos convenientes de cada linha às linhas superiores para introduzir zeros acima dos líderes. A
matriz resultante estará na forma escalonada reduzida por linhas.
Sistema Homogêneo: um sistema é dito homogêneo se os
termos constantes são todos zero, ou seja,
Cada sistema de equações lineares homogêneo é
… + a1 n x nconsistente,
=0 por todos esses sistemas têm
[
a11 x 1+ a12 x 2 +¿ a21 x 1 +a22 x2 +¿
⋮ ⋮ ¿
… + a2 n x nx=0
1=0 , x
+a x
]
mn2=0n , … , x n =0
=0 como uma solução.
¿ denominada solução trivial ou solução nula. Quaisquer
outras soluções são ditas não triviais. Como um sistema homogêneo sempre contém a solução trivial,
Essa solução é
[]
0,1
pelos serviços.
[]
0,3 []
onde x 1 0,2 representa as frações consumidas pela manufatura, x 2 0,5 , pela agricultura e, x 3 0,3 ,
0,4
Com isso, o vetorC x é denominado vetor demanda intermediária da economia. Uma vez
atendida a demanda intermediária, a porção da produção que resta para satisfazer as necessidades da
demanda externa é x−C x . Assim, tendo d como o vetor demanda externa, x deve satisfazer
x−C x=d ,
onde x representa a quantidade produzida e C x a demanda intermediária. Dessa forma, temos
( I −C ) x=d ,
onde ( I −C ) é a matriz de Leontief e ( I −C ) x=d é a equação de Leontief.
Generalizando o exemplo: considerando n setores produtivos:
c11 c 12 ⋯ c1 n x1 d1
[
c c
C= 21 22
⋮ ⋮
c 31 c 32
⋯ c2 n
¿⋮
⋯ c nn] [] []
, x=
x2
⋮
xn
, d=
d2
⋮
dn
Sabendo que nenhuma das entradas são não negativas e
c ij =¿ valor monetário do produto do i-ésimo setor que é necessário para o j -ésimo setor produzir
um produto no valor de uma unidade monetárias.
x i=¿ valor monetário do produto do i-ésimo setor.
d i=¿ valro monetário do produto do i-ésimo setor que é necessário para atender a demanda do
setor aberto.
OBS.: o j -ésimo vetor coluna de C contém os valores monetários que o j -ésimo setor necessita dos
outros setores para produzir um produto no valor de uma unidade monetária, e que o i -ésimo vetor
linha de C contém os valores monetários exigidos do i -ésimo setor pelos outros setores para que cada
um deles possa produzir um produto no valor de uma unidade monetária.
Teorema: Se C for a matriz de consumo de uma economia aberta e se todas as somas das entradas
de colunas forem menores do que 1, então a matriz I −C é invertível, as entradas de ( I −C)−1 são não
negativas e a economia é produtiva.
Decomposição LU (9.1): método de resolução de sistemas lineares de n equações e n incógnitas que
tem por base a fatoração da matriz de coeficientes num produto de uma matriz triangular inferior (L) e uma
superior (U).
Método da Decomposição LU:
1. Reescreva o sistema A x=b como LU x=b.
2. Defina uma nova matriz y de tamanho n x 1 como U x= y .
3. Use U x= y para reescrever LU x=b como L y=b e resolva esse sistema em y .
4. Substitua y em U x= y e resolva em x .
Teorema: se uma matriz A pode ser reduzida à forma escalonada por linhas U com eliminação
gaussiana sim permuta de linhas, então A pode ser fatorada como A=LU , em que L é uma matriz
triangular inferior.
Prova: Se for possível reduzir uma matriz quadrada A à forma escalonada reduzida por linhas com
eliminação gaussiana, sem permuta de linhas, então A possui decomposição LU , não necessariamente
única. Para observar isso, consideremos uma matriz quadrada A que tenha sido reduzida por operações
elementares com as linhas, e sem permutas de linhas, à forma escalonada por linhas U . Essas operações
podem ser efetuadas pela multiplicação à esquerda de uma sequência apropriada de matrizes
elementares E1 , E2 ,… , E k tais que Ek … E2 E1 A=U , que é o mesmo que A=E−1 −1 −1
1 E2 … Ek U . Tomando
L=E−1 1 E 2 … E k , temos que A=LU . Note que, por ser uma matriz escalonada por linhas, U é uma matriz
−1 −1
triangular superior. Por outro lado, L é uma matriz triangular inferior, haja vista que ela é dada pelo produto
de matrizes elementares que foram obtidas sem permutação de linhas, onde cada E j resulta da soma de
um múltiplo escalar de uma linha de uma matriz identidade a uma linha inferior, ou da multiplicação de
uma linha de uma matriz identidade por um escalar não nulo, o que faz com que, em ambos os casos, a
matriz E jresultante seja triangular inferior e, portanto, E−1
j também, e, portanto, L também.
Procedimento para construir uma decomposição LU :
1. Reduza à forma escalonada pro linhas U por eliminação gaussiana sem troca de linhas, mantendo
armazenados os multiplicadores utilizados para introduzir os zeros debaixo dos pivôs.
2. Em cada posição ao longo da diagonal principal de L, coloque o recíproco do multiplicador que
introduziu o pivô naquela posição em U .
3. Em cada posição abaixo da diagonal principal de L, coloque o negativo do multiplicador utilizado
para introduzir o zero naquela posição em U .
4. Forme a decomposição LU .
Decomposição LDU : caso haja necessidade de haver simetria entre as matrizes triangulares inferior
e superior, ou seja, de a matriz triangular superior possuir entradas iguais a 1 na sua diagonal principal,
basta “deslocar” as entradas da diagonal principal de L para uma matriz diagonal D e escrever L como
L=L ' D, onde L ' é uma matriz triangular inferior de diagonal principal composta por números 1 e D é
uma matriz diagonal com a diagonal principal contendo os valores iniciais da diagonal principal de L.
Como fazer isso:
a11
[ ]
0 0
a11
a11 0 0 a 11 0 0
[ a21 a 22
a31 a 32 ]
0 =
a33
a 21
a11
a 31
a22
a22
a32
0
a33
[ 0 a 22 0
0 0 a33 ]
a11 a22 a33
L=L' D
Assim, podemos decompor a matriz A como A=LDU , onde L é a matriz triangular inferior de diagonal
principal composta por números 1, D é uma matriz diagonal e U é uma matriz triangular superior de
diagonal principal composta por números 1.
Decomposição PLU : para ser possível decompor uma matriz quadrada A em LU realizando o trocas
de linhas no processo de escalonamento, basta pré-processar a matriz A por uma matriz Q , tal que Q
é produto das matrizes elementares que produzem as permutações de linhas de A . Assim, o produto
QA pode ser decomposto como QA= LU . Como a matriz Q é invertível, temos que A=Q−1 LU . Tendo
P=Q −1, temos que A=PLU .
Espaços Vetoriais (4.1): para que exista um espaço vetorial, um grupo de objetos deve atender aos dez
axiomas abaixo.
Axiomas: seja V um conjunto não vazio qualquer de objetos no qual estejam definidas duas
operações, a adição e a multiplicação por escalares. Por adição entendemos uma regra que associa
para cada par de objetos u e v em V um objeto u+ v , denominado soma de u com v; por multiplicação
por escalar entendemos uma regra que associa a cada escalar a e cada objeto u em V um objeto a u,
denominado múltiplo escalar de u por a . Se os axiomas seguintes forem satisfeitos por todos os
objetos u, v e w em V e quaisquer escalares a e b , diremos que V é um espaço vetorial e que os
objetos de V são vetores.
1. Se u e v são objetos em V , então u+ v é um objeto em V .
2. u+ v=v+u
3. u+ ( v+ w ) =( u+v ) + w
4. Existe um objeto 0 em V , denominado vetor nulo de V , ou vetor zero, tal que
0+u=u+0=u, com qualquer u em V .
5. Dado qualquer u em V , existe algum objeto −u, denominado negativo de u, tal que
u+ (−u )=(−u ) +u=0.
6. Se a dor qualquer escalar e u um objeto em V , então a u é um objeto em V .
7. a ( u+ v )=a u+ a v
8. ( a+ b ) u=a u+ bu
9. a ( b u ) =( ab ) u
10. 1 u=u
Demonstração de que um conjunto com duas operações é um espaço vetorial:
1. Identifique o conjunto V de objetos que serão os vetores.
2. Identifique as operações de adição e multiplicação por escalar.
3. Verifique a validade dos Axiomas 1 e 6; ou seja, que a soma de dois vetores em V produz um vetor
em V , e que a multiplicação de um vetor em V por um escalar também produz um vetor em V . O
axioma 1 é denominado fechamento na adição e, o 6, fechamento no produto escalar.
4. Confirme que valem os outros 8 axiomas.
Teorema: sejam V um espaço vetorial, u um vetor em V e a um escalar, então
1. 0 u=0 3. (−1 ) u=−u
2. a 0=0 4. Se a u=0, então a=0 ou u=0.
Teorema: seja S={w 1 , w 2 , … , w r } um conjunto não vazio de vetores num espaço vetorial V .
1. O conjunto W de todas as combinação lineares possíveis de vetores em S é um sibespaço de V .
2. O conjunto W da parte 1 é o “menor” subespaço de V que contém todos os vetores de S, no
sentido que qualquer outro subespaço de V que contenha todos aqueles vetores contém W .
Prova:
1. Seja W o conjunto de todas as combinações lineares possíveis de vetores em S. Devemos mostrar
que W é fechado na adição e na multiplicação por escalar. Para provar o fechamento na adição,
sejam u=c 1 w 1+ c 2 w 2+ …+c r w r e v=k w 1+ k 2 w2 +…+ k r w r dois vetores em W . Segue que sua
soma pode ser escrita como u+ v=( c ¿ ¿1+ k 1)w 1+(c ¿ ¿ 2+k 2 )w 2 +…+(c ¿ ¿ r +k r )w r ¿¿ ¿ que é uma
combinação linear dos vetores em W . Assim, W é fechado na adição. De maneira análoga pode-se
provar o fechamento na multiplicação por escalar.
2. Seja W ' um subespaço qualquer de V que contenha os vetores em S. Como W ' é fechado na
adição e na multiplicação por escalar, contém todas as combinações lineares de vetores em S e,
portanto, contém W .
Definição: dizemos que o subespaço de um espaço vetorial V que é formado como todas as
combinações lineares possíveis de vetores de um conjunto não vazio S é gerado por S, e dizemos que
os vetores em S geram esse subespaço. Assim, se S={w 1 , w 2 , … , w r }, denotamos o gerado de S por
ger {w 1 , w 2 , … , w r } ou ger ( S).
Teorema - Espaços de soluções de sistemas homogêneos: as soluções de um sistema linear
homogêneo A x=0 em n incógnitas é um subespaço de Rn.
Prova: seja W o conjunto de soluções do sistema. O conjunto W não é vazio porque contém pelo
menos a solução trivial x=0 . Para mostrar que W é um subespaço de Rn , precisamos mostrar que é
fechado na adição e na multiplicação por escalar. Para isso, sejam x 1 e x 2 dois vetores em W . Como
esses vetores são soluções de A x=0, temos A x 1=0 e A x 2=0. Segue dessas equações e da
propriedade distributiva da multiplicação matricial, que A ( x 1+ x2 ) =A x1 + A x 2=0+ 0=0 , de modo que W
é fechado na adição. Analogamente, se k for um escalar qualquer, então A ( k x 1 )=kA x 1=k 0=0, de
modo que W ´w fechado na multiplicação por escalar.
OBS.: enquanto um conjunto das soluções de cada sistema homogêneo de m equações e n incógnitas
é um subespaço de Rn, nunca é verdade que o conjunto das soluções de um sistema não homogêneo
de m equações e n incógnitas seja um subespaço de Rn . Há dois cenários possíveis: primeiro, o
sistema pode não ter quaisquer soluções; e segundo, se houver soluções, então o conjunto de
soluções não será fechado nem na adição, nem na multiplicação por escalar.
'
Teorema: se S={v 1 , v 2 , … , v r } e S ={w 1 , w 2 , … , wr } são conjuntos não vazio de vetores num espaço
vetorial V , então ger { v 1 , v 2 ,… , v r }=ger {w1 , w2 , … , wr } se, e só se, cada vetor em S é uma
combinação linear dos vetores em S ' , e cada vetor em S ' é uma combinação linear dos vetores em S.
Analogamente, se K j ≠ 0 com algum j=2 ,3 , … , r , então v j pode ser escrito como uma combinação
linear dos outros vetores em S. Reciprocamente, suponha que pelo menos um dos vetores em S
possa ser expresso como uma combinação linear dos outros vetores.
2. Supondo que S seja linearmente independente, a equação k 1 v 1 +k 2 v 2+ …+k r v r=0 pode ser
satisfeita apenas se os escalares k 1 , k 2 , … , k r forem todos nulos, pois, apenas desta maneira não é
possível escrever um vetor em função de outro, como no item anterior.
Teorema:
1. Um conjunto finito que contenha 0 é linearmente dependente.
2. Um conjunto de exatamente um vetor é linearmente independente se, e só se, esse vetor não é 0 .
3. Um conjunto de exatamente dois vetores é linearmente independente se, e só se, nenhum dos dois
vetores é um múltiplo escalar do outro.
Teorema: seja S={v 1 , v 2 , … , v r } um conjunto de vetores em Rn . Se r >n , ou seja, os vetores têm
menos componentes que o número total de vetores, então S é linearmente dependente.
Prova: suponha que v1 =( v 11 , v 12 , … , v 1 n) , v 2=( v 21 , v 2 2 ,… , v 2n ), v r=(v r 1 , v r 2 , … , v r n ) e considere a
equação k 1 v 1 +k 2 v 2+ …+k r v r=0 . Expressando ambos os lados dessa equação em termos dos
componentes e igualando os componentes correspondentes, obtemos o sistema
v1 1 k 1 +v 2 1 k 2 +…+ v r 1 k r=0
v1 2 k 1 +v 2 2 k 2 +…+ v r 2 k r =0
⋮+⋮++⋮=0
v1 n k 1 + v 2n k 2 +…+ v r n k r =0
Isso é um sistema homogêneo de n equações nas r incógnitas k 1 , … , k r . Como r >n , segue que o
sistema tem soluções não triviais. Portanto, S={v 1 , v 2 , … , v r } é linearmente dependente.
Definição Importante: se f 1=f 1 ( x ) , f 2=f 2 ( x ) , … , f n=f n ( x ) forem funções n−1 vezes deriváveis no
intervalo (−∞ , ∞), então o determinante
f 1( x ) f 2(x) ⋯ f n(x)
|
W ( x )= f 1 ' ( x )
⋮
(n−1)
f 2' (x)
⋮
(n−1)
f 1 ( x ) f 2 ( x) ⋯
⋯ f n'(x)
¿⋮
f (n−1)
n (x )
é denominado wronskiano de f 1 , f 2 , … , f n.
|
Teorema: se as funções f 1 , f 2 , … , f n tiverem n−1 derivadas contínuas no intervalo (−∞ , ∞), e se o
wronskiano dessas funções não for identicamente zero em (−∞ , ∞), ou seja, se houver alguma
situação em que o wronskiano não se iguala a zero, então essas funções formam um conjunto
linearmente independente de vetores em C (n−1) (−∞ , ∞).
Dimensão (4.5):
Teorema: todas as bases de um espaço vetorial de dimensão finita têm o mesmo número de vetores.
Teorema: sejam V um espaço vetorial de dimensão finita e {v 1 , v 2 , … , v n } uma base qualquer de V .
1. Um conjunto com mais de n vetores é linearmente dependente.
2. Um conjunto com menos de n vetores não gera V .
Prova:
1. Seja S '={w 1 , w 2 , … , w r } um conjunto qualquer de m vetores em V , com m>n. Queremos mostrar
que S ' é linearmente dependente. Como S={v 1 , v 2 , … , v r } é uma base, cada w i pode ser
expresso como uma combinação linear dos vetores m em S, digamos,
w 1=a11 v 1+ a21 v 2+ …+v n 1 v n
w 2=a12 v 1 +a2 2 v 2 +…+ an 2 v n
⋮ ⋮⋮ ⋮
w m=a1 m v 1+ a2 m v 2 +…+a n m v n
Para mostrar que S ' é linearmente dependente, devemos encontrar escalares k 1 , k 2 , … , k m não todos
zero, tais que k 1 w 1+ k 2 w2 +…+ k m wm =0. Dessa forma, temos
( k 1 a 11 +k 2 a1 2 +…+k m a1 m ) v 1 + ( k 1 a2 1 +k 2 a22 +…+ k m a2 m ) v 2 +…+ ( k 1 an 1+ k 2 an 2 +…+k m an m ) v n =0. Como
essa equação apresenta mais incógnitas do que equações, a prova está completa, pois há soluções
não triviais.
2. Seja S '={w 1 , w 2 , … , w r } um conjunto qualquer de m vetores em V , com m<n. Queremos mostrar
que S ' não gera V . Faremos isso mostrando que a suposição de que S ' gere V leva a uma
contradição da independência linear de {v 1 , v 2 , … , v r }. Se S ' gera V , então cada vetor em V é uma
combinação linear dos vetores em S ' . Em particular, cada vetor vi da base é uma combinação
linear dos vetores em S ' , digamos,
v1 =a11 w 1+ a21 w2 +…+ v m 1 w m
v 2=a12 w1 +a2 2 w2 +…+ am 2 wm
⋮ ⋮⋮ ⋮
w m=a1 n w1+ a2 n w2 +…+ am n wm
Para obter nossa contradição mostraremos que existem escalares k 1 , k 2 , … , k n não todos zero, tais
que k 1 v 1 +k 2 v 2+ …+k n v n =0. No entanto, se notarmos as duas equações deste item e as duas do
intem anterior, perceberemos que elas se assemelham. Assim,
a 11 k 1+ a12 k 2+ …+v 1 n k n =0
a 21 k 1 +a22 k 2 +…+ a2 n k n=0
⋮ ⋮⋮ ⋮
a n1 k 1 +a n 2 k 2 + …+ amn k n=0
Esse sistema tem mais incógnitas do que equações e, portanto, tem soluções não triviais.
Definição: a dimensão de um espaço vetorial de dimensão finita V é denotada por dim (V ) e é
definida como o número de vetores numa base de V . Além disso, definimos o espaço vetorial nulo
como tendo dimensão zero.
Teorema – mais/menos: seja S um conjunto não vazio de vetores num espaço vetorial V .
1. Se S for um conjunto linearmente independente e se v for um vetor em V que está fora do ger ( S),
então o conjunto S ∪ {v } que resulta do acréscimo de v a S ainda é linearmente independente.
2. Se v for um vetor em S que pode ser expresso como combinação linear dos outros vetores de S, e
se S−{v } denotar o conjunto obtido removendo v de S, então S e S−{v } geram o mesmo espaço,
ou seja, ger ( S )=ger ( S−{ v } ).
Prova:
1. Suponha que S={v 1 , v 2 , … , v r } seja um conjunto linearmente independente de vetores em V , e
que v seja um vetor em V que está fora do ger (S). Para mostrar que S' ={v 1 , v 2 , … , v r , v } é um
conjunto linearmente independente, devemos mostrar que os únicos escalares que satisfazem a
equação k 1 v 1 +k 2 v 2+ …+k r v r +k r +1 v=0 são k 1=k 2=…=k r=k r +1=0. Mas certamente temos
k r+1=0, pois, caso contrário, poderíamos resolver tal equação em v como uma combinação linear
v1 , v 2 , … , v r, contradizendo a nossa suposição de que v está fora do ger ( S). Assim, podemos
simplificar a equação para k 1 v 1 +k 2 v 2+ …+k r v r=0 , o que implica, pela independência linear de
{v 1 , v 2 , … , v r }, que k 1=k 2=…=k r=0.
2. Suponha que S={v 1 , v 2 , … , v r } seja um conjunto de vetores em V e suponha que v r é uma
combinação linear de v 2 , … , v r −1 , digamos, v r=c 1 v 1 +c 2 v 2+ …+c r −1 v r −1. Queremos mostrar que se
v r for removido de S, então o conjunto restante {v 1 , v 2 , … , v r −1 } ainda gera ger ( S), ou seja,
devemos mostrar que cada vetor w em ger ( S) pode ser expresso como uma combinação linear de
{v 1 , v 2 , … , v r −1 }. Mas se w for um vetor em ger ( S), então w pode ser expresso na forma
w=k 1 v1 + k 2 v 2+ …+k r −1 v r−1+ k r v r ou, então,
w=k 1 v1 + k 2 v 2+ …+k r −1 v r−1+ k r ( c 1 v1 +c 2 v 2 +…+ cr −1 v r−1), o que dá w como uma combinação
linear de v1 , v 2 , … , v r−1.
Teorema: sejam V um espaço vetorial de dimensão n e S um conjunto em V com exatamente n
vetores. Então S é uma base de V se, e só se, S gera V ou S é linearmente independente.
Prova: suponha que S tenha exatamente n vetores e que gere V . Para provar que S é uma base,
devemos mostrar que S é um conjunto linearmente independente. Se esse não for o caso, então algum
vetor v em S é uma combinação linear dos demais vetores. Removendo esse vetor de S, o conjunto
restante de n−1 vetores ainda gera V . Mas isso é impossível, pois nenhum conjunto com menos do
que n vetores pode gerar um espaço vetorial de dimensão n . Assim, S é linearmente independente.
Suponha que S tenha exatamente n vetores e que seja um conjunto linearmente independente. Para
provar que S é uma base, devemos mostrar que S gera V . Se esse não for o caso, então existe algum
vetor v de V que não está no ger (S). Acrescentando esse vetor a S, o conjunto resultante de n+1
vetores ainda é linearmente independente. Mas isso é impossível, pois nenhum conjunto com mais de
n vetores em um espaço vetorial de dimensão n pode ser linearmente independente. Assim, S gera V .
Teorema: Seja S um conjunto finito de vetores num espaço vetorial V de dimensão finita.
1. Se S gera V , mas não for uma base de V , então S pode ser reduzido a uma base de V removendo
vetores apropriados de S.
2. Se S for um conjunto linearmente independente, mas não for uma base de V , então S pode ser
ampliado a uma base d e V acrescentando vetores apropriados a S.
Prova:
1. Se S for um conjunto de vetores que gera V , mas não é uma base de V , entçao S é um conjunto
linearmente dependente. Assim, algum vetor v em S pode ser expresso como uma combinação
linear dos demais vetores em S. Pelo teorema mais/menos podemos remover v de S e o conjunto
S ' resultante ainda gera V . Se S ' for linearmente independente, então S ' é uma base de V e
podemos parar. Se S ' for linearmente dependente, então podemos remover algum vetor apropriado
de S ' para obter o conjunto S ' ' que ainda gera V . Podemos continuar removendo vetores dessa
maneira até chegar, finalmente, num conjunto de vetores em S que é linearmente independente e
que gera V . Esse subconjunto de S é uma base de V .
2. Suponha que dim ( V )=n. Se S é um conjunto linearmente independente que ainda não é uma base
de V , então S não gera V e, portanto, existe algum vetor v em V que não está no ger ( S). Pelo
teorema mais/menos, podemos acrescentar v a S e o conjunto S ' resultante ainda é linearmente
independente. Se S ' gerar V , então S ' é uma base de V e podemos parar. Se S ' não gerar V ,
então podemos acrescentar algum vetor apropriado a S ' para obter um conjunto S ' ' que ainda é
linearmente independente. Podemos continuar acrescentando vetores dessa maneira até chegar
num conjunto de n vetores linearmente independentes em V . Esse conjunto será uma base de V
pelo teorema anterior.
Teorema: se W for um subespaço de um espaço vetorial V de dimensão finita, então
1. W tem dimensão finita.
2. dim ( W ) ≤ dim (V ).
3. W =V se, e só se, dim ( W ) =dim ( V ).
Prova:
1. Como W está inserido em um conjunto finito, logo, ele também é finito.
2. O item 1 mostra que W possui dimensão finita, de modo que possui uma base S={w 1 , w 2 , … , w m } .
Ou S também é uma base de V ou não. Se for, então dim ( V )=m, o que significa que
dim ( V )=dim (W ). Se não for, como S é um conjunto linearmente independente, pode ser ampliado
a uma base de V pela parte 2 do teorema anterior, o que implica que dim ( W ) < dim(V ) . Assim, em
ambos casos, mostramos que dim ( W ) ≤ dim(V ).
3. Suponha que dim ( W ) =dim (V ) e que S={w 1 , w 2 , … , w m } seja uma base de W . Se S não fosse
também uma base de V , então, por ser linearmente independente, S poderia ser ampliado a uma
base de V pelo item 2 do teorema anterior. Mas isso significaria que dim ( V ) <dim (W ),
contradizendo nossa hipótese. Assim, S deve ser também uma base de V , o que significa que
W =V .
Afirmações Equivalentes: se A for uma matriz n x n, então as seguintes afirmações são equivalentes, ou
seja, são todas verdadeiras ou todas falsas.
1. A é invertível.
2. A x=0 tem somente a solução trivial.
3. A forma escalonada reduzida por linhas de A é I n.
4. A pode ser expressa como um produto de matrizes elementares.
Prova:
1. → 2. Suponha que A seja invertível e que x 0 seja uma solução qualquer de A x=0. Multiplicando
ambos os lados dessa equação pela matriz A−1, dá A ( A x 0 )= A 0 , ou ( A¿¿−1 A)x 0=0 ¿, ou I x 0=0
−1 −1
⋮ ⋮
… + a2 n x n =0 +a mn x n=0
¿ ¿ ]
e suponha que o sistema só admita a solução trivial. Resolvendo por eliminação de Gauss-Jordan, o sistema
escalonado reduzido por linhas será
x1 ¿ x2 ¿
¿¿ ¿ ¿
Assim, a matriz aumentada
a11 a12 … a 1n 0
a21 a22 … a 2n 0
⋮ ⋮ ¿… ⋮ ⋮
a m 1 am 2 amn 0
Pode ser reduzida à matriz aumentada
1 0 … 0 0
0 1 … 0 0
⋮ ⋮ ¿…⋮ ⋮
0 0 1 0
por uma sequência de operações elementares com linhas. Desconsiderando a última coluna (de zeros) em cada
uma dessas matrizes, poderemos concluir que a forma escalonada reduzida por linhas de A é I n.
3. → 4. Suponha que a forma escalonada reduzida por linhas de A seja I n, de modo que A pode ser
reduzida a I n por uma sequência finita de operações elementares com linhas. Como cada uma dessa
operações pode ser efetuada por uma matriz elementar apropriada, adotando as matrizes elementares
E1 , E2 ,… , E k tais que Ek … E2 E1 A=I n. Sabendo que as matrizes E1 , E2 ,… , E k são invertíveis,
podemos multiplicar ambos os lados da equação Ek … E2 E1 A=I n por E−1 −1 −1
k , … E2 , E 1 , obtemos
A=E−1 −1 −1 −1 −1 −1
1 E2 Ek I n =E 1 E 2 E k ,
Que expressa A como uma multiplicação de matrizes elementares.
4. → 1. Se A for um produto de matrizes elementares, então a matriz A é um produto de matrizes
invertíveis e, portanto, é invertível.