Você está na página 1de 11

Eliminação Gaussiana (1.

2):
 Propriedades de uma matiz escalonada reduzida por linhas:
 Se uma linha não consistir inteiramente de zeros, então o primeiro número não nulo da linha é um
1 e é chamado de pivô.
 Se existirem linhas constituídas inteiramente de zeros, então elas são agrupadas nas linhas
inferiores da matriz.
 Em quaisquer duas linhas sucessivas que não consistem só em zeros, o pivô da linha inferior
ocorre mais à direita do que o pivô da linha superior.
 Cada coluna que contém um pivô tem zeros nas demais entradas.
 Exemplo Importante: Sistemas lineares em três incógnitas
a) A última equação (0 x +0 y +0 z=1) torna o sistema inconsistente, pois ela não é
1 000

b)
[ ] 0
0
1
120
001
0 3 −1
satisfeita por nenhum valor de x , y ou z .

Como a última equação (0 x +0 y +0 z=0) não impõe restrição alguma, temos

[ ] 0
0
1−4 2
0 0 0
que os sistema linear corresponde apenas às equações x +3 z=−1 e
y−4 z=2. Tendo em vista que x e y são os pivôs da matriz, eles são as
variáveis líderes, sedo z a variável livre. Assim, podemos resolver o
sistema para as variáveis líderes, em função das livres: x=−1−3 z e y=2+ 4 z . Como z é tido
como um parâmetro nessas equações, podemos atribuir um valor arbitrário t a ele. Dessa forma,
teremos as seguintes equações paramétricas (soluções do sistema): x=−1−3 t , y=2+ 4 t e z=t .
Para qualquer valor de t haverá uma solução.
c) O m i t i n d o a s e q u
1 −5 1 4

[0 0 00
0 0 00 ]
equação x−5 y + z=4. Como x é o pivô, podemos converter tal equação para a
equação paramétrica x=5 y−z + 4. Atribuindo os valores s e t aos parâmetros
y e z , respectivamente, teremos o seguinte conjunto solução:
x=4+5 s−t , y=s e z=t .
Definição: “se um sistema linear tem uma infinidade de soluções, então um conjunto de equações
paramétricas é denominado uma solução geral do sistema se, a partir dessas equações, puderem ser
obtidas todas as soluções pela substituição dos parâmetros por valores numéricos”.
 Método de Eliminação de Gauss-Jordan:
1. Localizamos a coluna mais à esquerda que não seja constituída inteiramente de zeros.
2. Permutamos a primeira linha com uma outra linha, se necessário, para obter uma entrada nula ao
todo da coluna encontrada no passo 1.
3. Se a entrada que agora está no topo da coluna encontrada no passo 1 é a , multiplicamos a
primeira linha inteira por 1/a para introduzir um pivô.
4. Somamos múltiplos convenientes da primeira linha às linhas inferiores para obter zeros em todas
as entradas abaixo do pivô.
5. Agora, desconsideramos a primeira linha da matriz e repetimos o processo para a matriz
resultante. Fazemos isso até a matriz ficar na forma escalonada.
6. Após a matriz chegar a forma escalonada, tomamos a última linha não nula da matriz e somamos
múltiplos convenientes de cada linha às linhas superiores para introduzir zeros acima dos líderes. A
matriz resultante estará na forma escalonada reduzida por linhas.
 Sistema Homogêneo: um sistema é dito homogêneo se os
termos constantes são todos zero, ou seja,
Cada sistema de equações lineares homogêneo é
… + a1 n x nconsistente,
=0 por todos esses sistemas têm

[
a11 x 1+ a12 x 2 +¿ a21 x 1 +a22 x2 +¿

⋮ ⋮ ¿
… + a2 n x nx=0
1=0 , x
+a x
]
mn2=0n , … , x n =0
=0 como uma solução.
¿ denominada solução trivial ou solução nula. Quaisquer
outras soluções são ditas não triviais. Como um sistema homogêneo sempre contém a solução trivial,
Essa solução é

há apenas duas possibilidades de solução:


1. O sistema possui apenas a solução trivial.
2. O sistema tem uma infinidade de soluções além da solução trivial. Para garantir que um sistema
homogêneo tenha infinitas soluções, basta haver mais incógnitas do que equações.
 Aspectos importantes sobre a resolução de sistemas lineares homogêneos:
1. Nenhuma operação elementar com as linhas altera uma coluna de zeros de uma matriz. Assim,
a forma escalonada reduzida por linha da matriz aumentada de um sistema homogêneo tem
uma coluna final de zeros, o que implica que o sistema linear correspondente à forma
escalonada reduzida é homogêneo, exatamente como o original.
2. Quando construímos um sistema linear homogêneo correspondente à matriz aumentada,
ignoramos a linha de zeros, pois a equação correspondente não impõe condição alguma sobre
as incógnitas. Assim, dependendo da forma escalonada reduzida por linhas da matriz
aumentada de um sistema linear homogêneo ter ou não alguma linha de zeros, o número de
equações no sistema correspondente à forma escalonada reduzida é menor do que, ou igual a,
o número de equações do sistema original.
Teorema das variáveis livres de sistemas homogêneos: se um sistema linear homogêneo tiver n
incógnitas e se a forma escalonada reduzida de sua matriz aumentada tiver r linhas não nulas, então o
sistema tem r variáveis líderes e n−r variáveis livres.
Teorema: um sistema linear homogêneo com mais incógnitas que equações tem uma infinidade de
soluções.
 Eliminação Gaussiana e Retrossubstituição: utilizada para resolver sistemas muito grandes. Uma
vez obtida a matriz escalonada por linhas através da eliminação gaussiana, deve-se seguir os
seguintes passos:
1. Resolva as equações para as variáveis líderes.
2. Começando com a equação de baixo e trabalhando para cima, substitua sucessivamente cada
equação em todas as equações acima dela.
3. Atribua valores arbitrários às variáveis livres, se houver.
 Fatos sobre matrizes escalonadas e escalonadas reduzidas:
1. Toda matriz tem uma única forma escalonada reduzida por linhas; ou seja, independentemente de
utilizar eliminação de Gauss-Jordan ou uma outra sequência qualquer de operações elementares,
no final sempre chegamos à mesma forma escalonada reduzida por linhas.
2. As formas escalonadas por linhas não são únicas, ou seja, diferentes sequências de operações
com linhas podem resultar em formas escalonadas diferentes.
3. Embora as formas escalonadas por linhas não sejam únicas, todas as formas escalonadas por
linhas de uma matriz A têm o mesmo número de linhas nulas, e os pivôs sempre ocorrem na
mesma posição das formas escalonadas por linhas de A. Essas posições são denominadas
posições pivô de A. Dizemos que uma coluna que contenha uma posição de pivô é uma coluna
de pivô de A.

Matrizes Elementares e um método para encontrar A -1 (1.5):


 Operações elementares com as linhas de uma matriz:
 Multiplicar um linha par uma constante não nula c .
 Trocar duas linhas entre si.
 Somar uma constante c vezes uma linha a uma outra linha.
Definição: dizemos que as matrizes A e B são equivalentes por linhas se uma delas (portanto, ambas)
pode ser obtida a partir de outra sequência de operações elementares com linhas.
Definição: uma matriz n x n que pode ser obtida da matriz identidade I n de tamanho n x n efetuando
uma única operação elementar sobre linhas é denominada matriz elementar.
 Operações com linhas por multiplicação matricial: se a matriz E é o resultado de efetuar uma certa
operação com as linhas de I m e se A é uma matriz m x n, então o produto EA é a matriz que resulta
quando essa mesma operação com linhas é efetuada em A.
 Operações Elementares com Linhas:
Operações com linhas de I que produzem E Operações com linhas de E que produzem I
Multiplicar a linha i por c ≠ 0 Multiplicar a linha i por 1/c
Trocar entre si as linhas i e j Trocar entre si as linhas i e j
Somar c vezes a linha i à linha j Somar −c vezes a linha i à linha j
Teorema: Qualquer matriz elementar é invertível, e a inversa também é uma matriz elementar.
 Algoritmo da Inversão: para encontrar a inversa de uma matriz invertível A, encontre uma sequência
de operações elementares com linhas que reduza A à identidade e depois efetue essa mesma
sequência de operações em I n para obter A−1. ([ A|I ] →[ I ∨A−1 ])
OBS.: se em algum momento da aplicação do algoritmo de inversão aparecer uma linha de zeros do
lado esquerdo das matrizes juntadas (na matriz A), então a matriz não é invertível.
Modelos Econômicos de Leontief (1.9):
 Definições necessárias:
 Setores Abertos: setores de uma economia que não produzem produtos, apenas consomem.
 Economias Fechadas: economias que não possuem setores abertos.
 Economias Abertas: economias que possuem setores abertos.
 Exemplo para explicar a matriz de Leontief e a equação de Leontief: considere uma economia
aberta, com um setor aberto e três setores fechados: manufatura, agricultura e serviços. A tabela
abaixo retrata os as quantidades (em unidades monetárias) necessárias de insumos de cada setor
para se produzir uma unidade monetárias de um dado insumo. Em seguida, convertemos essa tabela
em uma matriz, chamada matriz consumo, e suprimimos as legendas.
Insumo Requerido para produzir 1$
Manufatura Agricultura Serviços 0,5 0,1 0,1
Fornecedor
Manufatura
Agricultura
Serviços
$ 0,50
$ 0,20
$ 0,10
$ 0,10
$ 0,50
$ 0,30
$ 0,10
$ 0,30
$ 0,40
[
C= 0,2 0,5 0,3
0,1 0,3 0,4 ]
Os vetores coluna de
C , que representam as quantidades demandadas de cada insumo por cada setor, são chamados de
vetores de consumo.
Agora, vamos descrever a quantidade de insumos demandada pelo setor aberto de cada setor
produtivo. Assim, vamos considerar que d 1 represente as unidades monetárias de bens manufaturados
demandadas pelo setor aberto, d 2, de produtos agrícolas e d 3, de serviços. O vetor coluna d que
contém esses números é denominado vetor demanda externa.
Como os setores produtivos consomem alguns de seus próprios produtos, o valor em unidades
monetárias de seus produtor precisa cobrir suas próprias necessidades mais a demanda externa.
Assim, chamaremos de x 1 os valores necessários para cobrir as demandas de bens manufaturados, x 2
, de produtos agrícolas e, x 3, de serviços. Assim, o vetor coluna x é denominado vetor de produção
da economia. Dessa forma, temos:
0,5 0,1 0,1 0,5 0,1 0,1 x 1
[ ] [ ] [ ][
0,1 0,3 0,4 ][ ]
x 1 0,2 + x 2 0,5 + x 3 0,3 = 0,2 0,5 0,3 x 2 =C x ,
0,1 0,3 0,4 x 3
0,5 0,1 0,1

[]
0,1
pelos serviços.
[]
0,3 []
onde x 1 0,2 representa as frações consumidas pela manufatura, x 2 0,5 , pela agricultura e, x 3 0,3 ,
0,4

Com isso, o vetorC x é denominado vetor demanda intermediária da economia. Uma vez
atendida a demanda intermediária, a porção da produção que resta para satisfazer as necessidades da
demanda externa é x−C x . Assim, tendo d como o vetor demanda externa, x deve satisfazer
x−C x=d ,
onde x representa a quantidade produzida e C x a demanda intermediária. Dessa forma, temos
( I −C ) x=d ,
onde ( I −C ) é a matriz de Leontief e ( I −C ) x=d é a equação de Leontief.
 Generalizando o exemplo: considerando n setores produtivos:
c11 c 12 ⋯ c1 n x1 d1

[
c c
C= 21 22
⋮ ⋮
c 31 c 32
⋯ c2 n
¿⋮
⋯ c nn] [] []
, x=
x2

xn
, d=
d2

dn
Sabendo que nenhuma das entradas são não negativas e
c ij =¿ valor monetário do produto do i-ésimo setor que é necessário para o j -ésimo setor produzir
um produto no valor de uma unidade monetárias.
x i=¿ valor monetário do produto do i-ésimo setor.
d i=¿ valro monetário do produto do i-ésimo setor que é necessário para atender a demanda do
setor aberto.
OBS.: o j -ésimo vetor coluna de C contém os valores monetários que o j -ésimo setor necessita dos
outros setores para produzir um produto no valor de uma unidade monetária, e que o i -ésimo vetor
linha de C contém os valores monetários exigidos do i -ésimo setor pelos outros setores para que cada
um deles possa produzir um produto no valor de uma unidade monetária.
 Teorema: Se C for a matriz de consumo de uma economia aberta e se todas as somas das entradas
de colunas forem menores do que 1, então a matriz I −C é invertível, as entradas de ( I −C)−1 são não
negativas e a economia é produtiva.
Decomposição LU (9.1): método de resolução de sistemas lineares de n equações e n incógnitas que
tem por base a fatoração da matriz de coeficientes num produto de uma matriz triangular inferior (L) e uma
superior (U).
 Método da Decomposição LU:
1. Reescreva o sistema A x=b como LU x=b.
2. Defina uma nova matriz y de tamanho n x 1 como U x= y .
3. Use U x= y para reescrever LU x=b como L y=b e resolva esse sistema em y .
4. Substitua y em U x= y e resolva em x .
 Teorema: se uma matriz A pode ser reduzida à forma escalonada por linhas U com eliminação
gaussiana sim permuta de linhas, então A pode ser fatorada como A=LU , em que L é uma matriz
triangular inferior.
Prova: Se for possível reduzir uma matriz quadrada A à forma escalonada reduzida por linhas com
eliminação gaussiana, sem permuta de linhas, então A possui decomposição LU , não necessariamente
única. Para observar isso, consideremos uma matriz quadrada A que tenha sido reduzida por operações
elementares com as linhas, e sem permutas de linhas, à forma escalonada por linhas U . Essas operações
podem ser efetuadas pela multiplicação à esquerda de uma sequência apropriada de matrizes
elementares E1 , E2 ,… , E k tais que Ek … E2 E1 A=U , que é o mesmo que A=E−1 −1 −1
1 E2 … Ek U . Tomando

L=E−1 1 E 2 … E k , temos que A=LU . Note que, por ser uma matriz escalonada por linhas, U é uma matriz
−1 −1

triangular superior. Por outro lado, L é uma matriz triangular inferior, haja vista que ela é dada pelo produto
de matrizes elementares que foram obtidas sem permutação de linhas, onde cada E j resulta da soma de
um múltiplo escalar de uma linha de uma matriz identidade a uma linha inferior, ou da multiplicação de
uma linha de uma matriz identidade por um escalar não nulo, o que faz com que, em ambos os casos, a
matriz E jresultante seja triangular inferior e, portanto, E−1
j também, e, portanto, L também.
 Procedimento para construir uma decomposição LU :
1. Reduza à forma escalonada pro linhas U por eliminação gaussiana sem troca de linhas, mantendo
armazenados os multiplicadores utilizados para introduzir os zeros debaixo dos pivôs.
2. Em cada posição ao longo da diagonal principal de L, coloque o recíproco do multiplicador que
introduziu o pivô naquela posição em U .
3. Em cada posição abaixo da diagonal principal de L, coloque o negativo do multiplicador utilizado
para introduzir o zero naquela posição em U .
4. Forme a decomposição LU .
 Decomposição LDU : caso haja necessidade de haver simetria entre as matrizes triangulares inferior
e superior, ou seja, de a matriz triangular superior possuir entradas iguais a 1 na sua diagonal principal,
basta “deslocar” as entradas da diagonal principal de L para uma matriz diagonal D e escrever L como
L=L ' D, onde L ' é uma matriz triangular inferior de diagonal principal composta por números 1 e D é
uma matriz diagonal com a diagonal principal contendo os valores iniciais da diagonal principal de L.
Como fazer isso:
a11

[ ]
0 0
a11
a11 0 0 a 11 0 0

[ a21 a 22
a31 a 32 ]
0 =
a33
a 21
a11
a 31
a22
a22
a32
0

a33
[ 0 a 22 0
0 0 a33 ]
a11 a22 a33
L=L' D
Assim, podemos decompor a matriz A como A=LDU , onde L é a matriz triangular inferior de diagonal
principal composta por números 1, D é uma matriz diagonal e U é uma matriz triangular superior de
diagonal principal composta por números 1.
 Decomposição PLU : para ser possível decompor uma matriz quadrada A em LU realizando o trocas
de linhas no processo de escalonamento, basta pré-processar a matriz A por uma matriz Q , tal que Q
é produto das matrizes elementares que produzem as permutações de linhas de A . Assim, o produto
QA pode ser decomposto como QA= LU . Como a matriz Q é invertível, temos que A=Q−1 LU . Tendo
P=Q −1, temos que A=PLU .

Espaços Vetoriais (4.1): para que exista um espaço vetorial, um grupo de objetos deve atender aos dez
axiomas abaixo.
 Axiomas: seja V um conjunto não vazio qualquer de objetos no qual estejam definidas duas
operações, a adição e a multiplicação por escalares. Por adição entendemos uma regra que associa
para cada par de objetos u e v em V um objeto u+ v , denominado soma de u com v; por multiplicação
por escalar entendemos uma regra que associa a cada escalar a e cada objeto u em V um objeto a u,
denominado múltiplo escalar de u por a . Se os axiomas seguintes forem satisfeitos por todos os
objetos u, v e w em V e quaisquer escalares a e b , diremos que V é um espaço vetorial e que os
objetos de V são vetores.
1. Se u e v são objetos em V , então u+ v é um objeto em V .
2. u+ v=v+u
3. u+ ( v+ w ) =( u+v ) + w
4. Existe um objeto 0 em V , denominado vetor nulo de V , ou vetor zero, tal que
0+u=u+0=u, com qualquer u em V .
5. Dado qualquer u em V , existe algum objeto −u, denominado negativo de u, tal que
u+ (−u )=(−u ) +u=0.
6. Se a dor qualquer escalar e u um objeto em V , então a u é um objeto em V .
7. a ( u+ v )=a u+ a v
8. ( a+ b ) u=a u+ bu
9. a ( b u ) =( ab ) u
10. 1 u=u
 Demonstração de que um conjunto com duas operações é um espaço vetorial:
1. Identifique o conjunto V de objetos que serão os vetores.
2. Identifique as operações de adição e multiplicação por escalar.
3. Verifique a validade dos Axiomas 1 e 6; ou seja, que a soma de dois vetores em V produz um vetor
em V , e que a multiplicação de um vetor em V por um escalar também produz um vetor em V . O
axioma 1 é denominado fechamento na adição e, o 6, fechamento no produto escalar.
4. Confirme que valem os outros 8 axiomas.
 Teorema: sejam V um espaço vetorial, u um vetor em V e a um escalar, então
1. 0 u=0 3. (−1 ) u=−u
2. a 0=0 4. Se a u=0, então a=0 ou u=0.

Subespaços (4.2): um subconjunto W de um espaço vetorial V é denominado subespçao de V se W for


um espaço vetorial por si só com as operações de adição e multiplicação por escalar definidas em V .
 Teorema: se W for um conjunto de um ou mais vatores num espaço vetorial V , então W é um
subespçao de V se, e só se, as condições seguintes forem válidas:
1. Se u e v forem vetores em W , então u+ v está em W .
2. Se a for um escalar qualquer e u algum vetor de W , então a u está em W .
Prova: se W for um subespaço de V , então todos os axiomas de espaço vetorial são satisfeitos,
inclusive os axiomas 1 e 6. Reciprocamente, suponha que valham as condições 1 e 2 (acima). Como
estas são os axiomas 1 e 6 e como os axiomas 2, 3, 7, 8, 9 e 10 são herdados de V , basta mostrar
que os axiomas 4 e 5 valem para W . Para isso, seja u um vetor qualquer em W . Da condição 2, segue
que, dado qualquer escalar a , o vetor a u está em W . Em particular, 0 u=0 e (−1 ) u=−u estão em W ,
mostrando que os axiomas 4 e 5 valem em W .
 Teorema - Como criar subespaços a partir de subespaços conhecidos: se W 1 , W 2 ,… ,W r forem
subespaços de um espaço vetorial V , então a interseção desses subespaços também será um
subespaço de V .
Prova: Seja W a interseção dos subespaços W 1 , W 2 ,… ,W r. Esse conjunto não é vazio por que, como
cada um desses subespaços contém o vetor nulo de V , também sua interseção tem o vetor nulo.
Assim, falta mostrar que W é fechado na adição e na multiplicação por escalar.
Para provar o fechamento na adição, sejam u e v vetores em W . Como W é a intersecção de
W 1 , W 2 ,… ,W r, segue que u e v também estão em cada um desses subespaços. Como esses
subespaços são fechados na adição, todos contêm o vetor u+ v e, portanto, sua interseção W também
contém esse vetor. Isso prova que W é fechado na adição. De forma análoga podemos provar o
fechamento na multiplicação por escalar.
 Definição: dizemos que um vetor w num espaço vetorial V é uma combinação linear dos vetores
v1 , v 2 , … , v r em V se w puder ser expresso na forma w=a 1 v1 + a2 v 2+ …+ar v r em que a 1 , a2 , … , ar são
escalares. Esses escalares são denominados coeficientes da combinação linear.

 Teorema: seja S={w 1 , w 2 , … , w r } um conjunto não vazio de vetores num espaço vetorial V .
1. O conjunto W de todas as combinação lineares possíveis de vetores em S é um sibespaço de V .
2. O conjunto W da parte 1 é o “menor” subespaço de V que contém todos os vetores de S, no
sentido que qualquer outro subespaço de V que contenha todos aqueles vetores contém W .
Prova:
1. Seja W o conjunto de todas as combinações lineares possíveis de vetores em S. Devemos mostrar
que W é fechado na adição e na multiplicação por escalar. Para provar o fechamento na adição,
sejam u=c 1 w 1+ c 2 w 2+ …+c r w r e v=k w 1+ k 2 w2 +…+ k r w r dois vetores em W . Segue que sua
soma pode ser escrita como u+ v=( c ¿ ¿1+ k 1)w 1+(c ¿ ¿ 2+k 2 )w 2 +…+(c ¿ ¿ r +k r )w r ¿¿ ¿ que é uma
combinação linear dos vetores em W . Assim, W é fechado na adição. De maneira análoga pode-se
provar o fechamento na multiplicação por escalar.
2. Seja W ' um subespaço qualquer de V que contenha os vetores em S. Como W ' é fechado na
adição e na multiplicação por escalar, contém todas as combinações lineares de vetores em S e,
portanto, contém W .
 Definição: dizemos que o subespaço de um espaço vetorial V que é formado como todas as
combinações lineares possíveis de vetores de um conjunto não vazio S é gerado por S, e dizemos que
os vetores em S geram esse subespaço. Assim, se S={w 1 , w 2 , … , w r }, denotamos o gerado de S por
ger {w 1 , w 2 , … , w r } ou ger ( S).
 Teorema - Espaços de soluções de sistemas homogêneos: as soluções de um sistema linear
homogêneo A x=0 em n incógnitas é um subespaço de Rn.
Prova: seja W o conjunto de soluções do sistema. O conjunto W não é vazio porque contém pelo
menos a solução trivial x=0 . Para mostrar que W é um subespaço de Rn , precisamos mostrar que é
fechado na adição e na multiplicação por escalar. Para isso, sejam x 1 e x 2 dois vetores em W . Como
esses vetores são soluções de A x=0, temos A x 1=0 e A x 2=0. Segue dessas equações e da
propriedade distributiva da multiplicação matricial, que A ( x 1+ x2 ) =A x1 + A x 2=0+ 0=0 , de modo que W
é fechado na adição. Analogamente, se k for um escalar qualquer, então A ( k x 1 )=kA x 1=k 0=0, de
modo que W ´w fechado na multiplicação por escalar.
OBS.: enquanto um conjunto das soluções de cada sistema homogêneo de m equações e n incógnitas
é um subespaço de Rn, nunca é verdade que o conjunto das soluções de um sistema não homogêneo
de m equações e n incógnitas seja um subespaço de Rn . Há dois cenários possíveis: primeiro, o
sistema pode não ter quaisquer soluções; e segundo, se houver soluções, então o conjunto de
soluções não será fechado nem na adição, nem na multiplicação por escalar.
'
 Teorema: se S={v 1 , v 2 , … , v r } e S ={w 1 , w 2 , … , wr } são conjuntos não vazio de vetores num espaço
vetorial V , então ger { v 1 , v 2 ,… , v r }=ger {w1 , w2 , … , wr } se, e só se, cada vetor em S é uma
combinação linear dos vetores em S ' , e cada vetor em S ' é uma combinação linear dos vetores em S.

Independência Linear (4.3): é necessário descobrir se um determinado vetor é independente linearmente


pois a sua não independência linear causa diversas complicações. Assim, temos a seguinte definição:
 Definição: se S={v 1 , v 2 , … , v r } for um conjunto não vazio de vetores num espaço vetorial V , então a
equação vetorial k 1 v 1 +k 2 v 2+ …+k r v r=0 tem pelo menos uma solução, a trivial ( k 1 , k 2 , … , k r =0).
Assim, se essa for a única solução, S é um conjunto linearmente independente. Se existirem outras
soluções além da trivial, S é um conjunto linearmente dependente.
 Teorema: um conjunto S de dois ou mais vetores é
1. Linearmente dependente se, e só se, pelo menos um dos vetores de S pode ser expresso como
uma combinação linear dos outros vetores em S.
2. Linearmente independente se, e só se, nenhum vetor em S pode ser expresso como uma
combinação linear dos outros vetores em S.
Prova: Seja S={v 1 , v 2 , … , v r } um conjunto com dois ou mais vetores.
1. Supondo que S seja linearmente dependente, existem escalares k 1 , k 2 , … , k r , não todos nulos, tais
que k 1 v 1 +k 2 v 2+ …+k r v r=0 . Mais especificamente, supondo k 1 ≠ 0, temos
−k 2 −k r
v1 = ( )
k1
v 2+ …+
k1 r( )
v , que expressa v1 como uma combinação linear dos outros vetores em S.

Analogamente, se K j ≠ 0 com algum j=2 ,3 , … , r , então v j pode ser escrito como uma combinação
linear dos outros vetores em S. Reciprocamente, suponha que pelo menos um dos vetores em S
possa ser expresso como uma combinação linear dos outros vetores.
2. Supondo que S seja linearmente independente, a equação k 1 v 1 +k 2 v 2+ …+k r v r=0 pode ser
satisfeita apenas se os escalares k 1 , k 2 , … , k r forem todos nulos, pois, apenas desta maneira não é
possível escrever um vetor em função de outro, como no item anterior.

 Teorema:
1. Um conjunto finito que contenha 0 é linearmente dependente.
2. Um conjunto de exatamente um vetor é linearmente independente se, e só se, esse vetor não é 0 .
3. Um conjunto de exatamente dois vetores é linearmente independente se, e só se, nenhum dos dois
vetores é um múltiplo escalar do outro.
 Teorema: seja S={v 1 , v 2 , … , v r } um conjunto de vetores em Rn . Se r >n , ou seja, os vetores têm
menos componentes que o número total de vetores, então S é linearmente dependente.
Prova: suponha que v1 =( v 11 , v 12 , … , v 1 n) , v 2=( v 21 , v 2 2 ,… , v 2n ), v r=(v r 1 , v r 2 , … , v r n ) e considere a
equação k 1 v 1 +k 2 v 2+ …+k r v r=0 . Expressando ambos os lados dessa equação em termos dos
componentes e igualando os componentes correspondentes, obtemos o sistema
v1 1 k 1 +v 2 1 k 2 +…+ v r 1 k r=0
v1 2 k 1 +v 2 2 k 2 +…+ v r 2 k r =0
⋮+⋮++⋮=0
v1 n k 1 + v 2n k 2 +…+ v r n k r =0
Isso é um sistema homogêneo de n equações nas r incógnitas k 1 , … , k r . Como r >n , segue que o
sistema tem soluções não triviais. Portanto, S={v 1 , v 2 , … , v r } é linearmente dependente.
 Definição Importante: se f 1=f 1 ( x ) , f 2=f 2 ( x ) , … , f n=f n ( x ) forem funções n−1 vezes deriváveis no
intervalo (−∞ , ∞), então o determinante
f 1( x ) f 2(x) ⋯ f n(x)

|
W ( x )= f 1 ' ( x )

(n−1)
f 2' (x)

(n−1)
f 1 ( x ) f 2 ( x) ⋯
⋯ f n'(x)
¿⋮
f (n−1)
n (x )
é denominado wronskiano de f 1 , f 2 , … , f n.
|
 Teorema: se as funções f 1 , f 2 , … , f n tiverem n−1 derivadas contínuas no intervalo (−∞ , ∞), e se o
wronskiano dessas funções não for identicamente zero em (−∞ , ∞), ou seja, se houver alguma
situação em que o wronskiano não se iguala a zero, então essas funções formam um conjunto
linearmente independente de vetores em C (n−1) (−∞ , ∞).

Coordenadas e Bases (4.4):


 Definição: se V for um espaço vetorial qualquer e S={v 1 , v 2 , … , v n } for um conjunto finito de vetores
em V , dizemos que S é uma base de V se valerem duas condições:
1. S é linearmente dependente.
2. S gera V .
 Teorema – Unicidade da representação em base: se S={v 1 , v 2 , … , v n } for uma base de um espaço
vetorial V , então cada vetor em V pode ser expresso na forma v=c 1 v 1+ c 2 v2 + …+ c n v n de exatamente
uma única maneira.
Prova: Como S gera V , segue da definição de conjunto gerador que cada vetor de V pode ser
expresso como uma combinação linear dos vetores em S. Para ver que só existe uma maneira de
expressar um vetor como uma combinação linear dos vetores em S, suponha que um certo vetor v
possa ser escrito como v=c 1 v 1+ c 2 v2 + …+ c n v n e também como v=k 1 v 1 +k 2 v 2 +…+ k n v n. Subtraindo a
segunda equação da primeira, temos 0=(c ¿ ¿ 1−k 1) v1 +(c ¿ ¿ 2−k 2) v 2 +…+(c n−k n) v n ¿ ¿. Como o lado
direto dessa equação é uma combinação linear dos vetores em S, a independência linear de S implica
c 1−k 1=0, c 2−k 2=0 , ..., c n−k n=0 , ou seja, c 1=k 1, c 2=k 2, ..., c n=k n. Assim, as duas expressões para v
são a mesma.
 Definição: se S={v 1 , v 2 , … , v n } for uma base de um espaço vetorial V e se v=c 1 v 1+ c 2 v2 + …+ c n v n é
a expressão de um vetor v em termos da base S, então os escalares c 1 , c2 , … , c n são denominados
coordenadas de v em relação à base S. O vetor (c ¿ ¿ 1 , c2 , … , c n)¿ em Rn construído com essas
coordenadas é denominado vetor de coordenadas de v em relação a S e é denotado por ¿.

Dimensão (4.5):
 Teorema: todas as bases de um espaço vetorial de dimensão finita têm o mesmo número de vetores.
 Teorema: sejam V um espaço vetorial de dimensão finita e {v 1 , v 2 , … , v n } uma base qualquer de V .
1. Um conjunto com mais de n vetores é linearmente dependente.
2. Um conjunto com menos de n vetores não gera V .
Prova:
1. Seja S '={w 1 , w 2 , … , w r } um conjunto qualquer de m vetores em V , com m>n. Queremos mostrar
que S ' é linearmente dependente. Como S={v 1 , v 2 , … , v r } é uma base, cada w i pode ser
expresso como uma combinação linear dos vetores m em S, digamos,
w 1=a11 v 1+ a21 v 2+ …+v n 1 v n
w 2=a12 v 1 +a2 2 v 2 +…+ an 2 v n
⋮ ⋮⋮ ⋮
w m=a1 m v 1+ a2 m v 2 +…+a n m v n
Para mostrar que S ' é linearmente dependente, devemos encontrar escalares k 1 , k 2 , … , k m não todos
zero, tais que k 1 w 1+ k 2 w2 +…+ k m wm =0. Dessa forma, temos
( k 1 a 11 +k 2 a1 2 +…+k m a1 m ) v 1 + ( k 1 a2 1 +k 2 a22 +…+ k m a2 m ) v 2 +…+ ( k 1 an 1+ k 2 an 2 +…+k m an m ) v n =0. Como
essa equação apresenta mais incógnitas do que equações, a prova está completa, pois há soluções
não triviais.
2. Seja S '={w 1 , w 2 , … , w r } um conjunto qualquer de m vetores em V , com m<n. Queremos mostrar
que S ' não gera V . Faremos isso mostrando que a suposição de que S ' gere V leva a uma
contradição da independência linear de {v 1 , v 2 , … , v r }. Se S ' gera V , então cada vetor em V é uma
combinação linear dos vetores em S ' . Em particular, cada vetor vi da base é uma combinação
linear dos vetores em S ' , digamos,
v1 =a11 w 1+ a21 w2 +…+ v m 1 w m
v 2=a12 w1 +a2 2 w2 +…+ am 2 wm
⋮ ⋮⋮ ⋮
w m=a1 n w1+ a2 n w2 +…+ am n wm
Para obter nossa contradição mostraremos que existem escalares k 1 , k 2 , … , k n não todos zero, tais
que k 1 v 1 +k 2 v 2+ …+k n v n =0. No entanto, se notarmos as duas equações deste item e as duas do
intem anterior, perceberemos que elas se assemelham. Assim,
a 11 k 1+ a12 k 2+ …+v 1 n k n =0
a 21 k 1 +a22 k 2 +…+ a2 n k n=0
⋮ ⋮⋮ ⋮
a n1 k 1 +a n 2 k 2 + …+ amn k n=0
Esse sistema tem mais incógnitas do que equações e, portanto, tem soluções não triviais.
 Definição: a dimensão de um espaço vetorial de dimensão finita V é denotada por dim ⁡(V ) e é
definida como o número de vetores numa base de V . Além disso, definimos o espaço vetorial nulo
como tendo dimensão zero.
 Teorema – mais/menos: seja S um conjunto não vazio de vetores num espaço vetorial V .
1. Se S for um conjunto linearmente independente e se v for um vetor em V que está fora do ger ( S),
então o conjunto S ∪ {v } que resulta do acréscimo de v a S ainda é linearmente independente.
2. Se v for um vetor em S que pode ser expresso como combinação linear dos outros vetores de S, e
se S−{v } denotar o conjunto obtido removendo v de S, então S e S−{v } geram o mesmo espaço,
ou seja, ger ( S )=ger ( S−{ v } ).
Prova:
1. Suponha que S={v 1 , v 2 , … , v r } seja um conjunto linearmente independente de vetores em V , e
que v seja um vetor em V que está fora do ger (S). Para mostrar que S' ={v 1 , v 2 , … , v r , v } é um
conjunto linearmente independente, devemos mostrar que os únicos escalares que satisfazem a
equação k 1 v 1 +k 2 v 2+ …+k r v r +k r +1 v=0 são k 1=k 2=…=k r=k r +1=0. Mas certamente temos
k r+1=0, pois, caso contrário, poderíamos resolver tal equação em v como uma combinação linear
v1 , v 2 , … , v r, contradizendo a nossa suposição de que v está fora do ger ( S). Assim, podemos
simplificar a equação para k 1 v 1 +k 2 v 2+ …+k r v r=0 , o que implica, pela independência linear de
{v 1 , v 2 , … , v r }, que k 1=k 2=…=k r=0.
2. Suponha que S={v 1 , v 2 , … , v r } seja um conjunto de vetores em V e suponha que v r é uma
combinação linear de v 2 , … , v r −1 , digamos, v r=c 1 v 1 +c 2 v 2+ …+c r −1 v r −1. Queremos mostrar que se
v r for removido de S, então o conjunto restante {v 1 , v 2 , … , v r −1 } ainda gera ger ( S), ou seja,
devemos mostrar que cada vetor w em ger ( S) pode ser expresso como uma combinação linear de
{v 1 , v 2 , … , v r −1 }. Mas se w for um vetor em ger ( S), então w pode ser expresso na forma
w=k 1 v1 + k 2 v 2+ …+k r −1 v r−1+ k r v r ou, então,
w=k 1 v1 + k 2 v 2+ …+k r −1 v r−1+ k r ( c 1 v1 +c 2 v 2 +…+ cr −1 v r−1), o que dá w como uma combinação
linear de v1 , v 2 , … , v r−1.
 Teorema: sejam V um espaço vetorial de dimensão n e S um conjunto em V com exatamente n
vetores. Então S é uma base de V se, e só se, S gera V ou S é linearmente independente.
Prova: suponha que S tenha exatamente n vetores e que gere V . Para provar que S é uma base,
devemos mostrar que S é um conjunto linearmente independente. Se esse não for o caso, então algum
vetor v em S é uma combinação linear dos demais vetores. Removendo esse vetor de S, o conjunto
restante de n−1 vetores ainda gera V . Mas isso é impossível, pois nenhum conjunto com menos do
que n vetores pode gerar um espaço vetorial de dimensão n . Assim, S é linearmente independente.
Suponha que S tenha exatamente n vetores e que seja um conjunto linearmente independente. Para
provar que S é uma base, devemos mostrar que S gera V . Se esse não for o caso, então existe algum
vetor v de V que não está no ger (S). Acrescentando esse vetor a S, o conjunto resultante de n+1
vetores ainda é linearmente independente. Mas isso é impossível, pois nenhum conjunto com mais de
n vetores em um espaço vetorial de dimensão n pode ser linearmente independente. Assim, S gera V .
 Teorema: Seja S um conjunto finito de vetores num espaço vetorial V de dimensão finita.
1. Se S gera V , mas não for uma base de V , então S pode ser reduzido a uma base de V removendo
vetores apropriados de S.
2. Se S for um conjunto linearmente independente, mas não for uma base de V , então S pode ser
ampliado a uma base d e V acrescentando vetores apropriados a S.
Prova:
1. Se S for um conjunto de vetores que gera V , mas não é uma base de V , entçao S é um conjunto
linearmente dependente. Assim, algum vetor v em S pode ser expresso como uma combinação
linear dos demais vetores em S. Pelo teorema mais/menos podemos remover v de S e o conjunto
S ' resultante ainda gera V . Se S ' for linearmente independente, então S ' é uma base de V e
podemos parar. Se S ' for linearmente dependente, então podemos remover algum vetor apropriado
de S ' para obter o conjunto S ' ' que ainda gera V . Podemos continuar removendo vetores dessa
maneira até chegar, finalmente, num conjunto de vetores em S que é linearmente independente e
que gera V . Esse subconjunto de S é uma base de V .
2. Suponha que dim ( V )=n. Se S é um conjunto linearmente independente que ainda não é uma base
de V , então S não gera V e, portanto, existe algum vetor v em V que não está no ger ( S). Pelo
teorema mais/menos, podemos acrescentar v a S e o conjunto S ' resultante ainda é linearmente
independente. Se S ' gerar V , então S ' é uma base de V e podemos parar. Se S ' não gerar V ,
então podemos acrescentar algum vetor apropriado a S ' para obter um conjunto S ' ' que ainda é
linearmente independente. Podemos continuar acrescentando vetores dessa maneira até chegar
num conjunto de n vetores linearmente independentes em V . Esse conjunto será uma base de V
pelo teorema anterior.
 Teorema: se W for um subespaço de um espaço vetorial V de dimensão finita, então
1. W tem dimensão finita.
2. dim ( W ) ≤ dim (V ).
3. W =V se, e só se, dim ( W ) =dim ( V ).
Prova:
1. Como W está inserido em um conjunto finito, logo, ele também é finito.
2. O item 1 mostra que W possui dimensão finita, de modo que possui uma base S={w 1 , w 2 , … , w m } .
Ou S também é uma base de V ou não. Se for, então dim ( V )=m, o que significa que
dim ( V )=dim ⁡(W ). Se não for, como S é um conjunto linearmente independente, pode ser ampliado
a uma base de V pela parte 2 do teorema anterior, o que implica que dim ( W ) < dim(V ) . Assim, em
ambos casos, mostramos que dim ( W ) ≤ dim(V ).
3. Suponha que dim ( W ) =dim ⁡(V ) e que S={w 1 , w 2 , … , w m } seja uma base de W . Se S não fosse
também uma base de V , então, por ser linearmente independente, S poderia ser ampliado a uma
base de V pelo item 2 do teorema anterior. Mas isso significaria que dim ( V ) <dim ⁡(W ),
contradizendo nossa hipótese. Assim, S deve ser também uma base de V , o que significa que
W =V .

Afirmações Equivalentes: se A for uma matriz n x n, então as seguintes afirmações são equivalentes, ou
seja, são todas verdadeiras ou todas falsas.
1. A é invertível.
2. A x=0 tem somente a solução trivial.
3. A forma escalonada reduzida por linhas de A é I n.
4. A pode ser expressa como um produto de matrizes elementares.
Prova:
1. → 2. Suponha que A seja invertível e que x 0 seja uma solução qualquer de A x=0. Multiplicando
ambos os lados dessa equação pela matriz A−1, dá A ( A x 0 )= A 0 , ou ( A¿¿−1 A)x 0=0 ¿, ou I x 0=0
−1 −1

, ou seja, x 0=0 . Assim, A x=0 tem somente a solução trivial.


2. → 3. Seja A x=0 a forma matricial do sistema
… + a1 n x n =0

[ a11 x 1+ a12 x 2 +¿ a21 x 1 +a22 x2 +¿

⋮ ⋮
… + a2 n x n =0 +a mn x n=0
¿ ¿ ]
e suponha que o sistema só admita a solução trivial. Resolvendo por eliminação de Gauss-Jordan, o sistema
escalonado reduzido por linhas será
x1 ¿ x2 ¿
¿¿ ¿ ¿
Assim, a matriz aumentada
a11 a12 … a 1n 0
a21 a22 … a 2n 0
⋮ ⋮ ¿… ⋮ ⋮
a m 1 am 2 amn 0
Pode ser reduzida à matriz aumentada
1 0 … 0 0
0 1 … 0 0
⋮ ⋮ ¿…⋮ ⋮
0 0 1 0
por uma sequência de operações elementares com linhas. Desconsiderando a última coluna (de zeros) em cada
uma dessas matrizes, poderemos concluir que a forma escalonada reduzida por linhas de A é I n.
3. → 4. Suponha que a forma escalonada reduzida por linhas de A seja I n, de modo que A pode ser
reduzida a I n por uma sequência finita de operações elementares com linhas. Como cada uma dessa
operações pode ser efetuada por uma matriz elementar apropriada, adotando as matrizes elementares
E1 , E2 ,… , E k tais que Ek … E2 E1 A=I n. Sabendo que as matrizes E1 , E2 ,… , E k são invertíveis,
podemos multiplicar ambos os lados da equação Ek … E2 E1 A=I n por E−1 −1 −1
k , … E2 , E 1 , obtemos

A=E−1 −1 −1 −1 −1 −1
1 E2 Ek I n =E 1 E 2 E k ,
Que expressa A como uma multiplicação de matrizes elementares.
4. → 1. Se A for um produto de matrizes elementares, então a matriz A é um produto de matrizes
invertíveis e, portanto, é invertível.

Você também pode gostar