Você está na página 1de 5

 S  


  

Os demais associados a matrizes quadradas de ordem P apresentam as seguintes propriedades:

P1 ) Quando todos os elementos de uma fila (linha ou coluna) são nulos, o determinante dessa matriz é
nulo.
Exemplo:

P2) Se duas filas de uma matriz são iguais, então seu determinante é nulo.
Exemplo:

P3) Se duas filas paralelas de uma matriz são proporcionais, então seu determinante é nulo.
Exemplo:

P4) Se os elementos de uma fila de uma matriz são combinações lineares dos elementos correspondentes
de filas paralelas, então seu determinante é nulo.
Exemplos:

P5 )  
  : o determinante de uma matriz não se altera quando somamos aos elementos de
uma fila uma combinação linear dos elementos correspondentes de filas paralelas.
Exemplo:

Substituindo a 1ª coluna pela soma dessa mesma coluna com o dobro da 2ª, temos:

c
P5) O valor do determinante de uma matriz R é igual ao determinante da matriz da transposta de R, det R
t
= det (R ).

det R = ps + qr

det Rt = ps ± rq

P7) Ao trocarmos duas linhas ou duas colunas de posição de uma matriz, o valor do seu determinante
passa a ser oposto ao determinante da anterior.

P8) O determinante de uma matriz triangular é igual à multiplicação dos elementos da diagonal principal.
Lembre-se que em uma matriz triangular, os elementos acima ou abaixo da diagonal principal são iguais a
zero.

c
c
P9) Considerando duas matrizes quadradas de ordem iguais e AB matriz   , temos que:

det (AB) = (det A) * (det B), conforme teorema de Binet.


P10) Ao multiplicarmos todos os elementos de uma linha ou de uma coluna pelo mesmo número e
adicionarmos os resultados aos elementos correspondentes de outra linha ou coluna, formamos a matriz
B, onde ocorre a seguinte igualdade: det A = det B. Esse teorema é atribuído a Jacobi.


 S     

P1) A inversa de uma matriz triangular inferior é uma matriz triangular inferior.

P2) A inversa de uma matriz triangular superior é uma matriz triangular superior.
  
P3) Se è .  é inversível, então è      è 

P4) A é inversível, então è    è


-P  P   
P 5) è  è   è è    è 
P P   P
P6) è é inversível e è   è  para P  0,1,2, . . .
 
P7) Para qualquer  constante real, a matriz  . è é inversível e (  è    è .

P8) Se A é uma matriz inversível, então è  também é inversível e è    è   

P9) Se A é uma matriz simétrica inversível, então è é simétrica.

P10) Se A é uma matriz inversível, então è  è  Æ è   è são também inversível.



P11) Ý  è    
Æ Æ è 
cccccccccccccccccccccccccccccc Ý è


 S      


P1) Se uma linha ou coluna é de zeros ĺ todas são dependentes

P2) Se algumas linhas ou colunas são dependentes, então todas o são.

P3) Não se altera a dependência/independência linear se efetuarmos as Operações Elementares:

O1) Troca de linhas/colunas entre si

O2) Multiplicar uma linha/coluna por um fator significativo

O3) Operação de Jacobi ĺAdicionar a uma linha/coluna outra multiplicada por um fator
significativo

P4) Se as linhas de uma matriz são dependentes, então alguma é uma composição linear das outras.

P5) Todas as filas de uma matriz que passem por uma matriz triangular de elementos principais
significativos são sempre independentes.


 S    

Se >  >  é um espaço vetorial sobre um corpo , valem as propriedades:

P1) Para todo  V segue que     

P2) O vetor nulo  é único.

P3) Para todo  V > tem-se que ·     .

P4) Para cada  V > o vetor oposto º > é único.

P5) Seja  V e  V >. Se      então   · ou    

P6) Se      para    V >, então    .

P7) Quaisquer que sejam   V >, existe um único  V > tal que     

P8) Para todo  V e para todo  V > segue que: º    º      º

P9) Para todo  V e para todo  V > segue que: º º   

P10) Se 6   ccVc Æ  V >, então: 6c  c     6    

P11) Se  V Æ 6   ccVc>, então:  6c  c    6  c  



 S    


Se § é um subespaço vetorial de , dizemos que o conjunto de vetores          § é uma


base de § se:

P1)  é um conjunto de geradores de §.

P2)  é linearmente independente (LI).

P3) Se § é um subespaço vetorial de e          § é uma base de §, prova-se que


todas as bases de § têm o mesmo número  de elementos. A dimensão de §, Ý § , é o número 
de elementos de uma qualquer base de §.

P4) Se Ý §    , qualquer conjunto de  vetores linearmente independentes pertencentes a § é uma


base de §, e qualquer conjunto de mais de  vetores de § é linearmente dependente (LD).




 S    
  


P1) Se  >  § é uma transformação linear então ·  ·, ou seja, a imagem do vetor ·GVc> é o
vetor · VG§.

De fato, tomando ô  · na condição o   o  temos:

·  ·  ·   ·

P2) Se  >  § é uma transformação linear temos:


o  o   o  o   o   o    U o  o  V ƒ Æ U   V>
Este fato pode ser generalizado. Assim,

o  o   o PP  o   o    o P P 

ou seja, a imagem de uma combinação linear de vetores de V é a combinação linear, de mesmos


escalares, das imagens    P

P3) Se  >  § é uma transformação linear, então nós só precisamos saber como atua nos vetores
de uma base de > para determinarmos a imagem de qualquer outro vetor de >. Para ver esse fato
tomemos,      P uma base de > e qualquer outro vetor  de >. Como b é uma base de >,
existem únicos escalares ô ô   ô P tais que:

  ô ô  ô PP

Assim,

  ô  ô  ô PP

e, sendo T linear, temos

  ô  ô   ô P P