Você está na página 1de 53

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

1

Materia: Algebra Lineal
9:00am-10:00pm

Moreno Garca Luz Yesenia 10070971
Ramos Salazar Carlos Guillermo 12071352
Matas Olivares Nstor Adrin 10070971

Profesor: Ing. Jurez Cruz Miguel ngel

Fecha de Entrega: 5 de diciembre de 2013










Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

2
Unidad 1-Nmeros Complejos
1.1 Definicin y origen de los nmeros complejos.
Historia de los nmeros complejos
La primera referencia conocida a races cuadradas de nmeros negativos proviene del trabajo de
los matemticos griegos, como Hern de Alejandra en el siglo I antes de Cristo, como resultado de
una imposible seccin de una pirmide. Los complejos se hicieron ms patentes en el Siglo XVI,
cuando la bsqueda de frmulas que dieran las races exactas de los polinomios de grados 2 y 3
fueron encontradas por matemticos italianos como Tartaglia, Cardano.
Aunque slo estaban interesados en las races reales de este tipo de ecuaciones, se encontraban
con la necesidad de lidiar con races de nmeros negativos. El trmino imaginario para estas
cantidades fue acuado por Descartes en el Siglo XVII y est en desuso. La existencia de nmeros
complejos no fue completamente aceptada hasta la ms abajo mencionada interpretacin
geomtrica que fue descrita por Wessel en 1799, redescubierta algunos aos despus y
popularizada por Gauss. La implementacin ms formal, con pares de nmeros reales fue dada en
el Siglo XIX.
Definicin de nmero complejo
Los nmeros complejos son una extensin de los nmeros reales y forman el mnimo cuerpo
algebraicamente cerrado que los contiene. El conjunto de los nmeros complejos se designa como
C siendo R el conjunto de los reales se cumple que RC. Los nmeros complejos incluyen todas las
races de los polinomios, a diferencia de los reales. Todo nmero complejo puede representarse
como la suma de un nmero real y un nmero imaginario (que es un mltiplo real de la unidad
imaginaria, que se indica con la letra i), o en forma polar.
Los nmeros complejos son la herramienta de trabajo del lgebra, anlisis, as como de ramas de
las matemticas puras y aplicadas como variable compleja, ecuaciones diferenciales, aerodinmica
y electromagnetismo entre otras de gran importancia. Adems los nmeros complejos se utilizan
por doquier en matemticas, en muchos campos de la fsica (notoriamente en la mecnica
cuntica) y en ingeniera, especialmente en la electrnica y las telecomunicaciones, por su utilidad
para representar las ondas electromagnticas y la corriente elctrica.
En matemticas, estos nmeros constituyen un cuerpo y, en general, se consideran como puntos
del plano: el plano complejo. Una propiedad importante que caracteriza a los nmeros complejos
es el teorema fundamental del lgebra pero que se demuestra an en un curso de variable
compleja , que afirma que cualquier ecuacin algebraica de grado n tiene exactamente n
soluciones complejas. Contienen a los nmeros reales y los imaginarios puros y constituyen una de
las construcciones tericas ms importantes de la inteligencia humana. Los anlogos del clculo
diferencial e integral con nmeros complejos reciben el nombre de variable compleja o anlisis
complejo.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

3

1.2 Operaciones fundamentales con nmeros complejos.
Adicin.- Dados los complejos Z1 = (a;b) y Z2 = (c ;d). Se define
Z1 + Z2 = (a; b) + (c; d) = (a +c; b+ d)
Sustraccin.- Se obtiene sumando al minuendo el opuesto del sustraendo:
Z1 + (-22) = (a; b) + (-c ; d) = (a c ; b-d)
Multiplicacin.- Dados los complejos Z1 = (a ; b) y Z2 = (c ; d), se define
Z1 * Z2 = (a*c-b*d; a*d + b*c)
Potenciacin.- La potenciacin de un numero complejo con potencia natural, se resuelve como
una multiplicacin reiterada: Zn = (a ; b)n = (a ;b)1.(a ; b)2(a ; b)n asociado de a dos pares los
pares ordenados.
Forma Binomica.- La forma Binomica de un numero complejo es: Z = a + bi
Operaciones de nmeros complejos en su forma Binomica: La suma y diferencia de nmeros
complejos se realiza sumando y restando partes reales entre si y partes imaginarias entre s.
+(a +bi) + (c + di) = (a+c) + (b+d) i
-(a +bi) - (c + di) = (a-c) + (b-d) i
Multiplicacin con nmeros complejos.- El producto de los nmeros complejos se realiza
aplicando la propiedad distributiva del producto respecto de la suma y teniendo en cuenta que
i2 = -1 (a + bi) (c + di) = (ac-bd) + (ad + bc) i
Divisin con nmeros complejos.- El cociente de nmeros complejos se hace racionalizando el
denominador; esto es, multiplicando numerador y denominador por el conjugado de este.

1.3 Potencias de i, mdulo o valor absoluto de un nmero complejo.
Potencias de la unidad imaginaria
i0 = 1
i1 = i
i2 = 1
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

4
i3 = i
i4 = 1
Los valores se repiten de cuatro en cuatro, por eso, para saber cunto vale una determinada
potencia de i, se divide el exponente entre 4, y el resto es el exponente de la potencia equivalente
a la dada.
Valor absoluto
El valor absoluto, mdulo o magnitud de un nmero complejo z viene dado por la siguiente
expresin: Si pensamos en z como un punto en el plano; podemos ver, por el teorema de
Pitgoras, que el valor absoluto de un nmero complejo coincide con la distancia eucldea desde el
origen del plano. Si el complejo est escrito en forma polar z = r ei, entonces |z| = r. Podemos
comprobar con facilidad estas tres importantes propiedades del valor absoluto para cualquier
complejo z y w. Por definicin, la funcin distancia queda como sigue d(z, w) = |z - w| y nos provee
de un espacio mtrico con los complejos gracias al que se puede hablar de lmites y continuidad.
La suma, la resta, la multiplicacin y la divisin de complejos son operaciones continuas. Si no se
dice lo contrario, se asume que sta es la mtrica usada en los nmeros complejos.




1.4 Forma polar y exponencial de un nmero complejo.
Forma Polar
El producto de dos nmero complejos diferente de cero est dado en la forma polar por el
producto de sus valores absolutos y la suma de sus argumentos. El cociente de dos nmeros
complejos diferentes de cero est dado por el cociente de sus valores absolutos y la diferencia de
sus argumentos.






Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

5

Forma exponencial
A veces, y por simple comodidad se prefiere trabajar con la forma trigonomtrica en vez de con la
forma binomica: Sea Z un nmero complejo cualquiera su representacin podr expresarse de las
siguientes maneras:


Teorema de Moivre, potencias y extraccin de races de un nmero complejo.
Potencia.
Sea z = r
x
un nmero complejo en forma polar. Para calcular su potencia n-sima, bastar con
multiplicarlo por s mismo n veces, con lo que se obtiene:
z
n
= zz..(n veces)..z = (r
x
)(r
x
)..(n veces)..(r
x
) = (rr..(n veces)..r)
x+x+..(n veces)..+x
= (r
n
)
nx
Es decir: (r
x
)
n
= (r
n
)
nx
Si escribimos el nmero z en forma trigonomtrica obtenemos:
z = r(cos x + isen x) ==> z
n
= r
n
(cos x + isen x)
n
= r
n
(cos nx + isen nx)
De donde: cos(nx) + isen(nx) = (cos x + isen x)
n
expresin que recibe el nombre de frmula de
Moivre. Como aplicacin de esta frmula podemos obtener las razones trigonomtricas seno y
coseno de mltiplos de un ngulo conocidas las razones trigonomtricas del ngulo.

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

6

Radicacin de Nmeros Complejos
La operacin de radicacin es inversa a la de potenciacin
Para un nico nmero complejo zn , existen varios complejos z, que al elevarlos a la
potencia n, nos da el mismo complejo zn.
Para hallar las races de un nmero complejo se aplica la frmula de Moivre, teniendo en
cuenta que para que dos complejos coincidan han de tener el mismo mdulo y la
diferencia de sus argumentos ha de ser un mltiplo entero de 360.
Sea Ra un nmero complejo y considrese otro complejo R'a', tal que:
Ra = (R' a)n = ((R' )n )n a'
Aunque esto parece aportar una infinidad de soluciones, ntese que si a k se le suma un
mltiplo de n, al dividir el nuevo argumento, ste aparece incrementado en un nmero
entero de circunferencias. Por tanto, basta con dar a k los valores 1, 2, 3, ..., n-1, lo que da
un total de n - 1 races, que junto a k = 0 da un total de n races.
Raz Cuadrada
Vamos a hallar:
Primero pasamos z=4+3i a forma polar:
z = 4+3i = 536.9
La raz cuadrada de z, tendr de mdulo la raz cuadrada del mdulo de z y de argumento,
el de z dividido por 2.
Las dos soluciones de esta raz cuadrada son:
Si k=0 --> z1=18.4
Si k=1 --> z2=198.4

Si le seguimos dando valores a k = 2, 3, 4, ... veremos que las soluciones que salen
coinciden con las ya mencionadas, despus de haber dado 1, 2, 3, ... vueltas a la
circunferencia.
Todas estas operaciones que hemos hecho las puedes ver en la escena, y ver cmo
quedan los vectores, tanto de z como de z1 y z2
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

7

Raz Cbica
Primero pasamos z = 2+4i a forma polar: z = 2+4i = 4.563.4
La raz cbica de z, tendr de mdulo la raz cbica del mdulo de z y de argumento, el de
z dividido por 3.
Las tres soluciones de esta raz cbica son:
Si k=0 --> z1=1.621.1
Si k=1 --> z2=1.6141.1
Si k=2 --> z3=1.6261.1

















Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

8
Unidad 2.- Matrices y Determinantes.
En matemticas, una matriz es una tabla bidimensional de nmeros consistente en cantidades
abstractas que pueden sumarse y multiplicarse. Las matrices se utilizan para describir sistemas de
ecuaciones lineales, realizar un seguimiento de los coeficientes de una aplicacin lineal y registrar
los datos que dependen de varios parmetros.
Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos o entradas de la
matriz) ordenados en filas y columnas, donde una fila es cada una de las lneas horizontales y una
columna es cada una de las lneas verticales. A una matriz con m filas y n columnas se le denomina
matriz m-por-n (escrito mn), y a m y n dimensiones de la matriz. Las dimensiones de una matriz
siempre se dan con el nmero de filas primero y el nmero de columnas despus
Notacin:
Casi siempre, se denotan a las matrices con letras maysculas mientras que se utilizan las
correspondientes letras en minsculas para denotar a los elementos de las mismas.
Por ejemplo, al elemento de una matriz A que se encuentra en la fila i-sima y la columna j-sima
se le denota como ai,j o a[i,j]. Notaciones alternativas son A[i,j] o Ai,j. Adems de utilizar letras
maysculas para representar matrices, se representan a las matrices con fuentes en negrita para
distinguirlas de otros tipos de variables. As A es una matriz, mientras que A es un escalar.
Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos) ordenados
en filas y columnas, donde una fila es cada una de las lneas horizontales de la matriz y una
columna es cada una de las lneas verticales. A una matriz con m filas y n columnas se le denomina
matriz m-por-n (escrito mn). Las dimensiones de una matriz siempre se dan con el nmero de
filas primero y el nmero de columnas despus.

Comnmente se dice que una matriz m-por-n tiene un orden de m n ("orden" tiene el significado
de tamao). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos
elementos.

Ejemplo:

Dada la matriz:



Que es una matriz 4x3. El elemento A[2,3] es el 7

La matriz: es una matriz 19, o un vector fila con 9
elementos.

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

9

2.2. Operaciones con matrices
SUMA:

Propiedades
-Asociativa
Dadas las matrices mn A, B y C
(A + B) + C = A + (B + C)

-Conmutativa
Dadas las matrices mn A y B
A + B = B + A

-Existencia de matriz cero o matriz nula
A + 0 = 0 + A = A
PRODUCTO POR UN ESCALAR:
Dada una matriz A y un escalar c, su producto cA se calcula multiplicando el escalar por cada
elemento de A

Propiedades
Sean A y B matrices y c y d escalares.
-Clausura: Si A es matriz y c es escalar, entonces cA es matriz.
-Asociatividad: (cd)A = c(dA)
-Elemento Neutro: 1A = A
-Distributividad:
-De escalar: c(A+B) = cA+cB
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

10
-De matriz: (c+d)A = cA+dA


PRODUCTO DE DOS MATRICES:
El producto de dos matrices se puede definir slo si el nmero de columnas de la matriz izquierda
es el mismo que el nmero de filas de la matriz derecha. Si A es una matriz mn y B es una
matriz np, entonces su producto matricial AB es la matriz mp (m filas, p columnas).
Por ejemplo:

Propiedades
Si los elementos de la matriz pertenecen a un cuerpo, y puede definirse el producto, el producto
de matrices tiene las siguientes propiedades:
-Propiedad asociativa: (AB)C = A(BC).
-Propiedad distributiva por la derecha: (A + B)C = AC + BC.
-Propiedad distributiva por la izquierda: C(A + B) = CA + CB.
-En general, el producto de matrices tiene divisores de cero: Si A.B = 0 , No
necesariamente A B son matrices nulas
-El producto de matrices no verifica la propiedad de simplificacin: Si A.B = A.C, No
necesariamente B=C.
-El producto de dos matrices generalmente no es conmutativo, es decir, AB BA. La divisin entre
matrices, es decir, la operacin que podra producir el cociente A / B, no se encuentra definida. Sin
embargo, existe el concepto de matriz inversa, slo aplicable a las matrices invertibles.

Si A es una matriz m x r y B es una matriz r x n, entonces el producto AB es la matriz m x n cuyos
elementos se determinan como sigue. Para encontrar el elemento en el rengln "i" y en la
columna "j" de AB, considerar solo el rengln "i" de la matriz A y la columna "j" de la matriz B.
Multiplicar entre si los elementos correspondientes del rengln y de la columna mencionados y
luego sumar los productos restantes.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

11
Ejemplo:

Como A es una matriz 2 x 3 y B es una matriz 3 x 4, el producto AB es una matriz 2 x 4. Para
determinar, por ejemplo, el elemento en el rengln 2 y en la columna 3 de AB, solo se consideran
el rengln 2 de A y la columna 3 de B. Luego, como se ilustra a continuacin, los elementos
correspondientes (en tipo negro) se multiplican entre si y se suman los productos obtenidos.

(2*4) + (6*3) + (0*5) = 26
y as obtenemos el siguiente resultado:
(1*4) + (2*0) + (4*2) = 12
(1*1) + (2*1) + (4*7) = 27
(1*4) + (2*3) + (4*5) = 30
(1*3) + (2*1) + (4*2) = 13
(2*4) + (6*0) + (0*2) = 8
(2*1) + (6*1) + (0*7) = -4
(2*3) + (6*1) + (0*2) = 12

2.3 Clasificacin de las matrices.

Triangular superior

En una matriz triangular superior los elementos situados por debajo de la diagonal principal son
ceros.

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

12

Triangular inferior

En una matriz triangular inferior los elementos situados por encima de la diagonal principal son
ceros.


Diagonal

En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal
principal son nulos.



Escalar

Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son
iguales.



Identidad
Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son
iguales a 1.



Potencia

Se llama potencia k-sima de una matriz cuadrada A, donde k OE , un entero positivo, al
producto de A por s misma, repetido k veces.

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

13
Ak =AAA......k veces ...... A

Se conviene en que:

A- k = (A- 1) k " k OE

A0 = I

Traspuesta
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando
ordenadamente las filas por las columnas



(At)t = A
(A + B)t = At + Bt
( A)t = At
(A B)t = Bt At

Simtrica

Una matriz simtrica es una matriz cuadrada que verifica: A = At.

Antisimetrica

Una matriz antisimtrica o hemisimtrica es una matriz cuadrada que verifica: A = -At.

Compleja

Sus elementos son nmeros complejos aij e

Conjugada

Matriz conjugada de una matriz A Aquella que se obtiene sustituyendo cada elemento por su
complejo conjugado (igual parte real, pero la parte imaginaria cambiada de signo).

Hermitiana o hermitica

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

14
Una matriz hermitiana (o hermtica) es una matriz cuadrada de elementos complejos que tiene la
caracterstica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-sima fila
y j-sima columna es igual al conjugado del elemento en la j-sima fila e i-sima columna, para
todos los ndices i y j:



O, escrita con la traspuesta conjugada A*: Por ejemplo,



Es una matriz hermtica.

Antihermitiana
Una Matriz antihermitiana es una matriz cuadrada cuya traspuesta conjugada es menos la matriz.
Esto es si satisface a la relacin:

A * = -A

O en su forma componente, si (A = ai,j):

Para toda la i y las j.

Ortogonal

Una matriz ortogonal es necesariamente cuadrada e invertible : A-1 = AT La inversa de una matriz
ortogonal es una matriz ortogonal. El producto de dos matrices ortogonales es una matriz
ortogonal. El determinante de una matriz ortogonal vale +1 -1.

2.4 Transformaciones elementales por rengln. Escalonamiento de una matriz. Rango de una
matriz.
La idea que se persigue con las transformaciones elementales es convertir una matriz concreta en
otra matriz ms fcil de estudiar. En concreto, siempre ser posible conseguir una matriz
escalonada, en el sentido que definimos a continuacin.
Sea A una matriz y F una fila de A. Diremos que F es nula si todos los nmeros de F coinciden con
el cero. Si F es no nula, llamamos PIVOTE de F al primer nmero distinto de cero de F contando de
izquierda a derecha.
Una MATRIZ ESCALONADA es aquella que verifica las siguientes propiedades:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

15
Todas las filas nulas (caso de existir) se encuentran en la parte inferior de la matriz.
El pivote de cada fila no nula se encuentra estrictamente ms a la derecha que el pivote
de la fila de encima.
Por ejemplo, entre las matrices:

A no es escalonada, mientras que B y C si lo son.
Dada una matriz escalonada E se define el RANGO de E, que representamos por rg (E), como el
nmero de filas no nulas de E.
En los ejemplos B y C de arriba se tiene rg (B) = rg(C) = 2, sin embargo no podemos decir que
rg(A)=3 ya que A no est escalonada. Otro ejemplo, las matrices nulas tienen rango cero y la matriz
identidad de orden n cumple rg (In) = n.
La siguiente cuestin que abordaremos es la definicin de rango para una matriz cualquiera que
no est escalonada. La idea ser la de transformar la matriz dada en otra que sea escalonada
mediante las llamadas transformaciones elementales por filas que describimos a continuacin.
Dada una matriz A cualquiera, las TRANSFORMACIONES ELEMENTALES por filas de A son tres:
Intercambiar la posicin de dos filas.
Multiplicar una fila por un nmero real distinto de cero.
Sustituir una fila por el resultado de sumarle a dicha fila otra fila que ha sido previamente
multiplicada por un nmero cualquiera.
Nota: Anlogamente podramos hacerlo todo por columnas; sin embargo, son las
transformaciones por filas las que son importantes en los sistemas de ecuaciones lineales que
estudiaremos despus.
El siguiente resultado nos garantiza que siempre podemos transformar una matriz cualquiera en
otra escalonada.
Teorema
A partir de cualquier matriz A se puede llegar, mediante una cantidad finita de transformaciones
elementales, a una matriz escalonada E.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

16
Veamos en un ejemplo cmo se hace. Obsrvese que, primero, hacemos que la componente (1,1)
de la matriz de partida sea igual a uno. Luego, se hace que el resto de componentes de la primera
columna sean cero. Despus se pasa a la componente (2,2), y as sucesivamente.





El teorema anterior nos permite hacer una definicin importante:
Dada una matriz A cualquiera se define el RANGO de A y lo denotamos rg(A) como el rango
de cualquier matriz escalonada E equivalente con A (se demuestra que este nmero no depende de
la matriz escalonada E a la que se llegue). El rango siempre es un nmero menor o igual que el
nmero de filas y el nmero de columnas de A. Adems, el rango es cero si y slo si A = 0. En
nuestro ejemplo de antes, el rango es 3.
Rango de una mat r i z
Rango de una mat r i z : es el nmero de l neas de esa mat r i z ( f i l as o
col umnas) que son l i neal ment e i ndependi ent es.
Una l nea es l i neal ment e dependi ent e de ot r a u ot r as cuando se puede
est abl ecer una combi naci n l i neal ent r e el l as.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

17
Una l nea es l i neal ment e i ndependi ent e de ot r a u ot r as cuando no se puede
est abl ecer una combi naci n l i neal ent r e el l as.
El r ango de una mat r i z A se si mbol i za: r ang( A) o r ( A) .
Tambi n podemos deci r que el r ango es: el or den de l a mayor submat r i z
cuadr ada no nul a. Ut i l i zando est a def i ni ci n se puede cal cul ar el r ango
usando deter mi nantes.
Se puede cal cul ar el rango de una mat r i z por dos mtodos:



Cl cul o del r ango de una mat r i z por el mt odo de Gauss:
Podemos descar t ar una l nea si :
Todos sus coef i ci entes son ceros.
Hay dos l neas i gual es.
Una l nea es pr opor ci onal a ot r a.
Una l nea es combi naci n l i neal de ot r as.
F
3
= 2F
1

F
4
es nul a
F
5
= 2F
2
+ F
1

r ( A) = 2.
En gener al consi st e en hacer nul as el mxi mo nmer o de l neas
posi bl e, y el r ango ser el nmer o de f i l as no nul as.

F
2
= F
2
- 3F
1

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

18
F
3
= F
3
- 2F
1


Por t anto r( A) = 3.





Cl cul o del r ango de una mat r i z por det ermi nant es

1. Podemos descar t ar una l nea si :
Todos sus coef i ci ent es son cer os.
Hay dos l neas i gual es.
Una l nea es pr oporci onal a ot r a.
Una l nea es combi naci n l i neal de ot r as.
Supr i mi mos l a t er cera col umna por que es combi naci n l i neal de l as
dos pr i mer as: c
3
= c
1
+ c
2

2. Compr obamos si ti ene r ango 1, par a el l o se t i ene que cumpl i r que al
menos un el ement o de l a mat r i z no sea cer o y por t ant o su det er mi nante
no ser nul o.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

19
|2|=20
3. Tendr r ango 2 si exi st e al guna submat r i z cuadr ada de orden 2, tal
que su det er mi nant e no sea nul o.

4. Tendr r ango 3 si exi st e al guna submat r i z cuadr ada de or den 3,
t al que su det ermi nant e no sea nul o.

Como todos l os determi nant es de l as submat r i ces son nul os no t i ene
r ango 3, por t anto r( B) = 2.
5. Si t i ene r ango 3 y exi st e al guna submat r i z de or den 4, cuyo
det er mi nant e no sea nul o, t endr r ango 4. De est e mi smo modo se
t r abaj a par a compr obar si t i ene r ango super i or a 4.

Clculo de la inversa de una matriz.
Inversa de una matriz por el mtodo de Gauss.
Dada una matriz cuadrada A, se llama inversa de A y se representa por A
-1
a la matriz tal que
multiplicada por A da la identidad, es decir:

Las matrices A y A
-1
son conmutables, por ello bastara considerar solamente una de las igualdades
de los dos primeros miembros, ya que el cumplimiento de ella supone automticamente el
cumplimiento de la otra.
El clculo de la matriz inversa de una dada no es un proceso sencillo. Aqu lo abordaremos desde
el punto de vista del mtodo de Gauss, posteriormente, en el tema de los determinantes daremos
otro procedimiento.
El clculo de la matriz inversa por el mtodo de Gauss supone, como en el apartado anterior,
transformar una matriz en otra equivalente por filas. La demostracin rigurosa del procedimiento
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

20
que vamos a describir se sale del propsito del presente curso, nosotros nos limitaremos a
exponerlo y a comprobar que efectivamente obtenemos la matriz inversa aplicando la definicin.
En esencia el mtodo consiste, para una matriz cuadrada de orden n, en:
1. Formamos una matriz de orden n x 2n tal que las n primeras columnas son las de matriz A
y las otras n las de la matriz identidad de orden n.
2. Mediante las transformaciones elementales de las filas de una matriz, convertiremos la
matriz anterior en otra que tenga en las n primeras columnas la matriz identidad y en las n
ltimas otra matriz que precisamente ser A
-1





Vemoslo con unos ejemplos:

Calcular la inversa de
Ser:


Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

21
Entonces se tiene que:

Comprobemos si AA
-1
=I

El procedimiento es muy complicado en especial si no podemos encontrar un
pivote que sea igual a uno, pues en ese caso hemos de trabajar siempre con
fracciones.
Si la matriz A es de orden 2, un sistema de ecuaciones nos resuelve el problema:

Sea
Siendo a, b, c, d nmeros a determinar.
Se ha de cumplir:

Sistema de 4 ecuaciones que se puede descomponer en los dos siguientes:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

22

Y la matriz inversa es:




Mat r i z i nver sa
El pr oducto de una mat r i z por su i nver sa es i gual al matr i z i dent i dad.
A A
- 1
= A
- 1
A = I
Cl cul o de l a matr i z i nver sa por el mt odo de Gauss
Sea A una mat r i z cuadr ada de or den n. Par a cal cul ar l a mat r i z i nver sa de
A, que denot ar emos como A
- 1
, segui r emos l os si gui entes pasos:
1 Const r ui r una matr i z del t i po M = ( A | I ) , es deci r , A est en l a
mi t ad i zqui er da de M y l a mat r i z i dent i dad I en l a derecha.
Consi der emos una mat r i z 3x3 ar bi t r ar i a

La ampl i amos con l a mat r i z i dent i dad de or den 3.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

23

2 Ut i l i zando el mt odo Gauss vamos a t r ansf ormar l a mi t ad
i zqui er da, A, en l a mat r i z i dent i dad, que ahor a est a l a der echa, y l a
mat r i z que r esul te en el l ado der echo ser l a matr i z i nver sa: A
- 1
.
F
2
- F
1


F
3
+ F
2


F
2
- F
3


F
1
+ F
2


( - 1) F
2


La mat ri z i nver sa es:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

24

Cl cul o de l a matr i z i nver sa





Cl cul o de l a matr i z i nver sa con Det ermi nant e

1. Cal cul amos el det er mi nant e de l a mat r i z, en el caso que el
det ermi nant e sea nul o l a mat r i z no t endr i nver sa.

2. Hal l amos l a mat r i z adj unt a, que es aquel l a en l a que cada el ement o se
sust i t uye por su adj unt o.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

25

3. Cal cul amos l a t raspuest a de l a mat r i z adj unt a.

4. La mat r i z i nver sa es i gual al i nver so del val or de su det ermi nant e por l a
mat r i z t r aspuest a de l a adj unt a.

2.6 Definicin de determinante de una matriz.


El determinante de una matriz cuadrada es un nmero real cuya definicin exacta es bastante
complicada. Por ello, definiremos primero el determinante de matrices pequeas, y estudiaremos
mtodos y tcnicas para calcular determinantes en general. Solamente se puede calcular el
determinante a matrices cuadradas.
En cuanto a la notacin, a veces el determinante se escribe con la palabra det, y otras veces se
indica sustituyendo los parntesis de la matriz por barras verticales.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

26



Definicin de determinante de una matriz.
Sea A una matriz cuadrada y a
ij
uno cualquiera de sus elementos. Si se suprime la fila i y la columna
j de la matriz A se obtiene una submatriz M
ij
que recibe el nombre de matriz complementaria del
elemento a
ij
.
Dada la matriz:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

27

La matriz complementaria del elemento a
11
es la matriz que resulta de suprimir en la matriz A la
fila 1 y la columna 1; es decir:

Llamamos menor complementario del elemento a
ij
al determinante de la matriz complementaria
del elemento a
ij
, y se representa por a
ij

Se llama adjunto de a
ij
, y se representa por A
ij
, al nmero (1)
i+j
a
ij
.
El determinante de una matriz cuadrada es igual a la suma de los elementos de una fila o
columna cualquiera, multiplicados por sus adjuntos.
Por ejemplo, si desarrollamos un determinante de orden n por los adjuntos de la 1 fila se tiene:

La demostracin es muy fcil, basta con aplicar la definicin de determinante a ambos lados de la
igualdad.
Nota
Esta regla rebaja el orden del determinante que se pretende calcular en una unidad. Para evitar el
clculo de muchos determinantes conviene elegir lneas con muchos ceros

2.7 Propiedades de los determinantes.
Propi edades de l os determi nantes:
1.|A
t
|= |A|
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

28
El det er mi nant e de una mat r i z A y el de su t r aspuest a A
t
son i gual es.


2. |A| =0 Si :
Posee dos l neas i gual es

Todos l os el ement os de una l nea son nul os.

Los el ement os de una l nea son combi naci n l i neal de l as ot r as.

F
3
= F
1
+ F
2

3. Un det er mi nant e t r i angul ar es i gual al pr oduct o de l os el ement os de
l a di agonal pri nci pal .

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

29
4. Si en un det er mi nant e se cambi an ent r e s dos l neas par al el as su
det er mi nant e cambi a de si gno.


5. Si a l os el ement os de una l nea se l e suman l os el ement o s de ot ra
par al el a mul t i pl i cados pr evi ament e por un n r eal el val or del
det er mi nant e no var a.

6. Si se mul t i pl i ca un det er mi nant e por un nmer o r eal , queda
mul t i pl i cado por di cho nmer o cual qui er l nea, per o sl o una.


7. Si t odos l os el ement os de una f i l a o col umna est n f or mados por dos
sumandos, di cho det er mi nant e se descompone en l a suma de dos
det er mi nant es.

8. |A B| =|A| |B| :El det ermi nant e de un pr oduct o es i gual al pr oduct o de
l os det er mi nant es.
2.8 Inversa de una matriz cuadrada a travs de la adjunta.
Inversa de una matriz cuadrada a travs de la adjunta.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

30
Una matriz cuadrada que posee inversa se dice que es inversible o regular; en caso contrario
recibe el nombre de singular.
Propiedades de la inversin de matrices
1. La matriz inversa, si existe, es nica
2. A
-1
A=AA
-1
=I
3. (AB)
-1
=B
-1
A
-1

4. (A
-1
)
-1
=A
5. (kA)
-1
=(1/kA
-1

6.
(A
t
)
1
=(A
-1
)
t
Observacin
Podemos encontrar matrices que cumplen AB = I, pero que BA I, en tal caso, podemos decir que
A es la inversa de B "por la izquierda" o que B es la inversa de A "por la derecha".
Hay varios mtodos para calcular la matriz inversa de una matriz dada:
Directamente (Ejemplo)
Usando determinantes
Por el mtodo de Gauss-Jordn
Dada la matriz buscamos una matriz que cumpla AA
-1
= I, es decir

Para ello planteamos el sistema de ecuaciones:

La matriz que se ha calculado realmente sera la inversa por la "derecha", pero es fcil comprobar
que tambin cumple A
-1
A = I, con lo cual es realmente la inversa de A.

2.9 Aplicacin de matrices y determinantes.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

31
Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasicar
valores numricos atendiendo a dos criterios o variables.
Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos ellos
se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la
tabla siguiente:

Sabiendo que en un ao se venden el siguiente nmero de paquetes:

Resumir la informacin anterior en 2 matrices A y B, de tamao respectivo 2x3 y 3x2 que recojan
las ventas en un ao (A) y los precios (B).
Nos piden que organicemos la informacin anterior en dos matrices de tamao concreto. Si nos
jamos en las tablas, es sencillo obtener las matrices:

Estas matrices se denominan matrices de informacin, y simplemente recogen los datos
numricos del problema en cuestin.
Otras matrices son las llamadas matrices de relacin, que indican si ciertos elementos estn o no
relacionados entre s. En general, la existencia de relacin se expresa con un 1 en la matriz y la
ausencia de dicha relacin de expresa con un 0.
Estas matrices se utilizan cuando queremos trasladar la informacin dada por un grafo y
expresarla numricamente.
En Matemticas, un grafo es una coleccin cualquiera de puntos conectados por lneas. Existen
muchos tipos de grafos. Entre ellos, podemos destacar:
Grafo simple: Es el grafo que no contiene ciclos, es decir, lneas que unan un punto
consigo mismo, ni lneas paralelas, es decir, lneas que conectan el mismo par de puntos.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

32
Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada lnea, mediante una
echa.
Estos tipos de grafo pueden verse en la gura:


Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas, nosotros nos
jaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos
exclusivamente, de tal forma que:
un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i hasta el punto de
la columna j mediante una lnea que los una directamente.
un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante
una lnea que los una directamente.
La matriz de adyacencia del grafo dirigido de la gura anterior ser:









Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

33


UNIDAD 3.-SISTEMA DE ECUACIONES LINEALES
3.1.- DEFINICION DE SISTEMAS DE ECUACIONES LINEALES
En matemticas y lgebra lineal, un sistema de ecuaciones lineales, tambin
conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es
un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en
donde cada ecuacin es de primer grado), definidas sobre un cuerpo o un
anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sera el
siguiente:



El problema consiste en encontrar los valores desconocidos de las variables
x1, x2 y x3 que satisfacen las tres ecuaciones.

El problema de los sistemas lineales de ecuaciones es uno de los ms
antiguos de la matemtica y tiene una infinidad de aplicaciones, como en
procesamiento digital de seales, anlisis estructural, estimacin, prediccin
y ms generalmente en programacin lineal as como en la aproximacin de
problemas no lineales de anlisis numrico.

En general, un sistema con m ecuaciones lineales y n incgnitas puede ser
escrito en forma normal como:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

34


3.2.-CLASIFICACION DE LOS SISTEMAS DE ECUACIONES LINEALES Y
TIPOS DE SOLUCION
Podemos clasificar los sistemas de ecuaciones lineales segn su nmero de
soluciones de la siguiente forma:
Sistemas con una solucin: Las ecuaciones del sistema son rectas
secantes. Se cortan en un punto (x, y) que es la solucin del sistema
Sistemas sin solucin: Las ecuaciones del sistema son rectas paralelas.
No tienen ningn punto en comn, y por tanto no hay solucin
Sistemas con infinitas soluciones: Las ecuaciones del sistema son rectas
coincidentes. Tienen todos los puntos en comn, y por tanto todos
ellos son solucin

3.3.-INTERPRETACION GEOMETRICA DE LAS SOLUCIONES
Un sistema de ecuaciones diferenciales son aquellas que tienen varias
posibilidades para su solucin. Estas son:
1. Solucin nica: Slo es posible obtener una solucin nica para un sistema
de ecuaciones lineales intersectado en un nico punto determinado, por lo
tanto, el sistema de ecuaciones donde tenemos todas las rectas
entrecruzndose en un solo punto, se denomina como la solucin nica del
sistema de ecuaciones. Ese sistema de ecuaciones lineales es llamado
sistema de ecuaciones lineales consistente independiente. Grficamente se
representa,
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

35

2. Sin solucin: Es posible que un sistema de ecuaciones lineales no tenga
solucin cuando ningunas de sus rectas se intersectan entre s ni siquiera en
el infinito, ya que slo el punto de interseccin es la solucin para el sistema
de ecuaciones lineales Esto slo puede ocurrir en el caso de las rectas
paralelas, por lo tanto, para un sistema con este tipo de ecuacin tenemos
varias ecuaciones que corresponden a la misma recta y que slo difieren por
la pendiente. Dicho sistema se denomina sistema de ecuaciones lineales
inconsistente independiente. Grficamente podemos representarlo como,

3. Infinitas soluciones: Slo en la situacin que las rectas de determinado
sistema se encuentren unas con otras en un punto infinito, podemos obtener
soluciones infinitas. Esto slo puede suceder si todas las rectas son la misma
recta, ya que es en este escenario que se superpondrn unas con otras
dndonos puntos infinitos de interseccin, es decir, infinitas soluciones. Este
sistema es llamado sistema de ecuaciones lineales consistente dependiente.
Grficamente podemos representarlo como,
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

36


3.4.- METODOS DE SOLUCION DE UN SISTEMA DE
ECUACIONESLINEALES: GAUSS, GAUSS-JORDAN, INVERSA DE UNA
MATRIZ Y REGLA DE CRAMER
Mtodo de Gauss
El mtodo de Gauss consi st e en tr ansf or mar un si st ema de ecuaci ones en
ot ro equi val ent e de f or ma que st e sea escal onado.
Par a f aci l i t ar el cl cul o vamos a t r ansf ormar el si st ema en una mat r i z, en l a
que pondr emos l os coef i ci ent es de l as vari abl es y l os t rmi nos
i ndependi ent es ( separ ados por una r ect a) .


MTODO DE RESOLUCIN DE GAUSS-JORDAN

Es el mtodo de resolucin de sistemas de ecuaciones lineales, que consiste
en llegar a un sistema "escalonado" transformando la matriz ampliada en una
matriz escalonada por filas. El mtodo de Gauss es una generalizacin del
mtodo de reduccin, que utilizamos para eliminar una incgnita en los
sistemas de dos ecuaciones con dos incgnitas. Consiste en la aplicacin
sucesiva del mtodo de reduccin, utilizando los criterios de equivalencia de
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

37
sistemas, para transformar la matriz ampliada con los trminos
independientes ( A* ) en una matriz triangular, de modo que cada fila
(ecuacin) tenga una incgnita menos que la inmediatamente anterior.
Se obtiene as un sistema, que llamaremos escalonado, tal que la ltima
ecuacin tiene una nica incgnita, la penltima dos incgnitas, la
antepenltima tres incgnita, y la primera todas las incgnitas.

REGLA DE CRAMER

La regla de Cramer utiliza las propiedades de las matrices y sus
determinantes para despejar, por separado, una cualquiera de las incgnitas
de un sistema de ecuaciones lineales.

Un sistema de ecuaciones lineales recibe el nombre de sistema de Cramer
cuando se cumplen las dos condiciones siguientes:
El nmero de ecuaciones es igual al nmero de incgnitas.
El determinante de la matriz de los coeficientes (matriz del sistema) es
distinto de cero (det ( A ) 0)
Un sistema de Cramer es, por definicin, compatible determinado, puesto
que se cumple que rango (A) = rango (A*) = n (n de incgnitas).

MTODO DE LA MATRIZ INVERSA

Consideremos un sistema de n ecuaciones lineales con n incgnitas, cuya
expresin general es la siguiente:

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

38


Hemos visto que este sistema se puede escribir en forma matricial del
siguiente modo: A X = B.

La matriz A se llama matriz del sistema, es de dimensin n x n y sus
elementos son los coeficientes de las incgnitas.

La matriz X es una matriz columna, de dimensin n x 1, formada por las
incgnitas del sistema. Por ltimo, la matriz B es otra matriz columna, de
dimensin n x 1, formada por los trminos independientes


3.5.-APLICACIONES
Es usada ampliamente en lgebra abstracta y anlisis funcional. El lgebra
lineal tiene una representacin concreta en la geometra analtica, y tiene
aplicaciones en el campo de las ciencias naturales y en las ciencias sociales.
El lgebra Lineal tambin tiene un papel importante en el clculo, sobre todo
en la descripcin de derivadas de orden superior en el anlisis vectorial y en
el estudio del producto tensorial (en fsica, buscar momentos de torsin) y de
las aplicaciones anti simtricas.




Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

39

















4.2 Definicin de subespacio vectorial y sus
Propiedades.

DEFINICIN. Decimos que V es un espacio vectorial sobre un cuerpo K si sobre V se definen dos
operaciones, SUMA y PRODUCTO POR ESCALARES tales que:

SUMA +: V V V verifica:

Asociativa: (u + v) + w = u + (v + w) para todo u, v, w V.
Elemento neutro: existe 0V V , nico, tal que u + 0V = 0V + u = u u V.
Elemento opuesto: u V, nico, existe -u V tal que u + (-u) = (-u) + u = 0V.
Conmutativa: u + v = v + u para todo u, v V.

PRODUCTO POR ESCALARES K: K V V verifica:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

40

1K v = v para todo v V.
(a b) v = a (b v) para todo v V y para todo a, b K.
a (v + w) = a v + a w para todo v, w V y para todo a K.
(a + b) v = a v + b v para todo v V y para todo a, b K.

Los elementos de V se llaman vectores y los de K escalares.

4.2 Definicin de subespacio vectorial y sus propiedades.
Definicin: Sea H un subconjunto no vaco de un espacio vectorial V y suponga que H es en s un
espacio vectorial bajo las operaciones de suma y multiplicacin por un escalar definidas en V.
Entonces se dice que H es un subespacio de V.
Se puede decir que el subespacio H hereda las operaciones del espacio vectorial padre V.
TEOREMA 1
Un subconjunto no vaco H es un espacio vectorial V es un subespacio de V si se cumplen
las dos reglas de cerradura. Este teorema demuestra que para probar si H es o no un subespacio
de V, es suficiente verificar que
x + y y ax estn en H cuando x y y estn en H y a es un escalar.
Lo anterior dice que:
Todo subespacio de un espacio vectorial V contiene al 0.
Ejemplo: El subespacio trivial: Para cualquier espacio vectorial V, el subconjunto 0 que consiste
en el vector cero nada ms es un subespacio ya que 0+0= 0 y a0 = 0 para todo nmero real a.
TEOREMA 2
Sean H
1
y H
2
dos subespacios de un espacio vectorial V. Entonces H
1
H
2
es un subespacio de V.
4.3 Combinacin lineal. Independencia lineal.

Definicin. Dependencia e independencia lineales. Sean v
1
, v
2
, ..., v
n
n vectores en un espacio
vectorial V. Entonces se dice que los vectores son linealmente dependientes si existen n escalares
c
1
, c
2
, ..., c
n
no todos cero, tales que
c
1
v
1
+ c
2
v
2
+...+c
n
v
n
= 0
Si los vectores no son linealmente dependientes, entonces se dice que son linealmente
independientes.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

41
Expresado de otro modo, v
1
, v
2
, ..., v
n
son linealmente independientes si la ecuacin c
1
v
1
+
c
2
v
2
+...+c
n
v
n
= 0 slo se satisface si c
1
= c
2
= ... = c
n
= 0.
Cmo se determina si un conjunto de vectores es o no linealmente independiente? El caso de dos
vectores es sencillo.
Teorema 1. Dos vectores en un espacio vectorial V son linealmente dependientes si y slo si uno
es un mltiplo del otro.
Teorema 2. Un conjunto de n vectores en
m
es siempre linealmente dependiente si n > m.
Demostracin. Sean v
1
, v
2
, ..., v
n
n vectores en
m
y tratemos de evaluar constantes c
1
, c
2
, ..., c
n
, no
todas nulas, tales que
c
1
v
1
+ c
2
v
2
+...+c
n
v
n
= 0 (1)
Sean . Entonces, la Ecuacin (1) se convierte en
(2)
Corolario. Un conjunto linealmente independiente de vectores en
n
contiene, a lo sumo, n
vectores.
Nota. Podemos expresar el corolario como sigue: Si se tienen n vectores-n linealmente
independientes, no es posible agregar ms vectores sin hacer que el conjunto obtenido sea
linealmente dependiente.
Teorema 3. Sea

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

42
Entonces las columnas de A, consideradas como vectores, son linealmente dependientes si y slo
si el sistema (2), que puede ser expresado como Ac = 0, posee un nmero infinito de soluciones.
Aqu,
Teorema 4. Sean v
1
, v
2
, ..., v
n
, n vectores en
n
, y sea A una matriz de n x n cuyas columnas son v
1
,
v
2
, ..., v
n
. Entonces v
1
, v
2
, ..., v
n
, son linealmente independientes si y slo si la nica solucin al
sistema homogneo Ax = 0 es la solucin trivial x = 0.
Demostracin. Esto es el Teorema 3 en el caso en que m = n.
Teorema 5. Sea A una matriz de n x n. Entonces A 0 si y solamente si las columnas de A son
linealmente independientes.
Teorema 6. Sea A una matriz de n x n. Entonces cada uno de los siguientes siete enunciados
implica a los otros seis (esto es, si uno se verifica, todos son ciertos).
A es invertible.
La nica solucin al sistema homogneo Ax = 0 es la solucin trivial (x = 0).
El sistema Ax = b posee una solucin nica para todo n-vector b.
A es equivalente por filas a la matriz identidad I
n

A puede ser escrita como el producto de matrices elementales.
det A 0.
Las columnas (y los renglones) de A son linealmente independientes.


Combinacin lineal.
Sean v
1
, v
2
, ..., v
n
vectores en un espacio vectorial V. Entonces, toda expresin de la forma
a
1
v
1
+ av
22
+ ...+a
n
v
n

En donde a
1
,a
2
, ..., a
n
son escalares, se llama combinacin lineal de v
1
, v
2
, ..., v
n

4.4 Base y dimensin de un espacio vectorial, cambio de base.

Base: Un conjunto finito de vectores v
1
, v
2
, . . ., v
n
es una base para un espacio vectorial V si
i. v
1
, v
2
, . . ., v
n
es linealmente independiente
ii. v
1
, v
2
, . . ., v
n
genera V.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

43

Todo conjunto de n vectores linealmente independiente R
n
es una base en R
n

En R
n
se define:




Base cannica.- Entonces, como los vectores e
1
son las columnas de una matriz identidad e
1
, e
2
, . .
., e
n
es un conjunto linealmente independiente y, por lo tanto, constituye una base en R
n
.
Base
Un conjunto de vectores {v
1
, v
2
, ..., v
n
} forma una base para V si
{v
1
, v
2
, ..., v
n
} es linealmente independiente.
ii.{v
1
, v
2
, ..., v
n
} genera V.
As pues, todo conjunto de n vectores linealmente independientes en
n
es una base en
n
En
n
definimos:



Como los trminos e
i
son
las columnas de la matriz
identidad (cuyo determinante es 1), entonces {e
1
, e
2
, ..., e
n
} es linealmente independiente y, por
tanto, constituye una base en
n
. Esta entidad especial se llama base cannica en
n
.
Teorema 1. Si {v
1
, v
2
, ..., v
n
} es una base de V y si v V, entonces existe un conjunto nico de
escalares c
1
, c
2
, ..., c
n
tales que v= c
1
v
1
, c
2
v
2
, ..., c
n
v
n
.
Teorema 2. Si {u
1
, u
2
, ..., u
n
} y {v
1
, v
2
, ..., v
n
} son bases del espacio vectorial V, entonces m = n; esto
es, cualesquiera dos bases en un espacio vectorial V poseen el mismo nmero de vectores.
1
0
0
.
e
1
=
0
1
0
.
e
2
=
0
0
1
.
e
3
=
0
0
0
.
e
n
=
,
, ,........
,
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

44
Dimensin
Si el espacio vectorial V posee una base finita, la dimensin de V es el nmero de vectores en la
base, y V se llama espacio vectorial de dimensin finita. De otra manera, V se denomina espacio
vectorial de dimensin infinita. Si V = {0}, entonces V se dice que es de dimensin cero.
Notacin. Se simboliza la dimensin de V como dim V.
Teorema 3. Supngase que dim V = n. Si u
1
, u
2
, ..., u
m
es un conjunto de m vectores linealmente
independientes en V, entonces m n.
Teorema 4. Sea H un subespacio del espacio vectorial V de dimensin finito. Entonces H es finito-
dimensional y
dim H dim V
Demostracin. Sea dim V = n. Cualquier conjunto de vectores en H linealmente independiente, lo
es tambin en V. Por el Teorema 3, cualquier conjunto linealmente independiente en H, cuando
ms, contiene n vectores. As pues, H es de dimensin finita. Ms an, como una base en H es un
conjunto linealmente independiente, se ve que dim H n.
Teorema 5. Cualesquiera n vectores linealmente independientes en un espacio vectorial V de
dimensin n, constituyen una base.
4.5 Espacio vectorial con producto interno y sus propiedades.
DEFINICIN 1
Espacio con producto interno.- Un espacio vectorial complejo V se llama espacio con producto
interno si para cada par ordenado de vectores u y v en V, existe un nmero complejo nico (u,v),
llamado producto interno de u y v, tal que si u, v y w estn en V y

C, entonces




EJEMPLO

i. (v,v) > 0
ii. (v,v) = 0 si y slo si v= 0
iii. (u, v +w) = (u, v ) + (u,w)
iv. (u + v, w)= (u, w) + (v, w)
v. (u, v) = (v,u)
vi. (au, v) = a(u, v)
vii. (u, av)= a (u, v)


Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

45
Un producto interno en Rn .- es un espacio con producto interno con (u, v)= u * v.
Sea V un espacio con producto interno y suponga que u y v estn en V. Entonces
i. U y v son ortogonales si (u, v) = 0
iii. La norma de u, denota por u, est dada por
U = ) , ( u u
Nota: A la u se le pone doble barra para evitar confusin con el valor absoluto
EJEMPLO
Dos vectores ortogonales en C
2
En C
2
los vectores (3, -1) y (2, 6i) son ortogonales porque
((3, -1), (2, 6i)) = 3*2 + (-i)(6i) = 6 + (-i)(-6i) = 6 6 = 0 adems (3, -i)) =
) )( ( 3 * 3 i i =
10
.
Definicin 3
Conjunto ortonormal .- El conjunto de vectores v
1
, v
2
, . . ., v
n
es un conjunto ortonormal
en V si (v
i
, v
j
) = 0 para i j y:
v
i
= ) , 1 ( vj v = 1

Definicin 4
Complemento ortogonal.- Sea H un subespacio del espacio con producto interno V.
Entonces el complemento ortogonal de H, denotado por H, est dado por
H

= x

V : (x, h) = 0 para todo h

H

4.6 Base ortonormal, proceso de ortonormalizacin de Gram-Schmidt.
Proceso de ortonormalizacin Gram-Schmidt.
El proceso de ortogonalizacin de GramSchmidt de lgebra lineal es un proceso utilizado en
matemtica y anlisis numrico, para ortogonalizar un conjunto de vectores en un espacio
prehilbertiano, ms comnmente el espacio eucldeo R
n
.
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

46
Ortogonalizacin en este contexto significa lo siguiente: comenzamos con vectores v
1
,, v
k
los
cuales son linealmente independientes y queremos encontrar mutuamente vectores ortogonales
u
1
, , u
k
los cuales generan el mismo subespacio que los vectores v
1
, , v
k
.
Este proceso lleva el nombre en honor a Jorgen Pedersen Gram y Erhard Schmidt.
Definimos el operador proyeccin con

Donde los corchetes angulares representan el producto interior, proyecta el vector v
ortogonalmente en el vector u.
Antes de ver el proceso, debemos comprender el porqu de la definicin de proyeccin. Si
recordamos la definicin de producto escalar, tenemos para el caso del numerador, mdulo de u
por mdulo de v por el coseno del ngulo que forman. En el denominador tenemos mdulo de u
por mdulo de u, ya que el coseno sera 1. Si separamos los dos mdulos de u en el denominador,
vemos que a la izquierda tenemos nicamente "mdulo de v * cos (ngulo que forman)", lo que
nos da claramente el mdulo del vector proyeccin. Teniendo el mdulo del vector proyeccin lo
nico que debemos hacer es asignarle una direccin, cosa que hacemos multiplicndolo por
u/mdulo(u), lo que es el vector de mdulo 1 con direccin u (el vector unitario).




El proceso de GramSchmidt entonces funciona como sigue:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

47

Los dos primeros pasos del proceso de Gram-Schmidt

Ejemplo
Considera el siguiente conjunto de vectores en R
n
(con el convencional producto interno)

Ahora, aplicamos GramSchmidt, para obtener un conjunto de vectores ortogonales:


Verificamos que los vectores u
1
y u
2
son de hecho ortogonales:
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

48

Entonces podemos normalizar los vectores dividiendo su tamao como hemos mostrado
anteriormente:

















Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

49
UNIDAD #5: TRANSFORMACIONES LINEALES
INTRODUCCION A LAS TRANSFORMACIONES LINEALES
Sean V y W espacios vectoriales reales. Una transformacin lineal T de V en W es una funcin que
asigna a cada vector v V un vector nico Tv W que satisface para cada u y v en V y cada
escalar
T (u+v)=Tu+Tv 1
Y, T(v)= Tv 2
TRES OBSERVACIONES SOBRE NOTACION
1.-Se escribe T: V para indicar que T toma el espacio vectorial real V y lo lleva al espacio
vectorial real W , esto es T es una funcin con V como su dominio y un conjunto de W como su
imagen
2.-se escriben indistintamente Tv y T (v). Denotan lo mismo las dos se leen T de v .Esto es
anlogo a la notacin funcional f(x) que se lee f de x
3.- Gran parte de las definiciones y teoremas en este captulo tambin se cumplen para los
espacios vectoriales complejos (espacios vectoriales en donde los escalares son nmeros
complejos).
Las transformaciones lineales con frecuencia se denominan operadores lineales.
UNA TRANSFORMACION LINELA DE R2 EN R3
Sea T: R2 R3 definida por (

)=(



) Por ejemplo (

)=(

)Entonces:
T (

) (

) =T(

)=(

)=(

)+(

) Pero
(

)=T(

) Y(

) = T(

) As T (

) (

) = T (

) + T (

)
PROPIEDADES DE LAS TRANSFORMACIONES LINEALES : IMAGEN Y NUCLEO
Sean V y W dos espacios vectoriales y sea T: V W una transformacin lineal. Entonces
i) El ncleo de T denotado por nu T, est dado por nu T ={ v V: Tv=0}------------(2)
ii) La imagen de T, denotado por Im T, est dado por
Im T={w W:w= Tv para alguna v en V}---------------------(3)
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

50
Observacin 1: observe que nu T es no vaco porque de acuerdo al teorema 1. T(0)=0 de manera
que 0 nu T para cualquier transformacin lineal T. Se tiene inters en encontrar otros vectores
en V que se trasformen en 0 .De nuevo observe que cuando escribimos T(0)=0 el 0 de la
izquierda est en V y el de la derecha en W
Observacin 2:la imagen de T es simplemente el conjunto de imgenes de los vectores en V bajo
la transformacin T. De hecho si W=Tv, se dice que w es la imagen de v bajo T
Antes de dar ejemplos de ncleos e imgenes se demostrara un teorema de gran utilidad.
Si T: V W es una transformacin lineal ,entonces
i) nu T es un subespacio de V
ii)Im T es un subespacio de W
DEMOSTRACION
i) sean u y v en nu T; entonces T(u+v)=Tu+Tv=0+0=0 y T(u)=Tx=0=0 de forma que u+v y u
estn en nu T
ii)sean w y x en Im T .Entonces w= Tu y x =Tv para dos vectores u y v en V .Esto significa que
T(u+v)=Tu +Tv=w+x y T(u)= Tu= w .Por lo tanto w+x y w estn en Im T .
5.2 Ncleo e imagen de la transformacin lineal
Ncleo e imagen de la transformacin cero:
Sea Tv= 0 para todo v V (T es la transformacin de cero). Entonces nu T =V e Im T={0}
Ncleo e imagen de la transformacin identidad:
Sea Tv=v para todo v V (T es la transformacin de la identidad). Entonces nu T={0} e Im T=V
Las transformaciones cero e identidad proporcionan dos extremos. En la primera todo se
encuentra en el ncleo .En la segunda solo el vector cero se encuentra en el ncleo . Los casos
intermedios son ms interesantes.
5.3 La matriz de una transformacin lineal
Si A es una matriz de mn y T:Rn Rm est definida por Tx = Ax, entonces es una transformacin
lineal. Ahora se ver que para toda transformacin lineal de Rn en Rm existe una matriz A de mn
tal que Tx =Ax para todo x Rn. Este hecho es de gran utilidad, si Tx = Ax. Entonces nu T= Na e Im
T= R .Mas aun v(T) = dim nu T = v(A) y p(T)= dim Im T= p(A). As se puede determinar el ncleo , la
imagen , la nulidad y el rango de una transformacin lineal de Rn Rm determinando el espacio
nulo y la imagen de la matriz correspondiente

Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

51
Defina T: R2 R2 por T=(

)=(

) encuentre At respecto alas bases


B1 y B2= (

) (

)
T (

)=(

) T(

)=(

) entonces (

)=2(

)+0(

) asi (

)=(

) de manera similar
(

)=0(

) (

) asi (

)B2=(

) por lo tanto At = (


)
5.4 Aplicacin de las transformaciones lineales: reflexin, expansin, contraccin y rotacin
Graficar un conjunto de puntos en otro es lo que se conoce como transformacin lineal de un
conjunto de puntos. Existen ciertas propiedades bsicas de las transformaciones lineales, las
cuales si son tomadas en cuenta y aplicadas al momento de resolver un problema, pueden
reducirlo un problema simple. La notacin general utilizada para una transformacin lineal es
T: Rn Rm.
1. Reflexin: Cuando un conjunto de puntos dados es graficado desde el espacio euclidiano de
entrada a otro de manera tal que este es isomtrico al espacio euclidiano de entrada, llamamos a
la operacin realizada la reflexin del conjunto de puntos dado. Esto puede realizarse tambin con
respecto a la matriz, en tal situacin la matriz de salida es llamada la matriz de reflexin. La
reflexin es realizada siempre con respecto a uno de los ejes, sea el eje x o el eje y. Esto es como
producir la imagen espejo de la matriz actual.
2. Expansin: Al igual que en la reflexin, tambin es posible expandir los puntos dados en una
direccin particular. La expansin se realiza habitualmente para un cierto grado. Es como realizar
una operacin de multiplicacin de los elementos del conjunto de puntos dados con un trmino
escalar hacia la direccin donde tiene que ser expandido. Sea para un punto (2, 3) si el grado de
expansin 2 es la direccin de y, entonces el nuevo punto obtenido es (2, 6).
3. Contraccin: La contraccin es el procedimiento inverso de la expansin. Aqu el punto es
contrado en un determinado grado hacia una direccin dada. Sea el punto de entrada (4, 8) y este
debe ser contrado para el grado dos en la direccin de x entonces el nuevo punto resulta ser (2,
8).
4. Rotacin: El trmino rotacin tiene dos significados, ya la rotacin de un objeto puede
ser realizada con respecto al eje dado o al eje mismo. La rotacin se realiza para un cierto grado el
cual es expresado en forma de un ngulo. Asimismo, la rotacin puede realizarse en la direccin
de las manecillas del reloj, o inverso a las manecillas del reloj.
Como ejemplo, dirijmonos a producir la matriz estndar para la representacin de la
transformacin lineal reflejando un conjunto de puntos en el plano x-y a travs de la recta
y = (2x / 3).
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

52
El primer paso para esto es determinar los vectores base.

Por lo tanto, podemos afirmar que,

Dado que y pertenece a R2. Imagina que A: R2 R2 es una transformacin lineal, entonces
podemos escribir que,

La imagen de la matriz base determina la imagen de cualquier elemento. Por lo tanto la imagen de
a travs de y = (2x/ 3) es determinada mediante la obtencin de una recta que pasa por (1, 0) y es
que es ortogonal a . Esto est dado por y = (3x/ 2) (3/ 2).
El punto donde las dos rectas, esto es, y = (3x/ 2) (3/ 2) e y = (2x/ 3) se intersectan se dado
como (9/13, 6/13). Tomamos p1 para ser el punto de reflexin de a travs de la recta dada.
Este punto es simtrico respecto a (9/13, 6/13) por lo tanto, podemos escribir que,

Esto produce, de manera similar, la imagen del vector base resulta ser:

Y tenemos la matriz de transformacin lineal final como,
Ramos Salazar Carlos Guillermo 12071352 Electromagnetismo

53

Você também pode gostar