Você está na página 1de 14

NUMEROS COMPLEJOS

Formas de Par ordenado: Z (a, b)


representación
Binómico: Z = a + bi
Polar: ra -> r = |Z|, a = arctg(b/a)
Trigonométrica: Z = r (cos (a) + i. sen(a))
Suma de Z1 + Z2 = (a + bi) + (c + di) = [ (a + c) + (b + d)I ]
complejos
Multiplicación de Z1 * Z2 = (a + bi) * (c + di) = [ (ac - bd) + (ad + bc)i]
complejos
División de Z1 / Z2 = (a + bi) / (c + di) -> Multiplicamos por el conjugado de Z2
complejos 𝑎 + 𝑏𝑖 𝑐 − 𝑑𝑖
.
𝑐 + 𝑑𝑖 𝑐 − 𝑑𝑖

𝑎𝑐 + 𝑏𝑑 𝑏𝑐 − 𝑎𝑑
+ 𝑖
𝑐 2 + 𝑑2 𝑐 2 + 𝑑2
En forma trigonométrica
𝑧1 𝜑
= (𝑐𝑜𝑠(𝜃 − 𝛼) + 𝑖𝑠𝑒𝑛(𝜃 − 𝛼))
𝑧2 𝑟
Representación
en forma
trigonométrica 𝑟 = |𝑍| = √𝑎2 + 𝑏 2
𝑏
𝛼 = 𝑎𝑟𝑐𝑡𝑔 ( )
𝑎

Potencia de 𝑍 𝑛 = 𝜑 𝑛 (cos(𝑛. 𝜃) + 𝑖. 𝑠𝑒𝑛(𝑛𝜃))


complejos /
Formula de
Moivre
𝑛
Radicación de √𝑍 = 𝑍0 → 𝑍02 = 𝑍 → 𝜑(cos(𝜃) + 𝑖𝑠𝑒𝑛(𝜃)) = 𝑚𝑛 (cos(𝑛𝛿) + 𝑖. 𝑠𝑒𝑛(𝑛𝛿))
complejos 𝑚 𝑛 = 𝜑 → 𝑚 = √𝜑
𝜃 + 2𝑘𝜋
𝑛𝛿 = 𝜃 + 2𝑘𝜋 → 𝛿 =
𝑛
Hasta k = n-1, resultan argumentos distintos. Cuando (k = 0) = (k = n) se empiezan a repetir
los argumentos.

Koppito
En conclusión, todo complejo tiene n raices distintas con módulo 𝑛√𝜑 y argumentos
obtenidos según:
𝜃 + 2𝑘𝜋
∀𝑘 ∈ [0; 𝑛 − 1] / 𝑘 ∈ 𝑁
𝑛
VECTORES

Definición Segmento dirigido con modulo. Tienen sentido, módulo y dirección.


Producto escalar Se define como producto escalar al escalar obtenido como producto entre los módulos de
/ Producto punto dos vectores y el ángulo formado entre ellos.
𝑎⃗. 𝑏⃗⃗ = |𝑎⃗|. |𝑏⃗⃗|. cos(𝛼)
Si expresamos a los vectores en su forma canónica, obtenemos:
𝑎⃗ = 𝑎𝑥 𝑖 + 𝑎𝑦 𝑗 + 𝑎𝑧 𝑘 ; 𝑏⃗⃗ = 𝑏𝑥 𝑖 + 𝑏𝑦 𝑗 + 𝑏𝑧 𝑘
Y realizando su producto como si se tratar de dos polinomios (en forma distributiva), y
teniendo en cuenta los producto de vectores unitario, tenemos:
𝑎⃗. 𝑏⃗⃗ = (𝑎𝑥 𝑖 + 𝑎𝑦 𝑗 + 𝑎𝑧 𝑘). (𝑏𝑥 𝑖 + 𝑏𝑦 𝑗 + 𝑏𝑧 𝑘 ) = 𝑎𝑥 𝑏𝑥 + 𝑎𝑦 𝑏𝑦 + 𝑎𝑧 𝑏𝑧
Producto Se llama producto vectorial a la operación entre dos vectores, donde el resultado es igual a
vectorial un vector c que tiene:
 El módulo igual al producto de los módulos de a y b por el seno del ángulo que
forman dichos vectores.
 La dirección es perpendicular al plano determinado por las direcciones de los
vectores a y b.
El módulo del vector que representa al producto vectorial es igual al área del
paralelogramo construido con los vectores que intervienen en dicho producto vectorial.
Producto mixto Se llama producto mixto de tres vectores ‘a’, ’b’ y ‘c’ y se representa por:
⃗⃗⃗⃗⃗
(𝑎𝑥𝑏⃗⃗) . 𝑐⃗
El resultado del producto punto entre c y el producto vectorial entre a y b.
El producto mixto arrojará un resultado escalar. Este representa el volumen del
paralepípedo consruido sobre los mismos una vez llevados a partir de un origen común.

MATRICES

Tipos de matrices a) Rectangulares: m≠n


a. Verticales: m > n
b. Horizontales: m < n
b) Cuadradas: m = n
c) Transpuesta: Se cambian las filas por las columnas
d) Diagonal: Matriz cuadrada con todas los elementos nulos exceptos los de la
diagonal principal.
e) Escalar: Matriz con todos los elementos de la diagonal principal iguales.
f) Identidad: Matriz con todos los elementos de la diagonal principal igual a 1, y el
resto nulos.
g) Triangular: Todos los elementos por encima o por debajo de la diagonal principal
son nulos.
h) Inversa: Matriz cuadrada tal que: A.A-1 = I
i) Ortogonal: Su transpuesta es igual a su inversa

Koppito
Equivalencia por Se dice que dos matrices son equivalentes por filas cuando ambas matrices tienene la
filas misma matriz reducida por filas. Se llega a la matriz reducida mediante operaciones
elementales de filas.
Obtención de la 𝑥 𝑥 𝑥 1 0 0
matriz inversa [𝑥 𝑥 𝑥 ] [0 1 0]
𝑥 𝑥 𝑥 0 0 1
𝐴𝑝𝑙𝑖𝑐𝑎𝑚𝑜𝑠 𝑜𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑎𝑙𝑒𝑠 𝑑𝑒 𝑓𝑖𝑙𝑎
1 0 0 𝑥 𝑥 𝑥 −1
[0 1 0] [𝑥 𝑥 𝑥 ]
0 0 1 𝑥 𝑥 𝑥
Justificación:
𝐸𝑘 … 𝐸2 𝐸1 . 𝐴 = 𝐼
𝐸𝑘 … 𝐸2 𝐸1 . 𝐴. 𝐴−1 = 𝐼 . 𝐴−1
𝐸𝑘 … 𝐸2 𝐸1 . 𝐼 = 𝐴−1
Propiedades de la 1) La matriz inversa existe y es única
matriz inversa 2) (A-1)-1 = A, es decir, la inversa de la inversa es la matriz inicial.
3) (A*B)-1 = A-1 * B-1
4) |A-1| = 1/|A|
Condiciones de La unica condición para que exista la matriz inversa es que la determinante sea distinta de
existencia de la 0.
matriz inversa

DETERMINANTES

Definición Número intrínseco asociado a cada matriz cuadrada.

Métodos para  Productos cruzados (2 x 2)


calcular  Regla de Saurrus (3 x 3)
determinantes  Regla de Chío (4 x 4)
 Regla de Laplace (n x n)
Propiedad de las 1) Si se traspone la matriz, la determinante no cambia. Consecuencia: Todo lo valido
determinantes para filas tambien es valido para columnas.
2) Si se cambia una fila por otra la determinante cambia de signo. Consecuencia: Si
dos filas son iguales -> Det = 0.
3) Si se multiplica una fila por un escalar, se multiplica la determinante por ese
escalar. Consecuencia: Si una fila es multiplo de otra -> Det = 0.
4) Si una fila es nula, -> Det = 0.
5) Si los elementos de una fila son polinomios de “n” terminos se puede
descomponer en la suma de “n” determinantes. Consecuencia: Se a una fila se le
suma una combinación lineal de otras dos, la determinante no cambia.
6) Si una matriz es triangular la determinantes es igual al producto elemental de la
diagonal. Consecuencia: Se puede calcular triangulando la matrz, teniendo en
cuenta 2) y 3)
7) La determinante del producto de matrces es igual al producto de las
determinantes.
8) La determinante de la inversa es igual a la recíproca de la determinante.

SISTEMAS DE ECUACIONES

Koppito
Cantidad de La cantidad de incógnitas determina la cantidad mínima de ecuaciones para que el sistema
incógnitas sea compatible determinado.
Método de Gauss Se triangula la matriz adjunta:
𝑎11 𝑎12 𝑎13 𝑘1
[ 0 𝑎22 𝑎23 ] = [𝑘2 ] Luego, se reemplazan los valores para resolver las incógnitas
0 0 𝑎33 𝑘3
Método de 𝑎11 𝑎12 𝑎13 𝑘1
Gauss-Jordan [𝑎21 𝑎22 𝑎23 ] = [𝑘2 ]
𝑎31 𝑎32 𝑎33 𝑘3
1 0 0 𝑙1
[0 1 0] = [𝑙2 ] Se lleva a la matriz reducida por filas
0 0 1 𝑙3

Teorema de Si el rango de la matriz ampliada es igual al rango de la matriz principal, entonces el


Rouché- sistema es compatible. Si el rnago de la matriz ampliada es diferente al rango de la matriz
Frobenius principal entonces el sistema es incompatible.
 Sistemas compatibles: Significa que el sistema tiene solución. Pueden ser:
o Determinado (Solución única): R(MA) = R(Mp) = N° de incógnitas
o Indeterminado (Infinitas soluciones): R(Ma) = R(Mp) < N° de incógnitas
 Sistema incompatible: Significa que el sistema no tiene solución.
 Sistemas No Homogéneos: Terminos independientes distintos a 0.
 Sistemas Homogéneos: Terminos independientes igual a 0.

RECTAS

Formas de ̅̅̅̅
𝑶𝑷 = ̅̅̅̅̅̅
𝑶𝑷𝟏 + ̅̅̅̅̅̅
𝑷𝟏 𝑷
representar la ̅̅̅̅̅̅ ⃗⃗
𝑷𝟏 𝑷 = 𝒌. 𝒂
ecuación de una
recta

 Forma general vectorial: (𝒙, 𝒚) = (𝒙𝟏 , 𝒚𝟏 ) + 𝜷(𝒂𝒙 , 𝒂𝒚 )


𝒙−𝒙𝟏 𝒚−𝒚𝟏
 Forma general simétrica: =
𝒂𝒙 𝒂𝒚
𝒙 = 𝒙𝟏 + 𝜷𝒂𝒙
 Forme general paramétrica: {
𝒚 = 𝒚𝟏 + 𝜷𝒂𝒚
 Forma general explícita: 𝒚 = 𝑨𝒙 + 𝑪
 Forma general implicita: 𝟎 = 𝑨𝒙 + 𝑩𝒚 + 𝑪

Koppito
Familia o haz de La totalidad de los rrectas que satisfacen una única condición geométrica se llama familia o
rectas haz de rectas.
Rectas paralelas
y = mx + k
Donde:
 m = Amplitud, todas las rectas tienen la misma amplitud
 k = Escalar que diferencia a todas las rectas

Rectas concurrentes
y – y1 = k (x – x1)
Donde:
 x1 e y1 son las coordenadas del punto
 k es la pendiente que puede tener cualquier valor real

Formas de Vectorial:
representar (𝑥, 𝑦, 𝑧) = (𝑥1 , 𝑦1 , 𝑧1 ) + 𝛽. (𝑎𝑥 , 𝑎𝑦 , 𝑎𝑧 )
rectas en R3
Paramétrica:
𝑥 = 𝑥1 + 𝛽 𝑎𝑥
{𝑦 = 𝑦1 + 𝛽 𝑎𝑦
𝑧 = 𝑧1 + 𝛽 𝑎𝑧

Simétrica:
𝒙 − 𝒙𝟏 𝒚 − 𝒚 𝟏 𝒛 − 𝒛𝟏
= =
𝒂𝒙 𝒂𝒚 𝒂𝒛

Forma normal de Se considera una recta R determinada por el punto P 1(x1;y1) y la dirección normal dada por
la recta el vector n (A;B), con sentido radial (desde el origen del sistema de coordenadas). Este
vector forma un ángulo w con el semiejepositivo de las abscisas. El punto P 1(x1;y1) con el
punto genérico P(x,y), conforman el vector P1P perpendicular al vector n.
[Insertar gráfico bien piolón acá]
Teniendo en cuenta esta condición, podemos escribir, que el producto escalar de ambos
vectores es igual a cero, o sea:
𝑛̅ ̅̅̅̅̅ ̅̅̅̅̅
𝑃1 𝑃 = 0 → {𝑛̅ = 𝐴𝑖̅ + 𝐵𝑗̅}; {𝑃 1 𝑃 = (𝑥 − 𝑥1 )𝑖̅ + (𝑦 − 𝑦1 )𝑗̅}

Y reemplazando resulta:
(𝐴𝑖̅ + 𝐵𝑗̅). [(𝑥 − 𝑥1 )𝑖̅ + (𝑦 − 𝑦1 )𝑗̅] = 0
Resolviendo el producto escalar indicado:
𝐴(𝑥 − 𝑥1 ) + 𝐵(𝑦 − 𝑦1 ) = 0
𝐴𝑥 − 𝐵𝑦 − (𝐴𝑥1 + 𝐵𝑦1 ) = 0
Dividiendo esta última expresión por el modelo del vector n, tendremos:
𝐴𝑥 𝐵𝑦 𝐴𝑥1 𝐵𝑦1
− −( + )=0
|𝑛| |𝑛| |𝑛| |𝑛|
Y como:

Koppito
𝐴 𝐵
= cos(𝜔) ; = 𝑠𝑒𝑛(𝜔)
|𝑛| |𝑛|
Resulta:
𝑥 cos(𝜔) + 𝑦𝑠𝑒𝑛(𝜔) − (𝑥1 cos(𝜔) + 𝑦1 𝑠𝑒𝑛(𝜔)) = 0
Nos queda finalmente:
𝑥1 cos(𝜔) + 𝑦1 𝑠𝑒𝑛(𝜔) = 𝑝

PLANOS

Definición [Definición sacada de Wikipedia]


Un plano es un objeto ideal que solo posee dos dimensiones, y contiene infinitos puntos y
rectas.
Cuando se habla de un plano, se está hablando del objeto geométrico que no posee
volumen, es decir, bidimensional, y que contiene un número inifinito de rectas y puntos.

Consideramos, relacionado con un espacio de tres dimesiones, un plano, en el que se


Ecuación
encuentran definidos un punto particular P1(x1,y1,z1) un punto genérico P(x,y,z).
vectorial del
Entre ambos puntos podemos definir un vector P1P. Supongamos ahoral a existencia de un
plano
vector, que parte del origen del sistema de coordenadas y es perpendicular al plano. Dicho
vector está identificado por n y sus componentes son (A,B,C).
La condición de perpendicularidad de los vectores P 1P y n, dtermina la ecucación vectorial
del plano, a través del producto escalar, el cual debe ser igual a 0.

𝑛̅ ∗ ̅̅̅̅̅
𝑃1 𝑃 = 0
(𝐴𝑖̅ + 𝐵𝑗̅ + 𝐶𝑘). [(𝑥 − 𝑥1 )𝑖̅ + (𝑦 − 𝑦1 )𝑗̅ + (𝑧 − 𝑧1 )𝑘̅ ] = 0
̅
𝐴(𝑥 − 𝑥1 ) + 𝐵(𝑦 − 𝑦1 ) + 𝐶(𝑧 − 𝑧1 ) = 0
𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 − (𝐴𝑥1 + 𝐵𝑦1 + 𝐶𝑧1 ) = 0
𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 + 𝐷 = 0

Esta forma de la ecucación nos permite calcular la distancia desde el plano hasta un punto
Ecuación normal
determinado. Consiuderamos para ello un plano determinado por el punto P1(x 1,y1,z1) y la
o hessiana de un
plano dirección de su normal n(A,B,C). Supongamos que a este vector normalo lo trasladamos al
origen de sistema de coordenadas.
La unión del punto P1 con el punto genérico P determina un vector P1P, de tal manera que
la condición de perpendicularidad, determina la ecucación vectorial del plano.
Ahora, si dividimos la ecuación vectorial del plano por el módulo del vectorn, tenemos:
𝐴 𝐵 𝐶
(𝑥 − 𝑥1 ) + (𝑦 − 𝑦1 ) + (𝑧 − 𝑧1 ) = 0
|𝑛| |𝑛| |𝑛|
Y como sabemos:
𝐴 𝐵 𝐶
= cos(∝) ; = cos(𝛽) ; = cos(𝛾)
|𝑛| |𝑛| |𝑛|
Resolviendo:
𝑥. cos(∝) + 𝑦𝑐𝑜𝑠(𝛽) + 𝑧𝑐𝑜𝑠(𝛾) − (𝑥1 cos(∝) + 𝑦1 cos(𝛽) + 𝑧1 cos(𝛾)) = 0

En forma general, la forma normal o hessiana del plano toma la siguiente forma:
𝑛̅
. ̅̅̅̅̅
𝑃𝑃=0
|𝑛̅| 1

Koppito
CONICAS

CIRCULO

Definición Es el lugar geométrico de un punto que se mueve en un plano de tal forma que se conserva
siempre una distancia constante de un punto fijo de ese plano. El punto fijo se llama centro
y la distancia constante se llama radio.
Teorema Por definición de circunferencia, el punto “P” debe satisfacer la condición geométrica:
̅̅̅̅| = 𝑟
|𝐶𝑃
Entonces, expresamos la distancia “r” entre los puntos “P” y “C”. Mediante el teorema de
Pitágoras:
𝑟 = √(𝑥 − ℎ)2 + (𝑦 − 𝑘)2

𝑟 2 = (𝑥 − ℎ )2 + (𝑦 − 𝑘)2

Ahora, para un caso particular donde h = k = 0, obtenemos:


𝑟2 = 𝑥 2 + 𝑦2

ELIPSE

Definición Es el lugar geométrico del punto tal que la suma de las distancias hacia dos puntos fijos
llamados Focos es igual a una constante mayor que la distancia entre los dos puntos.
Teorema Sea P(x, y ) un punto genérico perteneciente a la elipse, debe satisfacer la siguiente
condición:
̅̅̅̅̅| = 2𝑎
̅̅̅̅ | + |𝐹´𝑃
|𝑃𝐹
√(𝑐 − 𝑥)2 + 𝑦 2 + √(𝑐 + 𝑥)2 + 𝑦 2 = 2𝑎
√(𝑐 − 𝑥)2 + 𝑦 2 = 2𝑎 − √(𝑐 + 𝑥)2 + 𝑦 2
2 2
(√(𝑐 − 𝑥)2 + 𝑦 2 ) = (2𝑎 − √(𝑐 + 𝑥)2 + 𝑦 2 )

Koppito
(𝑐 − 𝑥)2 + 𝑦 2 = 4𝑎2 − 4𝑎√(𝑥 + 𝑐)2 + 𝑦 2 + (𝑥 + 𝑐)2 + 𝑦 2
𝑐 − 2𝑐𝑥 + 𝑥 2 + 𝑦 2 = 4𝑎2 − 4𝑎√(𝑥 + 𝑐)2 + 𝑦 2 + 𝑥 2 + 2𝑐𝑥 + 𝑐 2 + 𝑦 2
2

−4𝑐𝑥 − 4𝑎2 = −4𝑎√(𝑥 + 𝑐)2 + 𝑦 2


2 2
(4(𝑐𝑥 + 𝑎2 )) = (4𝑎√(𝑥 + 𝑐)2 + 𝑦 2 )
𝑐 2 𝑥 2 + 2𝑎2 𝑐𝑥 + 𝑎4 = 𝑎^2 [(𝑥 + 𝑐)2 + 𝑦 2 ]
𝑐 𝑥 + 2𝑎2 𝑐𝑥 + 𝑎4 = 𝑎2 𝑥 2 + 2𝑎2 𝑐𝑥 + 𝑎2 𝑐 2 + 𝑎2 𝑦 2
2 2

Agrupando convenientemente:
𝑎2 (𝑎2 − 𝑐 2 ) = 𝑥 2 (𝑎2 − 𝑐 2 ) + 𝑎2 𝑦 2 ; 𝑏 2 = 𝑎2 − 𝑐 2
𝑎2 𝑏 2 = 𝑏 2 𝑥 2 + 𝑎2 𝑦 2 → 𝑏 2 𝑥 2 + 𝑎2 𝑦 2 = 𝑎2 𝑏 2
𝑥 2 𝑦2
+ =1
𝑎2 𝑏 2

HIPÉRBOLA

Definición Es el lugar geométrico de un punto que se mueve en un plano de tal forma que el valor
absoluto de la diferencia de sus distancias a dos puntos fijos del plano, llamados focos, es
siempre igual a una cantidad constante, positiva y menor que la distancia entre los focos.
La definición de la hipérbola excluye el caso en el que el punto móvilse mueva sobre la
recta que pasa por los focos. Los focos y el punto medio de este segmento no pueden
pertenecer al lugar geométrico.
Teorema ̅̅̅̅ | − |𝐹
||𝑃𝐹 ̅̅̅̅̅
′ 𝑃 || = 2𝑎

√(𝑐 − 𝑥)2 + 𝑦 2 − √(𝑥 + 𝑐)2 + 𝑦 2 = 2𝑎


√(𝑐 − 𝑥)2 + 𝑦 2 = 2𝑎 + √(𝑥 + 𝑐)2 + 𝑦 2
𝑐 − 2𝑐𝑥 + 𝑥 2 + 𝑦 2 = 4𝑎2 + 4𝑎√(𝑥 + 𝑐)2 + 𝑦 2 + (𝑥 + 𝑐)2 + 𝑦 2
2

𝑥 2 − 2𝑐𝑥 + 𝑐 2 = 4𝑎2 + 4𝑎√(𝑥 + 𝑐)2 + 𝑦 2 + 𝑥 2 + 2𝑐𝑥 + 𝑐 2


−4𝑐𝑥 − 4𝑎2 = 4𝑎√(𝒙 + 𝒄)𝟐 + 𝒚𝟐
4 𝑎 + 24𝑎2 . 4𝑐𝑥 + 42 𝑐 2 𝑥 2 = 42 𝑎2 (𝑥 2 + 2𝑐𝑥 + 𝑐 2 + 𝑦 2 )
2 4

16𝑎 + 32𝑎2 𝑐𝑥 + 16𝑐 2 𝑥 2 = 16𝑎2 𝑥 2 + 32𝑎2 𝑐𝑥 + 16𝑎2 𝑐 2 + 16𝑎2 𝑦 2


4

16((𝑐 2 − 𝑎2 )𝑥 2 − 𝑎2 𝑦 2 ) = 16(𝑎2 (𝑐 2 − 𝑎2 ))
(𝑐 2 − 𝑎2 )𝑥 2 − 𝑎2 𝑦 2 = 𝑎2 (𝑐 2 − 𝑎2 )

Sabemos que: b^2 = c^2 – a^2


Reemplazamos:
𝑏 2 𝑥 2 − 𝑎2 𝑦 2 = 𝑎2 𝑏 2
𝑥 2 𝑦2
− =1
𝑎2 𝑏 2

PARÁBOLA

Definición Es el lugar geométrico de un punto que se mueve en un plano de tal manera que su
distancia a una recta fija, situada en el plano, es siempre igual a su distancia a un punto fijo
del plano, llamado foco, que no pertenece a la recta.

Koppito
Teorema ̅̅̅̅ | = |𝑃𝐷
|𝑃𝐹 ̅̅̅̅ |
√(𝑝 − 𝑥) + 𝑦 2 = 𝑥 + 𝑝
2
2
(√(𝑝 − 𝑥)2 + 𝑦 2 ) = (𝑥 + 𝑝)𝟐
𝑝2 − 2𝑝𝑥 + 𝑥 2 + 𝑦 2 = 𝑥 2 + 2𝑝𝑥 + 𝑝2
𝑦 2 = 4𝑝𝑥
𝑦 = ±2√𝑝𝑥

CUADRICAS

SU PUTA MADRE SABE C UALES SON

ESPACIOS VECTORIALES

Definición Un espacio vectorial “V” es un conjunto de objetos, denominados vectores, junto con dos
operaciones llamadas adición o suma y multiplicación por un escalar y que satisfacen los
dies axiomas de los espacios vectoriales.
Axiomas 1) Si ‘u’ y ‘v’ son objetos que pertenecen al espacio vectorial ‘V’, entonces ‘u + v’
tambien pertenece a ‘V’. (Propiedad de cerradura ante la adición vectorial).
2) Si ‘u’ y ‘v’ son objetos que pertenecen al espacio vectorial ‘V’, entonces ‘u + v’ = ‘v
+ u’. (Ley de la conmutatividad de la adición vectorial).
3) Si ‘u’ y ‘v’ son objetos que pertenecen al espacio vectorial ‘V’, entonces: (u + v) +
w = u + (v + w).(Ley de asociatividad de la adición vectorial).
4) Existe un vector 𝑜̅ (vector cero) que pertenece al espacio vectorial ‘V’, de tal
manera que para todo ‘u’ que también pertenece a ‘V’, se cumple: (u + 𝑜̅ ) = (𝑜̅ + u)
= u. (Ley de identidad aditiva o elemento neutro).
5) Para cada vector ‘u’ que pertenece a ‘V’, existe un vector ‘-u’ que tambien
pertenece a ‘V’, tal que: u + (-u) = (-u) + u = 𝑜̅ . (Ley del inverso aditivo).
6) Si ‘u’ es un vector que pertenece al espacio vectorial ‘V’ y ‘k’ es un escalar,
entonces ku también pertenece al espacio vectorial ‘V’. (Ley de cerradura ante la
multiplicación por un escalar).
7) Si ‘u’ y ‘v’ pertenecen al espacio vectorial ‘V’ y ‘k’ es un escalar, entonces k(u+v) =
ku + kv también pertenecen al espacio vectorial ‘V’. (Ley de Distribución).
8) Si ‘u’ es un vector que pertenece al espacio vectorial ‘V’ y ‘k’ y’l’ son escalares,
entonces k (l u) = (k l) u = ku + lu. (Propiedad distributiva respecto a la suma de
escalares).
9) Si ‘u’ es un vector que pertenece al espacio vectorial ‘V’ y ‘k’ y ‘l’ son escalares,
entonces k (l u ) = (k l) u. (Propiedad asociativa respecto al producto de
escalares).
10) Para todo vector ‘u’ que pertenece al espacio vectorial ‘V’, se cumple: 1 u = u. (Ley
de identidad multiplicativa).

SUBESPACIO VECTORIAL

Definición Un subconjunto no vacio ‘W’ de un espacio vectorial ‘V’ es un subespacio de ‘V’ si ‘W’ es un
espacio vectorial bajo las operaciones de adición y multiplicación por un escalar definidas
sobre ‘V’.

CONJUNTO GENERADOR DE ESPACIO VECTORIAL

Base Es un sistema generador cuyos vectores son linealmente independientes.

Koppito
Dimensión Todas las bases de un mismo espacio vectorial tienen el mismo número de vectores y ese
número se llama dimensión del espacio vectorial.
Conjunto Dado un espacio vectorial V, se llama sistema generador de V a un conjunto de vectores,
generador de pertenecientes a V, a partir del cual se puede generar el espacio vectorial V completo. En
espacio vectorial este caso, el espacio vectorial V se denomina conjunto generado o espacio generado.
No confundir este concepto con el de base, ya que si bien toda base es un sistema
generador, la implicación inversa no siempre es cierta. Mientras que una base ha de ser
obligatoriamente un sistema lineal, es decir, todos sus elementos han de ser linealmente
independientes, un sistema generador puede ser ligado, es decir, linealmente
dependiente.

CAMBIO DE BASE

Definición Un espacio vectorial “V” es un conjunto de objetos, denominados vectores, junto con dos
operaciones llamadas adición o suma y multiplicación por un escalar y que satisfacen los
dies axiomas de los espacios vectoriales.

ESPACIOS DE PRODUCTOS INTERIORES

Definición Un producto interior sobre un espacio vectorial ‘V’ es una función que asocia un número
real <u, v> con cada pareja de vectores u y v en V., de tal manera que se satisfacen los
axiomas siguientes para todos los vectores u,v y w que pertenecen a V y todos los escalares
k.
Axiomas 1) <u, v> = <v,u> (Axioma de simetría)
2) <u + v, w> = <u,w> + <v,w> (Axioma de aditividad)
3) <ku, v> = k <u,v> (Axioma de homogeneidad)
4) <v, v> ≥ 0, y <v,v> = 0 si y sólo si v = 0 (Axioma de positividad)
Desigualdad de Si u y v son vectores diferentes de cero en un espacio vectorial V, entonces:
Cauchy-Schwartz
u.v = ||u||.||v||.cos(0), en donde 0 es el ángulo entre u y v.
Si se elevan al cuadrado los dos miemvros de esta expresión y se aplican las relaciones
||u||2 = u . u; ||v||2 = v.v; y cos (0) ≤ 1, se obtiene la desigualdad:
<u, v>2 ≤ <u,u> <v,v>
Conocida como la desigualdad de Cauchy-schwartz y expresada por un teorema que dice:
“Si u y v son vectores en un espacio de productos interiores V, entonces:
<u,v>2 ≤ <u,u> <v,v>
Longitud y ángulo Si v es un espacio de productos interiores, entonces el modulo de un vector u se denota
por [u] y se define por:
||u|| = <u,u>1/2

Distancia La distancia entre dos vectores en un espacio vectorial esta dada por la siguiente ecuación;
d(u, v) = ||u – v ||

Koppito
Teorema 2 Si V es un espacio de productos interiores, entonces la norma ||u|| = <u,u> 1/2 y la
distancia d(u, v) = ||u-v|| satisfacen todas las propiedades que se listan a continuación:
Propiedades Básicas
De Longitud De Distancia
||u|| ≥ 0 d(u, v) ≥ 0
||u|| = 0 ↔ u = 0 d(u, v) = 0 ↔ u = v
||k .u|| = |k| .||u|| d(u, v) = d(v,u)
||u + v|| ≤ ||u|| + ||v|| d(u, v) ≤ d(u, w) + d(w, v)

Teorema 3 – Si u y v son vectores ortogonales en un espacio de productos interiores, entonces:


Teorema de
||u + v||2 = ||u||2 + ||v||2
Pitágoras
generalizado Demostración:
||u+v||2 = <(u + v), (u + v)> = ||u||2 + 2<u,v> + ||v||2

Y como sabemos que los vectores son ortogonales entre sí, el producto interno entre u y v
debe ser igual a 0, por ende:
||u+v||2 = ||u||2 + ||v||2
Normalización de Si v es un vector diferente de 0 en un espeacio de productos interiores, entonces por la
un vector tercera propiedad básica relativa a la longitud (||kv|| = |k| ||v||), el vector (1/||v||).v
tiene modulo 1, dado que:

1 1
|| 𝑣̅ || = . ||𝑣|| = 1
||𝑣|| ||𝑣||

Teorema 4 Si S = {V1,V2,V3…Vn} es una base ortonormal para un espacio de productos interiores V, y u


es cualquier vector en V, entonces
U = <u,v1>v< + <u,v2>v2 +…..+<u,vn>vn
Demostración:
Supuesto que S = {V1,V2,V3…Vn} es una base, un vector u puede expresar como
combinación lineal de la base S:
U = k1v1+k2v2+…+knvn
Entonces para cada vector v que pertenece al conjunto S, se tiene:
<u,vn> = <k1v1 + k2v2 +…+knvn, vi> = k1<v1,vi>+k2<v2,vi> + kn<vn,vi>
Dado que S es un conjunto ortonormal, se simplifica:
<u,vi> = ki
Teorema 5 Si S = {V1,V2,V3…Vn} es un conjunto ortogonal de vectores diferentes de cero en un espacio
de productos interiores, entonces S es linealmente independiente.

Teorema 6 Sea V un espacio de productos interiores y {V1,V2,V3…Vn} un conjunto ortonormal de


vectores en V. Si W indica el espacio generado por los vectores v1,v2,…,vn, entonces todo
vector u que pertenezca a V se puede expresdar en la forma: u = w1+w2. En donde w1 está
en W y w2 es ortogonal a W.

Koppito
Teorema 7 – Todo espacio de productos interiores diferentes de ceroy de dimensión finita tiene una
Proceso de Gram- base ortonormal.
Schmidt
Demostración:
Sea V cualquier espacio de productos interiores diferente de cero y con dimensión n y
supóngase que S = {V1,V2,V3…Vn} es cualquier base para V. La sucesión siguiente de pasos
produce una base ortonormal {V1,V2,V3…Vn} para V.
Paso 1) Sea v1=u1/||u1||. El vector v1 tiene modulo 1.
Paso 2) Para construir un vector v2 de norma uno y que además sea ortogonal a v1, se
calcula la componente de u2 ortogonal al espacio W1 generado por v1 y a continuación se
normaliza, es decir:
𝑢2 − 𝑝𝑟𝑜𝑦𝑤1 𝑢2 𝑢2 −< 𝑢2 , 𝑣1 > 𝑣1
𝑣2 = =
||𝑢2 − 𝑝𝑟𝑜𝑦𝑤1 𝑢2 || ||𝑢2 −< 𝑢2 , 𝑣1 > 𝑣1 ||
Paso 3) Para construir un vector v3 de norma uno y que sea ortogonal tanto a v1 y v2 se
calcula la componente de u3 ortogonal al espacio W2 generado por los vectores v1 y v2 y
luego se normaliza, es decir:
𝑢3 − 𝑝𝑟𝑜𝑦𝑤2 𝑢3 𝑢3 −< 𝑢3 , 𝑣1 > 𝑣1 −< 𝑢3 , 𝑣2 > 𝑣2
𝑣2 = =
||𝑢3 − 𝑝𝑟𝑜𝑦𝑤2 𝑢3 || ||𝑢3 −< 𝑢3 , 𝑣1 > 𝑣1 −< 𝑢3 , 𝑣2 > 𝑣2 ||
Paso 4) Continuando de esta manera, se obtiene un conjunto ortonormal de vectores
{v1,v2,…vn}. Supuesto que V es de dimensión n y todo conjunto ortonormal es linealmente
independiente, el conjunto {v1,v2,…vn} es una base ortonormal para V.

Teorema 8 Si p es la martiz de transición desde una base ortonormal hacia otra base ortonormal, para
un espacio de productos interiores, entonces:
p-1=pT
Teorema 9 Si A es una matriz de orden nxn, entonces las proposiciones que siguen son equivalentes:
a) La matriz A es ortogonal.
b) Los vectores renglón de la matriz A forman un conjunto ortonormal en R n, con el
producto euclideano interior.
c) Los vectores columna de la matriz A forman un conjunto ortonormal en R n, con el
producto euclideano interior.

APLICACIONES Y TRANSFORMACIONES LINEALES

Definición Si la expresión F: V->W es una función del espacio vectorial ‘V’ hacia el espacio vectorial
‘W’, entonces ‘F’ es una transformación lineal si se cumple:
1) F(u+v) = F(u)+F(v) para todos los vectores u y v que pertenecen a V
2) F(ku) = k F(u) para todos los vectores u en V y todos los escalares ‘k’

PROPIEDADES DE LAS TRANSFORMACIONES LINEALES

Teorema 1 Si la expresión T:V->W es una transformación lineal, entonces:


a) T(0) = 0
b) T(-v) = -T(v) para todos los vectores v que pertenecen a V
c) T(v – w) = T(v) – T(w) para todos los vectores v y w que pertenecen a V

Koppito
Núcleo Si la expresión T:V->W representa una transformación lineal, entonces el conjunto de
vectores en V que T aplica hacia 0 se conoce como núcloe, kernel o espacio nulo de T. Este
espacio se indica por ker(T) o se denota por N(T)
Imagen Si la expresión T:V->W representa una transformación lineal, entonces el conjunto de
todos los vectores en W que son imagens bajo T de al menos algún vector que pertenece a
V, se conoce como imagen o recorrido de T.
Teorema 2 Si la expresión T:V->W es una transformación lineal, entonces:
a) El núcleo de T es un subespacio de V.
b) El recorrido de T es un subespacio de W.
Rango y Nulidad Si la expresión T:V->W es una transformación lineal, entonces la dimensión del recorrido
de T se conoce como rango de T y la dimensión del núcleo, se denomina nulidad de T
Teorema de la Si la expresión T: V->W es una transformación lineal desde un espacio vectorial V con una
dimensión dimensión n hacia un espacio vectorial W, entonces:
(rango de T)+(nulidad de T) = n
Teorema 3 Si A es una matriz de orden m x n, entonces la dimensión del espacio de soluciones de AX =
0 es:
N – rango de A

MATRICES DE TRANSFOR MACIONES LINEALES

Definición Se puede demostrar que si V y W son espacios vectoriales con dimensión finita, entonces,
cualquier transformación lineal T:V->W se puede considerar como una transformación
lineal.
La idea fundamental es elegir bases para los espacios vectoriales V y W y trabajar con las
matrices de coordenada s relativas a estas bases, en lugar de con los vectores. Supongase
que V tiene dimensión n y que W tiene dimensión m. Si se eligen las bases B y B´ para V y
W, respectivamente, entonces, para cada vector en Rn y la matriz de coordenadas
[T(x)]B´será algun vector en Rm. Por lo tanto, en el proceso de aplicar x en T(x), la
transformación lineal T genera una aplicación de Rn a Rm, enviando [x]B hacia [T(x)]B´.
Semejanza Sea la expresión T:V->V un operador lineal sobre un espacio vectorial de dimensión finita V.
Si A es la matriz de la transformación T con respecto a una base B, y A es la matriz de la
misma transformación T con respecto a una base B, entonces:
A’ = P-1.A.P

VALORES Y VECTORES P ROPIOS

Definición Suponga que F:V->V es una transformación lineal.


Más de una vez es útil hallar un vector v que pertenezca al espacio vectorial V y tal que la
transformación de v [F(v)] y el vector v sean paralelos, es decir que la transformación lineal
del vector y el vector mismo sean paralelos o más concretamente, que el vector obtenido
por la transformación sea un múltiplo del vector v.
Para ello debemos buscar un vector v y un escalar x tal que:
F(v) = xv
Si v ≠ 0 y x satisfacen la ecucación, se dice que x es un valor característico (valor propio,
autovalor) de la transformación F, y a v se le llama vector característico (vector propio,
autovector) de la transformación F correspondiente al valor caracteristico x.

Koppito
Otra definición Sea A una matriz de orden n x n con elementos reales.
El numero x recibe el nombre de valor característico de la matriz A si existe algún vector v
diferente de cero en el conjunto de los números complejos (Cn -> Reales + Imaginarios) tal
que:
Av = x.v
Se dice que el vector, distinto de cero, es un vector característico de la matriz A
correspondiente al valor característico x.
Propiedades  Una matriz simétrica tiene todos sus valores propios reales
 Los valores propios de una matriz, son los recíprocos de los valores propios de la
matriz inversa.
 Cuando un valor propio es cero, el vector propio correspondiente es nulo.
 Los valores propios de una matriz son iguales a los de la matriz transpuesta.
 Los valores propios de una matriz triangular, o diagonal, son los elementos de la
diagonal principal.
 La suma de los valores propios de una matriz cualquiera, es igual a la traza de esa
matriz.
 Si una matriz se multiplica por una constante, los valores propios resultarán
multiplicados por dicha constante, pero los vectores propios no cambian
 Los vectores propios de autoespacios diferentes de una matriz simétrica son
siempre ortogonales entre sí.

Koppito

Você também pode gostar