Introducción Al Álgebra Lineal

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 63

Introducción al álgebra lineal

Yoel E. Gutiérrez T.

3 de octubre de 2021

1. Álgebra de matrices
1.1. Deniciones básicas
Denición 1.1 Sean m y n dos enteros positivos. Una matriz A de orden mxn es una dis-
tribución rectangular de m las y n columnas de la forma
 
a11 a12 . . a1n

 a21 a22 . . a2n 

A=
 . . . .

 . . . 
am1 am2 . . amn

Los escalares aij habitualmente pertenecen a los números reales y se llaman los elementos,
entradas o coecientes de la matriz A.
Observaciones 1.1
1. Para cada i = 1, 2, . . . , m, la matriz de orden 1xn
(ai1 ai2 . . . ain )

se denomina la i-ésima la de A. Análogamente, para cada j = 1, 2, . . . , n la matriz de


orden mx1  
a1j
 a2j 
 
 . 
 
 . 
amj
se llama la j-ésima columna de A.
2. Si m = 1 diremos que A es una matriz la. Si n = 1 diremos que A es una matriz
columna.
3. El elemento aij de la matriz A, es el elemento que aparece en la la i y en la columnas j
de A. En ocasiones escribiremos la matriz A como A = (aij ). Las matrices se denotarán
con letras mayúsculas.
4. Dos matrices son iguales si son del mismo orden y sus entradas correspondientes son
iguales
5. Si m = n diremos que A es una matriz cuadrada.

1
6. Al conjunto de todas la matrices de orden mxn sobre R las denotaremos por Mmxn (R) o
bien Rmxn . Al conjunto de las matrices cuadras de orden n (o nxn) las denotaremos por
Mn (R).

7. La matriz A diremos que es nula (o cero), y la denotaremos por 0, si todos sus elementos
son iguales a cero.
8. Si A es una matriz cuadrada (m = n) , diremos que:
a) la diagonal principal de A es la n-upla

D(A) = (a11 , a22 , . . . , ann ).

b) A es diagonal si aij = 0 para cada i 6= j . Esto es, A es diagonal si todos los


elementos que no guran en la diagonal principal son nulos.
c) A es la matriz identidad de orden n, si es una matriz diagonal de orden n y
todos los términos de la diagonal principal son iguales a 1. La matriz identidad la
denotaremos por In , o bien, I cuando no sea necesario recalcar el orden.
d) A es una matriz triangular superior si todos sus componentes debajo de la diagonal
principal son nulos. Esto es, si aij = 0 para toda i > j .
e) A es una matriz triangular inferior si todos sus componentes arriba de la diagonal
principal son nulos. Esto es, si aij = 0 para toda i < j .
f) A es una matriz triangular si es triangular superior, o bien, triangular inferior.

Ejemplo 1.1
1. La matriz  
1 −3 2
4 5 −8
A=
0 3

4
5 3 −6
es de orden 4 × 3, tiene 4 las y 3 columnas. El elemento que aparece en la segunda la
y la tercera columna es a23 = −8.
−3 12
 
0 √
2. B = 4 2 −1 es una matriz cuadrada de orden 3. La diagonal principal de esta
5 3 π
matriz es √
D(B) = (0, 2, π)
 
1 0 0
3. I3 = I = 0 1 0 es la matriz identidad de orden 3.
0 0 1
   
1 −3 2 0 1 0 0 0
0 5 −8 9 
4. A =   es una matriz triangular superior y B =  7 5 0 0 
 
0 0 0 5   0 20 12 0 
0 0 0 −13 −9 0 9 −3
es triangular inferior.

2
1.2. Suma de matrices y multiplicación de matrices por un escalar
Denición 1.2 Sean A, B ∈ Mmxn (R) y consideren la matriz C ∈ Mmxn (R) tal que
cij = aij + bij .
A esta matriz C la llamaremos la suma de A y B , y la denotaremos por A + B .
Nótese que la suma de dos matrices está denida sólo cuando las dos matrices son del mismo
orden (o tamaño).
Ejemplo 1.2
       
1 −3 2 2 −3 −3 1 + 2 −3 + (−3) 2 + (−3) 3 −6 −1
4 5 −8 + 1 6 5  = 4 + 1 5+6 −8 + 5  = 5 11 −3
0 3 4 5 6 12 0+5 3+6 4 + 12 5 9 16
Denición 1.3 Sean A ∈ Mmxn (R) y α ∈ R y consideremos la matriz B ∈ Mmxn (R) tal que
bij = αaij .
A esta matriz B la llamaremos la multiplicación del escalar α por la matriz A y la
denotaremos por αA.
Ejemplo 1.3
3 3 3 3
·1 ·2 − 92
 
  2 2
(−3) 2 2
3
1 −3 2
3 3 3 3
  15

4 5 −8 = 
2 · 4 2
·5 2
(−8) 6
= 2
−12
2  
0 3 4 3 3 3 9
2
·0 2
·3 2
·4 0 2
6
Teorema 1.1 Para toda A, B, C ∈ Mmxn (R) y escalares α y β se cumple que
1. A + B = B + A
2. (A + B) + C = A + (B + C)
3. A + 0 = A
4. 0A = 0
5. 1A = A
6. α(βA) = (αβ)A
7. (α + β)A = αA + βA
8. α(A + B) = αA + αB
Observaciones 1.2
1. Para cada A ∈ Mmxn (R), existe una única matriz B ∈ Mmxn (R) tal que:
a) bij = −aij y
b) A + B = 0
2. La matriz B en (1) la llamaremos la opuesta de A y la denotaremos por −A.
3. Dadas dos matrices A, B ∈ Mmxn (R), la resta se dene por
A − B = A + (−B).

3
1.3. Multiplicación de matrices
Denición 1.4 Sean A y B matrices sobre R de ordenes mxn y nxp respectivamente, y consi-
deremos la matriz C ∈ Mmxp (R) tal que la entrada en la la i y la columna j de C es la suma
de los productos de las entradas correspondientes de la la i de A y la columna j de B , esto es
m
X
cij = aik bkj .
k=1

A esta matriz C la llamaremos el producto de A y B (en ese orden) y se denota por AB .

Ejemplo 1.4 Dadas la siguientes matrices


 
    9 12  
3 1 0 2 3 −7
A= , B= , C = 5 −6 y D=
−4 5 5 −1 −4 2
4 1

Se tiene que    
3(0) + 1(5) 3(2) + 1(−1) 5 5
AB = = ,
−4(0) + 5(5) −4(2) + 5(−1) 25 −13
   
9(3) + 12(−4) 9(−7) + 12(2) −21 −39
CD = 5(3) + (−6)(−4) 5(−7) + (−6)2 =  39 −47
4(1) + 1(−4) 4(−7) + 1(2) 0 −26
y    
0(3) + 2(−4) 0(1) + 2(5) −8 10
BA = =
5(3) + (−1)1 5(1) + (−1)5 14 05

Observaciones 1.3
1. Si A y B son matrices de ordenes mxn y pxq respectivamente, tales que el producto AB
está denido, entonces debe ser n = p. Esto lo expresamos diciendo que el número de
columnas de A debe ser igual al número de las de B .
2. Si AB está denida, no es necesariamente cierto que BA también lo esté. En el ejemplo
anterior CD está denido, pero DC no lo está, ya que el número de columnas de la
primera matriz (en este caso la matriz D) no es igual al número de las de la segunda
matriz.
3. Puede ocurrir que AB y BA estén denidas, pero sean de distintos ordenes.
4. Aún estando denidas AB y BA, y siendo del mismo orden, no es cierto en general
que AB = BA, es decir, la multiplicación de matrices no es conmutativa. En el ejemplo
anterior AB y BA son del mismo orden y AB 6= BA.
5. Si AB = BA, diremos que A y B conmutan una con la otra.

Teorema 1.2 Sea A una matriz de orden mxn, B y C matrices con tamaños para los cuales
las sumas y productos indicados están denidos, y α un escalar. entonces

1. A (BC) = (AB) C
2. A (B + C) = AB + AC
3. (B + C) A = BA + CA

4
4. α (AB) = (αA) B = A (αB)
5. Im A = A = AIn

Observaciones 1.4
1. Existen matrices no nulas cuyo producto es la matriz nula. Por ejemplo,
    
1 2 2 4 0 0
=
1 2 −1 −2 0 0

2. Si A, B y C son matrices no nulas tal que AB = AC , no necesariamente B = C . Esto


es, la ley de cancelación para la multiplicación de matrices no es válida.

Denición 1.5 Sea A una matriz cuadrada de orden n y k un entero no negativo denimos la
potencia k-ésima de A, Ak , como:
1. A0 = In
2. A1 = A
3. Ak = Ak−1 A, para cualquier entero positivo k ≥ 2.

Esta denición es un ejemplo de una denición recurrente o inductiva.


 
1 −1
Ejemplo 1.5 Sabiendo que A = 2 3
, entonces
 
0 10
A = ,
01
 
1 1−1
A = ,
2 3
    
1−1 1 −1 −1 −4
2
A = = y
2 3 2 3 8 11
    
3 2 −1 −4 1 −1 −9 −11
A =A A= =
8 11 2 3 30 25

1.4. Transposición de matrices


Denición 1.6 Sea A ∈ Mmxn (R) y B ∈ Mnxm (R) tal que bij = aji . A la matriz B la llama-
remos la matriz transpuesta de A y la denotaremos por AT .

9 12  
9 5 4
Ejemplo 1.6 La transpuesta de la matriz A = 5 −6 es A =
  T
12 −6 1
4 1

Nótese que las columnas de AT se forman a partir de las las correspondientes de A.

Teorema 1.3 Si A y B son matrices cuyos tamaños son apropiados para las siguientes sumas
y los siguientes productos, y α es una escalar, entonces
1. (AT )T = A

5
2. (A + B)T = AT + B T
3. (αA)T = αAT
4. (AB)T = B T AT

Denición 1.7 Sea A ∈ Mn (R), diremos que:


1. A es una matriz simétrica si AT = A y
2. A es una matriz antisimétrica si AT = −A.

Ejemplo 1.7 Las matrices


   
2 4 5 0 5 −1
A = 4 −1 −7 y B = −5 0 6
5 −7 3 1 −6 0

son simétrica y antisimétrica, respectivamente, en efecto


   
2 4 5 0 −5 1
AT = 4 −1 −7 = A y BT =  5 0 −6 = −B
5 −7 3 −1 6 0

Teorema 1.4 (Propiedades de las matrices simétricas y antisimétricas)


1. Los elementos de la diagonal de una matriz antisimétrica son nulos.
2. El producto de toda matriz por su transpuesta es una matriz simétrica.
3. Si A es una matriz cuadrada, entonces:
a) A + AT es simétrica, esto es, la suma de toda matriz cuadrada y de su transpuesta
es simétrica.
b) A − AT es antisimétrica, es decir, la diferencia de toda matriz cuadrada con su
transpuesta es antisimétrica.
c) Toda matriz cuadrada la podemos escribir como la suma de una matriz simétrica y
de una antisimétrica, en efecto,
1 1
A = (A + AT ) + (A − AT )
|2 {z } |2 {z }
Simtrica Antisimtrica

2. Sistemas de ecuaciones lineales y operaciones elementa-


les de las de una matriz
2.1. Deniciones básicas
Denición 2.1 Una ecuación lineal con la variables x1 , . . . , xn es una ecuación que podemos
escribir de la forma
a1 x 1 + a2 x 2 + . . . + an x n = b (1)
donde b y los coecientes a1 , . . . , an son, habitualmente, números reales. El número n puede ser
cualquier entero positivo.

6
Ejemplo 2.1 Las ecuaciones
√ x3
2x1 − 5x2 + 3 = y 7(x2 − 5) = x1
7
son lineales, porque la podemos escribir como la ecuación (1),
√ 1
2x1 − 5x2 − x3 = −3 y − x1 + 7x2 = 35
7
Las ecuaciones √
x1 − 2x2 x3 = 5 y 3x1 − 7 x2 = x3 + 6

no son lineales, debido a la presencia de x2 x3 en la primera ecuación y de x2 en la segunda
ecuación.

Denición 2.2 Consideren m ecuaciones lineales en la que intervienen las mismas variables,
x1 , x2 , · · · , xn .
a11 x1 + . . . + a1n xn = b1
a21 x1 + . . . + a2n xn = b2
.. .. .. , (2)
. . .
am1 x1 + . . . + amn xn = bm
donde los aij y los bi habitualmente son números reales, para i = 1, 2, . . . , m y j = 1, 2, . . . , n.
Al conjunto de ecuaciones lineales (2) lo llamaremos un sistema de m ecuaciones lineales
con n incógnitas.
En los ejemplos y ejercicios propuestos, n normalmente estará entre 2 y 5, en este caso, se
usarán las últimas letras del alfabeto; x, y, z, u, v ; en sustitución de las variables x1 , x2 , x3 , x4 , x5 .
Una solución del sistema (2) es una lista (s1 , s2 , . . . , sn ) de n números reales que convierte
cada ecuación en una armación verdadera cuando los valores s1 , s2 , . . . , sn se sustituyen por
x1 , x2 , . . . , xn respectivamente.

Ejemplo 2.2 Un ejemplo de un sistema de dos ecuaciones lineales con tres incógnitas es
3x + 2y + z = −1
(3)
x − y + 4z = 12

La terna (1, −3, 2) es una solución de dicho sistema porque, cuando estos valores sustituyen en
cada ecuación a x, y y z , respectivamente, se satisfacen las igualdades.

El conjunto de todas las soluciones posibles lo llamaremos conjunto solución del sistema
lineal. diremos que dos sistemas de ecuaciones lineales son equivalentes si tienen el mismo
conjunto solución. Esto es, cada solución del primer sistema es una solución del segundo sistema
y cada solución del segundo sistema lo es del primero.
Encontrar el conjunto solución de un sistema de dos ecuaciones lineales con coecientes
reales y dos incógnitas, digamos
a11 x + a12 y = b1
, (4)
a21 x + a22 y = b2

donde b1 y b2 son números reales, se reduce a encontrar la intersección de dos rectas. Geomé-
tricamente, cada ecuación del sistema (17) representa una recta en el plano, denotadas por L1
y L2 . Una pareja de números reales (x, y) satisface ambas ecuaciones en el sistema si y sólo si
el punto (x, y) pertenece tanto a L1 como a L2 . Como bien sabemos, dos rectas en el plano:

7
1. Se cortan en un único punto,
2. Son paralelas y distintas, o bien,
3. Son coincidentes
El hecho anterior ilustra que un sistema de ecuaciones lineales tiene ya sea:
1. Exactamente una solución,
2. Ninguna solución, o bien,
3. Un número innito de soluciones.
Diremos que un sistema lineal es compatible (o consistente) si tiene solución, en este caso
diremos que es compatible determinado si tiene exactamente una solución y compatible
indeterminado si tiene un número innito de soluciones. Un sistema es incompatible (o
inconsistente) si no tiene ninguna solución.

2.2. Notación matricial de un sistema de ecuaciones lineales


La información esencial de un sistema lineal la podemos registrar en forma compacta en
una matriz. Dado el sistema (2), la matriz de orden mxn
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 .. .. ..
 
 . . .


am1 am2 . . . amn
la llamaremos matriz de coecientes del sistema (2), y la matriz de orden mx(n + 1)
 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
 .. .. .. ..
 
 . . . .


am1 am2 . . . amn bm
la llamaremos matriz aumentada (o ampliada) del sistema.
La matriz aumentada de un sistema consiste en la matriz de coecientes con una columna
agregada que contiene las constantes de los miembros derechos de las ecuaciones del sistema
(2).
Ejemplo 2.3 La matriz de coecientes del sistema
− 2y + z =
x 0
2y − 8z = 8 (5)
− 4x + 5y + 9z = − 9
es  
1 −2 1
 0 2 −8
−4 5 9
y la matriz aumentada o ampliada es
 
1 −2 1 0
0 2 −8 8 
−4 5 9 −9

8
La estrategia básica para resolver un sistema lineal es reemplazarlo por un sistema equi-
valente que sea más fácil de resolver. Para logra ésto, utilizaremos tres operaciones básicas
para simplicar la matriz aumentada de un sistema (lograr la mayor cantidad de ceros en la
matriz), llamadas operaciones elementales de las.

2.3. Operaciones elementales de las de una matriz


Las operaciones elementales de las aplicadas a una matriz son:
1. (Intercambio) Intercambio de dos las.
fi ↔ fj

2. (Escalamiento) Multiplicación de una la por un escalar no nulo.


fi → αfi , α 6= 0

3. (Reemplazo) Sustitución de una la por la suma de sí misma y un múltiplo de otra la.
fi → fi + αfj , α 6= 0

Observaciones 2.1
1. El proceso de aplicar las operaciones elementales de la para simplicar una matriz lo
llamaremos reducción por las.
2. Sean A y B matrices del mismo orden sobre el conjunto de los números reales. diremos
que A es equivalente por las a B , si B puede obtenerse a partir de A mediante un
número nito de operaciones elementales de las.
3. Si las matrices aumentadas de dos sistemas lineales son equivalentes por las, entonces
los dos sistemas tienen el mismo conjunto solución.
Ejemplo 2.4 Resolver el sistema considerado en el Ejemplo 2.3
x− 2y + z = 0
2y − 8z = 8 (6)
− 4x + 5y + 9z = − 9

Solución. Aplicamos el método de reducción por las a la matriz aumentada de dicho


sistema, para obtener la forma triangular superior de la submatriz de los coecientes.
   
1 −2 1 0 1 −2 1 0
1
0 2 −8 8  f3 → f3 + 4f1 0 2 −8 8  f2 → f2
2
−4 5 9 −9 0 −3 13 −9
   
1 −2 1 0 1 −2 1 0
0 1 −4 4  f3 → f3 + 3f2 0 1 −4 4
0 −3 13 −9 0 0 1 3
El sistema asociado a esta última matriz es
x − 2y + z = 0
y − 4z = 4 (7)
z = 3

9
Como la matriz obtenida es equivalente a la matriz aumentada del sistema original, este último
sistema también es equivalente al sistema original.
De la tercera ecuación es inmediato que z = 3, sustituyendo este valor en la segunda ecuación
obtenemos que y = 4 + 4 · 3 = 16, y por lo tanto a partir de la primera ecuación obtenemos
que x = 29. Así que (29, 16, 3) es la única solución del sistema, luego el sistema es consistente
determinado.
A continuación renaremos el método aplicado en el ejemplo anterior a un algoritmo de
reducción por las que nos permita analizar cualquier sistema de ecuaciones lineales.
El algoritmo se aplica a cualquier matriz, ya sea que se vea o no como la matriz aumentada
de un sistema lineal. comenzaremos por introducir dos clases importantes de matrices que
incluyen las matrices triangulares. En las deniciones siguientes una la o columna diferente
de cero o no nula en una matriz implicará una la o una columna que contiene por lo menos
una entrada diferente de cero; una la o columna nula en una matriz será una la o columna
donde todas sus entradas son cero; una entrada principal de una la se referirá a la primera
entrada diferente de cero que esta en una la no nula.

2.4. Reducción de una matriz en forma escalonada


Denición 2.3 Sea A ∈ Mmxn (F ).
1. La matriz A es una matriz escalonada o está en forma escalonada si se verica que:
a) Las las nulas de A, si es que existen, están debajo de las las diferentes de cero.
b) Cada entrada principal de una la está en una columna a la derecha de la entrada
principal de una la superior.
2. La matriz A es una matriz reducida o está en forma reducida si se verica que:
a) La entrada principal de cada la diferente de cero es uno.
b) Cada columna de A que contiene la entrada principal de alguna la de A tiene igual
a cero todos sus otros elementos.
3. La matriz A es una matriz escalonada reducida o está en forma escalonada redu-
cida si A está en forma escalonada y reducida
Observaciones 2.2
1. Una matriz se puede reducir por las a más de una matriz escalonada. Sin embargo, la
forma escalonada reducida que se obtiene para una matriz es única.
2. Una posición pivote de una matriz A es una posición de A que corresponde a una entrada
principal en una forma escalonada de A. Una columna pivote es una columna de A que
contiene una posición pivote.
3. El rango de una matriz A, denotado por ρ(A), es el número de columnas pivotes de la
forma escalonada de dicha matriz.
4. Si A es una matriz nula, el rango es cero.
Ejemplo 2.5 Las matrices
   
5 9 −5 12 1 0 0 42
0 7 1 −3 y 0 1 0 −17
0 0 0 9 0 0 1 1
están en forma escalonada, la segunda está en forma escalonada reducida.

10
El algoritmo de reducción por las
Los primeros cuatro pasos del siguiente algoritmo producirán una matriz en forma escalo-
nada. Un quinto paso producirá una matriz en forma escalonada reducida.

1. Paso 1. Comenzamos con la columna diferente de cero más a la izquierda. Esta es una
columna pivote.
2. Paso 2. Seleccionamos como pivote una entrada diferente de cero en la columna pivote.
Si es necesario, intercambiamos las para mover esta entrada a la posición pivote.
3. Paso 3. Utilizamos operaciones de reemplazo por la para crear ceros en todas las posi-
ciones bajo el pivote.
4. Paso 4. Ignoramos la la que contiene la posición pivote y todas las las, si las hubiere,
arriba de ella. Aplicamos los pasos anteriores a la submatriz que queda. Repetimos el
proceso hasta que no queden las diferentes de cero por modicar.
5. Paso 5. Comenzando con el pivote más a la derecha y trabajando hacia arriba y hacia la
izquierda, cree ceros arriba de cada pivote. Si un pivote no es 1, hágalo 1 por medio de
una operación de escalamiento.

Los pasos 1, . . . , 4 producirán la forma escalonada para la matriz completa, y se llamará fase
progresiva del algoritmo de reducción por las. El paso 5, que producirá la forma escalonada
reducida única, se llamará fase regresiva.

2.5. Uso del algoritmo de reducción por las para resolver un sistema
lineal
Ejemplo 2.6 Resolver el sistema
2x + 6y + z = 7
x + 2y − z = − 1 (8)
5x + 7y − 4z = 9

Solución. Realizamos operaciones elementales de las para obtener la forma escalonada de la


matriz aumentada del sistema

     
2 6 1 7 1 2 −1 −1 1 2 −1 −1
1 2 −1 −1 f2 → f2 − 2f1
f1 ↔ f2 2 6 1 7 0 2 3 9
f3 → f3 − 5f1
5 7 −4 9 5 7 −4 9 0 −3 1 14

−1 −1 1 2 −1 −1
   
1 2
1  3

9 

0 1 3

9  2
f2 → f2 0 1 2 2 
f3 → f3 + 3f1 2 2 
f3 → f3
2   11
11 55
0 −3 1 14 0 0 2 2

1 2 −1 −1
 
 
0 1 3 9 
 2 2 

0 0 1 5

11
Luego, un sistema equivalente al original es
x + 2y − z = −1
3
y + 2
z = 29
z = 5
Como la matriz aumentada del sistema equivalente obtenido está en forma escalonada, se puede
resolver dicho sistema por sustitución regresiva. De la tercera ecuación es inmediato que
z = 5, sustituyendo este valor en la segunda ecuación se obtiene que y = 92 − 15
2
= −3, y por
lo tanto a partir de la primera ecuación se obtiene que x = 10. Así que (10, −3, 5) es la única
solución del sistema, luego el sistema es consistente determinado. También se puede resolver el
sistema hallando la forma escalonada reducida de la matriz aumentada. Realizando operaciones
elementales de las a la forma escalonada obtenida, se obtiene la forma escalonada reducida
1 2 −1 −1 1 0 −4 −10
   
    f1 → f1 + 4f3
0 1 3 9 
f1 → f1 − 2f2 0 1 3 9 
3
2 2  2 2 
  f2 → f2 − f3
2
0 0 1 5 0 0 1 5
 
1 0 0 10
0 1 0 −3
0 0 1 5
cuyo sistema asociado es
x = 10
y = −3
z = 5
Así, es inmediato que la solución del sistema es (10, −3, 5).
El método del algoritmo de reducción por las para resolver sistemas de ecuaciones, es
conocido como método de Gauss-Jordan.
Ejemplo 2.7 Aplicar el método de Gauss-Jordan Resolver el sistema
y − 4z = 8
2x − 3y + 2z = 1 (9)
5x − 8y + 7z = 1
Solución. La matriz aumentada es
 
0 1 −4 8
 2 −3 2 1 
5 −8 7 1
Su forma escalonada es
2 −3 2 1
 
 0 1 −4 8 
5
 
0 0 0
2
Luego, un sistema equivalente al (9) es
2x − 3y + 2z = 1
y − 4z = 8 (10)
5
0 =
2
12
5 5
La ecuación 0 = se puede escribir como 0x + 0y + 0z = . El sistema (10) obviamente
2 2
contiene una contradicción. No existen valores de x, y, z que satisfagan (10) porque la ecuación
5
0= nunca se cumple. Puesto que (9) y (10) tienen el mismo conjunto solución, el sistema
2
original es inconsistente.
Ejemplo 2.8 Resolver el sistema
x − 5z = 1
2x + y − 9z = 6 (11)
x − y − 6z = − 3
Solución. La matriz aumentada es
 
1 0 −5 1
 2 1 −9 6 
1 −1 −6 −3
Su forma escalonada es  
1 0 −5 1
 0 1 1 4 
0 0 0 0
El sistema de ecuaciones asociado es
x − 5z = 1
y + z = 4 (12)
0 = 0
la ecuación nula 0x + 0y + 0z = 0 se satisface para cualquier trío ordenado (x, y, z) de R3 ,
luego, el conjunto solución del sistema (12) no cambia si eliminamos de él la ecuación nula,
esto es, si lo escribimos de la forma.
x − 5z = 1
(13)
y + z = 4
Las variables x e y correspondientes a columnas pivotes de la matriz escalonada del sistema se
llaman variables básicas o variables principales. La otra variable, z, se llama variable libre.
El conjunto solución del sistema (13) puede describirse explícitamente resolviendo cada ecua-
ción del sistema para las variables básicas en término de la variable libre. Como z es libre se
está en libertad de escoger cualquier valor para z , digamos z = λ, donde λ es un elemento de
un cuerpo, habitualmente el cuerpo de los números reales. En (13), se despeja x de la primera
ecuación e y de la segunda, obteniendo
x = 1 + 5λ
y = 4 − λ (14)
z = λ
La expresión (14) también se suele escribir como
 
1 + 5λ
 4−λ 
λ
y se llama solución general del sistema porque da una descripción paramétrica de todas
las soluciones del sistema, en las cuales λ actúa como parámetro. Cuando λ = 0, la solución
es (1, 4, 0); cuando λ = 1, la solución es (6, 3, 1). Cada elección diferente de λ determina una
solución (diferente) del sistema (11) y cada solución del sistema está determinada por una
elección de λ.

13
Un sistema compatible con más incógnitas que ecuaciones es indeterminado.

Teorema 2.1 (Teorema de existencia y unicidad) Un sistema lineal es consistente si y


sólo si la columna del extremo derecho de la matriz aumentada no es una columna pivote, esto
es, si y sólo si una forma escalonada de la matriz aumentada no tiene ninguna la de la forma
(0 · · · 0 b)

con b diferente de cero. Si un sistema lineal es consistente, entonces el conjunto solución con-
tiene ya sea
1. Una solución única, cuando no existen variables libres, o
2. Un número innito de soluciones, cuando existe por lo menos una variable libre.

El teorema anterior es una consecuencia del siguiente

Teorema 2.2 (Teorema de Rouche Frobenius) Un sistema de ecuaciones lineales es com-


patible si y sólo si la matriz de coecientes y la matriz ampliada tienen igual rango.

Observaciones 2.3
1. Un sistema de ecuaciones lineales es incompatible si y sólo si los rangos de la matriz de
coecientes y de la matriz ampliada son distintos.
2. Si un sistema compatible, es decir, la matriz de coecientes y la matriz ampliada tienen
igual rango, Se presentan las siguiente situaciones:
a) El rango de ambas matrices es igual al número de variables. En este caso
el sistema es compatible determinado.
b) El rango de ambas matrices es menor que el número de variables. En este
caso se dice que el sistema es compatible indeterminado.

Ejemplo 2.9 En el siguiente sistema


x + y − z = 2
x + 2y + z = 3 (15)
2
x + y + (a − 5)z = a

determinar los valores de a para que el sistema sea: (a) Compatible determinado, (b) compatible
indeterminado y (c) incompatible.
Solución. Aplicamos operaciones elementales de las a la matriz aumentada del sistema
para obtener la forma escalonada de dicha matriz
   
1 1 −1 2 1 1 −1 2
1 2 f2 → f2 − f1
1 3 0 1 2 1 
2 f3 → f3 − f1
1 1 a −5 a 0 0 (a − 2)(a + 2) a − 2

Ahora bien, aplicando el Teorema de Rouche Frobenius obtenemos que


(a) Si a 6= 2 y a 6= −2, el sistema es compatible determinado.
(b) si a = 2, el sistema es compatible indeterminado.
(c) Si a = −2, el sistema es incompatible

14
2.6. Interpretación geométrica del conjunto solución de un sistema
de tres ecuaciones con tres incógnitas
Consideren el sistema de tres ecuaciones con tres incógnitas
a1 x + b1 y + c1 z = d1
a2 x + b 2 y + c 2 z = d 2 (16)
a3 x + b 2 y + c 3 z = d 3
Geométricamente, cada ecuación en (16) representa un plano en el espacio. Cada solución
(x, y, z) del sistema debe ser un punto en cada uno de los planos. Existen seis posibilidades:

1. La intersección de los tres planos es un único punto. Por lo que el sistema es compatible
determinado. (Ver Figura 1 )

Figura 1: La intersección de los tres planos es un punto

2. La intersección de los tres planos es una recta recta, por lo que cada punto sobre la recta
es una solución y el sistema es compatible indeterminado. En la descripción paramétrica
del conjunto solución de dicho sistema actúa un sólo parámetro. (Ver Figura 2)

Figura 2: La intersección de los tres planos es una recta

3. Los tres planos coinciden. En este caso cada punto sobre el plano es una solución y el
sistema es compatible indeterminado. En la descripción paramétrica del conjunto solución
de dicho sistema actúan dos parámetro.
4. Dos de los tres planos coinciden y su intersección con el tercer plano es una recta. Entonces
cada punto sobre la recta es una solución y el sistema es compatible indeterminados. (Ver
Figura 3)

15
Figura 3: La intresección de dos planos es una recta

5. Al menos dos de los planos son paralelos y distintos. Por lo que ningún punto puede estar
en cada plano y no existe solución. El sistema es incompatible. (Ver Figura 4 )

Figura 4: Los planos paralelos no tienen punto en común

6. La intersección de dos de los planos es una recta. El tercer plano es paralelo a dicha recta
y no la contiene, de manera que ningún punto del tercer plano se encuentra en los dos
primeros. No existe una solución, esto es, el sistema es incompatible. (Ver Figura 5 )

Figura 5: El plano 3 es paralelo a la recta de intersección de los planos 2 y 1.

2.7. Sistemas lineales homogéneos


Se dice que un sistema lineal es homogéneo si se puede escribir de la forma
a11 x1 + . . . + a1n xn = 0
a21 x1 + . . . + a2n xn = 0
.. .. ..
. . .
am1 x1 + . . . + amn xn = 0

16
Observaciones 2.4
1. Un sistema homogéneo siempre tiene al menos una solución, a saber, S = (0, . . . , 0).
Generalmente esta solución, se llama solución trivial.
2. Un sistema homogéneo tiene una solución no trivial si y sólo si la ecuación tiene por lo
menos una variable libre.
3. Todo sistema homogéneo de ecuaciones lineales con más incógnitas que ecuaciones tiene
soluciones no triviales.
4. Cuando se aplican operaciones de la a la matriz aumentada de un sistema de ecuaciones
lineales homogéneos, la última columna siempre es nula. Por lo tanto, para resolver un
sistema lineal homogéneo, habitualmente se aplica el algoritmo de reducción por las a la
matriz de coecientes del sistema.
5. Geométricamente, el conjunto solución de un sistema homogéneo con dos ecuaciones y
dos incógnitas, representa el origen del sistema de coordenadas o una recta que pasa por
el origen.
6. De igual forma, el conjunto solución de un sistema homogéneo con tres ecuaciones y tres
incógnitas, representa el origen, una recta que pasa por el origen o un plano que pasa por
el origen.

Ejemplo 2.10 Aplicar el método de Gauss-Jordan para resolver el sistema


− 2x + 7w = 0
x + 2y − z + 4w = 0
3x + 10y − 5z + 27w = 0

Solución. Aplicamos operaciones elementales de las a la matriz de coecientes del sistema


 
−2 0 0 7
 1 2 −1 4 
3 10 −5 27

y obtenemos  
1 2 −1 4
0 4 −2 15
0 0 0 0
que es la forma escalonada de la matriz de coecientes del sistema, luego, un sistema equivalente
es
x + 2y − z + 4w = 0
4y − 2z + 15w = 0
El sistema tiene dos variables libres, z y w. Si hacemos z = α y w = β , y sustituimos en el
sistema anterior para expresar a x y y en términos de α y β , obtenemos que la solución general
del sistema es  
7
2
β
 
 1 α − 15 β 
2 4 
, α, β ∈ R
 
α

 
 
β
 

17
Esta solución general también se suele escribir como


 x = 27 β


 1 15
 y = 2α − β

 4
α, β ∈ R

 z=α



 w=β

3. Espacios vectoriales
3.1. Vectores en Rn
Diversas propiedades importantes de los sistemas lineales se pueden describir mediante el
concepto y la notación de vectores.
Una matriz con una única columna se llama vector columna o simplemente vector.
El conjunto de todos los vectores con dos entradas se denota como R2 . Esto es
n a  o
2
R = /a, b ∈ R
b

Dos vectores en R2 son iguales


 si y sólosi sus entradas correspondientes son iguales.
u1 v1
Dados dos vectores u = yv= en R2 , su suma es el vector
u2 v2
 
u1 + v1
u+v =
u2 + v2
 
u1
Dado un vector u = y un número real c, el múltiplo escalar de u por c es el vector
u2
 
cu1
cu =
cu2

Observaciones 3.1

u1
1. Algunas veces se escribe el vector columna de la forma (u1 , u2 ). En este caso se
u2
usa una coma para distinguir el vector (u1 , u2 ) de la matriz la (u1 u2 ).
2. El elemento neutro para la suma de vectores es O = (0, 0) y recibe el nombre de vector
nulo.
3. El vector opuesto de v = (a, b) es −v = (−a, −b).
4. El múltiplo escalar α(a, b), donde α ∈ R y (a, b) ∈ R2 , se llama producto del escalar α
por el vector (a, b).
5. Geométricamente el vector v = (a, b) es el segmento dirigido, de punto inicial (0, 0) y
punto nal (a, b). Los puntos individuales a lo largo del segmento dirigido no tienen im-
portancia.

18
6. Las operaciones de con vectores en R2 tienen un signicado geométrico: La suma de dos
vectores no colineales del plano queda representada por la diagonal del paralelogramo que
forman. El producto de un número real α por un vector no nulo u = (a, b), es el vector
αu = (αa, αb) que tiene la misma dirección que u si α > 0 y dirección opuesta si α < 0.
Corresponde a una dilatación si |α| > 1 y a una contracción si |α| < 1. Si α = 0, se
obtiene el vector nulo.

Figura 6: Interpretación geométrica de la suma y el poducto

7. Los vectores en R3 son matrices columnas de tres entadas, esto es,


 
n a o
R3 =  b  /a, b, c ∈ R
c

Geométricamente el vector v = (a, b, c) es el segmento dirigido, de punto inicial (0, 0, 0)


y punto nal (a, b, c).
8. Si n es un entro positivo, los vectores en Rn son matrices columnas de n entradas, esto
es,  
u1
n u2  o
Rn =  .. /u , u , · · · , u ∈
 
1 2 n R
. 


un

9. La igualdad de vectores en Rn y las operaciones de producto escalar y suma de vectores


en Rn de denen como en R2 .

Las operaciones con vectores en Rn satisfacen las siguientes propiedades.

Teorema 3.1 (Propiedades algebraicas de vectores en Rn ) . Para todos u, v y w en Rn


y todos los escalares a y b se verican las siguientes propiedades:
1. u + v = v + u
2. (u + v) + w = u + (v + w)
3. u + 0 = 0 + u = u, donde 0 es el vector nulo.
4. u + (−u) = −u + u = 0, donde −u es el vector opuesto de u.

19
5. a(u + v) = au + av
6. (a + b)u = au + bu
7. a(bu) = (ab)u
8. 1u = u

Todo conjunto V 6= ∅ que satisfaga las propiedades anteriores se llama espacio vectorial
sobre R, o simplemente espacio vectorial.

3.2. Subespacios
Denición 3.1 Dado un conjunto no vacío S ⊂ Rn , si S es un espacio vectorial sobre el mismo
cuerpo R y con las mismas leyes de composición que en Rn , se dice que S es un subespacio de
Rn .

Tanto Rn como {O} son subespacios de Rn , llamados subespacios triviales.

Teorema 3.2 Sea S un subconjunto no vacío de Rn . S es un subespacio de Rn si y sólo si se


verican las siguientes condiciones:
1. u ∈ S ∧ v ∈ S → u + v ∈ S
2. α ∈ R ∧ u ∈ S → αu ∈ S

La aplicación del teorema anterior es esencial para determinar si un conjunto S es un


subespacio de Rn . Para que lo sea, deben vericarse las siguientes condiciones:
1. S 6= ∅
2. S ⊂ Rn
3. u ∈ S ∧ v ∈ S → u + v ∈ S
4. α ∈ R ∧ u ∈ S → αu ∈ S
Para demostrar que S 6= ∅ se sugiere demostrar que O ∈ S , dado que si O 6∈ S , S no podría
ser un subespacio de Rn .

Ejemplo 3.1 Demostrar que


S = {(x, y) ∈ R2 y = 2x}

es un subespacio de R2 .
Demostración. Es inmediato que (0, 0) ∈ S , en efecto, 0 = 2 · 0, por lo tanto, S 6= ∅.
Sean u = (u1 , u2 ) y v = (v1 , v2 ) vectores en S , por demostrar que
u + v = (u1 + v1 , u2 + v2 ) ∈ S y

αu = (αu1 , αu2 ) ∈ S para cada escalar α.

Como u, v ∈ S , entonces
u2 = 2u1 y v2 = 2v1
por lo tanto,

20
u2 + v2 = 2u1 + 2v1 = 2(u1 + v1 ) y
αu2 = α(2u1 ) = 2(αu1 )
De lo anterior concluimos que u + v ∈ S y αu ∈ S , por lo tanto, S es un subespacio de R2 .
Ejemplo 3.2 Demostrar que
S = {(x, y) ∈ R2 x2 + y 2 ≤ 4}
no es un subespacio de R2 .
Demostración. Es inmediato que los vectores (0, 2) y (2, 0) pertenecen a S , en efecto,
02 + 22 ≤ 4 y 22 + 02 ≤ 4
Pero u + v = (2, 2) no pertenece a S , pues,
22 + 22 = 8 6≤ 4
Hemos demostrado que existen dos vectores en S cuya suma no está en S , esto es, no se cumple
la primera condición del Teorema 3.2, Por lo tanto, S no es un subespacio de R2 .
Los subespacios no triviales de R2 son rectas que pasan por el origen. Los de R3 son rectas
y planos que pasan por el origen.
Ejemplo 3.3 Un plano en R3 que no pasa por el origen no es un subespacio de R3 , porque el
plano no contiene al vector nulo. Por lo mismo, una recta en R2 que no pasa por el origen,
como se muestra en la Figura 7, no es un subespacio de R2 .

Figura 7: Recta que no pasa por el origen

3.3. Combinaciones lineales


Denición 3.2 Sea A = {v1 , v2 , . . . , vp } una familia o conjunto de vectores del espacio vectorial
Rn . Se entiende por combinación lineal de la familia A a todo vector del tipo
p
X
αi vi = α1 v1 + α2 v2 + . . . + αp vp ,
i=1

donde α1 , α2 , . . . , αp son elementos de R, llamados pesos. En particular, si todos los escalares


son nulos, la combinación lineal se llama trivial y se obtiene el vector nulo.

21
Denición 3.3 El vector v ∈ Rn es combinación lineal de la familia A ⊂ Rn , si y sólo si
existen escalares α1 , α2 , . . . , αp tales que
p
X
v= αi vi = α1 v1 + α2 v2 + . . . + αp vp
i=1
   
1 4
Ejemplo 3.4 Determine si los vectores u = 2 y V = −5 son combinaciones lineales
  
−1 5
de la familia
( 2   1 )
A = −1 ,  1 
1 −1
Solución. Supongamos que el vector u es una combinación lineal de la familia A, entonces
existen escalares α y β tal que
     
2 1 1
α −1 + β 1
    =  2 ,
1 −1 −1

esto es,    
2α + β 1
−α + β  =  2  .
α−β −1
Como dos vectores son iguales si sus respectivas componentes son iguales, entonces u es una
combinación lineal de la familia A si el sistema
2α + β = 1
− α + β = 2
α − β = −1

es compatible.
Ahora bien, aplicando operaciones elementales de las obtenemos que la forma escalonada
de la matriz aumentada del sistema es
 
1 −1 −1
0 3 4
0 0 1

y claramente observamos que el rango de la matriz de los coecientes del sistema es 2 y el rango
de la matriz aumentada es 3, por lo tanto, el sistema es incompatible (Las dos matrices tienen
diferentes rangos), luego, el vector u no se puede escribir como una combinación lineal de la
familia A.
Procediendo en forma análoga como lo hicimos con el vector u tenemos que v es una com-
binación lineal de la familia A si el sistema
2α + β = 4
− α + β = −5
α − β = 5

es compatible.

22
Como la forma escalonada de la matriz aumentada del sistema es
 
1 −1 5
0 1 −2
0 0 0

concluimos que el sistema es compatible determinado, su solución es (3, −2), luego, v es una
combinación lineal de la familia A, en efecto
     
2 1 4
3 −1 − 2  1  = −5 ,
1 −1 5

Si un vector es combinación lineal de una familia dada de vectores, dicha combinación lineal
no necesariamente es única, como se muestra en el siguiente ejemplo.

−4
Ejemplo 3.5 Determine si el vector u = −1 es combinación lineales de la familia
7
( −1  1   3  )
A =  0 , 1 , 2 
2 −1 −4

Solución. Si el vector u es una combinación lineal de dicha familia, entonces existen escalares
α, β y λ tal que        
−1 1 3 −4
α 0 +β 1 +λ 2
      = −1 ,

2 −1 −4 7
esto es, el sistema
− α + β + 3λ = −4
+ β + 2λ = −1
2α − β − 4λ = 7
es compatible.
Como la forma escalonada de la matriz aumentada del sistema es
 
−1 1 3 −4
 0 1 2 −1
0 0 0 0

Concluimos que el sistema es compatible indeterminada, pues, el rango de la matriz de los


coecientes, 2, es igual al rango de la matriz aumentada y es menor que el número de incógnitas.
La solución general del sistema es  
3+r
−1 − 2r
r
Lo anterior indica que existen innitas formas de escribir el vector u como combinación lineal
de la familia A.

23
3.4. Ecuaciones vectoriales y matriciales
Consideremos el sistema de ecuaciones lineales
a11 x1 + . . . + a1n xn = b1
a21 x1 + . . . + a2n xn = b2
.. .. .. , (17)
. . .
am1 x1 + . . . + amn xn = bm

La matriz de coecientes del sistema es


 
a11 a12 . . a1n

 a21 a22 . . a2n 

A=
 . . . 

 . . . 
am1 am2 . . amn

Esta matriz es de orden m × n y se suele escribir como



A= a1 a2 . . an ,

donde  
a1j

 a2j 

aj =  .  ∈ Rm y j = 1, 2, . . . n
 
 . 
amj
es la j -ésima columna de la matriz A. La matriz aumentada del sistema es
(18)

a1 a2 . . an b .

donde, bien sabemos, b está en Rm .


El sistema (17) también se suele escribir de la forma
x 1 a1 + x 2 a2 + · · · + x n an = b (19)
donde  
x1
 x2 
x =  .. 
 
.
x2
es un vector en Rn , o bien, de la forma
Ax = b (20)
donde Ax lo podemos interpretar como el producto de dos matrices, esto es
 
x1

 x2 

Ax = (a1 a2 . . . an )  .  = x1 a1 + x2 a2 + · · · + xn an
 
 . 
xn

A la ecuación (19) la llamaremos ecuación vectorial y a la ecuación (20) la llamaremos


ecuación matricial.

24
Teorema 3.3 Si A una matriz de orden m × n, con columnas a1 , a2 , . . . , an y b es un vector
en Rn , la ecuación matricial
Ax = b
tiene el mismo conjunto solución que la ecuación vectorial

x 1 a1 + x 2 a2 + · · · + x n an = b

la cual, a su vez, tiene el mismo conjunto solución que el sistema de ecuaciones lineales cuya
matriz aumentada es 
a1 a2 . . an b .

El teorema anterior permite ver un sistema de ecuaciones lineales de tres maneras diferentes
pero equivalentes: como una ecuación matricial, como una ecuación vectorial o como un sistema
de ecuaciones lineales.

Ejemplo 3.6 El sistema


y − 4z = 8
2x − 3y + 2z = 1 (21)
5x − 8y + 7z = 1
es equivalente a la ecuación vectorial
       
0 1 −4 8
x 2 + y −3 + z 2
      = 1

3 −8 7 1

y a la ecuación matricial     
0 1 −4 x 8
2 −3 2  y  = 1
5 −8 7 z 1

Teorema 3.4 (Existencia de soluciones) La ecuación Ax = b tiene una solución si y sólo


si b es una combinación lineal de las columnas de A.

3.5. Subespacio generado


Sea S = {v1 , v2 , . . . , vp } un conjunto no vacío de vectores del espacio vectorial Rn . Se puede
formar el subconjunto de Rn cuyos elementos son todas las combinaciones lineales de los vectores
de S . A este conjunto se le denota como Gen(S). Se escribe

Gen(S) = {α1 v1 + α2 v2 + . . . + αp vp /αi ∈ R, i = 1, 2, . . . , p}

Teorema 3.5 El conjunto de todas las combinaciones lineales de toda familia no vacía del
espacio vectorial Rn es un subespacio del mismo.

Denición 3.4 El subespacio de las combinaciones lineales de la familia no vacía S ⊂ Rn se


llama subespacio generado por S .

Observaciones 3.2

25
1. Preguntarse si un vector v está en Gen{v1 , v2 , . . . , vp } equivale a preguntarse si la ecuación
vectorial
α1 v1 + α2 v2 + . . . + αp vp = v
tiene una solución o, lo que es lo mismo, si el sistema lineal con matriz aumentada

(v1 v2 . . . vp v)

tiene solución.
2. El vector nulo está en Gen{v1 , v2 , . . . , vp }, en efecto,

0v1 + 0v2 + . . . + 0vp = O

Ejemplo 3.7 Determine el Gen{v1 , v2 }, sabiendo que



  
1 2
v1 =  2  y v2 =  1
−1 −3
 
x
Solución. supongamos que y  ∈ Gen{v1 , v2 }, entonces existen α, β ∈ R tal que

z
     
1 2 x
α  2  + β  1  = y 
−1 −3 z

Lo anterior es una ecuación vectorial, la cual es equivalente al sistema, de incógnitas α, y β ,


cuya matriz ampliada es  
1 2 x
2 1 y
−1 −3 z
Nos interesan los valores de x, y y z para los cuales el sistema tiene solución. La forma esca-
lonada de esta matriz ampliada es
 
1 2 x
0 −1 y − 2x 
0 0 3x − y + z

Por lo tanto, el sistema tiene solución si y sólo si 3x − y + z = 0, esto es


(  x )
Gen{v1 , v2 } = y  ∈ R3 3x − y + z = 0
z

Nótese que, geométricamente, Gen{v1 , v2 } representa un plano que pasa por el origen del sis-
tema de coordenadas.

Observaciones 3.3
1. Si v es un vector diferente de cero en R3 , entonces Gen{v} es el conjunto de todos los
puntos de la recta que pasa por el origen y es paralela al vector v .

26
2. Si u y v son vectores diferentes de cero en R3 y u no es un múltiplo escalar de v , entonces
Gen{u, v} es el plano que contiene los vectores u y v .

Teorema 3.6 Se A una matriz de orden m × n. Entonces las siguientes armaciones son
equivalentes. Es decir, para una A en particular, todas estas armaciones son verdaderas o
todas son falsas.
1. Para cada b en Rm , la ecuación Ax = b tiene una solución.
2. Las columnas de A generan Rm .
3. A tiene una posición pivote en cada la.

3.6. Dependencia e independencia lineal


Denición 3.5 Un conjunto de vectores {v1 , v2 , . . . , vp } en Rn es linealmente independien-
te si la ecuación vectorial
x1 v1 + x2 v2 + . . . + xp vp = O
tiene únicamente la solución trivial, es decir, si la ecuación vectorial sólo se satisface para
x1 = x2 = . . . = xn = 0. El conjunto {v1 , v2 , . . . , vp } es linealmente dependiente si existen
pesos c1 , c2 , . . . , cp no todos cero, tales que
c1 v1 + c2 v2 + . . . + cp vp = O

Ejemplo 3.8 Determinar si los siguientes conjuntos de vectores son linealmente independien-
tes o linealmente dependientes.
1. A = {(1, 0, 0), (0, −2, 0), (0, 0, −1)}
2. B = {(1, −1, 0), (1, 1, 2), (1, 0, 1)}
solución.
1. Supongamos que existen α, β y λ tal que
α(1, 0, 0) + β(0, −2, 0) + λ(0, 0, −1) = (0, 0, 0)

(α, 0, 0) + (0, −2β, 0) + (0, 0, −λ) = (0, 0, 0)


(α, −2β, −λ) = (0, 0, 0)
Por lo tanto
α=0
−2β = 0 → β = 0
−λ = 0 → λ = 0
Luego, el conjunto de vectores A es linealmente independiente.
2. Procediendo en forma análoga obtenemos que
α(1, −1, 0) + β(1, 1, 2) + λ(1, 0, 1) = (0, 0, 0)

Esta ecuación vectorial es equivalente al sistema de ecuaciones homogéneas cuya matriz de


coecientes es  
1 1 1
−1 1 0
0 2 1

27
La forma escalonada de esta matriz es
 
1 1 1
0 2 1
0 0 0
como el rango de dicha matriz es 2 y el sistema tiene tres incógnitas, entonces es compatible
indeterminado, esto es, tiene innitas soluciones, las cuales están representadas de la siguiente
forma
α = − 12 k




β = − 12 k k∈R



λ=k
Por lo tanto, el conjunto de vectores B es linealmente dependiente, ya que los escalares α, β y
λ no necesariamente son nulos.

Teorema 3.7 Si un vector es combinación lineal de una familia linealmente independiente,


entonces dicha combinación lineal es única.
Demostración. Sea S = {v1 , v2 , · · · , vn } ⊂ Rn un familia de vectores linealmente indepen-
dientes y v ∈ R combinación lineal de dicha familia, entonces existen escalares α1 , α2 , · · · , αn
tales que
v = Σni=1 αi vi
Supongamos que existen otros escalares βi tales que
v = Σni=1 βi vi

entonces
Σni=1 αi vi = Σni=1 βi vi
Σni=1 αi vi − Σni=1 βi vi = 0
Σni=1 (αi − βi )vi = 0
y como la familia es linealmente independiente concluimos que
α i − βi = 0 → α i = βi ,

para cada i = 1, 2, . . . , n. En consecuencia, la combinación lineal es única.


Observaciones 3.4
1. Las columnas de una matriz son linealmente independientes si y sólo si la ecuación Ax = 0
tiene sólo la solución trivial.
2. Un conjunto que contiene un único vector, digamos v , es linealmente independiente si y
sólo si v no es el vector nulo. Esto se debe a que la ecuación vectorial αv = O tiene
solamente la solución trivial cuando v 6= O.
3. El vector nulo es linealmente dependiente porque αO = O tiene muchas soluciones no
triviales.
4. Un conjunto de dos vectores {u, v} es linealmente dependiente si y sólo si uno de los
vectores es múltiplo del otro. En términos geométricos, dos vectores en R3 (o R2 ) son
linealmente dependientes si y sólo si ambos yacen en la misma recta que pasa por el
origen.

28
Teorema 3.8 Un conjunto S = {v1 , v2 , . . . , vp } de dos o más vectores es linealmente depen-
diente si y sólo si al menos uno de los vectores en S es una combinación lineal de los otros.

El teorema anterior no dice que cada vector de un conjunto linealmente dependiente sea una
combinación lineal de los vectores restantes. Un vector de un conjunto linealmente dependiente
puede no ser combinación lineal de los otros vectores.

Teorema 3.9 Sea S = {v1 , v2 , . . . , vp } un conjunto de vectores de Rn . Si p > n, entonces S es


un conjunto linealmente dependiente.

El recíproco del teorema anterior no es válido, esto es, si S es un conjunto linealmente


dependiente, no necesariamente p > n.

Teorema 3.10 Si un conjunto S = {v1 , v2 , . . . , vp } en Rn contiene el vector nulo, entonces el


conjunto es linealmente dependiente.

3.7. Base y dimensión de un espacio vectorial


Denición 3.6 Sea H un subespacio del espacio vectorial Rn . Un conjunto no vacío de vectores
B = {v1 , v2 , . . . , vp } de Rn es una base para H si:

1. B es un conjunto linealmente independiente y


2. todo vector de H puede expresarse como combinación lineal de los vectores de B .
Esto es, B es una base de H si y sólo si B es linealmente independiente y Gen(B) = H .

Observaciones 3.5
1. La denición de base aplica al caso en que H = Rn , porque cualquier espacio vectorial es
un subespacio de sí mismo. Así, una base de Rn es un conjunto linealmente independiente
que genera Rn .
2. Nótese que cuando H 6= Rn la condición (1), de la denición de base, incluye el requisito
de que cada uno de los vectores v1 , v2 , . . . , vp debe pertenecer a H .
3. Una base del espacio vectorial Rn es el conjunto de vectores

e1 = (1, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, . . . , 0, 1)

Se puede comprobar que la familia B = {e1 , e2 , . . . , en } es linealmente independiente y


que Gen{e1 , e2 , . . . , en } = Rn . Tal familia recibe el nombre de base canónica.
4. En general, todo conjunto B = {v1 , v2 , . . . , vn } de n vectores de Rn linealmente indepen-
dientes es una base para Rn .

29
Ejemplo 3.9 Determine una base para el subespacio H = {(x, y, z) ∈ Rn x + 2y − z = 0}
Solución. Nótese que si (a, b, c) ∈ H , entonces
a + 2b − c = 0 → a = c − 2b

Por lo tanto
(a, b, c) = (c − 2b, b, c) = b(−2, 1, 0) + c(1, 0, 1)
Esto nos dice que
Gen{(−2, 1, 0), (1, 0, 1)} = H
Por otra parte, estos vectores son linealmente independientes, en efecto, ninguno de ellos es
múltiplo escalar del otro. Por consiguiente, B = {(−2, 1, 0), (1, 0, 1)} constituye una base para
H.

Ejemplo 3.10 Encuentre una base para el subespacio generado por la familia de vectores
(   )
1 2
H= ,
3 6
 
x
Solución. Si
y
∈ Gen{H}, entonces el sistema cuya matriz aumentada es

 
1 2 x
3 6 y

es compatible. La forma escalonada de esta matriz es


 
1 2 x
0 0 y − 3x

Por lo tanto, como el sistema asociado a dicha matriz es compatible, y − 3x = 0. De lo anterior


concluimos que  
x
∈ Gen{H} → y − 3x = 0 → y = 3x
y
esto es,      
x x 1
= =x
y 3x 3
Esto nos dice que ( )
1
Gen =H
3
Por otra parte, como todo(conjunto
) formado por un único vector no nulo es linealmente inde-
 
1
pendiente, entonces B = constituye una base para H .
3

Teorema 3.11 Toda basa de un subespacio no nulo H de Rn debe consistir del mismo número
de vectores. En particular, toda base de Rn debe consistir en exactamente n vectores.

Denición 3.7 Si H es un subespacio de Rn generado por un conjunto nito, se dice que H


es de dimensión nita y la dimensión de H , que se escribe dimH , es el número de vectores
que hay en una base para H . La dimensión del espacio vectorial nulo {0} es cero. Si H no es
generado por un conjunto nito, entonces se dice que H es de dimensión innita.

30
Observaciones 3.6 Los subespacios de R3 pueden clasicarse según su dimensión.
1. Subespacio de dimensión 0. Sólo el subespacio nulo.
2. Subespacios de dimensión 1. Cualquier subespacio generado por un único vector no
nulo. Tales subespacios son rectas que pasan por el origen.
3. Subespacios de dimensión 2. Cualquier subespacio generado por dos vectores lineal-
mente independientes. Tales subespacios son planos que pasan por el origen.
4. Subespacios de dimensión 3. Solamente R3 mismo. Cualesquiera tres vectores lineal-
mente independientes en R3 generan todo R3 .

Teorema 3.12 Si H un subespacio de Rn , entonces se verica que:


dim(H) ≤ dim(Rn )

Nótese que
dim(H) = dim(Rn ) ←→ H = Rn

Teorema 3.13 (Teorema de la base) Si H es un subespacio de Rn de dimensión p, cual-


quier conjunto linealmente independiente con exactamente p elementos en H es automática-
mente una base para H .

3.8. Componentes de un vector respecto a una base ordenada


Supongamos que el conjunto B = {v1 , v2 , . . . , vr } es una base ordenada de un subespacio H .
Cada vector de H puede expresarse de manera única como combinación lineal de la base B =
{v1 , v2 , . . . , vr }, ya que los vectores de esta base son linealmente independientes y Gen(B) = H .
O sea, si x ∈ H , entonces existen y son únicos los escalares x1 , x2 , . . . , xr tales que

x = x1 v1 + x2 v2 + . . . + xr vr

Los escalares x1 , x2 , . . . , xr se llaman coordenadas o componentes del vector x ∈ H ,


respecto de la base ordenada dada. En tal caso escribimos

x[B] = (x1 , x2 , . . . , xr )
 
2
Ejemplo 3.11 Hallar las componentes del vector x =  3 , respecto de la base
−4
( 1  0   2  )
B = 1 , −1 ,  0 
0 2 −2

Solución. Se demuestra que B es una familia de vectores linealmente independientes, luego,


como dim(S) = 3, entonces Gen(B) = R3 . Esto implica que todo vector de R3 se puede escribir
de manera única como combinación lineal de los elementos ordenados de dicha familia.
Ahora bien, supongamos que las componentes del vector x ∈ R3 , respecto de la base ordenada
B son
x[B] = (x1 , x2 , x3 ),

31
entonces obtenemos la ecuación vectorial
       
1 0 2 2
x1 1 + x2 −1 + x3 0
      =  3
0 2 −2 −4

la cual es equivalente al sistema de ecuaciones lineales cuya matriz aumentada es


 
1 0 2 2
1 −1 0 3
0 2 −2 −4

Escribiendo esta matriz en su forma escalonada reducida obtenemos


 4 
1 0 0 3
 
0 1 0 − 5 
 3
1
0 0 1 3
Por lo tanto, 4 5 1
x[B] = ,− , .
3 3 3

4. Matrices invertibles
4.1. Deniciones y propiedades básicas
Sea A ∈ Mn (R). Se dice que A es una matriz invertible si existe una matriz B ∈ Mn (R)
tal que
AB = I = BA,
donde I es la matriz identidad de orden n. En esta caso se dice que la matriz B es la matriz
inversa de A. Si C fuera otra inversa de A tendríamos que
C = CI = C (AB) = (CA) B = IB = B.

Entonces, cuando A es invertible, su inversa es única y la denotamos por A−1 . Así,


AA−1 = I = A−1 A.

Una matriz cuadra que no es invertible también se denomina matriz singular y una matriz
invertible se denomina matiz no singular.
   
2 5 −7 −5
Ejemplo 4.1 Si A = −3 −7 y B = 3 2 , entonces
    
2 5 −7 −5 1 0
AB = = y
−3 −7 3 2 0 1
    
−7 −5 2 5 1 0
BA = =
3 2 −3 −7 0 1
Por lo tanto, B = A−1
Teorema 4.1 Si A ∈ Mn (R) es una matriz invertible, entonces para cada b ∈ Rn la ecuación
Ax = b tiene la solución única x = A−1 b.

32
Prueba Para cualquier b ∈ Rn existe una solución, porque cuando se sustituye A−1 b por x
obtenemos
Ax = A A−1 b = AA−1 b = Ib = b.
 

Así que A−1 b es una solución. La solución es única, efectivamente si b ∈ Rn existe una solución,
porque cuando se sustituye A−1 b por b ∈ Rn es cualquier solución, entonces

Au = b

y multiplicando ambos miembros por A−1 obtenemos

A−1 (Au) = A−1 b


A−1 A u A−1 b

=
Iu = A−1 b
u = A−1 b.

Ejemplo 4.2 Usar la inversa de la matriz A del ejemplo anterior para resolver el sistema
2x1 + 5x2 = 1
(22)
− 3x1 − 7x2 = −1

Solución. El sistema es equivalente a la ecuación matricial


Ax = b,

donde,      
2 5 x1 1
A= , x= y b=
−3 −7 x2 −1
 
−7 −5
Así, como A −1
= , entonces
3 2
    
−1−7 −5 1 −2
x=A b= =
3 2 −1 1

El siguiente teorema proporciona tres propiedades útiles de las matrices invertible.

Teorema 4.2 Sean A y B matrices cuadradas de orden n


1. Si A es invertible, entonces A−1 es invertible y

(A−1 )−1 = A.

2. Si A y B son invertible, también lo es AB, y

(AB)−1 = B −1 A−1 .

3. Si A es invertible, también lo es AT , y
−1 T
AT = A−1 .

33
4.2. Método de Gauss-Jordan para hallar la inversa de una matriz
Denición 4.1 Una matriz elemental es aquella que se obtiene realizando una única opera-
ción elemental de la a la matriz identidad.

En el siguiente ejemplo se ilustra las tres clases de matrices elementales.

Ejemplo 4.3 Aplicando las operaciones elementales de las


f3 −→ f3 − 4f1 ,
f1 ←→ f2 ,
f3 −→ 5f3 ,

con la matriz identidad  


1 0 0
I= 0 1 0 
0 0 1
se obtienen, respectivamente, las matrices elementales
   
1 0 0 0 1 0
E1 =  0 1 0 , E2 =  1 0 0 
−4 0 1 0 0 1
 
1 0 0
y E3 =  0 1 0 .
0 0 5

Ahora Bien, dada la matriz  


2 1 −3
A= 4 3 2 ,
1 −5 5
se obtiene que
 
2 1 −3
E1 A =  4 3 2 ,
−7 −9 17
 
4 3 2
E2 A =  2 1 −3  y
1 −5 5
 
2 1 −3
E3 A =  4 3 2 .
5 −25 25

Nótese que que las operaciones de las f3 −→ f3 − 4f1 , f1 ←→ f2 , y f3 −→ 5f3 , aplicadas a


la matriz A, producen, respectivamente, las matrices E1 A, E2 A y E3 A.

Teorema 4.3 Si se realiza una operación elemental de la con una matriz A de orden mxn, la
matriz resultante puede escribirse como EA, donde la matriz E de orden mxm se crea realizando
la misma operación de la con Im .

Es importante notar que las operaciones de la con una matriz son invertibles:

34
1. Si se intercambian dos las, puede regresarse a sus posiciones originales por medio de otro
intercambio. Por ejemplo, la operación elemental de la f2 → f3 transforma la matriz
 
1 0 2
−1 2 3
0 1 1
en la matriz  
1 0 2
 0 1 1
−1 2 3
y la misma operación operación elemental transforma la última matriz en la primera.
2. Si se escala una la por una constante c diferente de cero, entonces al multiplicar la nueva
la por 1c se obtiene la la original. Por ejemplo, la operación elemental de la f2 → 2f2
transforma la matriz  
1 0 2
−1 2 3
0 1 1
en la matriz  
1 0 2
−2 4 6
0 1 1
y la operación elemental f2 → 21 f2 transforma la última matriz en la primera.
3. Finalmente, consideremos una operación de reemplazo en la que intervienen dos las,
digamos, las las 1 y 2, y supongamos que c veces la la 1 se suma a la la 2 para
producir una nueva la 2. Para invertir esta operación, sumamos −c veces la la 1 a la
nueva la 2 para obtener la la 2 original. Por ejemplo, la operación elemental de la
f2 → f2 + 2f1 transforma la matriz
 
1 0 2
−1 2 3
0 1 1
en la matriz  
1 0 2
1 2 7
0 1 1
y la operación elemental f2 → f2 − 2f1 transforma la última matriz en la primera.
Puesto que las operaciones de la son invertibles, las matrices elementales son invertibles,
porque si E se produce aplicando una operación de la a I, entonces existe otra operación de
la del mismo tipo que convierte E otra vez en I. Por lo tanto, existe una matriz elemental F
tal que F E = I. También, puesto que E y F corresponden a operaciones inversas, EF = I.
Toda matriz elemental E es invertible. La inversa de E es la matriz elemental del mismo
tipo que transforma E otra vez en I .
 
1 −2
Ejemplo 4.4 La matriz elemental E = 0 1 se produce aplicando la operación elemental
 
1 0
de la f1 → f1 − 2f2 a la matriz identidad I = , y la operación elemental de la
0 1
f1 → f1 + 2f2 convierte la matriz E en I .

35
Ahora bien, aplicando
 la última
 operación elemental de la a la matriz identidad obtenemos
1 2
la inversa de E E −1 = , en efecto,
0 1
    
−1 1 2 1 −2 1 0
E E= =
0 1 0 1 0 1
y     
−1 1 −2 1 2 1 0
EE = = .
0 1 0 1 0 1

El siguiente teorema ofrece la mejor manera de visualizar una matriz invertible y lleva
inmediatamente a un método para encontrar la inversa de una matriz.

Teorema 4.4 Una matriz A ∈ Mn (R) es invertible si y sólo si es equivalente por las a In y
en este caso, cualquier secuencia de operaciones elementales de la que reduzca A a In también
transforma In en A−1 .

Prueba Supongamos que A es invertible. Entonces para cada B ∈ M1xn (R) la ecuación
AX = B tiene una única soluciòn. Por lo tanto, A tiene una posición pivote en cada la.
Como A es cuadrada, las n posiciones pivote deben estar en la diagonal y esto implica la forma
escalonada reducida de A es In . Esto es A ∼ In (A es equivalente a In ).
Recíprocamente, supongamos que A ∼ In . Entonces, puesto que cada paso de la reducción
por las de A corresponde a una multiplicación por la izquierda por una matriz elemental,
existen matrices elementales E1 , . . . , Ep tales que

A ∼ E1 A ∼ E2 E1 A ∼ · · · ∼ Ep · · · E1 A = In (23)

Puesto que el producto de matrices invertibles es invertible, la ecuación al nal de (23) lleva a

(Ep · · · E1 )−1 (Ep · · · E1 ) A = (Ep · · · E1 )−1 In


A = (Ep · · · E1 )−1

Por lo tanto, A es invertible, puesto que es la inverza de una matriz invertible. También
−1
A−1 = (Ep · · · E1 )−1

= Ep · · · E1

Entonces
A−1 = Ep · · · E1 In
lo cual dice que al aplicar sucesivamente E1 , . . . , Ep a In se obtiene A−1 . Esta es la misma
secuencia de (23) que redujo A a In .
El teorema anterior da un método práctico para determinar si una matriz A es invertible y,
en caso de serlo, para determinar su inversa A−1 . Tal proceso, conocido como el método de
Gauss-Jordan, consiste en lo siguiente:
1. Se determina la matriz B , escalonada y reducida por las, equivalente por las a A. si
B = I , entonces A es invertible y si B 6= I , entonces A no es invertible.

2. En caso de que A sea invertible, esto es, si A es equivalente por las a I , se realizan sobre
I las mismas operaciones que nos permitieron pasar de A a I y de esta manera obtenemos
A−1 .

36
El proceso antes señalado puede simplicarse considerando la matriz (A|I) de orden nx2n,
cuyas n primeras columnas forman la matriz A y las otras n columnas forman la matriz I .
Entonces se lleva (A|I) a una matriz escalonada reducida por las (B|C). Si B = I , A es
invertible y su inversa es C . Si B 6= I , A no es invertible.

0 1 2
Ejemplo 4.5 Encuentra la inversa de la matriz A = 1 0 3, si es que existe.
4 −3 8
Solución.
 
 0 1 2 1 0 0
A I = 1 0 3 0 1 0 f1 ↔ f2
4 −3 8 0 0 1
 
1 0 3 0 1 0
≈ 0 1 2 1 0 0 f3 → f3 − 4f1
4 −3 8 0 0 1
 
10 3 0 1 0
≈ 0 1 2 1 0 0 f3 → f3 + 3f2
−3 −4 0 −4 1
0
 
1
0 3 0 1 0
≈ 01 2 1 0 0 f3 → 21 f3
0 2 3 −4 1
0
 
1
0 3 0 1 0
  f1 → f1 − 3f3
≈ 01 2 1 0 0
  f2 → f2 − 2f3
3 1
0 0 1 2 −2 2
1 0 0 − 92 7 − 32
 
 
0 1 0 −2 4 −1 
≈  
3 1
0 0 1 2
−2 2

Puesto que A ≈ I , por el teorema anterior concluimos que A es invertible y


− 29 − 32
 
7
A−1 = 
 
 −2 4 −1 

3 1
2
−2 2

Los siguientes teorema ofrecen un repaso de la mayor parte de los conceptos introducidos
en el tema de sistemas de ecuaciones y matrices.

Teorema 4.5 (El teorema de la matrices invertibles) Sea A ∈ Mn (R) . Entonces los enun-
ciados que siguen son equivalentes. Esto es, los enunciados son o todos ciertos o todos falsos.

1. A es una matriz invertible.


2. A es equivalente por las a la matriz identidad In .
3. A tiene n posiciones pivote.
4. ρ(A) = n.

37
5. La ecuación Ax = 0 tiene solamente la solución trivial.
6. Las columnas de A forman un conjunto linealmente independiente
7. La ecuación Ax = b tiene una única solución para cada b ∈ Rn .
8. Las columnas de A generan Rn .
9. Existe una matriz C ∈ Mn (R) tal que CA = I.
10. Existe una matriz D ∈ Mn (R) tal que AD = I.
11. AT es invertible.

Teorema 4.6 Sean A y B matrices cuadradas. Si AB = I, entonces A y B son ambas inver-


tibles, con A−1 = B y B −1 = A.

5. Determinantes
Denición 5.1 Sea
A = (a11 )
una matriz cuadrada de orden 1. El determinante de A, denotado por detA, se dene como
det A = a11 .

Denición 5.2 Sea  


a11 a12
A=
a21 a22
una matriz cuadra de orden 2. El determinante de A, denotado por detA, se dene como
detA = a11 a22 − a12 a21 .

Observaciones 5.1
1. El determinante de una matriz cuadra de orden n se denirá de manera inductiva. En
otras palabras, se usará lo que se sabe sobre el determinante de una matriz de orden 1
para denir el determinante de una matriz de orden 2, ésta a su vez se usará para denir
el determinante de una matriz de orden 3, etc.
2. Es importante darse cuenta que ”det” es una función que asigna un elemento de un
cuerpo, habitualmente deñ cuerpo de los números reales, a una matriz cuadrada de orden
n sobre R. Esto es
det : Mn (R) −→ R
A −→ detA

Denición 5.3 Sea A ∈ Mn (R).


1. La matriz de orden n − 1 obtenida de A al eliminar la la i y la columna j se denota por
Mij (A) y se llama ij -ésimo menor de A.

2. El ij -ésimo cofactor de A, denotado por Cij (A) se dene como


Cij (A) = (−1)i+j det(Mij (A))

38
3. El determinante de la matriz A denotado por detA o bien |A|, se dene mediante la
siguiente regla:
a) si n = 1, es decir A = (a11 ), entonces |A| = a11
b) Si n ≥ 2, entonces
n
(24)
X
|A| = aik Cik (A)
k=1

para algún i jo, o bien


n
(25)
X
|A| = akj Ckj (A)
k=1

para algún j jo.


La fórmula (24) se llama un desarrollo por cofactores a lo largo de la la i − ésima y,
(25) es un desarrollo por cofactores a lo largo de la columna j − ésima.
El desarrollo por cofactores es útil para calcular el determinante de una matriz que contiene
muchos ceros. Por ejemplo, si una la consiste en su mayor parte de ceros, entonces el desarrollo
por cofactores a lo largo de esa la tiene muchos términos que son cero y no es necesario calcular
los cofactores en esos términos. El mismo método funciona con una columna que contiene
muchos ceros.

Ejemplo 5.1 Hallar el determinante de la matriz


 
2 1 3 2 8
−1 3 −2 −5 2 
 
A=
 0 0 6 0 0 

0 2 4 1 0 
0 −5 1 0 0

Solución. Aplicando desarrollo por cofactores a lo largo de la tercera la obtenemos que
|A| = 0 · C31 (A) + 0 · C32 (A) + 6 · C33 (A) + ·C34 (A) + 0 · C35 (A)
2 1 2 8
−1 3 −5 2
= 6 · (−1)3+3
0 2 1 0
0 −5 0 0

Aplicando desarrollo por cofactores a lo largo de la cuarta la de la matriz anterior obtenemos
2 2 8
4+2
|A| = 6(−5)(−1) −1 −5 2
0 1 0

Finalmente, aplicando desarrollo por cofactores a lo largo de la tercera la y la Denición 5.2
obtenemos que
2 8
|A| = −30(1)(−1)3+2 = 30(4 + 8) = 360
−1 2

A continuación listaremos un conjunto de propiedades nos permiten reducir signicativa-


mente la cantidad de trabajo necesaria para calcular un determinante.

Teorema 5.1 Si A es una matriz triangular de orden n, entonces det A es el producto de las
entradas de la diagonal principal de A.

39
Teorema 5.2 Sea A ∈ Mn (F ).
1. Si se suma un múltiplo de una la de A a otra la para producir una matriz B, entonces
det A = det B.

2. Si B es una matriz obtenida de A intercambiando dos las , entonces det A = − det B .


3. Si B es una matriz obtenida de A multiplicando una la por un escalar α, entonces
det A = α1 det B .
 
5 1 2 4
−1 0 2 3 
Ejemplo 5.2 Calcular el determinante de la matriz A = 1 1 6 1

1 0 0 −4
Solución. La estrategia básica es reducir A a la forma escalonada, aplicando el teorema
anterior, y luego utilizar el hecho de que el determinante de una matriz triangular es el producto
de las entradas de la diagonal principal.
5 1 2 4 1 1 6 1 1 1 6 1
−1 0 2 3 −1 0 2 3 0 1 8 4
|A| = = − = − =
1 1 6 1 5 1 2 4 0 −4 −28 −1
1 0 0 −4 1 0 0 −4 0 −1 −6 −5
f2 → f2 + f1
f3 → f3 + 4f2
f1 ↔ f3 f3 → f3 − 5f1
f4 → f4 + f2
f4 → f4 − f1

1 1 6 1 1 1 6 1
1 1 6 1 0 1 8 4
0 1 8 4 0 1 8 4
− = −4 = −4 15 =
0 0 4 15 0 0 1 15 0 0 1 4
4
0 0 2 −1 34
0 0 2 −1 0 0 0 −
4
f3 → 41 f3 f4 ↔ f4 − 2f3
 
34
= 4 − 4 = 34

Teorema 5.3 Si A ∈ Mn (F ), entonces


detA = detAT

Teorema 5.4 (Propiedad multiplicativa) Si A y B son dos matrices cuadradas de orden


n, entonces
det(AB) = detA.detB.

Teorema 5.5 Sea A ∈ Mn (F ).


1. Si una la (o columna) de A es nula, entonces det A = 0.
2. Si A tiene dos las (o dos columnas) iguales, det A = 0.
3. Si una la (o columna) de A es un múltiplo escalar de otra la (o columna), entonces
det A = 0.

40
4. Si k es cualquier escalar, entonces det (kA) = k n det A
 
3 −1 2 −5
0 5 −3 −6
Ejemplo 5.3 Calcular |A|, sabiendo que A = 
−6 7 −7 4 

−5 −8 0 9
Solución. Aplicando la operación elemental de las f3 → f3 + 2f1 obtenemos que
3 −1 2 −5
0 5 −3 −6
|A| =
0 5 −3 −6
−5 −8 0 9

Ahora bien, puesto que la segunda y tercera la son iguales, |A| = 0.
A continuación mostramos los dos teoremas principales de esta sección.
Teorema 5.6 Si A es una matriz cuadra de orden n. A es invertible si y sólo si |A| =
6 0.

Demostración.
1. Supongamos que A es invertible, entonces por el teorema de las matrices invertibles existe
una matriz cuadrada C de orden n tal que CA = I , por lo tanto
det(CA) = det(I) → det(C) · det(A) = 1 → det(A) 6= 0.

2. Supongamos que |A| 6= 0, entonces las entradas de la columna principal de la forma


escalonada de A son diferentes de cero (justiquen esta armación), por lo tanto, el rango de
la matriz A es n. nalmente, por el teorema de las matrices invertibles concluimos que como
ρ(A) = n, entonces A es invertible.

Teorema 5.7 Si A es una matriz cuadrada de orden n y es invertible , entonces |A−1 | = 1


|A|
.

6. Transformaciones lineales
6.1. Denición y propiedades de las trasformaciones lineales
Denición 6.1 La función T : Rn → Rm es una transformación lineal si y sólo si, para
cada u, v ∈ Rn y α ∈ R se satisfacen las siguientes condiciones:
1. T (u + v) = T (u) + T (v)
2. T (αu) = αT (u)
Observaciones 6.1
1. Las dos condiciones de la denición se pueden reducir a una única condición
T (αu + βv) = αT (u) + βT (v) (26)
para cada α ∈ R y u, v ∈ Rn .
2. Se demuestra que si T : Rn −→ Rm es una transformación lineal, entonces
T (α1 u1 + · · · + αr ur ) = α1 T (u1 ) + · · · + αr T (ur )

para cada α1 . . . αr ∈ R, u1 . . . ur ∈ Rn y r ∈ Z+

41
Teorema 6.1 Sean T : Rn −→ Rm una transformación lineal, y On y Om los vectores nulos
en Rn y Rm , respectivamente. entonces
1. T (On ) = Om
2. T (−u) = −T (u) para cada u ∈ Rn
 
  x−y
Ejemplo 6.1 Sea T : R2 −→ R3 denida por T xy = 2x + y, por ejemplo,
3x
   
  −1 − 2 −3
−1
T = 2(−1) + 2 =
   0 .
2
3(−1) −3
   
x x
Para cada 1 , 2 ∈ R2 y α ∈ R tenemos que
y1 y2
     
x1 x2 x1 + x2
T + = T
y1 y2  y1 + y2 
(x1 + x2 ) − (y1 + y2 )
= 2(x1 + x2 ) + (y1 + y2 )
 3(x
1+x 2 ) 
x1 − y1 x2 − y2
= 2x1 + y1  + 2x2 + y2 
 3x1   3x2
x1 x2
= T +T
y1 y2
y    
    αx1 − αy1 x1 − y1  
x1 αx1 x1
T α =T = 2αx1 + αy1  = α 2x1 + y1  = αT
y1 αy1 y1
3βx1 3x1
Por lo tanto, T es una transformación lineal. Nótese que
     
  0   (−x) − (−y) x−y  
0 −x x
T = 0
 y T = 2(−x) + (−y) = − 2x + y  = −T
0 −y y
0 3(−x) 3x

Esto es, se cumplen las dos propiedades del Teorema 6.1.

Ejemplo 6.2 La función T : Rn −→ Rm denida por T (u) = 0 para cada u ∈ Rn es una


transformación lineal, llamada transformación nula o cero, en efecto, para cada u, v ∈ Rn
y α ∈ R se cumple que
T (u + v) = 0 = 0 + 0 = T (u) + T (v) y T (αu) = 0 = α · 0 = αT (u)

Ejemplo 6.3 Dado un escalar α, denimos T : R2 −→ R2 como T (u) = αu. Diremos que T
es una contracción cuando 0 ≤ α < 1, que es la identidad cuan α = 1 y una dilatación
cuando α > 1.
T es una transformación lineal, en efecto, para cada u, v ∈ R2 y a, b ∈ R se cumple que

T (au + bv) = α(au + bv) = a(αu) + b(αv) = aT (u) + bT (v)

42
esto es, se satisface la ecuación (26). En la siguiente gura se ilustra grácamente la transfor-
mación para el caso en que α > 1.

Figura 8: Transformación dilatación

No toda función cuyas entradas son lineales es una transformación lineal. Por ejemplo, la
función T : R −→ R, denida por T (X) = 4x − 3, no es lineal, en efecto,
T (x + y) = 4(x + y) − 3 = 4x + 4y − 3 y

T (x) + T (y) = (4x − 3) + (4y − 3) = 4x + 4y − 6

Lo cual implica que T (x + y) 6= T (x) + T (y).


La únicas transformaciones lineales de R en R son funciones de la forma T (x) = mx pa-
ra algún real m. Así, entre todas las funciones cuyas grácas son rectas, las únicas que son
transformaciones lineales son aquellas que pasan por el origen.

Teorema 6.2 (Teorema fundamental de las transformaciones lineales) . Sean Rn y Rm


dos espacios vectoriales y B = {v1 , . . . vn } una base de Rn . Si w1 , . . . , wn son n vectores cuales-
quiera de Rm , entonces existe una única transformación lineal T : Rn −→ Rm tal que T (vi ) = wi
para cada i = 1, 2, . . . , n.

Demostración. Para cada v ∈ Rn existen y son únicos escalares α1 , α2 , . . . , αn , tales que


n
X
v= αi vi
i=1

ya que todo vector de Rn lo podemos expresar de modo único como combinación lineal de los
vectores de la base B .
Denamos T : Rn −→ Rm mediante
n
X
T (v) = αi w i
i=1

Probaremos las siguientes armaciones.


1. T es una transformación lineal.
Sean u, v ∈ Rn y a, b ∈ R, entonces
n
X n
X
u= βi vi y v= αi vi
i=1 i=1

43
y se verica que
 
Pn Pn
T (au + bv) = T a i=1 βi vi + b i=1 αi vi
 
Pn Pn
= T i=1 (aβi )vi + i=1 (bαi )vi
 
Pn
= T i=1 (aβi + bαi )vi
Pn
= i=1 (aβi + bαi )wPin
P n
= a i=1 βi wi + b i=1 α i wi 
Pn Pn
= aT i=1 βi vi + bT i=1 αi vi

= aT (u) + bT (v)
2. T (vi ) = wi para cada i = 1, 2, . . . , n.
En efecto, como
vi = 0v1 + 0v2 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vn

entonces
T (vi ) = 0w1 + 0w2 + · · · + 0wi−1 + 1wi + 0wi+1 + · · · + 0wn = wi
3. T es única.
Sea F : Rn −→ Rm una transformación lineal tal que F (vi ) = wi para cada i = 1, 2, . . . , n,
entonces  
Pn
F (v) = F i=1 αi vi
Pn
= Pi=1 αi F (vi )
= Pni=1 αi wi
n
= i=1 αi T (vi ) 
Pn
= T i=1 αi vi

= T (v)
para cada v ∈ R . Luego T = F .
n

El teorema demostrado asegura que toda transformación lineal entre dos espacios vectoriales
queda determinada por los valores que toma sobre cualquier base del primer espacio.
Ejemplo 6.4 Determinar la transformación lineal T : R3 −→ R2 que asigna a los vectores de la
base (1, 1, 1), (1, 1, 0), (1, 0, 0) en R3 , los vectores (1, 2), (2, −1) y (3, 4) en R2 , respectivamente.
Solución. Sea (x, y, z) un vector cualquiera de R3 . Escribamos este vector como combina-
ción lineal de la base, esto es, determinemos los escalares α1 , α2 y α3 tal que
α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 0) = (x, y, z)

Esta ecuación vectorial es equivalente al sistema cuya matriz aumentada es


 
1 1 1 x
1 1 0 y 
1 0 0 z
La forma escalonada reducida de esta matriz es
 
1 0 0 z
0 1 0 y − z 
0 0 1 x−y

44
Por lo tanto
α1 = z, α2 = y − z y α3 = x − y
Lo cual implica que la transformación lineal T : R3 −→ R2 que se pide está denida como
T (x, y, z) = T [z(1, 1, 1) + (y − z)(1, 1, 0) + (x − y)(1, 0, 0)]
= zT (1, 1, 1) + (y − z)T (1, 1, 0) + (x − y)T (1, 0, 0)
= z(1, 2) + (y − z)(2, −1) + (x − y)(3, 4)
= (z + 2y − 2z + 3x − 4y, 2z − y + z + 4x − 4y)
= (3x − 2y − z, 4x − 5y + 3z)
Ejemplo 6.5 Encontrar una transformación lineal de R2 en el plano
 
 x 
W = y  2x − y + 3z = 0
z
Solución.    
 1 0 
Se demuestra que B =  2 , 3 es una base de W .
 
0 1
Utilizando la base canónica de R y el teorema fundamental de las transformaciones lineales
2

obtenemos que existe una transformada lineal T tal que


   
  1   0
1 0
T = 2 y T = 3
0 1
0 1
En general
     
           1 0 x
x 1 0 1 0
T =T x +y = xT + yT = x 2 + y 3 = 2x + 3y 
y 0 1 0 1
0 1 y

6.2. Matriz canónica asociada a una transformación lineal


Sea f : Rn −→ Rm una transformación lineal. Sea B = {e1 , . . . en } la base canónica de
R . Por el teorema fundamental de las transformaciones lineales f queda caracterizada por los
n

valores que toma sobre la base canónica B , f (e1 ), . . . f (en ). Por consiguiente, si
 
x1

 x2 

x= .  ∈ Rn ,
 
 . 
xn
entonces

f (x) = f (x1 e1 + x2 e2 + · · · + xn en )
= x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en )
 
x1
 x2 
 
= (f (e1 ) f (e2 ) · · · f (e1 )) 
 . 

 . 
xn
= Ax.

45
donde A es una matriz de orden m×n, cuya j -ésima columna es el vector f (ej ), llamada matriz
canónica asociada a la transformación lineal f .
Ejemplo 6.6 Encontrar la matriz canónica A asociada a la transformación lineal T : R3 → R4
denida por  
  2x − y
x  x+z 
T y = 

 x − 2y + z 

z
−x + y − 4z
Solución. Tenemos que
     
  2   −1   0
1 1 0 0 0 1
T 0 = 
 1 ,
 T 1 = 
−2
 y T 0 = 
1

0 0 1
−1 1 −4

Por lo tanto  
2 −1 0
1 0 1
A=
 1 −2 1 

−1 1 −4
Esto nos permitirá escribir a T de la formar matricial
 
  2 −1 0  
x 1 x
0 1
T y =
     y
1 −2 1 
z z
−1 1 −4
 
Ejemplo 6.7 Sea T : R → R la transformación lineal que rota un vector v = xy del plano
2 2

un ángulo θ, que es positivo si va en dirección


 contraria al giro de las manecillas del reloj.
0
x
Llamemos a este nuevo vector rotación v = . Entonces, como vemos en la gura, si r
0
0
y
denota la longitud de v (que no cambia por rotación),
x = rcosα

y = rsenα
0
x = rcos(θ + α) = rcosθcosα − rsenθsenα = xcosθ − ysenθ
0
y = rsen(θ + α) = rsenθcosα + rsenαcosθ = xsenθ + ycosθ

46
Figura 9: (x , y ) se obtiene rotando (x, y) un ángulo θ
0 0

Entonces, la transformación T , llamada transformación de rotación, la denimos como


   
x xcosθ − ysenθ
T =
y xsenθ + ycosθ

La matriz canónica asociada a esta transformación lineal es


 
cosθ −senθ
A=
senθ cosθ

Demuestren que tal transformación, efectivamente, es lineal.

6.3. Núcleo e imagen de una transformación lineal


Denición 6.2 El núcleo de la transformación lineal T : Rn −→ Rm , denotado por N (T ), se
dene como
N (T ) = {x ∈ Rn /T (x) = 0m },
donde 0m es el vector nulo en Rm

Nótese que:
1. x ∈ N (T ) ←→ T (x) = 0m
2. N (T ) ⊂ Rm
3. 0n ∈ N (T ), donde 0n es el vector nulo en Rn

Teorema 6.3 El núcleo de toda transformación lineal T : Rn −→ Rm es un subespacio de Rn .


Denición 6.3 La imagen o rango de la transformación lineal T : Rn −→ Rm , denotado por
I(T ), se dene como
I(T ) = {T (x)/x ∈ Rn },
o bien
I(T ) = {y ∈ Rm /(∃x ∈ Rn )(T (x) = y)}

47
Nótese que:
1. 0m ∈ I(T )
2. I(T ) ⊂ Rm

Teorema 6.4 La imagen de toda transformación lineal T : Rn −→ Rm es un subespacio de


Rm .

Teorema 6.5 En toda transformación lineal T : Rn −→ Rm se cumple que


dim(N (T )) + dim(I(T )) = dim(Rn ) = n

Ejemplo 6.8 Sea T : R4 −→ R3 una transformación lineal, tal que


 
x  
y  2x + 3y + 4z + 5w
T
z  =
  x + 2w 
−x − z + 3w
w

1. Hallar la matriz canónica A asociada a T .


2. Hallar N (T ), y una base y la dimensión de dicho subespacio.
3. Hallar I(T ), y una base y la dimensión de dicho subespacio.
Solución.
1. Se demuestra fácilmente que la matriz canónica asociada a T es
 
2 3 4 5
A =  1 0 0 2
−1 0 −1 3
 
x
y 
2. Supongamos que 
 z  ∈ N (T ), entonces

w
 
x  
y  0
T   = 0,
  
z
0
w
 
  x  
2 3 4 5   0
 1 0 0 2  y  = 0
z 
−1 0 −1 3 0
w
Nótese que la matriz de coecientes del sistema homogéneo equivalente a la ecuación matricial
anterior es la matriz canónica asociada a la Transformación T , por lo tanto, como la forma
escalonada reducida de dicha matriz es
 
1 0 0 2
0 1 0 7 
0 0 1 −5

48
obtenemos que    
 −2λ   −2 
−7λ
 λ ∈ R = Gen −7
 
N (T ) = 
 5λ  5
λ 1
Por lo tanto,
 
 −2 
−7
  es una base de N (T ) y
5
1

dim(N (T )) = 1
 
  α1
x α2 
3. Supongamos que y  ∈ I(T ), entonces existe 
α3  ∈ R tal que
 4

z
α4
 
α1  
α 2  x
T  =  y ,
α 3 
z
α4
 
  α1  
2 3 4 5   x
 1 0 0 2 α2  = y 
α3 
−1 0 −1 3 z
α4
Esta ecuación matricial es equivalente al sistema cuya matriz aumentada es
 
2 3 4 5 x
 1 0 0 2 y
−1 0 −1 3 y

Aplicando operaciones elementales de las obtenemos que la forma escalonada reducida de esta
matriz es  
1 0 0 2 y
0 1 0 7 x+2y+4z 
3
0 0 1 −5 −y − z
 
x
De donde se deduce fácilmente que dicho sistema tiene solución para cada y  ∈ R3 Por lo
z
tanto
I(T ) = R3

La base canónica de R3 es una base para I(T ).


dim(I(T )) = 3

Nótese que:
1. dim(N (T )) + dim(I(T )) = 1 + 3 = 4 = dim(R3 )

49
2. ρ(A) = 3 = dim(I(T ))
Esta última proposición no es pura casualidad y se generaliza en el siguiente Teorema.

Teorema 6.6 Si T : Rn −→ Rm es una transformación lineal cuya matriz canónica asociada


es A, entonces ρ(A) = dim(I(T )).

6.4. Inversa de una transformación lineal


Denición 6.4 Se dice que una transformación lineal T : Rn −→ Rm es inyectiva si cada
b ∈ Rm es la imagen de a lo más un x ∈ Rn , esto es, si

T (v1 ) = T (v2 ) → v1 = v2

Teorema 6.7 Una transformación lineal T : Rn −→ Rm es inyectiva si y sólo si N (T ) = {0},


donde 0 es el vector nulo en Rn .

Demostración.
1. Supongamos que N (T ) = {0} y que existen v1 , v2 ∈ Rn tal que T (v1 ) = T (v2 ), entonces

T (v1 − v2 ) = T (v1 ) − T (v2 ) = 0

Por lo tanto, v1 − v2 ∈ N (T ) = {0}, esto es, v1 = v2 , lo cual implica que T es inyectiva.


2. Supongamos que T es inyectiva y que v ∈ N (T ), entonces T (v) = 0. Por propiedades
de una transformación lineal, T (0) = 0, por lo tanto, T (v) = T (0). Ahora bien, como T es
inyectiva y T (v) = T (0), entonces v = 0, lo cual implica que N (T ) = {0}.

Denición 6.5 Se dice que una transformación lineal T : Rn −→ Rm es sobreyectiva si cada


b ∈ Rm es la imagen de por lo menos un x ∈ Rn , es decir, T es sobreyectiva si I(T ) = Rm

Ejemplo 6.9 Determinar si la transformación lineal T : R2 → R2 denida por


   
x x + 2y
T =
y x−y

es inyectiva o sobreyectiva.
Solución. Es inmediato que la matriz canónica asociada a la transformación lineal T es
 
1 2
A=
1 −1

y que la forma escalonada reducida de esta matriz es


 
1 0
0 1

por lo tanto, ρ(A) = 2. De esto concluimos que:


1. Como ρ(A) = 2, el sistema homogéneo cuya matriz de coecientes es A tiene sólo la
solución trivial, esto es, N (T ) = {0}, lo cual implica que T es inyectiva.
2. Como ρ(A) = 2 entonces dim(I(T )) = 2, por lo tanto, I(T ) = R2 , lo cual implica que T
es sobreyectiva.

50
Ejemplo 6.10 Determinar si la transformación lineal T : R2 → R2 denida por
   
x 2x − 2y
T =
y x−y

es inyectiva o sobreyectiva.
Solución. Es inmediato que la matriz canónica asociada a la transformación lineal T es
 
2 −2
A=
1 −1

y que la forma escalonada reducida de esta matriz es


 
1 −1
0 0

por lo tanto, ρ(A) = 1. De esto concluimos que:


1. Como ρ(A) = 1, el sistema homogéneo cuya matriz de coecientes es A tiene soluciones
distintas de la trivial, esto es, N (T ) 6= {0}, lo cual implica que T no es inyectiva.
2. Como ρ(A) = 1 entonces dim(I(T )) = 1, por lo tanto, I(T ) 6= R2 , lo cual implica que T
no es sobreyectiva.

Teorema 6.8 Sea T una transformación lineal del espacio vectorial Rn en sí mismo, entonces
1. Si T es inyectiva, entonces es sobreyectiva.
2. Si T es sobreyectiva, entonces es inyectiva.

Demostración.
1. Supongamos que T es inyectiva, entonces N (T ) = {0}. Esto implica que dim(N (T )) = 0,
por lo tanto, como

dim(N (T )) + dim(I(T )) = n → 0 + dim(I(T )) = n → dim(I(T )) = n → I(T ) = Rn

esto es, T es sobreyectiva.


2. Supongamos que T es sobreyectiva, entonces I(T ) = Rn , esto es, dim(I(T )) = n. Ahora
bien, como

dim(N (T )) + dim(I(T )) = n → dim(N (T )) + n = n → dim(N (T )) = 0 → I(T ) = {0}

por lo tanto, T es inyectiva.

Teorema 6.9 Sea T : Rn → Rm una transformación lineal, entonces


1. Si n > m, T no es inyectiva.
2. Si n < m, T no es sobreyectiva.

Demostración.
1. Supongamos que n > m y que T es inyectiva, entonces dim(N (T )) = 0. Ahora bien, como

dim(N (T )) + dim(I(T )) = n → 0 + dim(I(T )) = n → dim(I(T )) = n > m

Esto último es una contradicción, pues, como I(T ) ⊂ Rm , dim(I(T )) ≤ m.

51
2. Supongamos que n < m y que B = {v1 , . . . , vn } es una base de Rn . Sea v ∈ Rn , entonces

v = α1 v1 + · · · + αn vn

para algunos escalares α1 , . . . , αn , por lo tanto


T (v) = T (α1 v1 + · · · + αn vn )
= α1 T (v1 ) + · · · + αn T (vn )
= α1 w1 + · · · + αn wn

Esto implica que Gen{w1 , . . . , wn } = I(T ), por lo tanto dim(I(T )) ≤ n < m = dim(Rm ). Con
lo anterior hemos demostrado que I(T ) 6= Rm , esto es, T no es sobreyectiva.

Teorema 6.10 Sea T : Rn −→ Rn una transformación lineal y sea A ∈ Mn (R) la matriz


canónica asociada a T , entonces
1. T es inyectiva si y sólo si A es invertible
2. T es sobreyectiva si y sólo si A es invertible

Teorema 6.11 Si la transformación lineal T : Rn −→ Rm es biyectiva, entonces n = m.


Denición 6.6 Sean T1 : Rn −→ Rr y T2 : Rr −→ Rm dos transformaciones lineales. La
función compuesta
T2 ◦ T1 : Rn −→ Rm
se dene como
(T2 ◦ T1 )(x1 , . . . , xn ) = T2 [T1 (x1 , . . . , xn )].

La composición de dos transformaciones lineales con las condiciones dada en la denición,


es una transformación lineal. En efecto, para cada x, y ∈ Rn y α ∈ R

(T2 ◦ T1 )(x + y) = T2 [T1 (x + y)]


= T2 [T1 (x) + T1 (y)]
= T2 [T1 (x)] + T2 [T1 (y)]
= (T2 ◦ T1 )(x) + (T2 ◦ T1 )(y).

(T2 ◦ T1 )(αx) = T2 [T1 (αx)]


= T2 [αT1 (x)]
= αT2 [T1 (x)]
= α(T2 ◦ T1 )(x).

En la demostración hemos aplicado sucesivamente la denición de composición y el hecho


que f y g son transformaciones lineales.

Denición 6.7 Se dice que una transformación lineal T : Rn −→ Rn es invertible si y sólo


si es biyectiva.

Sabemos que una función f : A −→ B es biyectiva si y sólo si admite inversa. En conse-


cuencia, podemos armar que la transformación lineal T : Rn −→ Rn es invertible si y sólo si
existe T −1 , llamada inversa de T , que satisface las siguientes condiciones

52
(T ◦ T −1 )(x) = x
(T −1 ◦ T )(x) = x
Teorema 6.12 La inversa de una transformación lineal T : Rn −→ Rn invertible es una
transformación lineal.
Demostración. Consideremos y1 , y2 ∈ Rn . Por ser T biyectiva, existen y son únicos los
vector x1 , x2 ∈ Rn , tales que
T (x1 ) = y1 y T (x2 ) = y2 .
Por lo tanto, para cada y1 , y2 ∈ R y α ∈ R, se verica que
n

T −1 (y1 + y2 ) = T −1 [T (x1 ) + T (x2 )]


= T −1 [T (x1 + x2 )]
= (T −1 ◦ T )(x1 + x2 )
= x 1 + x2
= T −1 (y1 ) + T −1 (y2 ).
y
T −1 (αy1 ) = T −1 [αT (x1 )]
= T −1 [T (αx1 )]
= (T −1 ◦ T )(αx1 )
= αx1
= αT −1 (y1 ).
Teorema 6.13 Sea T : Rn −→ Rn una transformación lineal y sea A la matriz canónica
asociada a T . Entonces T es invertible si y sólo si A es una matriz invertible. En tal caso, la
transformación lineal f −1 es única y está denida como
f −1 (x) = A−1 x

7. Valores y vectores propios


7.1. Valores y vectores propios de una matriz
Denición 7.1 Sea A una matriz cuadrada de orden n. El escalar λ es un valor propio de
la matriz A si y sólo si existe un vector no nulo x tal que Ax = λx. El vector no nulo que
satisfaga la relación Ax = λx se llama vector propio de A asociado al valor propio λ.
Nótese que λ es una valor propio de A si y sólo si la ecuación
(A − λI)x = 0 (27)
tiene una solución no trivial. El conjunto de todas las soluciones de (27) es un subespacio de Rn
y se llama el espacio propio de A correspondiente a λ. El espacio propio consiste del vector
nulo y todos los vectores propios correspondientes a λ.
Teorema 7.1 Los valores propios de una matriz triangular son las entradas de su diagonal
principal
Teorema 7.2 Una matriz cuadrada A de orden n es invertible si y sólo si el escalar 0 no es
un valor propio de A.
Teorema 7.3 Si v1 , . . . , vr son vectores propios que corresponden a distintos valores propios
λ1 , . . . , λr de una matriz cuadra A de orden n, entonces el conjunto {v1 , . . . , vr } es linealmente
independiente.

53
7.2. Polinomio característico
Denición 7.2 El polinomio característico, p(λ), de una matriz cuadrada A de orden n es
el determinante de la matriz A − λI . Es decir,
p(λ) = det(A − λI) = |A − λI|

Para hallar los valores propios de una matriz cuadrada A de orden n se deben de encontrar
todos los escalares λ tales que la ecuación matricial
(A − λI)x = 0

tenga una solución no trivial. Esto es equivalente a encontrar todos los escalares λ tales que la
matriz A − λI no sea invertible.
Por el Teorema 5.6, esta matriz no es invertible cuando su determinante es cero. Esto justica
el siguiente Teorema

Teorema 7.4 Una escalar λ es una valor propio de una matriz A ∈ Mn (R) si y sólo si λ es
una raíz del polinomio característico
p(λ) = |A − λI|

Observaciones 7.1
1. Si A ∈ Mn (R), entonces p(λ) = |A − λI| es un polinomio de grado n.
2. Un valor propio λ1 de A ∈ Mn (R) , tiene multiplicidad r si y sólo si (λ − λ1 ) aparece r
veces como factor del polinomio característico.
3. Dada que el polinomio característico de una matriz A ∈ Mn (R) es de grado n, el polino-
mio tiene exactamente n raíces, contando las multiplicidades y las raíces complejas. Se
considerarán únicamente valores propios reales y los escalares seguirán siendo números
reales.
Denición 7.3 Sean A y B matrices cuadradas de orden n. Se dice que A y B son semejantes
si existe una matriz invertible P tal que P AP −1 = B o, de manera equivalente, B = P AP −1 .
Teorema 7.5 Si las matrices cuadradas A y B de orden n son semejantes, entonces tienen
el mismo polinomio característico y por lo tanto los mismos valores propios (con las mismas
multiplicidades).
El recíproco del teorema anterior no es cierto, ya que dos matrices pueden tener los mismos
valores propios y no ser semejantes.

7.3. Potencias y diagonalización de matrices


El siguiente ejemplo muestra que el cálculo de potencias de una matriz diagonal D es trivial.
 
2 0 0
Ejemplo 7.1 Si D =  0 3 0 , entonces
0 0 4
    2 
2 0 0 2 0 0 2 0 0
D 2 =  0 3 0   0 3 0  =  0 32 0 
0 0 4 0 0 4 0 0 42

54
    3 
2 0 0 22 0 0 2 0 0
3
D = DD = 2  0 3 0   0 3 2 0  =  0 33 0 
0 0 4 0 0 42 0 0 43
 k 
2 0 0
En general, Dk =  0 3k 0  para k ≥ 1
0 0 4k

Observaciones 7.2
1. Si D es una matriz diagonal de orden n cuya diagonal principal es

(d1 , d2 , . . . , dn ),

entonces Dk también es una matriz diagonal de orden n, para cada entero positivo k , y
su diagonal principal es
(dk1 , dk2 , . . . , dkn )

2. Si A = P DP −1 para algún P invertible y D diagonal, entonces

Ak = P Dk P −1

para todo entero positivo k

Denición 7.4 Se dice que una matriz cuadrada A es diagonalizable si A es semejante a


una matriz diagonal, esto es, si A = P DP −1 para alguna matriz P invertible y alguna matriz
D diagonal.

Teorema 7.6 (El teorema de diagonalización) Una matriz cuadrada A de orden n es dia-
gonalizable si y sólo si tiene n vectores propios linealmente independientes.

De hecho, A = P DP −1 , siendo D una matriz diagonal, si y sólo si las columnas de P son


n vectores propios de A linealmente independientes. En este caso, las entradas diagonales de D
son los valores propios de A que corresponden, respectivamente, a los vectores propios de P .
En los siguientes ejemplos se ilustra como implementar el teorema anterior para diagonalizar
una matriz, si es posible.

Ejemplo 7.2 Diagonalice la siguiente matriz, si es posible.


 
1 3 3
A =  −3 −5 −3 
3 3 1

Solución. Se requieren los siguientes pasos.


Paso 1. Encontrar los valores propios de A. El polinomio característico de la matriz es
p(λ) = −(λ − 1)(λ + 2)2 ,

por lo tanto, los valores propios son λ = 1 y λ = −2

55
Paso 2. Encontrar tres vectores propios de A linealmente independientes. Si este
paso falla, el teorema anterior dice que la matriz A no puede diagonalizarse. Una base
para el espacio propio asociado a λ = 1 es
 
n 1 o
 −1 
1
y una base para el espacio propio asociado a λ = −2 es
   
n −1 −1 o
 1 , 0  .
0 1
Se puede comprobar que
     
n 1 −1 −1 o
 −1  ,  1  ,  0 
1 0 1
es un conjunto linealmente independiente.
Paso 3. Construir P con los vectores del paso 2. El orden de los vectores no tiene im-
portancia.  
1 −1 −1
P =  −1 1 0 
1 0 1
Paso 4. Construir D con los valores propios correspondientes. En este paso es esencial
que el orden de los valores propios corresponda al orden escogido para las columnas de P .
 
1 0 0
D =  0 −2 0 
0 0 −2

Paso 5. Hallar P −1 y comprobar que A = P DP −1 .


 
1 1 1
P −1 = 1 2 1 
−1 −1 0

Le dejo a ustedes la tarea de comprobar que A = P DP −1 .


Ejemplo 7.3 Diagonalice la siguiente matriz, si es posible.
 
2 4 3
A =  −4 −6 −3 
3 3 1
Solución. El polinomio característico de A es el mismo que el del ejemplo anterior. Luego, los
valores propios son λ = 1 y λ = −2.
Sin embargo, cada uno de los espacios propios es de dimensión 1. Una base para el espacio
propio asociado a λ = 1 es  
n 1 o
 −1 
1

56
y una base para el espacio propio asociado a λ = −2 es
 
n −1 o
 1 
0

No hay otros valores propios y cada vector propio de A es múltiplo de uno de los dos vectores
propios anteriores. Por lo tanto, es imposible formar un conjunto con tres vectores propios de
A linealmente independientes. Por el Teorema 7.6, A no es diagonalizable.

El siguiente teorema da una condición suciente, pero no necesaria, para que una matriz
sea diagonalizable.

Teorema 7.7 Una matriz cuadras de orden n con n valores propios distintos es diagonalizable.
Si una matriz cuadrada A de orden n tiene n valores propios distintos, con vectores propios
correspondientes v1 , v2 . . . , vn y si P = v1 v2 . . vn , entonces P automáticamente es


invertible porque sus columnas son linealmente independientes. Cuando A es diagonalizable


pero tiene menos de n valores propios distintos, aún es posible construir P de alguna forma que
haga a P automáticamente invertible, como muestra el siguiente teorema

Teorema 7.8 Sea A una matriz cuadrada de orden n cuyos valores propios distintos son
λ1 , λ2 . . . , λr .
1. Para 1 ≤ k ≤ r la dimensión del espacio propio asociado a λk es menor o igual a la
multiplicidad del valor propio λk .
2. La matriz A es diagonalizable si y sólo si la suma de las dimensiones de los distintos
espacios propios es igual a n y esto sucede si y sólo si la dimensión del espacio propio
para cada λk es igual a la multiplicidad de λk .
3. Si A es diagonalizable y Bk es una base para el espacio propio correspondiente a λk para
cada k , entonces la colección total de vectores en los conjuntos B1 , B2 . . . , Br forman un
conjunto de n vectores linealmente independiente, es decir, forman una base para Rn .

8. Espacios con producto interno


8.1. Producto interno
Denición 8.1 Un producto interior o producto punto dentro del espacio vectorial Rn es
una función que asocia a cada par de vectores u y v en Rn un número real < u, v > y que
satisface los siguientes axiomas, para todos v , v , w en Rn y para todo escalar c
1. < u, v >=< v, u >
2. < u + v, w >=< u, w > + < v, w >
3. < u, u >≥ 0 y < u, u >= 0 si y sólo si u = 0.
4. < cu, v >= c < u, v >

Los axiomas (2) y (4) se pueden combinar varias veces para producir la siguiente regla
< c1 u1 + · · · cp up , v >= c1 < u1 , v > + · · · + cp < up , v >

57
Teorema 8.1 El producto interior de cualquier vector y el vector nulo es cero.
Ejemplo 8.1 En el espacio vectorial Rn la función
<, >: Rn × Rn −→ R

denida por
< u, v >= uT v (28)
   
u1 v1
 u2   v2 
donde u =  yv= .  es un producto interior.
   
 .   
 .   . 
un vn

Observaciones 8.1
1. La ecuación (28) caracteriza un producto interior en Rn , llamado producto interior usual
y denotado habitualmente por u · v . Efectuando la operación indicada en (28) se obtiene
que
n
X
u · v =< u, v >= ui vi
i=1

En el caso n = 2 esta denición se traduce en u · v = u1 v1 + u2 v2


2. Se pueden denir otros productos interiores semejantes a (28) en Rn . A partir de ahora,
cuando en el espacio vectorial Rn se haga referencia a un producto interior se estará
reriendo al producto interior usual.

8.2. Norma de un vector y ortogonalidad


Denición 8.2 La norma o longitud de un vector v en Rn es el escalar no negativo kvk
denido por √
kvk = v·v

Observaciones 8.2
1. Si se identica a v con un punto en el plano, entonces kvk coincide con la noción usual
de la longitud del segmento de recta desde el origen a v .
2. El cuadrado del módulo de todo vector es igual al producto interior de dicho vector consigo
mismo, es decir
kvk2 = v · v

3. La distancia entre dos vectores u y v en Rn es el módulo de su diferencia.

d(u, v) = ku − vk

4. El módulo del producto entre un escalar y un vector en Rn es igual al valor absoluto del
escalar por el módulo del vector.
kcuk = |c|kuk

58
5. Un vector cuya longitud es 1 se llama vector unitario. Si se divide un vector v no nulo
entre su longitud se obtiene el vector unitario
v
u= .
kvk
El proceso de crear a u a partir de v se denomina normalización de v y se dice que u
está en la misma dirección que v .
Denición 8.3 Dos vectores u y v en Rn son ortogonales si y sólo si u · v = 0.
Nótese que el vector nulo es ortogonal a todo vector en Rn .

8.3. Bases y matrices ortogonales


Denición 8.4 Se dice que un conjunto de vectores v1 , . . . , vp en Rn es un conjunto ortogo-
nal si cada par de vectores distintos en el conjunto es ortogonal; esto es, si v1 · vj = 0 siempre
que i 6= j .
Teorema 8.2 Si S = {v1 , . . . , vp } es un conjunto ortogonal de vectores diferentes de cero en
Rn , entonces S es linealmente independiente y por lo tanto es una base del subespacio generado
por S .
Denición 8.5 Una base ortogonal de un subespacio W de Rn es una base de W que también
es un conjunto ortogonal.
El siguiente teorema muestra que una base ortogonal es mucho mejor que otras bases. Los
pesos de una combinación lineal se pueden calcular más rápidamente.
Teorema 8.3 Sea {v1 , . . . , vp } una base ortogonal de un subespacio W de Rn . entonces toda y
en W tiene una representación única como combinación lineal de v1 , . . . , vp . De hecho, si
y = c1 v1 + · · · + c2 vp

entonces y · vi
ci =
kvi k2
para cada i = 1, . . . , p.
Demostración. Sea
y = c1 v1 + · · · + ci vi + · · · + c2 vp .
De la ecuación anterior se obtiene que para cada i = 1, . . . , p
y · vi = (c1 v1 + · · · + ci vi + · · · + c2 vp ) · vi ,

es decir,
y · vi = c1 (v1 · vi ) + · · · + ci (vi · vi ) + · · · + c2 (vp · vi ).
Puesto que vi · vi 6= 0 y vi · vj = 0 para i 6= j , entonces la ecuación anterior se puede escribir
como
y · vi = ci (vi · vi ).
Por lo tanto, despejando ci se obtiene que
y · vi y · vi
ci = = (i = 1, . . . , p)
vi · vi kvi k2

59
Cuando los vectores de un conjunto ortogonal se normalizan para tener longitud unitaria,
los nuevos vectores siguen siendo ortogonales y por lo tanto el nuevo conjunto será un conjunto
ortonormal.
Si W es un subespacio de Rn generado por un conjunto ortonormal {u1 , . . . , up }, entonces
dicho conjunto es una base ortonormal para W , puesto que, por el Teorema 8.2, el conjunto
es linealmente independiente.
Las matrices cuyas columnas forman un conjunto ortonormal son importantes en aplicacio-
nes y en algoritmos de computador para cálculos con matrices.
Teorema 8.4 Una matriz U de orden m×n tiene columnas ortonormales si y sólo si U T U = I .

Teorema 8.5 Sea U una matriz de orden m × n con columnas ortonormales y sean x e y en
Rn . Entonces
1. kU xk = kxk
2. (U x) · (U y) = x · y

Los teoremas 8.4 y 8.5 son útiles cuando se aplican a matrices cuadradas
Denición 8.6 Una matriz ortogonal es una matriz U invertible y cuadrada, tal que U −1 =
UT .

8.4. Ortogonalización de Gram-Schmidt


Sea W = {x1 , . . . , xp } un subespacio de Rn de dimensión p. Se probará que W admite una
base ortogonal.
Antes de dar los pasos para construir esta base ortogonal recuerde que:
1. Todo conjunto de vectores linealmente independiente no contiene al vector nulo.
2. De un conjunto de vectores linealmente independientes, ningún vector puede ser múltiplo
escalar de otro.
Paso 1. Elección del primer vector.
v1 = x1
Paso 2. Elección del segundo vector ortogonal a v1
x2 · v1
v 2 = x2 − v1
kv1 k2
Los vectores v1 y v2 son ortogonales, en efecto
 x2 · v1 
v1 · v2 = v1 · x2 − v1
kv1 k2
x · v 
2 1
= v1 · x2 − v1 2
v1
kv1 k
x2 · v1
= v1 · x2 − (v1 · v1 )
kv1 k2
x2 · v1
= v1 · x2 − kv1 k2
kv1 k2
= v1 · x2 − v1 · x2
= 0

60
Más aún, v2 6= 0, de otra manera
x2 · v1
x2 − v1 = 0
kv1 k2
x2 · v1
x2 = x1
kv1 k2
x2 · v1
x2 = αx1 , con α =
kv1 k2
lo que contradice la independencia del conjunto W .
Entonces es evidente que {v1 , v2 } es un conjunto ortogonal que no contiene el vector nulo.
Paso 3. Elección del tercer vector ortogonal a v1 y v2 .
x3 · v 1 x3 · v2
v3 = x3 − v 1 − v2
kv1 k2 kv2 k2

Se demuestra que {v1 , v2 , v3 } es un conjunto ortogonal que no contiene el vector nulo.


Paso 4. Continuación del proceso
v1 = x1
x2 · v1
v2 = x2 − v1
kv1 k2
x3 · v1 x3 · v2
v3 = x3 − 2
v1 − v2
kv1 k kv2 k2
..
.
xp · v1 xp · v2 xp · vp−1
vp = xp − 2
v1 − 2
v2 − · · · − vp−1
kv1 k kv2 k kvp−1 k2
Se demuestra que {v1 , . . . , vp } es un conjunto ortogonal de vectores que no contiene el vector
nulo. Por otra parte, como cada vi (i = 1, . . . , p) es combinación lineal de vectores de W ,
entonces Gen{v1 , . . . , vp } es un subespacio de Gen{x1 , . . . , xp } = W y como cada espacio tiene
dimensión p, entonces los espacios son iguales.
Con todo lo anterior se ha demostrado que {v1 , . . . , vp } es una base ortogonal para W . Los
pasos para construir dicha base se llama proceso de Gram-Schmidt.
Se puede construir fácilmente una base ortonormal a partir de una base ortogonal; simple-
mente normalice cada elemento de la base ortogonal.

Ejercicios
1. Demuestre, mediante un contraejemplo, que las siguientes proposiciones son falsas:
a ) Para todo par de matrices cuadradas de orden 2, A y B , se cunple que

(A + B)2 = A2 + 2AB + B 2

b ) Para todo par de matrices cuadradas de orden 2, A y B , se cunple que

(A + B)(A − B) = A2 − B 2

61
 
1 3 −2
2. Escriba la matriz A =  2 7 1  como la suma de una matriz simétrica y una
−4 1 54
antisimétrica.
3. Resolver, por el método de Gauss-Jordan, cada uno de los siguientes sistemas:
x + y + z = 3
a ) x − y − z = −1
3x + y + z = 5
x + z − u = 1
+ 2y + z + u = 3
b)
x − y + u = −1
x + y + z + u = 2
y + z − u = 4
x + 3y + 5z − u = 1
c)
x + 2y + 5z − 4u = −2
x + 4y + 6z − 2u = 6
x + y + z = 2
2x + y − 4z = −12
d)
2x + y − 3z = −9
−x + y − 2z = −9
2x + 3y
+ 4z = 5
e ) 6x + 7y + 8z = 9
8x + 10y + 12z = 14
4. En cada uno de los siguientes sistemas, determinar para qué valores del parámetro a, el
sistema es: (i) incompatible, (ii) compatible determinado, (iii) compatible indeterminado:
x + y − z = 2
a ) x + 2y + z = 3
2
x + y + (a − 5)z = a
x + y
+ az = a
b ) ax + y + z = a
x + 2y + az = 1
−x + 2y + z = 1
c) x + y + az = 1
(a − 1)x + (1 − a)z = 0
x + y
+ az = 1
d ) −x + 2y + z = 1
ax + y + z = 1
 
1 2 0
5. Dada la matriz A = 1 2
 4 
0 1 2
a ) Demuestre, aplicando el método de Gauss-Jordan, que A es invertible y hallar A−1 .
b ) Aplique
 lamatriz A−1
encontrada
 en (a) para resolver el sistema AX = B , donde
x −2
X=  y  yB=  1 .
z 3

62
6. Calcule el determinante de cada una de las siguientes matrices
 
9 1 9 9 9
 9 0 9 9 2 
a) A = 
 
 4 0 0 5 0 

 9 0 3 9 0 
6 0 0 7 0
 
4 8 8 8 5
 0 1 0 0 0 
b) A = 
 
 6 8 8 8 7 

 0 8 8 3 0 
0 8 2 0 0

Bibliografía
1. Armando O Rojo (1983). Álgebra II. 8 a
edición. Libreria el Eteneo Editorial. Buenos
Aires.
2. David C. Lay (2001). Álgebra Lineal y Sus Aplicaciones. Segunda edición. Pearson
Educación. México.
3. Emilio Prieto Sáez (1999). Lecciones elementales de á lgebra lineal para economía
y empresa. Editorial Centro de Estudios Ram ón Areces, S.A. Madrid.
4. Grossman, S. (1997). Álgebra lineal con aplicaciones. Quinta edición. McGraw-Hill.
5. Paloma Sanz, Francisco Vázquez y Pedro Ortega (1998). Problemas de Álgebra Li-
neal. Cuestiones, Ejercicios y tratamiento en derive. Un Enfoque Práctico.
Prentice Hall. Madrid.

63

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy