Introducción Al Álgebra Lineal
Introducción Al Álgebra Lineal
Introducción Al Álgebra Lineal
Yoel E. Gutiérrez T.
3 de octubre de 2021
1. Álgebra de matrices
1.1. Deniciones básicas
Denición 1.1 Sean m y n dos enteros positivos. Una matriz A de orden mxn es una dis-
tribución rectangular de m las y n columnas de la forma
a11 a12 . . a1n
a21 a22 . . a2n
A=
. . . .
. . .
am1 am2 . . amn
Los escalares aij habitualmente pertenecen a los números reales y se llaman los elementos,
entradas o coecientes de la matriz A.
Observaciones 1.1
1. Para cada i = 1, 2, . . . , m, la matriz de orden 1xn
(ai1 ai2 . . . ain )
1
6. Al conjunto de todas la matrices de orden mxn sobre R las denotaremos por Mmxn (R) o
bien Rmxn . Al conjunto de las matrices cuadras de orden n (o nxn) las denotaremos por
Mn (R).
7. La matriz A diremos que es nula (o cero), y la denotaremos por 0, si todos sus elementos
son iguales a cero.
8. Si A es una matriz cuadrada (m = n) , diremos que:
a) la diagonal principal de A es la n-upla
Ejemplo 1.1
1. La matriz
1 −3 2
4 5 −8
A=
0 3
4
5 3 −6
es de orden 4 × 3, tiene 4 las y 3 columnas. El elemento que aparece en la segunda la
y la tercera columna es a23 = −8.
−3 12
0 √
2. B = 4 2 −1 es una matriz cuadrada de orden 3. La diagonal principal de esta
5 3 π
matriz es √
D(B) = (0, 2, π)
1 0 0
3. I3 = I = 0 1 0 es la matriz identidad de orden 3.
0 0 1
1 −3 2 0 1 0 0 0
0 5 −8 9
4. A = es una matriz triangular superior y B = 7 5 0 0
0 0 0 5 0 20 12 0
0 0 0 −13 −9 0 9 −3
es triangular inferior.
2
1.2. Suma de matrices y multiplicación de matrices por un escalar
Denición 1.2 Sean A, B ∈ Mmxn (R) y consideren la matriz C ∈ Mmxn (R) tal que
cij = aij + bij .
A esta matriz C la llamaremos la suma de A y B , y la denotaremos por A + B .
Nótese que la suma de dos matrices está denida sólo cuando las dos matrices son del mismo
orden (o tamaño).
Ejemplo 1.2
1 −3 2 2 −3 −3 1 + 2 −3 + (−3) 2 + (−3) 3 −6 −1
4 5 −8 + 1 6 5 = 4 + 1 5+6 −8 + 5 = 5 11 −3
0 3 4 5 6 12 0+5 3+6 4 + 12 5 9 16
Denición 1.3 Sean A ∈ Mmxn (R) y α ∈ R y consideremos la matriz B ∈ Mmxn (R) tal que
bij = αaij .
A esta matriz B la llamaremos la multiplicación del escalar α por la matriz A y la
denotaremos por αA.
Ejemplo 1.3
3 3 3 3
·1 ·2 − 92
2 2
(−3) 2 2
3
1 −3 2
3 3 3 3
15
4 5 −8 =
2 · 4 2
·5 2
(−8) 6
= 2
−12
2
0 3 4 3 3 3 9
2
·0 2
·3 2
·4 0 2
6
Teorema 1.1 Para toda A, B, C ∈ Mmxn (R) y escalares α y β se cumple que
1. A + B = B + A
2. (A + B) + C = A + (B + C)
3. A + 0 = A
4. 0A = 0
5. 1A = A
6. α(βA) = (αβ)A
7. (α + β)A = αA + βA
8. α(A + B) = αA + αB
Observaciones 1.2
1. Para cada A ∈ Mmxn (R), existe una única matriz B ∈ Mmxn (R) tal que:
a) bij = −aij y
b) A + B = 0
2. La matriz B en (1) la llamaremos la opuesta de A y la denotaremos por −A.
3. Dadas dos matrices A, B ∈ Mmxn (R), la resta se dene por
A − B = A + (−B).
3
1.3. Multiplicación de matrices
Denición 1.4 Sean A y B matrices sobre R de ordenes mxn y nxp respectivamente, y consi-
deremos la matriz C ∈ Mmxp (R) tal que la entrada en la la i y la columna j de C es la suma
de los productos de las entradas correspondientes de la la i de A y la columna j de B , esto es
m
X
cij = aik bkj .
k=1
Se tiene que
3(0) + 1(5) 3(2) + 1(−1) 5 5
AB = = ,
−4(0) + 5(5) −4(2) + 5(−1) 25 −13
9(3) + 12(−4) 9(−7) + 12(2) −21 −39
CD = 5(3) + (−6)(−4) 5(−7) + (−6)2 = 39 −47
4(1) + 1(−4) 4(−7) + 1(2) 0 −26
y
0(3) + 2(−4) 0(1) + 2(5) −8 10
BA = =
5(3) + (−1)1 5(1) + (−1)5 14 05
Observaciones 1.3
1. Si A y B son matrices de ordenes mxn y pxq respectivamente, tales que el producto AB
está denido, entonces debe ser n = p. Esto lo expresamos diciendo que el número de
columnas de A debe ser igual al número de las de B .
2. Si AB está denida, no es necesariamente cierto que BA también lo esté. En el ejemplo
anterior CD está denido, pero DC no lo está, ya que el número de columnas de la
primera matriz (en este caso la matriz D) no es igual al número de las de la segunda
matriz.
3. Puede ocurrir que AB y BA estén denidas, pero sean de distintos ordenes.
4. Aún estando denidas AB y BA, y siendo del mismo orden, no es cierto en general
que AB = BA, es decir, la multiplicación de matrices no es conmutativa. En el ejemplo
anterior AB y BA son del mismo orden y AB 6= BA.
5. Si AB = BA, diremos que A y B conmutan una con la otra.
Teorema 1.2 Sea A una matriz de orden mxn, B y C matrices con tamaños para los cuales
las sumas y productos indicados están denidos, y α un escalar. entonces
1. A (BC) = (AB) C
2. A (B + C) = AB + AC
3. (B + C) A = BA + CA
4
4. α (AB) = (αA) B = A (αB)
5. Im A = A = AIn
Observaciones 1.4
1. Existen matrices no nulas cuyo producto es la matriz nula. Por ejemplo,
1 2 2 4 0 0
=
1 2 −1 −2 0 0
Denición 1.5 Sea A una matriz cuadrada de orden n y k un entero no negativo denimos la
potencia k-ésima de A, Ak , como:
1. A0 = In
2. A1 = A
3. Ak = Ak−1 A, para cualquier entero positivo k ≥ 2.
Teorema 1.3 Si A y B son matrices cuyos tamaños son apropiados para las siguientes sumas
y los siguientes productos, y α es una escalar, entonces
1. (AT )T = A
5
2. (A + B)T = AT + B T
3. (αA)T = αAT
4. (AB)T = B T AT
6
Ejemplo 2.1 Las ecuaciones
√ x3
2x1 − 5x2 + 3 = y 7(x2 − 5) = x1
7
son lineales, porque la podemos escribir como la ecuación (1),
√ 1
2x1 − 5x2 − x3 = −3 y − x1 + 7x2 = 35
7
Las ecuaciones √
x1 − 2x2 x3 = 5 y 3x1 − 7 x2 = x3 + 6
√
no son lineales, debido a la presencia de x2 x3 en la primera ecuación y de x2 en la segunda
ecuación.
Denición 2.2 Consideren m ecuaciones lineales en la que intervienen las mismas variables,
x1 , x2 , · · · , xn .
a11 x1 + . . . + a1n xn = b1
a21 x1 + . . . + a2n xn = b2
.. .. .. , (2)
. . .
am1 x1 + . . . + amn xn = bm
donde los aij y los bi habitualmente son números reales, para i = 1, 2, . . . , m y j = 1, 2, . . . , n.
Al conjunto de ecuaciones lineales (2) lo llamaremos un sistema de m ecuaciones lineales
con n incógnitas.
En los ejemplos y ejercicios propuestos, n normalmente estará entre 2 y 5, en este caso, se
usarán las últimas letras del alfabeto; x, y, z, u, v ; en sustitución de las variables x1 , x2 , x3 , x4 , x5 .
Una solución del sistema (2) es una lista (s1 , s2 , . . . , sn ) de n números reales que convierte
cada ecuación en una armación verdadera cuando los valores s1 , s2 , . . . , sn se sustituyen por
x1 , x2 , . . . , xn respectivamente.
Ejemplo 2.2 Un ejemplo de un sistema de dos ecuaciones lineales con tres incógnitas es
3x + 2y + z = −1
(3)
x − y + 4z = 12
La terna (1, −3, 2) es una solución de dicho sistema porque, cuando estos valores sustituyen en
cada ecuación a x, y y z , respectivamente, se satisfacen las igualdades.
El conjunto de todas las soluciones posibles lo llamaremos conjunto solución del sistema
lineal. diremos que dos sistemas de ecuaciones lineales son equivalentes si tienen el mismo
conjunto solución. Esto es, cada solución del primer sistema es una solución del segundo sistema
y cada solución del segundo sistema lo es del primero.
Encontrar el conjunto solución de un sistema de dos ecuaciones lineales con coecientes
reales y dos incógnitas, digamos
a11 x + a12 y = b1
, (4)
a21 x + a22 y = b2
donde b1 y b2 son números reales, se reduce a encontrar la intersección de dos rectas. Geomé-
tricamente, cada ecuación del sistema (17) representa una recta en el plano, denotadas por L1
y L2 . Una pareja de números reales (x, y) satisface ambas ecuaciones en el sistema si y sólo si
el punto (x, y) pertenece tanto a L1 como a L2 . Como bien sabemos, dos rectas en el plano:
7
1. Se cortan en un único punto,
2. Son paralelas y distintas, o bien,
3. Son coincidentes
El hecho anterior ilustra que un sistema de ecuaciones lineales tiene ya sea:
1. Exactamente una solución,
2. Ninguna solución, o bien,
3. Un número innito de soluciones.
Diremos que un sistema lineal es compatible (o consistente) si tiene solución, en este caso
diremos que es compatible determinado si tiene exactamente una solución y compatible
indeterminado si tiene un número innito de soluciones. Un sistema es incompatible (o
inconsistente) si no tiene ninguna solución.
8
La estrategia básica para resolver un sistema lineal es reemplazarlo por un sistema equi-
valente que sea más fácil de resolver. Para logra ésto, utilizaremos tres operaciones básicas
para simplicar la matriz aumentada de un sistema (lograr la mayor cantidad de ceros en la
matriz), llamadas operaciones elementales de las.
3. (Reemplazo) Sustitución de una la por la suma de sí misma y un múltiplo de otra la.
fi → fi + αfj , α 6= 0
Observaciones 2.1
1. El proceso de aplicar las operaciones elementales de la para simplicar una matriz lo
llamaremos reducción por las.
2. Sean A y B matrices del mismo orden sobre el conjunto de los números reales. diremos
que A es equivalente por las a B , si B puede obtenerse a partir de A mediante un
número nito de operaciones elementales de las.
3. Si las matrices aumentadas de dos sistemas lineales son equivalentes por las, entonces
los dos sistemas tienen el mismo conjunto solución.
Ejemplo 2.4 Resolver el sistema considerado en el Ejemplo 2.3
x− 2y + z = 0
2y − 8z = 8 (6)
− 4x + 5y + 9z = − 9
9
Como la matriz obtenida es equivalente a la matriz aumentada del sistema original, este último
sistema también es equivalente al sistema original.
De la tercera ecuación es inmediato que z = 3, sustituyendo este valor en la segunda ecuación
obtenemos que y = 4 + 4 · 3 = 16, y por lo tanto a partir de la primera ecuación obtenemos
que x = 29. Así que (29, 16, 3) es la única solución del sistema, luego el sistema es consistente
determinado.
A continuación renaremos el método aplicado en el ejemplo anterior a un algoritmo de
reducción por las que nos permita analizar cualquier sistema de ecuaciones lineales.
El algoritmo se aplica a cualquier matriz, ya sea que se vea o no como la matriz aumentada
de un sistema lineal. comenzaremos por introducir dos clases importantes de matrices que
incluyen las matrices triangulares. En las deniciones siguientes una la o columna diferente
de cero o no nula en una matriz implicará una la o una columna que contiene por lo menos
una entrada diferente de cero; una la o columna nula en una matriz será una la o columna
donde todas sus entradas son cero; una entrada principal de una la se referirá a la primera
entrada diferente de cero que esta en una la no nula.
10
El algoritmo de reducción por las
Los primeros cuatro pasos del siguiente algoritmo producirán una matriz en forma escalo-
nada. Un quinto paso producirá una matriz en forma escalonada reducida.
1. Paso 1. Comenzamos con la columna diferente de cero más a la izquierda. Esta es una
columna pivote.
2. Paso 2. Seleccionamos como pivote una entrada diferente de cero en la columna pivote.
Si es necesario, intercambiamos las para mover esta entrada a la posición pivote.
3. Paso 3. Utilizamos operaciones de reemplazo por la para crear ceros en todas las posi-
ciones bajo el pivote.
4. Paso 4. Ignoramos la la que contiene la posición pivote y todas las las, si las hubiere,
arriba de ella. Aplicamos los pasos anteriores a la submatriz que queda. Repetimos el
proceso hasta que no queden las diferentes de cero por modicar.
5. Paso 5. Comenzando con el pivote más a la derecha y trabajando hacia arriba y hacia la
izquierda, cree ceros arriba de cada pivote. Si un pivote no es 1, hágalo 1 por medio de
una operación de escalamiento.
Los pasos 1, . . . , 4 producirán la forma escalonada para la matriz completa, y se llamará fase
progresiva del algoritmo de reducción por las. El paso 5, que producirá la forma escalonada
reducida única, se llamará fase regresiva.
2.5. Uso del algoritmo de reducción por las para resolver un sistema
lineal
Ejemplo 2.6 Resolver el sistema
2x + 6y + z = 7
x + 2y − z = − 1 (8)
5x + 7y − 4z = 9
2 6 1 7 1 2 −1 −1 1 2 −1 −1
1 2 −1 −1 f2 → f2 − 2f1
f1 ↔ f2 2 6 1 7 0 2 3 9
f3 → f3 − 5f1
5 7 −4 9 5 7 −4 9 0 −3 1 14
−1 −1 1 2 −1 −1
1 2
1 3
9
0 1 3
9 2
f2 → f2 0 1 2 2
f3 → f3 + 3f1 2 2
f3 → f3
2 11
11 55
0 −3 1 14 0 0 2 2
1 2 −1 −1
0 1 3 9
2 2
0 0 1 5
11
Luego, un sistema equivalente al original es
x + 2y − z = −1
3
y + 2
z = 29
z = 5
Como la matriz aumentada del sistema equivalente obtenido está en forma escalonada, se puede
resolver dicho sistema por sustitución regresiva. De la tercera ecuación es inmediato que
z = 5, sustituyendo este valor en la segunda ecuación se obtiene que y = 92 − 15
2
= −3, y por
lo tanto a partir de la primera ecuación se obtiene que x = 10. Así que (10, −3, 5) es la única
solución del sistema, luego el sistema es consistente determinado. También se puede resolver el
sistema hallando la forma escalonada reducida de la matriz aumentada. Realizando operaciones
elementales de las a la forma escalonada obtenida, se obtiene la forma escalonada reducida
1 2 −1 −1 1 0 −4 −10
f1 → f1 + 4f3
0 1 3 9
f1 → f1 − 2f2 0 1 3 9
3
2 2 2 2
f2 → f2 − f3
2
0 0 1 5 0 0 1 5
1 0 0 10
0 1 0 −3
0 0 1 5
cuyo sistema asociado es
x = 10
y = −3
z = 5
Así, es inmediato que la solución del sistema es (10, −3, 5).
El método del algoritmo de reducción por las para resolver sistemas de ecuaciones, es
conocido como método de Gauss-Jordan.
Ejemplo 2.7 Aplicar el método de Gauss-Jordan Resolver el sistema
y − 4z = 8
2x − 3y + 2z = 1 (9)
5x − 8y + 7z = 1
Solución. La matriz aumentada es
0 1 −4 8
2 −3 2 1
5 −8 7 1
Su forma escalonada es
2 −3 2 1
0 1 −4 8
5
0 0 0
2
Luego, un sistema equivalente al (9) es
2x − 3y + 2z = 1
y − 4z = 8 (10)
5
0 =
2
12
5 5
La ecuación 0 = se puede escribir como 0x + 0y + 0z = . El sistema (10) obviamente
2 2
contiene una contradicción. No existen valores de x, y, z que satisfagan (10) porque la ecuación
5
0= nunca se cumple. Puesto que (9) y (10) tienen el mismo conjunto solución, el sistema
2
original es inconsistente.
Ejemplo 2.8 Resolver el sistema
x − 5z = 1
2x + y − 9z = 6 (11)
x − y − 6z = − 3
Solución. La matriz aumentada es
1 0 −5 1
2 1 −9 6
1 −1 −6 −3
Su forma escalonada es
1 0 −5 1
0 1 1 4
0 0 0 0
El sistema de ecuaciones asociado es
x − 5z = 1
y + z = 4 (12)
0 = 0
la ecuación nula 0x + 0y + 0z = 0 se satisface para cualquier trío ordenado (x, y, z) de R3 ,
luego, el conjunto solución del sistema (12) no cambia si eliminamos de él la ecuación nula,
esto es, si lo escribimos de la forma.
x − 5z = 1
(13)
y + z = 4
Las variables x e y correspondientes a columnas pivotes de la matriz escalonada del sistema se
llaman variables básicas o variables principales. La otra variable, z, se llama variable libre.
El conjunto solución del sistema (13) puede describirse explícitamente resolviendo cada ecua-
ción del sistema para las variables básicas en término de la variable libre. Como z es libre se
está en libertad de escoger cualquier valor para z , digamos z = λ, donde λ es un elemento de
un cuerpo, habitualmente el cuerpo de los números reales. En (13), se despeja x de la primera
ecuación e y de la segunda, obteniendo
x = 1 + 5λ
y = 4 − λ (14)
z = λ
La expresión (14) también se suele escribir como
1 + 5λ
4−λ
λ
y se llama solución general del sistema porque da una descripción paramétrica de todas
las soluciones del sistema, en las cuales λ actúa como parámetro. Cuando λ = 0, la solución
es (1, 4, 0); cuando λ = 1, la solución es (6, 3, 1). Cada elección diferente de λ determina una
solución (diferente) del sistema (11) y cada solución del sistema está determinada por una
elección de λ.
13
Un sistema compatible con más incógnitas que ecuaciones es indeterminado.
con b diferente de cero. Si un sistema lineal es consistente, entonces el conjunto solución con-
tiene ya sea
1. Una solución única, cuando no existen variables libres, o
2. Un número innito de soluciones, cuando existe por lo menos una variable libre.
Observaciones 2.3
1. Un sistema de ecuaciones lineales es incompatible si y sólo si los rangos de la matriz de
coecientes y de la matriz ampliada son distintos.
2. Si un sistema compatible, es decir, la matriz de coecientes y la matriz ampliada tienen
igual rango, Se presentan las siguiente situaciones:
a) El rango de ambas matrices es igual al número de variables. En este caso
el sistema es compatible determinado.
b) El rango de ambas matrices es menor que el número de variables. En este
caso se dice que el sistema es compatible indeterminado.
determinar los valores de a para que el sistema sea: (a) Compatible determinado, (b) compatible
indeterminado y (c) incompatible.
Solución. Aplicamos operaciones elementales de las a la matriz aumentada del sistema
para obtener la forma escalonada de dicha matriz
1 1 −1 2 1 1 −1 2
1 2 f2 → f2 − f1
1 3 0 1 2 1
2 f3 → f3 − f1
1 1 a −5 a 0 0 (a − 2)(a + 2) a − 2
14
2.6. Interpretación geométrica del conjunto solución de un sistema
de tres ecuaciones con tres incógnitas
Consideren el sistema de tres ecuaciones con tres incógnitas
a1 x + b1 y + c1 z = d1
a2 x + b 2 y + c 2 z = d 2 (16)
a3 x + b 2 y + c 3 z = d 3
Geométricamente, cada ecuación en (16) representa un plano en el espacio. Cada solución
(x, y, z) del sistema debe ser un punto en cada uno de los planos. Existen seis posibilidades:
1. La intersección de los tres planos es un único punto. Por lo que el sistema es compatible
determinado. (Ver Figura 1 )
2. La intersección de los tres planos es una recta recta, por lo que cada punto sobre la recta
es una solución y el sistema es compatible indeterminado. En la descripción paramétrica
del conjunto solución de dicho sistema actúa un sólo parámetro. (Ver Figura 2)
3. Los tres planos coinciden. En este caso cada punto sobre el plano es una solución y el
sistema es compatible indeterminado. En la descripción paramétrica del conjunto solución
de dicho sistema actúan dos parámetro.
4. Dos de los tres planos coinciden y su intersección con el tercer plano es una recta. Entonces
cada punto sobre la recta es una solución y el sistema es compatible indeterminados. (Ver
Figura 3)
15
Figura 3: La intresección de dos planos es una recta
5. Al menos dos de los planos son paralelos y distintos. Por lo que ningún punto puede estar
en cada plano y no existe solución. El sistema es incompatible. (Ver Figura 4 )
6. La intersección de dos de los planos es una recta. El tercer plano es paralelo a dicha recta
y no la contiene, de manera que ningún punto del tercer plano se encuentra en los dos
primeros. No existe una solución, esto es, el sistema es incompatible. (Ver Figura 5 )
16
Observaciones 2.4
1. Un sistema homogéneo siempre tiene al menos una solución, a saber, S = (0, . . . , 0).
Generalmente esta solución, se llama solución trivial.
2. Un sistema homogéneo tiene una solución no trivial si y sólo si la ecuación tiene por lo
menos una variable libre.
3. Todo sistema homogéneo de ecuaciones lineales con más incógnitas que ecuaciones tiene
soluciones no triviales.
4. Cuando se aplican operaciones de la a la matriz aumentada de un sistema de ecuaciones
lineales homogéneos, la última columna siempre es nula. Por lo tanto, para resolver un
sistema lineal homogéneo, habitualmente se aplica el algoritmo de reducción por las a la
matriz de coecientes del sistema.
5. Geométricamente, el conjunto solución de un sistema homogéneo con dos ecuaciones y
dos incógnitas, representa el origen del sistema de coordenadas o una recta que pasa por
el origen.
6. De igual forma, el conjunto solución de un sistema homogéneo con tres ecuaciones y tres
incógnitas, representa el origen, una recta que pasa por el origen o un plano que pasa por
el origen.
y obtenemos
1 2 −1 4
0 4 −2 15
0 0 0 0
que es la forma escalonada de la matriz de coecientes del sistema, luego, un sistema equivalente
es
x + 2y − z + 4w = 0
4y − 2z + 15w = 0
El sistema tiene dos variables libres, z y w. Si hacemos z = α y w = β , y sustituimos en el
sistema anterior para expresar a x y y en términos de α y β , obtenemos que la solución general
del sistema es
7
2
β
1 α − 15 β
2 4
, α, β ∈ R
α
β
17
Esta solución general también se suele escribir como
x = 27 β
1 15
y = 2α − β
4
α, β ∈ R
z=α
w=β
3. Espacios vectoriales
3.1. Vectores en Rn
Diversas propiedades importantes de los sistemas lineales se pueden describir mediante el
concepto y la notación de vectores.
Una matriz con una única columna se llama vector columna o simplemente vector.
El conjunto de todos los vectores con dos entradas se denota como R2 . Esto es
n a o
2
R = /a, b ∈ R
b
Observaciones 3.1
u1
1. Algunas veces se escribe el vector columna de la forma (u1 , u2 ). En este caso se
u2
usa una coma para distinguir el vector (u1 , u2 ) de la matriz la (u1 u2 ).
2. El elemento neutro para la suma de vectores es O = (0, 0) y recibe el nombre de vector
nulo.
3. El vector opuesto de v = (a, b) es −v = (−a, −b).
4. El múltiplo escalar α(a, b), donde α ∈ R y (a, b) ∈ R2 , se llama producto del escalar α
por el vector (a, b).
5. Geométricamente el vector v = (a, b) es el segmento dirigido, de punto inicial (0, 0) y
punto nal (a, b). Los puntos individuales a lo largo del segmento dirigido no tienen im-
portancia.
18
6. Las operaciones de con vectores en R2 tienen un signicado geométrico: La suma de dos
vectores no colineales del plano queda representada por la diagonal del paralelogramo que
forman. El producto de un número real α por un vector no nulo u = (a, b), es el vector
αu = (αa, αb) que tiene la misma dirección que u si α > 0 y dirección opuesta si α < 0.
Corresponde a una dilatación si |α| > 1 y a una contracción si |α| < 1. Si α = 0, se
obtiene el vector nulo.
19
5. a(u + v) = au + av
6. (a + b)u = au + bu
7. a(bu) = (ab)u
8. 1u = u
Todo conjunto V 6= ∅ que satisfaga las propiedades anteriores se llama espacio vectorial
sobre R, o simplemente espacio vectorial.
3.2. Subespacios
Denición 3.1 Dado un conjunto no vacío S ⊂ Rn , si S es un espacio vectorial sobre el mismo
cuerpo R y con las mismas leyes de composición que en Rn , se dice que S es un subespacio de
Rn .
es un subespacio de R2 .
Demostración. Es inmediato que (0, 0) ∈ S , en efecto, 0 = 2 · 0, por lo tanto, S 6= ∅.
Sean u = (u1 , u2 ) y v = (v1 , v2 ) vectores en S , por demostrar que
u + v = (u1 + v1 , u2 + v2 ) ∈ S y
Como u, v ∈ S , entonces
u2 = 2u1 y v2 = 2v1
por lo tanto,
20
u2 + v2 = 2u1 + 2v1 = 2(u1 + v1 ) y
αu2 = α(2u1 ) = 2(αu1 )
De lo anterior concluimos que u + v ∈ S y αu ∈ S , por lo tanto, S es un subespacio de R2 .
Ejemplo 3.2 Demostrar que
S = {(x, y) ∈ R2 x2 + y 2 ≤ 4}
no es un subespacio de R2 .
Demostración. Es inmediato que los vectores (0, 2) y (2, 0) pertenecen a S , en efecto,
02 + 22 ≤ 4 y 22 + 02 ≤ 4
Pero u + v = (2, 2) no pertenece a S , pues,
22 + 22 = 8 6≤ 4
Hemos demostrado que existen dos vectores en S cuya suma no está en S , esto es, no se cumple
la primera condición del Teorema 3.2, Por lo tanto, S no es un subespacio de R2 .
Los subespacios no triviales de R2 son rectas que pasan por el origen. Los de R3 son rectas
y planos que pasan por el origen.
Ejemplo 3.3 Un plano en R3 que no pasa por el origen no es un subespacio de R3 , porque el
plano no contiene al vector nulo. Por lo mismo, una recta en R2 que no pasa por el origen,
como se muestra en la Figura 7, no es un subespacio de R2 .
21
Denición 3.3 El vector v ∈ Rn es combinación lineal de la familia A ⊂ Rn , si y sólo si
existen escalares α1 , α2 , . . . , αp tales que
p
X
v= αi vi = α1 v1 + α2 v2 + . . . + αp vp
i=1
1 4
Ejemplo 3.4 Determine si los vectores u = 2 y V = −5 son combinaciones lineales
−1 5
de la familia
( 2 1 )
A = −1 , 1
1 −1
Solución. Supongamos que el vector u es una combinación lineal de la familia A, entonces
existen escalares α y β tal que
2 1 1
α −1 + β 1
= 2 ,
1 −1 −1
esto es,
2α + β 1
−α + β = 2 .
α−β −1
Como dos vectores son iguales si sus respectivas componentes son iguales, entonces u es una
combinación lineal de la familia A si el sistema
2α + β = 1
− α + β = 2
α − β = −1
es compatible.
Ahora bien, aplicando operaciones elementales de las obtenemos que la forma escalonada
de la matriz aumentada del sistema es
1 −1 −1
0 3 4
0 0 1
y claramente observamos que el rango de la matriz de los coecientes del sistema es 2 y el rango
de la matriz aumentada es 3, por lo tanto, el sistema es incompatible (Las dos matrices tienen
diferentes rangos), luego, el vector u no se puede escribir como una combinación lineal de la
familia A.
Procediendo en forma análoga como lo hicimos con el vector u tenemos que v es una com-
binación lineal de la familia A si el sistema
2α + β = 4
− α + β = −5
α − β = 5
es compatible.
22
Como la forma escalonada de la matriz aumentada del sistema es
1 −1 5
0 1 −2
0 0 0
concluimos que el sistema es compatible determinado, su solución es (3, −2), luego, v es una
combinación lineal de la familia A, en efecto
2 1 4
3 −1 − 2 1 = −5 ,
1 −1 5
Si un vector es combinación lineal de una familia dada de vectores, dicha combinación lineal
no necesariamente es única, como se muestra en el siguiente ejemplo.
−4
Ejemplo 3.5 Determine si el vector u = −1 es combinación lineales de la familia
7
( −1 1 3 )
A = 0 , 1 , 2
2 −1 −4
Solución. Si el vector u es una combinación lineal de dicha familia, entonces existen escalares
α, β y λ tal que
−1 1 3 −4
α 0 +β 1 +λ 2
= −1 ,
2 −1 −4 7
esto es, el sistema
− α + β + 3λ = −4
+ β + 2λ = −1
2α − β − 4λ = 7
es compatible.
Como la forma escalonada de la matriz aumentada del sistema es
−1 1 3 −4
0 1 2 −1
0 0 0 0
23
3.4. Ecuaciones vectoriales y matriciales
Consideremos el sistema de ecuaciones lineales
a11 x1 + . . . + a1n xn = b1
a21 x1 + . . . + a2n xn = b2
.. .. .. , (17)
. . .
am1 x1 + . . . + amn xn = bm
donde
a1j
a2j
aj = . ∈ Rm y j = 1, 2, . . . n
.
amj
es la j -ésima columna de la matriz A. La matriz aumentada del sistema es
(18)
a1 a2 . . an b .
24
Teorema 3.3 Si A una matriz de orden m × n, con columnas a1 , a2 , . . . , an y b es un vector
en Rn , la ecuación matricial
Ax = b
tiene el mismo conjunto solución que la ecuación vectorial
x 1 a1 + x 2 a2 + · · · + x n an = b
la cual, a su vez, tiene el mismo conjunto solución que el sistema de ecuaciones lineales cuya
matriz aumentada es
a1 a2 . . an b .
El teorema anterior permite ver un sistema de ecuaciones lineales de tres maneras diferentes
pero equivalentes: como una ecuación matricial, como una ecuación vectorial o como un sistema
de ecuaciones lineales.
y a la ecuación matricial
0 1 −4 x 8
2 −3 2 y = 1
5 −8 7 z 1
Teorema 3.5 El conjunto de todas las combinaciones lineales de toda familia no vacía del
espacio vectorial Rn es un subespacio del mismo.
Observaciones 3.2
25
1. Preguntarse si un vector v está en Gen{v1 , v2 , . . . , vp } equivale a preguntarse si la ecuación
vectorial
α1 v1 + α2 v2 + . . . + αp vp = v
tiene una solución o, lo que es lo mismo, si el sistema lineal con matriz aumentada
(v1 v2 . . . vp v)
tiene solución.
2. El vector nulo está en Gen{v1 , v2 , . . . , vp }, en efecto,
Nótese que, geométricamente, Gen{v1 , v2 } representa un plano que pasa por el origen del sis-
tema de coordenadas.
Observaciones 3.3
1. Si v es un vector diferente de cero en R3 , entonces Gen{v} es el conjunto de todos los
puntos de la recta que pasa por el origen y es paralela al vector v .
26
2. Si u y v son vectores diferentes de cero en R3 y u no es un múltiplo escalar de v , entonces
Gen{u, v} es el plano que contiene los vectores u y v .
Teorema 3.6 Se A una matriz de orden m × n. Entonces las siguientes armaciones son
equivalentes. Es decir, para una A en particular, todas estas armaciones son verdaderas o
todas son falsas.
1. Para cada b en Rm , la ecuación Ax = b tiene una solución.
2. Las columnas de A generan Rm .
3. A tiene una posición pivote en cada la.
Ejemplo 3.8 Determinar si los siguientes conjuntos de vectores son linealmente independien-
tes o linealmente dependientes.
1. A = {(1, 0, 0), (0, −2, 0), (0, 0, −1)}
2. B = {(1, −1, 0), (1, 1, 2), (1, 0, 1)}
solución.
1. Supongamos que existen α, β y λ tal que
α(1, 0, 0) + β(0, −2, 0) + λ(0, 0, −1) = (0, 0, 0)
27
La forma escalonada de esta matriz es
1 1 1
0 2 1
0 0 0
como el rango de dicha matriz es 2 y el sistema tiene tres incógnitas, entonces es compatible
indeterminado, esto es, tiene innitas soluciones, las cuales están representadas de la siguiente
forma
α = − 12 k
β = − 12 k k∈R
λ=k
Por lo tanto, el conjunto de vectores B es linealmente dependiente, ya que los escalares α, β y
λ no necesariamente son nulos.
entonces
Σni=1 αi vi = Σni=1 βi vi
Σni=1 αi vi − Σni=1 βi vi = 0
Σni=1 (αi − βi )vi = 0
y como la familia es linealmente independiente concluimos que
α i − βi = 0 → α i = βi ,
28
Teorema 3.8 Un conjunto S = {v1 , v2 , . . . , vp } de dos o más vectores es linealmente depen-
diente si y sólo si al menos uno de los vectores en S es una combinación lineal de los otros.
El teorema anterior no dice que cada vector de un conjunto linealmente dependiente sea una
combinación lineal de los vectores restantes. Un vector de un conjunto linealmente dependiente
puede no ser combinación lineal de los otros vectores.
Observaciones 3.5
1. La denición de base aplica al caso en que H = Rn , porque cualquier espacio vectorial es
un subespacio de sí mismo. Así, una base de Rn es un conjunto linealmente independiente
que genera Rn .
2. Nótese que cuando H 6= Rn la condición (1), de la denición de base, incluye el requisito
de que cada uno de los vectores v1 , v2 , . . . , vp debe pertenecer a H .
3. Una base del espacio vectorial Rn es el conjunto de vectores
e1 = (1, 0, . . . , 0)
e2 = (0, 1, 0, . . . , 0)
..
.
en = (0, . . . , 0, 1)
29
Ejemplo 3.9 Determine una base para el subespacio H = {(x, y, z) ∈ Rn x + 2y − z = 0}
Solución. Nótese que si (a, b, c) ∈ H , entonces
a + 2b − c = 0 → a = c − 2b
Por lo tanto
(a, b, c) = (c − 2b, b, c) = b(−2, 1, 0) + c(1, 0, 1)
Esto nos dice que
Gen{(−2, 1, 0), (1, 0, 1)} = H
Por otra parte, estos vectores son linealmente independientes, en efecto, ninguno de ellos es
múltiplo escalar del otro. Por consiguiente, B = {(−2, 1, 0), (1, 0, 1)} constituye una base para
H.
Ejemplo 3.10 Encuentre una base para el subespacio generado por la familia de vectores
( )
1 2
H= ,
3 6
x
Solución. Si
y
∈ Gen{H}, entonces el sistema cuya matriz aumentada es
1 2 x
3 6 y
Teorema 3.11 Toda basa de un subespacio no nulo H de Rn debe consistir del mismo número
de vectores. En particular, toda base de Rn debe consistir en exactamente n vectores.
30
Observaciones 3.6 Los subespacios de R3 pueden clasicarse según su dimensión.
1. Subespacio de dimensión 0. Sólo el subespacio nulo.
2. Subespacios de dimensión 1. Cualquier subespacio generado por un único vector no
nulo. Tales subespacios son rectas que pasan por el origen.
3. Subespacios de dimensión 2. Cualquier subespacio generado por dos vectores lineal-
mente independientes. Tales subespacios son planos que pasan por el origen.
4. Subespacios de dimensión 3. Solamente R3 mismo. Cualesquiera tres vectores lineal-
mente independientes en R3 generan todo R3 .
Nótese que
dim(H) = dim(Rn ) ←→ H = Rn
x = x1 v1 + x2 v2 + . . . + xr vr
x[B] = (x1 , x2 , . . . , xr )
2
Ejemplo 3.11 Hallar las componentes del vector x = 3 , respecto de la base
−4
( 1 0 2 )
B = 1 , −1 , 0
0 2 −2
31
entonces obtenemos la ecuación vectorial
1 0 2 2
x1 1 + x2 −1 + x3 0
= 3
0 2 −2 −4
4. Matrices invertibles
4.1. Deniciones y propiedades básicas
Sea A ∈ Mn (R). Se dice que A es una matriz invertible si existe una matriz B ∈ Mn (R)
tal que
AB = I = BA,
donde I es la matriz identidad de orden n. En esta caso se dice que la matriz B es la matriz
inversa de A. Si C fuera otra inversa de A tendríamos que
C = CI = C (AB) = (CA) B = IB = B.
Una matriz cuadra que no es invertible también se denomina matriz singular y una matriz
invertible se denomina matiz no singular.
2 5 −7 −5
Ejemplo 4.1 Si A = −3 −7 y B = 3 2 , entonces
2 5 −7 −5 1 0
AB = = y
−3 −7 3 2 0 1
−7 −5 2 5 1 0
BA = =
3 2 −3 −7 0 1
Por lo tanto, B = A−1
Teorema 4.1 Si A ∈ Mn (R) es una matriz invertible, entonces para cada b ∈ Rn la ecuación
Ax = b tiene la solución única x = A−1 b.
32
Prueba Para cualquier b ∈ Rn existe una solución, porque cuando se sustituye A−1 b por x
obtenemos
Ax = A A−1 b = AA−1 b = Ib = b.
Así que A−1 b es una solución. La solución es única, efectivamente si b ∈ Rn existe una solución,
porque cuando se sustituye A−1 b por b ∈ Rn es cualquier solución, entonces
Au = b
Ejemplo 4.2 Usar la inversa de la matriz A del ejemplo anterior para resolver el sistema
2x1 + 5x2 = 1
(22)
− 3x1 − 7x2 = −1
donde,
2 5 x1 1
A= , x= y b=
−3 −7 x2 −1
−7 −5
Así, como A −1
= , entonces
3 2
−1−7 −5 1 −2
x=A b= =
3 2 −1 1
(A−1 )−1 = A.
(AB)−1 = B −1 A−1 .
3. Si A es invertible, también lo es AT , y
−1 T
AT = A−1 .
33
4.2. Método de Gauss-Jordan para hallar la inversa de una matriz
Denición 4.1 Una matriz elemental es aquella que se obtiene realizando una única opera-
ción elemental de la a la matriz identidad.
Teorema 4.3 Si se realiza una operación elemental de la con una matriz A de orden mxn, la
matriz resultante puede escribirse como EA, donde la matriz E de orden mxm se crea realizando
la misma operación de la con Im .
Es importante notar que las operaciones de la con una matriz son invertibles:
34
1. Si se intercambian dos las, puede regresarse a sus posiciones originales por medio de otro
intercambio. Por ejemplo, la operación elemental de la f2 → f3 transforma la matriz
1 0 2
−1 2 3
0 1 1
en la matriz
1 0 2
0 1 1
−1 2 3
y la misma operación operación elemental transforma la última matriz en la primera.
2. Si se escala una la por una constante c diferente de cero, entonces al multiplicar la nueva
la por 1c se obtiene la la original. Por ejemplo, la operación elemental de la f2 → 2f2
transforma la matriz
1 0 2
−1 2 3
0 1 1
en la matriz
1 0 2
−2 4 6
0 1 1
y la operación elemental f2 → 21 f2 transforma la última matriz en la primera.
3. Finalmente, consideremos una operación de reemplazo en la que intervienen dos las,
digamos, las las 1 y 2, y supongamos que c veces la la 1 se suma a la la 2 para
producir una nueva la 2. Para invertir esta operación, sumamos −c veces la la 1 a la
nueva la 2 para obtener la la 2 original. Por ejemplo, la operación elemental de la
f2 → f2 + 2f1 transforma la matriz
1 0 2
−1 2 3
0 1 1
en la matriz
1 0 2
1 2 7
0 1 1
y la operación elemental f2 → f2 − 2f1 transforma la última matriz en la primera.
Puesto que las operaciones de la son invertibles, las matrices elementales son invertibles,
porque si E se produce aplicando una operación de la a I, entonces existe otra operación de
la del mismo tipo que convierte E otra vez en I. Por lo tanto, existe una matriz elemental F
tal que F E = I. También, puesto que E y F corresponden a operaciones inversas, EF = I.
Toda matriz elemental E es invertible. La inversa de E es la matriz elemental del mismo
tipo que transforma E otra vez en I .
1 −2
Ejemplo 4.4 La matriz elemental E = 0 1 se produce aplicando la operación elemental
1 0
de la f1 → f1 − 2f2 a la matriz identidad I = , y la operación elemental de la
0 1
f1 → f1 + 2f2 convierte la matriz E en I .
35
Ahora bien, aplicando
la última
operación elemental de la a la matriz identidad obtenemos
1 2
la inversa de E E −1 = , en efecto,
0 1
−1 1 2 1 −2 1 0
E E= =
0 1 0 1 0 1
y
−1 1 −2 1 2 1 0
EE = = .
0 1 0 1 0 1
El siguiente teorema ofrece la mejor manera de visualizar una matriz invertible y lleva
inmediatamente a un método para encontrar la inversa de una matriz.
Teorema 4.4 Una matriz A ∈ Mn (R) es invertible si y sólo si es equivalente por las a In y
en este caso, cualquier secuencia de operaciones elementales de la que reduzca A a In también
transforma In en A−1 .
Prueba Supongamos que A es invertible. Entonces para cada B ∈ M1xn (R) la ecuación
AX = B tiene una única soluciòn. Por lo tanto, A tiene una posición pivote en cada la.
Como A es cuadrada, las n posiciones pivote deben estar en la diagonal y esto implica la forma
escalonada reducida de A es In . Esto es A ∼ In (A es equivalente a In ).
Recíprocamente, supongamos que A ∼ In . Entonces, puesto que cada paso de la reducción
por las de A corresponde a una multiplicación por la izquierda por una matriz elemental,
existen matrices elementales E1 , . . . , Ep tales que
A ∼ E1 A ∼ E2 E1 A ∼ · · · ∼ Ep · · · E1 A = In (23)
Puesto que el producto de matrices invertibles es invertible, la ecuación al nal de (23) lleva a
Por lo tanto, A es invertible, puesto que es la inverza de una matriz invertible. También
−1
A−1 = (Ep · · · E1 )−1
= Ep · · · E1
Entonces
A−1 = Ep · · · E1 In
lo cual dice que al aplicar sucesivamente E1 , . . . , Ep a In se obtiene A−1 . Esta es la misma
secuencia de (23) que redujo A a In .
El teorema anterior da un método práctico para determinar si una matriz A es invertible y,
en caso de serlo, para determinar su inversa A−1 . Tal proceso, conocido como el método de
Gauss-Jordan, consiste en lo siguiente:
1. Se determina la matriz B , escalonada y reducida por las, equivalente por las a A. si
B = I , entonces A es invertible y si B 6= I , entonces A no es invertible.
2. En caso de que A sea invertible, esto es, si A es equivalente por las a I , se realizan sobre
I las mismas operaciones que nos permitieron pasar de A a I y de esta manera obtenemos
A−1 .
36
El proceso antes señalado puede simplicarse considerando la matriz (A|I) de orden nx2n,
cuyas n primeras columnas forman la matriz A y las otras n columnas forman la matriz I .
Entonces se lleva (A|I) a una matriz escalonada reducida por las (B|C). Si B = I , A es
invertible y su inversa es C . Si B 6= I , A no es invertible.
0 1 2
Ejemplo 4.5 Encuentra la inversa de la matriz A = 1 0 3, si es que existe.
4 −3 8
Solución.
0 1 2 1 0 0
A I = 1 0 3 0 1 0 f1 ↔ f2
4 −3 8 0 0 1
1 0 3 0 1 0
≈ 0 1 2 1 0 0 f3 → f3 − 4f1
4 −3 8 0 0 1
10 3 0 1 0
≈ 0 1 2 1 0 0 f3 → f3 + 3f2
−3 −4 0 −4 1
0
1
0 3 0 1 0
≈ 01 2 1 0 0 f3 → 21 f3
0 2 3 −4 1
0
1
0 3 0 1 0
f1 → f1 − 3f3
≈ 01 2 1 0 0
f2 → f2 − 2f3
3 1
0 0 1 2 −2 2
1 0 0 − 92 7 − 32
0 1 0 −2 4 −1
≈
3 1
0 0 1 2
−2 2
Los siguientes teorema ofrecen un repaso de la mayor parte de los conceptos introducidos
en el tema de sistemas de ecuaciones y matrices.
Teorema 4.5 (El teorema de la matrices invertibles) Sea A ∈ Mn (R) . Entonces los enun-
ciados que siguen son equivalentes. Esto es, los enunciados son o todos ciertos o todos falsos.
37
5. La ecuación Ax = 0 tiene solamente la solución trivial.
6. Las columnas de A forman un conjunto linealmente independiente
7. La ecuación Ax = b tiene una única solución para cada b ∈ Rn .
8. Las columnas de A generan Rn .
9. Existe una matriz C ∈ Mn (R) tal que CA = I.
10. Existe una matriz D ∈ Mn (R) tal que AD = I.
11. AT es invertible.
5. Determinantes
Denición 5.1 Sea
A = (a11 )
una matriz cuadrada de orden 1. El determinante de A, denotado por detA, se dene como
det A = a11 .
Observaciones 5.1
1. El determinante de una matriz cuadra de orden n se denirá de manera inductiva. En
otras palabras, se usará lo que se sabe sobre el determinante de una matriz de orden 1
para denir el determinante de una matriz de orden 2, ésta a su vez se usará para denir
el determinante de una matriz de orden 3, etc.
2. Es importante darse cuenta que ”det” es una función que asigna un elemento de un
cuerpo, habitualmente deñ cuerpo de los números reales, a una matriz cuadrada de orden
n sobre R. Esto es
det : Mn (R) −→ R
A −→ detA
38
3. El determinante de la matriz A denotado por detA o bien |A|, se dene mediante la
siguiente regla:
a) si n = 1, es decir A = (a11 ), entonces |A| = a11
b) Si n ≥ 2, entonces
n
(24)
X
|A| = aik Cik (A)
k=1
Solución. Aplicando desarrollo por cofactores a lo largo de la tercera la obtenemos que
|A| = 0 · C31 (A) + 0 · C32 (A) + 6 · C33 (A) + ·C34 (A) + 0 · C35 (A)
2 1 2 8
−1 3 −5 2
= 6 · (−1)3+3
0 2 1 0
0 −5 0 0
Aplicando desarrollo por cofactores a lo largo de la cuarta la de la matriz anterior obtenemos
2 2 8
4+2
|A| = 6(−5)(−1) −1 −5 2
0 1 0
Finalmente, aplicando desarrollo por cofactores a lo largo de la tercera la y la Denición 5.2
obtenemos que
2 8
|A| = −30(1)(−1)3+2 = 30(4 + 8) = 360
−1 2
Teorema 5.1 Si A es una matriz triangular de orden n, entonces det A es el producto de las
entradas de la diagonal principal de A.
39
Teorema 5.2 Sea A ∈ Mn (F ).
1. Si se suma un múltiplo de una la de A a otra la para producir una matriz B, entonces
det A = det B.
1 0 0 −4
Solución. La estrategia básica es reducir A a la forma escalonada, aplicando el teorema
anterior, y luego utilizar el hecho de que el determinante de una matriz triangular es el producto
de las entradas de la diagonal principal.
5 1 2 4 1 1 6 1 1 1 6 1
−1 0 2 3 −1 0 2 3 0 1 8 4
|A| = = − = − =
1 1 6 1 5 1 2 4 0 −4 −28 −1
1 0 0 −4 1 0 0 −4 0 −1 −6 −5
f2 → f2 + f1
f3 → f3 + 4f2
f1 ↔ f3 f3 → f3 − 5f1
f4 → f4 + f2
f4 → f4 − f1
1 1 6 1 1 1 6 1
1 1 6 1 0 1 8 4
0 1 8 4 0 1 8 4
− = −4 = −4 15 =
0 0 4 15 0 0 1 15 0 0 1 4
4
0 0 2 −1 34
0 0 2 −1 0 0 0 −
4
f3 → 41 f3 f4 ↔ f4 − 2f3
34
= 4 − 4 = 34
40
4. Si k es cualquier escalar, entonces det (kA) = k n det A
3 −1 2 −5
0 5 −3 −6
Ejemplo 5.3 Calcular |A|, sabiendo que A =
−6 7 −7 4
−5 −8 0 9
Solución. Aplicando la operación elemental de las f3 → f3 + 2f1 obtenemos que
3 −1 2 −5
0 5 −3 −6
|A| =
0 5 −3 −6
−5 −8 0 9
Ahora bien, puesto que la segunda y tercera la son iguales, |A| = 0.
A continuación mostramos los dos teoremas principales de esta sección.
Teorema 5.6 Si A es una matriz cuadra de orden n. A es invertible si y sólo si |A| =
6 0.
Demostración.
1. Supongamos que A es invertible, entonces por el teorema de las matrices invertibles existe
una matriz cuadrada C de orden n tal que CA = I , por lo tanto
det(CA) = det(I) → det(C) · det(A) = 1 → det(A) 6= 0.
6. Transformaciones lineales
6.1. Denición y propiedades de las trasformaciones lineales
Denición 6.1 La función T : Rn → Rm es una transformación lineal si y sólo si, para
cada u, v ∈ Rn y α ∈ R se satisfacen las siguientes condiciones:
1. T (u + v) = T (u) + T (v)
2. T (αu) = αT (u)
Observaciones 6.1
1. Las dos condiciones de la denición se pueden reducir a una única condición
T (αu + βv) = αT (u) + βT (v) (26)
para cada α ∈ R y u, v ∈ Rn .
2. Se demuestra que si T : Rn −→ Rm es una transformación lineal, entonces
T (α1 u1 + · · · + αr ur ) = α1 T (u1 ) + · · · + αr T (ur )
para cada α1 . . . αr ∈ R, u1 . . . ur ∈ Rn y r ∈ Z+
41
Teorema 6.1 Sean T : Rn −→ Rm una transformación lineal, y On y Om los vectores nulos
en Rn y Rm , respectivamente. entonces
1. T (On ) = Om
2. T (−u) = −T (u) para cada u ∈ Rn
x−y
Ejemplo 6.1 Sea T : R2 −→ R3 denida por T xy = 2x + y, por ejemplo,
3x
−1 − 2 −3
−1
T = 2(−1) + 2 =
0 .
2
3(−1) −3
x x
Para cada 1 , 2 ∈ R2 y α ∈ R tenemos que
y1 y2
x1 x2 x1 + x2
T + = T
y1 y2 y1 + y2
(x1 + x2 ) − (y1 + y2 )
= 2(x1 + x2 ) + (y1 + y2 )
3(x
1+x 2 )
x1 − y1 x2 − y2
= 2x1 + y1 + 2x2 + y2
3x1 3x2
x1 x2
= T +T
y1 y2
y
αx1 − αy1 x1 − y1
x1 αx1 x1
T α =T = 2αx1 + αy1 = α 2x1 + y1 = αT
y1 αy1 y1
3βx1 3x1
Por lo tanto, T es una transformación lineal. Nótese que
0 (−x) − (−y) x−y
0 −x x
T = 0
y T = 2(−x) + (−y) = − 2x + y = −T
0 −y y
0 3(−x) 3x
Ejemplo 6.3 Dado un escalar α, denimos T : R2 −→ R2 como T (u) = αu. Diremos que T
es una contracción cuando 0 ≤ α < 1, que es la identidad cuan α = 1 y una dilatación
cuando α > 1.
T es una transformación lineal, en efecto, para cada u, v ∈ R2 y a, b ∈ R se cumple que
42
esto es, se satisface la ecuación (26). En la siguiente gura se ilustra grácamente la transfor-
mación para el caso en que α > 1.
No toda función cuyas entradas son lineales es una transformación lineal. Por ejemplo, la
función T : R −→ R, denida por T (X) = 4x − 3, no es lineal, en efecto,
T (x + y) = 4(x + y) − 3 = 4x + 4y − 3 y
ya que todo vector de Rn lo podemos expresar de modo único como combinación lineal de los
vectores de la base B .
Denamos T : Rn −→ Rm mediante
n
X
T (v) = αi w i
i=1
43
y se verica que
Pn Pn
T (au + bv) = T a i=1 βi vi + b i=1 αi vi
Pn Pn
= T i=1 (aβi )vi + i=1 (bαi )vi
Pn
= T i=1 (aβi + bαi )vi
Pn
= i=1 (aβi + bαi )wPin
P n
= a i=1 βi wi + b i=1 α i wi
Pn Pn
= aT i=1 βi vi + bT i=1 αi vi
= aT (u) + bT (v)
2. T (vi ) = wi para cada i = 1, 2, . . . , n.
En efecto, como
vi = 0v1 + 0v2 + · · · + 0vi−1 + 1vi + 0vi+1 + · · · + 0vn
entonces
T (vi ) = 0w1 + 0w2 + · · · + 0wi−1 + 1wi + 0wi+1 + · · · + 0wn = wi
3. T es única.
Sea F : Rn −→ Rm una transformación lineal tal que F (vi ) = wi para cada i = 1, 2, . . . , n,
entonces
Pn
F (v) = F i=1 αi vi
Pn
= Pi=1 αi F (vi )
= Pni=1 αi wi
n
= i=1 αi T (vi )
Pn
= T i=1 αi vi
= T (v)
para cada v ∈ R . Luego T = F .
n
El teorema demostrado asegura que toda transformación lineal entre dos espacios vectoriales
queda determinada por los valores que toma sobre cualquier base del primer espacio.
Ejemplo 6.4 Determinar la transformación lineal T : R3 −→ R2 que asigna a los vectores de la
base (1, 1, 1), (1, 1, 0), (1, 0, 0) en R3 , los vectores (1, 2), (2, −1) y (3, 4) en R2 , respectivamente.
Solución. Sea (x, y, z) un vector cualquiera de R3 . Escribamos este vector como combina-
ción lineal de la base, esto es, determinemos los escalares α1 , α2 y α3 tal que
α1 (1, 1, 1) + α2 (1, 1, 0) + α3 (1, 0, 0) = (x, y, z)
44
Por lo tanto
α1 = z, α2 = y − z y α3 = x − y
Lo cual implica que la transformación lineal T : R3 −→ R2 que se pide está denida como
T (x, y, z) = T [z(1, 1, 1) + (y − z)(1, 1, 0) + (x − y)(1, 0, 0)]
= zT (1, 1, 1) + (y − z)T (1, 1, 0) + (x − y)T (1, 0, 0)
= z(1, 2) + (y − z)(2, −1) + (x − y)(3, 4)
= (z + 2y − 2z + 3x − 4y, 2z − y + z + 4x − 4y)
= (3x − 2y − z, 4x − 5y + 3z)
Ejemplo 6.5 Encontrar una transformación lineal de R2 en el plano
x
W = y 2x − y + 3z = 0
z
Solución.
1 0
Se demuestra que B = 2 , 3 es una base de W .
0 1
Utilizando la base canónica de R y el teorema fundamental de las transformaciones lineales
2
valores que toma sobre la base canónica B , f (e1 ), . . . f (en ). Por consiguiente, si
x1
x2
x= . ∈ Rn ,
.
xn
entonces
f (x) = f (x1 e1 + x2 e2 + · · · + xn en )
= x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en )
x1
x2
= (f (e1 ) f (e2 ) · · · f (e1 ))
.
.
xn
= Ax.
45
donde A es una matriz de orden m×n, cuya j -ésima columna es el vector f (ej ), llamada matriz
canónica asociada a la transformación lineal f .
Ejemplo 6.6 Encontrar la matriz canónica A asociada a la transformación lineal T : R3 → R4
denida por
2x − y
x x+z
T y =
x − 2y + z
z
−x + y − 4z
Solución. Tenemos que
2 −1 0
1 1 0 0 0 1
T 0 =
1 ,
T 1 =
−2
y T 0 =
1
0 0 1
−1 1 −4
Por lo tanto
2 −1 0
1 0 1
A=
1 −2 1
−1 1 −4
Esto nos permitirá escribir a T de la formar matricial
2 −1 0
x 1 x
0 1
T y =
y
1 −2 1
z z
−1 1 −4
Ejemplo 6.7 Sea T : R → R la transformación lineal que rota un vector v = xy del plano
2 2
y = rsenα
0
x = rcos(θ + α) = rcosθcosα − rsenθsenα = xcosθ − ysenθ
0
y = rsen(θ + α) = rsenθcosα + rsenαcosθ = xsenθ + ycosθ
46
Figura 9: (x , y ) se obtiene rotando (x, y) un ángulo θ
0 0
Nótese que:
1. x ∈ N (T ) ←→ T (x) = 0m
2. N (T ) ⊂ Rm
3. 0n ∈ N (T ), donde 0n es el vector nulo en Rn
47
Nótese que:
1. 0m ∈ I(T )
2. I(T ) ⊂ Rm
w
x
y 0
T = 0,
z
0
w
x
2 3 4 5 0
1 0 0 2 y = 0
z
−1 0 −1 3 0
w
Nótese que la matriz de coecientes del sistema homogéneo equivalente a la ecuación matricial
anterior es la matriz canónica asociada a la Transformación T , por lo tanto, como la forma
escalonada reducida de dicha matriz es
1 0 0 2
0 1 0 7
0 0 1 −5
48
obtenemos que
−2λ −2
−7λ
λ ∈ R = Gen −7
N (T ) =
5λ 5
λ 1
Por lo tanto,
−2
−7
es una base de N (T ) y
5
1
dim(N (T )) = 1
α1
x α2
3. Supongamos que y ∈ I(T ), entonces existe
α3 ∈ R tal que
4
z
α4
α1
α 2 x
T = y ,
α 3
z
α4
α1
2 3 4 5 x
1 0 0 2 α2 = y
α3
−1 0 −1 3 z
α4
Esta ecuación matricial es equivalente al sistema cuya matriz aumentada es
2 3 4 5 x
1 0 0 2 y
−1 0 −1 3 y
Aplicando operaciones elementales de las obtenemos que la forma escalonada reducida de esta
matriz es
1 0 0 2 y
0 1 0 7 x+2y+4z
3
0 0 1 −5 −y − z
x
De donde se deduce fácilmente que dicho sistema tiene solución para cada y ∈ R3 Por lo
z
tanto
I(T ) = R3
Nótese que:
1. dim(N (T )) + dim(I(T )) = 1 + 3 = 4 = dim(R3 )
49
2. ρ(A) = 3 = dim(I(T ))
Esta última proposición no es pura casualidad y se generaliza en el siguiente Teorema.
T (v1 ) = T (v2 ) → v1 = v2
Demostración.
1. Supongamos que N (T ) = {0} y que existen v1 , v2 ∈ Rn tal que T (v1 ) = T (v2 ), entonces
es inyectiva o sobreyectiva.
Solución. Es inmediato que la matriz canónica asociada a la transformación lineal T es
1 2
A=
1 −1
50
Ejemplo 6.10 Determinar si la transformación lineal T : R2 → R2 denida por
x 2x − 2y
T =
y x−y
es inyectiva o sobreyectiva.
Solución. Es inmediato que la matriz canónica asociada a la transformación lineal T es
2 −2
A=
1 −1
Teorema 6.8 Sea T una transformación lineal del espacio vectorial Rn en sí mismo, entonces
1. Si T es inyectiva, entonces es sobreyectiva.
2. Si T es sobreyectiva, entonces es inyectiva.
Demostración.
1. Supongamos que T es inyectiva, entonces N (T ) = {0}. Esto implica que dim(N (T )) = 0,
por lo tanto, como
Demostración.
1. Supongamos que n > m y que T es inyectiva, entonces dim(N (T )) = 0. Ahora bien, como
51
2. Supongamos que n < m y que B = {v1 , . . . , vn } es una base de Rn . Sea v ∈ Rn , entonces
v = α1 v1 + · · · + αn vn
Esto implica que Gen{w1 , . . . , wn } = I(T ), por lo tanto dim(I(T )) ≤ n < m = dim(Rm ). Con
lo anterior hemos demostrado que I(T ) 6= Rm , esto es, T no es sobreyectiva.
52
(T ◦ T −1 )(x) = x
(T −1 ◦ T )(x) = x
Teorema 6.12 La inversa de una transformación lineal T : Rn −→ Rn invertible es una
transformación lineal.
Demostración. Consideremos y1 , y2 ∈ Rn . Por ser T biyectiva, existen y son únicos los
vector x1 , x2 ∈ Rn , tales que
T (x1 ) = y1 y T (x2 ) = y2 .
Por lo tanto, para cada y1 , y2 ∈ R y α ∈ R, se verica que
n
53
7.2. Polinomio característico
Denición 7.2 El polinomio característico, p(λ), de una matriz cuadrada A de orden n es
el determinante de la matriz A − λI . Es decir,
p(λ) = det(A − λI) = |A − λI|
Para hallar los valores propios de una matriz cuadrada A de orden n se deben de encontrar
todos los escalares λ tales que la ecuación matricial
(A − λI)x = 0
tenga una solución no trivial. Esto es equivalente a encontrar todos los escalares λ tales que la
matriz A − λI no sea invertible.
Por el Teorema 5.6, esta matriz no es invertible cuando su determinante es cero. Esto justica
el siguiente Teorema
Teorema 7.4 Una escalar λ es una valor propio de una matriz A ∈ Mn (R) si y sólo si λ es
una raíz del polinomio característico
p(λ) = |A − λI|
Observaciones 7.1
1. Si A ∈ Mn (R), entonces p(λ) = |A − λI| es un polinomio de grado n.
2. Un valor propio λ1 de A ∈ Mn (R) , tiene multiplicidad r si y sólo si (λ − λ1 ) aparece r
veces como factor del polinomio característico.
3. Dada que el polinomio característico de una matriz A ∈ Mn (R) es de grado n, el polino-
mio tiene exactamente n raíces, contando las multiplicidades y las raíces complejas. Se
considerarán únicamente valores propios reales y los escalares seguirán siendo números
reales.
Denición 7.3 Sean A y B matrices cuadradas de orden n. Se dice que A y B son semejantes
si existe una matriz invertible P tal que P AP −1 = B o, de manera equivalente, B = P AP −1 .
Teorema 7.5 Si las matrices cuadradas A y B de orden n son semejantes, entonces tienen
el mismo polinomio característico y por lo tanto los mismos valores propios (con las mismas
multiplicidades).
El recíproco del teorema anterior no es cierto, ya que dos matrices pueden tener los mismos
valores propios y no ser semejantes.
54
3
2 0 0 22 0 0 2 0 0
3
D = DD = 2 0 3 0 0 3 2 0 = 0 33 0
0 0 4 0 0 42 0 0 43
k
2 0 0
En general, Dk = 0 3k 0 para k ≥ 1
0 0 4k
Observaciones 7.2
1. Si D es una matriz diagonal de orden n cuya diagonal principal es
(d1 , d2 , . . . , dn ),
entonces Dk también es una matriz diagonal de orden n, para cada entero positivo k , y
su diagonal principal es
(dk1 , dk2 , . . . , dkn )
Ak = P Dk P −1
Teorema 7.6 (El teorema de diagonalización) Una matriz cuadrada A de orden n es dia-
gonalizable si y sólo si tiene n vectores propios linealmente independientes.
55
Paso 2. Encontrar tres vectores propios de A linealmente independientes. Si este
paso falla, el teorema anterior dice que la matriz A no puede diagonalizarse. Una base
para el espacio propio asociado a λ = 1 es
n 1 o
−1
1
y una base para el espacio propio asociado a λ = −2 es
n −1 −1 o
1 , 0 .
0 1
Se puede comprobar que
n 1 −1 −1 o
−1 , 1 , 0
1 0 1
es un conjunto linealmente independiente.
Paso 3. Construir P con los vectores del paso 2. El orden de los vectores no tiene im-
portancia.
1 −1 −1
P = −1 1 0
1 0 1
Paso 4. Construir D con los valores propios correspondientes. En este paso es esencial
que el orden de los valores propios corresponda al orden escogido para las columnas de P .
1 0 0
D = 0 −2 0
0 0 −2
56
y una base para el espacio propio asociado a λ = −2 es
n −1 o
1
0
No hay otros valores propios y cada vector propio de A es múltiplo de uno de los dos vectores
propios anteriores. Por lo tanto, es imposible formar un conjunto con tres vectores propios de
A linealmente independientes. Por el Teorema 7.6, A no es diagonalizable.
El siguiente teorema da una condición suciente, pero no necesaria, para que una matriz
sea diagonalizable.
Teorema 7.7 Una matriz cuadras de orden n con n valores propios distintos es diagonalizable.
Si una matriz cuadrada A de orden n tiene n valores propios distintos, con vectores propios
correspondientes v1 , v2 . . . , vn y si P = v1 v2 . . vn , entonces P automáticamente es
Teorema 7.8 Sea A una matriz cuadrada de orden n cuyos valores propios distintos son
λ1 , λ2 . . . , λr .
1. Para 1 ≤ k ≤ r la dimensión del espacio propio asociado a λk es menor o igual a la
multiplicidad del valor propio λk .
2. La matriz A es diagonalizable si y sólo si la suma de las dimensiones de los distintos
espacios propios es igual a n y esto sucede si y sólo si la dimensión del espacio propio
para cada λk es igual a la multiplicidad de λk .
3. Si A es diagonalizable y Bk es una base para el espacio propio correspondiente a λk para
cada k , entonces la colección total de vectores en los conjuntos B1 , B2 . . . , Br forman un
conjunto de n vectores linealmente independiente, es decir, forman una base para Rn .
Los axiomas (2) y (4) se pueden combinar varias veces para producir la siguiente regla
< c1 u1 + · · · cp up , v >= c1 < u1 , v > + · · · + cp < up , v >
57
Teorema 8.1 El producto interior de cualquier vector y el vector nulo es cero.
Ejemplo 8.1 En el espacio vectorial Rn la función
<, >: Rn × Rn −→ R
denida por
< u, v >= uT v (28)
u1 v1
u2 v2
donde u = yv= . es un producto interior.
.
. .
un vn
Observaciones 8.1
1. La ecuación (28) caracteriza un producto interior en Rn , llamado producto interior usual
y denotado habitualmente por u · v . Efectuando la operación indicada en (28) se obtiene
que
n
X
u · v =< u, v >= ui vi
i=1
Observaciones 8.2
1. Si se identica a v con un punto en el plano, entonces kvk coincide con la noción usual
de la longitud del segmento de recta desde el origen a v .
2. El cuadrado del módulo de todo vector es igual al producto interior de dicho vector consigo
mismo, es decir
kvk2 = v · v
d(u, v) = ku − vk
4. El módulo del producto entre un escalar y un vector en Rn es igual al valor absoluto del
escalar por el módulo del vector.
kcuk = |c|kuk
58
5. Un vector cuya longitud es 1 se llama vector unitario. Si se divide un vector v no nulo
entre su longitud se obtiene el vector unitario
v
u= .
kvk
El proceso de crear a u a partir de v se denomina normalización de v y se dice que u
está en la misma dirección que v .
Denición 8.3 Dos vectores u y v en Rn son ortogonales si y sólo si u · v = 0.
Nótese que el vector nulo es ortogonal a todo vector en Rn .
entonces y · vi
ci =
kvi k2
para cada i = 1, . . . , p.
Demostración. Sea
y = c1 v1 + · · · + ci vi + · · · + c2 vp .
De la ecuación anterior se obtiene que para cada i = 1, . . . , p
y · vi = (c1 v1 + · · · + ci vi + · · · + c2 vp ) · vi ,
es decir,
y · vi = c1 (v1 · vi ) + · · · + ci (vi · vi ) + · · · + c2 (vp · vi ).
Puesto que vi · vi 6= 0 y vi · vj = 0 para i 6= j , entonces la ecuación anterior se puede escribir
como
y · vi = ci (vi · vi ).
Por lo tanto, despejando ci se obtiene que
y · vi y · vi
ci = = (i = 1, . . . , p)
vi · vi kvi k2
59
Cuando los vectores de un conjunto ortogonal se normalizan para tener longitud unitaria,
los nuevos vectores siguen siendo ortogonales y por lo tanto el nuevo conjunto será un conjunto
ortonormal.
Si W es un subespacio de Rn generado por un conjunto ortonormal {u1 , . . . , up }, entonces
dicho conjunto es una base ortonormal para W , puesto que, por el Teorema 8.2, el conjunto
es linealmente independiente.
Las matrices cuyas columnas forman un conjunto ortonormal son importantes en aplicacio-
nes y en algoritmos de computador para cálculos con matrices.
Teorema 8.4 Una matriz U de orden m×n tiene columnas ortonormales si y sólo si U T U = I .
Teorema 8.5 Sea U una matriz de orden m × n con columnas ortonormales y sean x e y en
Rn . Entonces
1. kU xk = kxk
2. (U x) · (U y) = x · y
Los teoremas 8.4 y 8.5 son útiles cuando se aplican a matrices cuadradas
Denición 8.6 Una matriz ortogonal es una matriz U invertible y cuadrada, tal que U −1 =
UT .
60
Más aún, v2 6= 0, de otra manera
x2 · v1
x2 − v1 = 0
kv1 k2
x2 · v1
x2 = x1
kv1 k2
x2 · v1
x2 = αx1 , con α =
kv1 k2
lo que contradice la independencia del conjunto W .
Entonces es evidente que {v1 , v2 } es un conjunto ortogonal que no contiene el vector nulo.
Paso 3. Elección del tercer vector ortogonal a v1 y v2 .
x3 · v 1 x3 · v2
v3 = x3 − v 1 − v2
kv1 k2 kv2 k2
Ejercicios
1. Demuestre, mediante un contraejemplo, que las siguientes proposiciones son falsas:
a ) Para todo par de matrices cuadradas de orden 2, A y B , se cunple que
(A + B)2 = A2 + 2AB + B 2
(A + B)(A − B) = A2 − B 2
61
1 3 −2
2. Escriba la matriz A = 2 7 1 como la suma de una matriz simétrica y una
−4 1 54
antisimétrica.
3. Resolver, por el método de Gauss-Jordan, cada uno de los siguientes sistemas:
x + y + z = 3
a ) x − y − z = −1
3x + y + z = 5
x + z − u = 1
+ 2y + z + u = 3
b)
x − y + u = −1
x + y + z + u = 2
y + z − u = 4
x + 3y + 5z − u = 1
c)
x + 2y + 5z − 4u = −2
x + 4y + 6z − 2u = 6
x + y + z = 2
2x + y − 4z = −12
d)
2x + y − 3z = −9
−x + y − 2z = −9
2x + 3y
+ 4z = 5
e ) 6x + 7y + 8z = 9
8x + 10y + 12z = 14
4. En cada uno de los siguientes sistemas, determinar para qué valores del parámetro a, el
sistema es: (i) incompatible, (ii) compatible determinado, (iii) compatible indeterminado:
x + y − z = 2
a ) x + 2y + z = 3
2
x + y + (a − 5)z = a
x + y
+ az = a
b ) ax + y + z = a
x + 2y + az = 1
−x + 2y + z = 1
c) x + y + az = 1
(a − 1)x + (1 − a)z = 0
x + y
+ az = 1
d ) −x + 2y + z = 1
ax + y + z = 1
1 2 0
5. Dada la matriz A = 1 2
4
0 1 2
a ) Demuestre, aplicando el método de Gauss-Jordan, que A es invertible y hallar A−1 .
b ) Aplique
lamatriz A−1
encontrada
en (a) para resolver el sistema AX = B , donde
x −2
X= y yB= 1 .
z 3
62
6. Calcule el determinante de cada una de las siguientes matrices
9 1 9 9 9
9 0 9 9 2
a) A =
4 0 0 5 0
9 0 3 9 0
6 0 0 7 0
4 8 8 8 5
0 1 0 0 0
b) A =
6 8 8 8 7
0 8 8 3 0
0 8 2 0 0
Bibliografía
1. Armando O Rojo (1983). Álgebra II. 8 a
edición. Libreria el Eteneo Editorial. Buenos
Aires.
2. David C. Lay (2001). Álgebra Lineal y Sus Aplicaciones. Segunda edición. Pearson
Educación. México.
3. Emilio Prieto Sáez (1999). Lecciones elementales de á lgebra lineal para economía
y empresa. Editorial Centro de Estudios Ram ón Areces, S.A. Madrid.
4. Grossman, S. (1997). Álgebra lineal con aplicaciones. Quinta edición. McGraw-Hill.
5. Paloma Sanz, Francisco Vázquez y Pedro Ortega (1998). Problemas de Álgebra Li-
neal. Cuestiones, Ejercicios y tratamiento en derive. Un Enfoque Práctico.
Prentice Hall. Madrid.
63