Valores Singulares
Valores Singulares
Valores Singulares
Introduccin o
Como tantas veces en matemticas, no fue la necesidad prctica (derivada, por a a ejemplo, del clculo numrico) sino la necesidad de profundizar en el conocimiento lo a e que produjo el surgimiento de los valores singulares. Por otra parte, no ha sido hasta el reciente desarrollo del algebra lineal numrica cuando tal concepto ha adquirido la e importancia que actualmente tiene e incluso la denominacin que ahora le estamos o dando. En efecto, fue en la segunda parte del siglo XIX cuando algunos gemetras se o preguntaron, utilizando lenguaje actual, por la posibilidad de reducir unitariamente una forma cuadrtica a forma diagonal. Entre los matemticos que contribuyeron a a
ww w.
M at
em
at ic
a1
Los valores singulares juegan un papel central en el algebra lineal numrica e actual. Son esenciales para calcular de forma able cantidades tan importantes como el rango de una matriz o la distancia de una matriz no singular al conjunto de las matrices singulares.
.c o m
a la solucin de este problema se encuentran nombres tan famosos como Eugenio o Beltrami, Camille Jordan, James Joseph Sylvester, Erhard Scmidt o Hermann Weyl. Una breve e interesante historia de los valores singulares puede encontrarse en el report de G. W. Stewart: On the early history of the Singular Value Decomposition que se puede obtener en la direccin o http://citeseer.ist.psu.edu/stewart92early.html o mediante ftp annimo en thales.cs.umd.edu en el directorio pub/reports. o En nuestro proceso hacia la denicin de los valores singulares y del teorema o central de este cap tulo (El Teorema SVD) necesitamos recordar el concepto de matriz unitaria. A ello dedicamos la primera seccin. o
3.2.
Por lo general supondremos que F C de modo que el producto escalar de x y y lo escribiremos como un producto de matrices; i.e. y x. Deberemos entender que en el caso en que los vectores sean reales y hablemos del producto escalar en Rn entonces se debe sustituir por T . Debe observarse que para todo x Cn
x x |xi|2 }x}2. 2 i1
n
Esta forma de expresar la norma eucl dea de un vector, la usaremos muy a menudo. Un vector diremos que es unitario si su norma es 1. Dos vectores se dice que son ortogonales si su producto escalar es cero: xuy
ww
w.
at e
i 1
x, y 9
i 1 n
m
y i xi
6 n 9 y i xi 8
yT x yx
ic
Comenzamos repasando los conceptos de producto escalar y ortogonalidad. Si x, y Fn entonces el producto escalar de y y x es
at
yx 0.
a1
si F R, si F C
.c om
yx,
Rn entonces xT y yT x. Dos conjuntos X, Y Fn son ortogonales si cada vector de X es ortogonal a cada vector de Y . Escribiremos, en tal caso, X u Y . Si S Fn es un subconjunto
denotaremos Su Independientemente de si S es un subespacio vectorial o no, S u siempre lo es, y lo llamaremos el subespacio ortogonal de S. Abusando de lenguaje diremos que un conjunto de vectores no nulos es ortogonal si cada vector es ortogonal a todos los dems: a S ortogonal dx, y S, x y 0.
.c om
ty Fn|xy 0, dx S u.
Si, adems, todos los vectores del conjunto son unitarios entonces el conjunto se dice a que es ortonormal :
at
ic
S ortonormal
ww
w.
M
Demostracin.- Si o
t i 1 t
a v a pv v q c pv v q c }x }. 0 vj i i i j i j j j j j i1 i1
t
Por lo tanto, cj
0.
Denicin 3.2 (a) Una matriz U Cnn es unitaria si sus columnas forman o una base ortonormal de vectores de Cn . (b) Una matriz P Rnn es ortogonal si sus columnas forman una base ortonormal de vectores de Rn .
at e
ai vi
0, entonces para j 1, . . . , t
a1
Hay algunas condiciones equivalentes a ser unitaria (aplicado a F para matrices ortogonales): Proposicin 3.3 Para U o (i) U es unitaria. (ii) U es no singular y U (iii) U U
R sirven
In.
}U x}2
donde hemos usado las condiciones (iv) y (iii) equivalentes a ser U unitaria (i.e. U U In ). El rec proco se puede demostrar siguiendo las siguientes ideas: Si }U x}2 }x}2 entonces xU U x xx, que equivale a xpU U Inqx 0. Teniendo en cuenta que U U In es herm tica (simtrica en el caso real de matrices ortogonae pU U In qx 0 implica U U In 0. En efecto, si ponemos les) es fcil ver que x a U In , x Ax 0 para todo x Fn implica que si ei p0, . . . , 1, . . . , 0q es el AU i-simo vector cannico entonces e o e Aei 0 aii 0 i pei ej qApei ej q 0 Repaij q 0. pei iej qApei iej q 0 Impaij q 0 Las matrices unitarias forman un subgrupo multiplicativo del Grupo General Lineal, llamado Grupo Unitario. La condicin (vi) de la Proposicin 3.3 indica que o o el grupo unitario es el grupo de isometr para la norma eucl as dea.
ww w.
at e
at
La demostracin de estas propiedades es ms o menos inmediata salvo, quiz, o a a la condicin (vi). Desde luego, si U es unitaria entonces o
ic
a1
Denicin 3.4 Una norma } } en Cmn se dice que es unitariamente invariantes o si dA Cmn y para todo par de matrices unitarias U Cmm y V Cnn se cumple que }U AV } }A}. Proposicin 3.5 Las normas o invariantes.
} }2 y } }F
Demostracin.- Recordemos que }A}2 trpA Aq trpAA q. As si U es o , F unitaria }U A}2 trpAU U Aq trpAAq }A}2 . F F De la misma forma, si V es unitaria
at e
2
}x}2, de modo que }U Ax}2 }Ax}2 y }U A}2 }m1 }U Ax}2 }m1 }Ax}2 }A}2. ax ax x} x}
2
}AV }2 }m1 }AV x}2 }Vmx 1 }AV x}2 }m1 }Ay}2 }A}2. ax a ax x} x} y}
2 2 2
En consecuencia }U AV }2
ww
w.
}A}2.
at
ic
a1
.c om
3.3.
Valores singulares
Hay varias formas de introducir los valores singulares de una matriz. Tal y como se ha mencionado en la Introduccin de esta Leccin, histricamente los vao o o lores singulares son el resultado de la bsqueda de una forma de reducir las formas u cuadrticas a forma diagonal mediante cambios de base ortonormales. Este hecho, a sin embargo tiene un signicado geomtrico que no debe pasar desapercibido: e Las aplicaciones lineales transforman las esferas unidad en hiperelipses. Una hiperelipse es la generalizacin a m dimensiones de una elipse. Podr o amos denirla como la supercie que se obtiene al estirar o comprimir la esfera unidad en m direcciones ortogonales por factores 1 , 2 ,. . . , m (posiblemente cero). Es decir, si jamos m vectores ortonormales u1 , . . . , um Fm , los vectores 1 u1 ,. . . , m um son los semiejes de la hiperelipse con longitudes 1 ,. . . , m .
ww
w.
v1
at e
tx Fn|}x}2 1u es la esfera unidad y A Fmn entonces ApS n1 q es una hiperelipse. La Figura 3.1 representa el caso n m 2 y F R.
Si
at
A
ic
S n1
a1
v2
Figura 3.1: Las matrices transforman esferas en elipses El hecho de que las aplicaciones lineales (o matrices) transformen la esfera unidad en hiperelipses no es obvia y quedar demostrada cuando probemos el llamado a
.c om
s2 u 2 s1 u 1
Teorema SVD. Por ahora aceptmosla y veamos qu signica en trminos de mae e e trices. Supongamos que la matriz de la aplicacin lineal es A Fmn y que, por o sencillez, rangpAq n m. Notemos que, como aplicacin lineal, A : Fn Fm . o Tal y como hemos mencionado, la hiperelipse queda determinada, en principio, por m vectores ortonormales tu1 , . . . , um u y las correspondientes longitudes de los semiejes 1 ,. . . , m que los vamos a suponer ordenados de forma que 1 2 m 0. As iui es el i-simo semieje ms largo de ApS n1q. As pues, e a para i 1, . . . , m i ui ApS n1 q Im A. Pero como los vectores tu1 , . . . , um u son ortonormales, y por lo tanto son linealmente independientes, si rangpAq r debe haber a lo sumo r vectores i ui linealmente independientes. De todo ello se sigue que hay r de los i que son distintos de cero a lo m. En otras palabras, si la hiperelipse a es la imagen por A de la esfera unidad, debe estar en Im A as que slo puede o contener r vectores linealmente independientes. Finalmente sean tv1 , . . . , vn u S n1 las anteimgenes de los semiejes no nulos de la hiperelipse: a
.c om
Avi
i ui ,
i 1, . . . , r.
at e
AV
U ,
siendo U Fmn y V Fnn matrices cuyas columnas son vectores ortonormales. Si escogemos base ortonormal de Ker A y que sean ortogonales a los de V podemos $ $ V que es unitaria y AV U 0 . Por formar una matrix unitari V V consiguiente $ A U 0 V U V . A esta factorizacin de A se le llama Descomposicin en Valores Singulares Reducida o o o Econmica de A. O, ms abreviadamente, SVD Reducida de A. o a Hay tambin una Descomposicin en Valores Singulares Completa de A, que es e o la que aparece en la mayor de los libros que tratan el tema, aunque en la mayor a parte de las aplicaciones es la descomposicin reducida la que se utiliza. Pasar de o una descomposicin a la otra es muy fcil: Si m n, U no es una matriz unitaria y o a no tiene el tamao de A. Una descomposicin completa es una que cumpla estos dos n o
ww
at
ic
En este momento no es claro por qu pero admitamos que los vectores vi son ortoe gonales (y, por lo tanto, ortonormales porque estn en la esfera unidad). a
Diagp1 , . . . , r q.
a1
requisitos. Para ello basta ampliar el sistema de vectores ortonormales tu1 , . . . , un u hasta una base ortonormal de Cm . Tal cosa siempre es posible porque los vectores u1 , . . . , un son linealmente independientes y se pueden ampliar hasta una base de Cn . Luego basta aplicar el mtodo de Gram-Schmidt para obtener la base ortonormal. e Sea entonces tu1 , . . . , un , un1 , . . . , um u una base ortonormal de Cm y pongamos U Entonces
u1
un un1
um
&
y
0mnn
&
$ U V U U
Por lo tanto, A U V es una descomposicin en valores singulares completa de o A. Ntese que de una descomposicin en valores singulares completa de A se obtiene o o una reducida sin ms que suprimir las las cero de y las correspondientes columnas a de U y V . Denicin 3.6 Sea m, n enteros positivos y A Cmn . Una descomposicin en o o valores singulares (completa) de A es una factorizacin o
.c om
0mnn
U V A.
donde U
En reales no negativos ordenados de mayor a menor y se llaman valores singulares de A. Adems, a los vectores u1 , . . . , um y v1 , . . . , vn que forman las columnas de U y V se a les llama vectores singulares de A por la izquierda y por la derecha, respectivamente. Si A Rmn basta cambiar matriz unitaria por matriz ortogonal. Nos queda establecer de manera rigurosa que tal descomposicin es siempre o posible y que los valores singulares estn determinados de forma unica por A. Ada mitindolo, deber ya ser claro que, en efecto, la imagen de la esfera unidad en e a
Cmm y V Cnn son unitarias y es diagonal. Adems, a 6 & 9 Diagp1 , . . . , n q 9 si m n 8 0mnn 9 9 $ 7 Diagp1 , . . . , m q 0mnm si n m cualquier caso, 1 p 0, p m tm, nu son nmeros n u
ww w.
at e
A U V
at
ic
a1
Fn por A U V es una hiperelipse:V por ser unitaria preserva la esfera, la deforma estirando o encogiendo la esfera en direcciones ortogonales y U , de nuevo unitaria, la gira o reeja. Todo lo anterior tiene sentido una vez que demostremos el siguiente resultado fundamental Teorema 3.7 (Teorema SVD) Toda matriz A Fmn admite una descomposicin en valores singulares. Adems, los valores singulares estn determinados de o a a forma unica, y, si A es cuadrada y sus valores singulares son todos distintos, enton ces los vectores singulares estn tambin determinados de forma unica salvo producto a e por un nmero complejo de mdulo 1. u o Demostracin.- Supondremos F C y todo lo que vamos a decir es de aplicao cin a matrices de nmeros reales cambiando la palabra unitaria por ortogonal. o u Dado que el caso de A 0 es trivial, supondremos que A $ 0 y procederemos por induccin sobre n, el nmero de columnas de A. Supondremos, adems, que m n. o u a Si fuera n m, y una vez demostrado el Teorema con m n, lo aplicar amos . As existir matrices unitarias U y V tales que A U V Entonces a A , an A pA q V U . Como los valores singulares son nmeros reales y u con U y V unitarias. A V U
at e
at
ic
2
a1
ww
.c om
}A1} A, }A}2 y V 1. As
2
U V
1 }A} A }A}2 1 A.
Para n 1, A Cm1 es un vector columna y por lo tanto U es un vector columna V es una descomposicin reducida de A que puede extenderse unitario. As A U o a una descomposicin completa tal y como hemos visto ms arriba. o a Consideremos ahora que el Teorema ha sido demostrado para matrices de tamao m p (p n 1). Sea A Cmn y 1 }A}2 . Como }A}2 mx }Ax}2 n a
existe un vector unitario v1 Cn , }v1 }2 1, tal que 1 }A}2 }Av1 }2 . Sea 1 u1 }Av1 }2 Av1 . As }u1 }2 1 y Av1 1 u1 . Extendamos u1 y v1 hasta bases ortonormales de Cm y Cn , respectivamente, y sean U1 y V1 las matrices, unitarias, cuyas
}x}2 1
u1 U 1 ,
V1
u1 V 1 .
&
Por una parte Av1 1 u1 implica que u Av1 1 (recordemos que u u1 1 porque 1 1 u1 es un vector unitario). Adems U 1 Av1 1 U 1 u1 . Pero las columnas de U 1 son a ortogonales a u1 y esto equivale a U 1 u1 0. As pues U AV
1 1
$ u u Av u AV 1 A v1 V 1 1 1 1 1 . U1 U 1 Av1 U 1 AV 1
&
u Av1 u AV 1 1 1 . U 1 AV 1 0
&
2 As pues, }S }2 p1 w wq1{2 . Pero la norma espectral es unitariamente invariante 2 (Proposicin 3.5); por lo tanto 1 }A}2 }S }2 p1 w wq1{2 ; lo cual implica o que w 0 tal y como quer amos demostrar.
En consecuencia
ww
w.
at e
p
2 1
wwq1{2 1
w 2
&
2 p1 wwq1{2}z}2.
at
U AV
1
ic
}S }2}z}2 }Sz}2
& & 1 w 1 0 B w
& 2 w w 1 Bw 2
a1
.c om
Veamos que tambin u AV 1 0. Pongamos w u AV 1 y B U 1 AV 1 , S 1 1 &e AV1 y z 1 . Como la norma espectral es consistente con la norma eucl U1 dea w
2 p1 wwq
Debe notarse que B es la restriccin de A al subespacio ortogonal a u1 ; i.e. o u1 u . Adems B Cpm1qpn1q . Por la hiptesis de induccin, B admite una a o o con U2 Cpm1qpm1q y V2 descomposicin en valores singulares: B U2 2 V2 o & pn1qpn1q unitarias y 2 Diagp2 , . . . , n q . As C 0
1 0 . 0 B
&
1 0 1 0 U1 AV1 0 V2 0 U2
&
&
1 0 0 U2
&
1 0 0 B
&
1 0 0 V2
&
Diagp1 , 2 , . . . , n q . 0
&
Si ponemos
1 U
tenemos que U AV y A U V . Esto prueba la existencia de la descomposicin de A en valores singulares, excepto el ordenamiento de los valores singulares. o Segn la hiptesis de induccin los valores singulares de B estn ordenados de mayor u o o a a menor. Basta entonces demostrar que 1 pAq 1 pB q. Es decir, }A}2 }B }2 , o bien, mx }Ax}2 mx }Bx}2 . Adems, como la norma espectral es unitariamente a a a invariante podemos suponer que A Sea x0
0 U1 0 U2
&
y V
V1
1 0 , 0 V2
&
}x}2 1
}x}2 1
1 0 . 0 B
&
y Claramente y y
2
La unicidad de los valores singulares as como el resto del teorema lo demos traremos una vez analizadas unas cuantas propiedades importantes de los valores singulares. Observaciones 3.8 Si A Rmn entonces existen matrices ortogonales P y Q Rnn tales que A P QT con
6 & 9 Diag 1 , . . . , n 9 8 9 9 7
ww
w.
at e
at
ic
a1
0 x0
&
Cn.
.c om
Rmm
0mnn
si m n
$
Diagp1 , . . . , m q 0mnm p
si n m.
0, p
3.4.
A continuacin analizamos algunas propiedades que se derivan del Teorema o SVD. Proposicin 3.9 Si r es el nmero de valores singulares de A distintos de cero, o u entonces rang A r. La demostracin es una consecuencia inmediata de que el rango de una matriz no o var si la multiplicamos por matrices invertibles. a Proposicin 3.10 Si A U V es una descomposici de A o on $ singulares, r rang A, y U u1 u2 um y V v1 v2 Im A u1 , . . . , ur y Ker A vr1 , . . . , vm .
u1, . . . , ur . Por otra parte, como tv1 , . . . , , vm u es una base ortonormal de Cn , si x Cn entonces m x ci vi V c con c pc1 , . . . , cm q. As
i 1
ici 0, 1 i r x
x KerpAq Ax 0 AV c 0 U AV c 0 c 0
m i r 1
ww
w.
ImpAV q ImpU q 1 u1 , . . . r ur
at e
m
ci vi .
Ahora bien,
at
.
ImpAV q ImpAq y
KerpU Aq KerpAq.
ic
a1
.c om
Esta proposicin tambin se puede ver como una consecuencia inmediata de la o e anterior teniendo en cuenta las siguientes propiedades cuya demostracin es muy o simple pIm Aqu Ker A y pKer Aqu Im A La siguiente proposicin nos proporciona una forma prctica de calcular los o a valores singulares de una matriz: Proposicin 3.12 Los valores singulares de A Cmn distintos de cero son las o races cuadradas positivas de los valores propios distintos de cero de A A y tambin e de los de AA . Demostracin.- Probaremos que los valores singulares de A son las ra cuao ces dradas positivas de los valores propios de A A. Que tambin son los de AA se e demuestra igual. Tambin es consecuencia de la siguiente propiedad: Si A Fmn y e B Fnm entonces los valores propios distintos de cero de AB y BA son los mismos. La explicacin de esta propiedad est contenida en la siguiente ecuacin: o a o Im 0
ww
I A Como m 0 In
AB 0 0 0 , las matrices y son semejantes; In B 0 B BA & Im AB 0 i.e. tiene los mismos valores propios. Adems, det a n detpIm B In & Im 0 m AB q y det B In BA detpIn BAq. Por lo tanto, las matrices AB y BA tienen los mismos valores propios distintos de cero. Im 0
w.
&1
at e
In
AB 0 B 0
at
&
ic
a1
&
.c om
Im A 0 In
&
0 0 . B BA
&
&
&
&
V T V
porque es una matriz de nmeros reales. Como V es unitaria V V 1 , por lo u que A A y T son semejantes. Es decir, tienen los mismos valores propios. Pero
2 2 T Diagp1 , . . . , r , 0, . . . 0q Rnn
Recordemos ahora que los valores propios son unicos para cada matriz. Esto demuestra la segunda parte del Teorema SVD Corolario 3.13 Los valores singulares de A estn determinados de forma unica. a Para probar la ultima parte del Teorema SVD; es decir, que si A es cuadrada y sus valores singulares son todos distintos, entonces los vectores singulares estn a tambin determinados de forma unica salvo producto por un nmero complejo de e u mdulo 1, debemos recordar lo siguiente sobre los valores propios de una matriz: Si o M Cnn y sus valores propios son distintos dos a dos entonces admite un sistema completo de vectores propios linealmente independientes. Esto es una consecuencia de que a valores propios distintos corresponden vectores propios linealmente independientes. Si M tiene n valores propios distintos hay n vectores propios linealmente independientes; y como estn en un espacio de dimensin n deben ser una base. Ahoa o ra bien, si vi es un vector propio asociado al valor propio i entonces M vi i vi . Y cualquier otro vector propio wi asociado al mismo valor propio debe ser propor$ cional a vi ; es decir, existe C tal que wi vi . Ahora, si T v1 v2 vn entonces T Cnn es invertible y
ww w.
T 1 M T
at e
Diagp1, . . . , nq
at
ic
a1
.c om
(3.1)
Y rec procamente, si T Cnn es una matriz invertible que verica (3.1) con i $ j , entonces la i-sima columna de T es un vector propio asociado al valor propio i . e Aplicando todo esto a la matriz A A y teniendo en cuenta la demostracin de o la Proposicin 3.12 tenemos que o V A AV y tambin e U AA U
2 2 2 Diagp1 , 2 , . . . , nq, 2 2 2 Diagp1 , 2 , . . . , nq.
Esto quiere decir que las columnas de V son una base ortonormal de vectores propios de Cn respecto de A A; y las de U son una base ortonormal de vectores propios de Cn respecto AA . Y, adems, si A U1 V1 es otra descomposicin de A en valores a o
1 singulares, entonces vi vi (i-simas columnas de V y V1 ). Como en este caso son, e 1 1 adems, vectores unitarios, tenemos que 1 vi vi ||2 vi vi ||. Es decir, es a un escalar de mdulo 1. Para las columnas de U sirve un razonamiento similar. o
La unicidad de los valores singulares produce la siguiente consecuencia: Proposicin 3.14 Si A Cmn y 1 p 0, p m tm, nu, son sus valores o n 2 2 singulares, entonces }A}2 1 y }A}F 1 p . Demostracin.- En efecto si A U V es una descomposicin en valores o o singulares de A, como las normas }}2 y }}F son unitariamente invariantes tenemos
}A}2 }}2
}A}F }}F .
.c om
w.
}x}2
2 2 1 |x1 |2 n |xn |2
at e
1
| detpAq| 1 . . . n
res, Demostracin.- Si A U V es una descomposicin de A en valores singulao o detpAq detpU q detpq detpV q.
Pero U y V son unitarias. Entonces, por una parte, U U In y por otra detpU q detpU q porque el conjugado de cualquier suma y producto de nmeros complejos es u
at
ic
a1
2 2 Basta probar que }}2 1 y }}F 1 p . Lo segundo es inmediato por la propia denicin de la norma de Frobenius. En cuanto a lo primero, supongamos o por sencillez que m n y sea x Cn un vector arbitrario de norma eucl dea 1. Entonces
la suma o producto de los conjugados de dichos nmeros. As pues, 1 u q detpU qdetpU q | detpU q|2 . En conclusin, detpU q detpU o
detpInq
| detpU q| | detpV q| 1,
y
| detpAq| | detpq| 1 . . . n.
Cnn es invertible y 1
n son sus valores 1 1 singulares entonces los valores singulares de A1 son . En particular, n 1 1 }A1}2 .
Proposicin 3.16 Si A o
n
at e
y que
1 1
at
w. ww
ic
0 1 . . .
1 Diag
1 1 ,..., 1 n
0 0
tal que P 1 P T
1 Diag 1 , . . . , . Si ponemos V1 V P T y U1 U P T resulta n 1 que U1 y V1 son unitarias, porque el producto de matrices unitarias es una matriz unitaria, y A1 V1 P 1 P T U1 es una descomposicin en valores singulares de A1 . o Como }A1 }2 es el mayor valor singular de A1 la conclusin es inmediata. o La descomposicin de A en valores singulares nos proporciona una forma espeo cialmente util de escribir A como suma de matrices de rango 1:
a1
1 00 0 .0 .) .
(
.c om
v1
i ui vi
vn y 1
$
Diagp0, . . . , i , . . . , 0q 0 0 0
donde Diagp0, . . . , i , . . . , 0q Crr y i aparece en la i-sima posicin. e o Es claro que A Debe notarse que
$
r i 1
U i V y que U i V
r i 1
iuivi.
3.5.
Una de las aplicaciones ms interesantes del Teorema SVD es que nos permite a calcular el rango de una matriz con bastante abilidad. De hecho, el Teorema SVD nos da mucho ms que eso, nos proporciona una medida de esa abilidad. Ello es a consecuencia del siguiente teorema que nos proporciona una cota de la distancia que hay de una matriz al conjunto de las matrices de rango menor que ella. Teorema 3.18 .- Sea A negativo. Entonces donde 1
ww
w.
at e
at
ic
i ui vi
a1
$
m n
p qk
}A B }2 k1
.c om
Demostracin.- Tal y como viene siendo habitual demostraremos que k1 es o una cota superior alcanzable del conjunto de nmeros u
t}A B }2 : rangpB q ku; es decir, que para cualquier matriz B Fmn con rangpB q k se tiene que }A B }2 k1 y que existe una matriz Ak Fmn con rangpAk q k tal que }A Ak1 }2 k1 .
Sean U
D
r 0 0 0
&
con r
Diagp1, 2, . . . , r q.
.c om
}A B }2 }pA B qx}2 }Ax Bx}2 }Ax}2 }U V x}2 }V x}2 2 2 2 2 2 2 porque x Ker B y U es unitaria. Dado que x Im Vk1 es ortogonal a las ultimas x 0 para i k 2, . . . , n. Por lo tanto, n k 1 columnas de V . Es decir, vi si y V x entonces las n k 1 ultimas componentes de y son iguales a cero. As pues, teniendo en cuenta que k r 2 2 }V x}2 1 |y1|2 k1|yk1|2. 2 Como 1 k1 deducimos que 2 }V x}2 k1p|y1|2 |yk1|2q k1}y}2 2 2 porque yk2 yn 0. Finalmente, }y }2 }V x}2 }x}2 1 porque V es
una matriz unitaria y x un vector de norma eucl dea igual a 1. En consecuencia, }A B }2 k1, tal y como se deseaba demostrar. 2
ww w.
Sea ahora B Fmn una matriz cualquiera tal que rang B k. Esto signica que dim KerpB q n rangpB q n k. Tanto Ker B como Im Vk1 son subespacios vectoriales de Fn , pero dim Ker B dim Im Vk1 n 1. Esto signica que Ker B Im Vk1 $ t0u y, en consecuencia, hay un vector x Ker B Im Vk1 no nulo que podemos tomarlo de norma 1: x 2 1. Ahora
at e
at
ic
a1
Observemos que como m tn, mu r k tenemos que k 1 n. Sea Vk1 la n submatriz de V formada por sus primeras k 1 columnas. Como las columnas de Vk1 son ortonormales, dim Im Vk1 k 1.
Veamos ahora que existe una matriz Ak de rango k tal que }A Ak }2 Pongamos Ak U Dk V , siendo Dk
k1.
Diagp1 , . . . , k q 0 0 0
&
Cmn.
}A Ak }2 }U pD Dk qV }2 }D Dk }2.
Pero D Dk
cuyos valores singulares no nulos son k1 . . . r porque existe una matriz de permutacin -y en consecuencia unitaria- Q tal que o Q pD Dk qQ
T
Diagp0, . . . , 0, k1 , . . . , r q 0 0 0
&
Corolario 3.19 .- Si A Cnn es una matriz no singular y 1 son sus valores singulares, entonces
det B
ww
Este teorema nos proporciona, como corolario, la distancia de una matriz no singular a la matriz singular ms prxima en la norma espectral: el valor singular a o ms pequeo de la matriz no singular. a n
w.
at e
at
ic
}A Ak }2 }D Dk }2 k1,
a1
Por lo tanto
.c om
Diagpk1 , . . . , r q 0 0 0
&
2 . . . n 0
m n
p q0
}A B }2 n.
Demostracin.- det B o
Corolario 3.20 El conjunto de las matrices de rango completo de Cmn es abierto. Demostracin.- En efecto, suponiendo, por sencillez que m n, tenemos que si o mn AF y rangpAq n entonces las matrices de rango menor que n ms prximas a a o A estn a una distancia n , medida en la norma espectral. En consecuencia, cualquier a bola abierta con centro en A y radio r n est completamente contenida en el a conjunto de las matrices de rango completo. Esto demuestra que este conjunto es abierto.
3.6.
La inversa de Moore-Penrose
A U V , Diagp1 , . . . , n q
.c om
Ya hemos visto en la Proposicin 3.16 que si o es una descomposicin en valores singulares de A Cnn y sta es invertible entonces o e
Podemos usar esta idea para generalizar el concepto de inversa a inversa generalizada (o pseudoinversa) que juega un papel fundamental en varias partes de la matemtica y en particular en la solucin del problema de m a o nimos cuadrados. Hay varias inversas generalizadas (ver [1]). Aqu slo trataremos de la llamada inversa o generalizada de Moore-Penrose o, simplemente, inversa de Moore-Penrose o pseudoinversa de Moore-Penrose. En MATLAB se utiliza el comando pinv para calcularla. Supongamos que A singulares no nulos y
ww
w.
at e
at
ic
A1 V U ,
Diag
a1
1 1 ,..., n 1
A U V ,
Diagp1 , . . . , r q 0 0 0
(
&
!Diag
1 1 ,..., 1 r 0
0) 0
y denamos
AX
V XU .
Denicin 3.21 A la matriz AX se le llama inversa generalizada o pseudoo inversa de Moore-Penrose de A. En los ejercicios se presentan algunas propiedades importantes de la inversa de Moore-Penrose. En particular, la denicin dada aqu no es la que aparece habitualo mente en los libros clsicos, aunque es la que mejor se adapta a nuestras circunsa tancias. La denicin habitual es la siguiente: Es la unica matriz que cumple las o siguientes cuatro propiedades:
piq piiiq
AAX A A, AX A pAX Aq ,
piiq pivq
.c om
Proposicin 3.22 Para cada A Cmn hay una unica inversa de Moore-Penrose. o Demostracin.- Sea o A U V ,
ww w.
&
at e
Se puede demostrar que la Denicin 3.21 es equivalente a estas cuatro condicioo nes. En cualquier caso, a primera vista en la Denicin 3.21 no parece que se pueda o asegurar que hay una unica inversa de Moore-Penrose para cada A. En efecto, la denicin depende de la eleccin de las matrices U y V en la descomposicin de A en o o o valores singulares y stas no son, en general, unicas. Nos proponemos demostrar que, e a pesar de la arbitrariedad en la eleccin de los vectores singulares por la izquierda o y por la derecha, la inversa de Moore-Penrose es unica:
at
ic
una descomposicin en valores singulares de A, r rangpAq. Y sea AX V X U la o correspondiente inversa de Moore-Penrose. Por la Proposicin 3.10 las r primeras o columnas de U y V forman bases ortonormales de $ pAq y de ImpA q, respectivaIm $ mente. De acuerdo con esto escribimos V V1 V2 y U U1 U2 con V1 Cnr y U1 Cmr . Si adems, ponemos a r
a1
Diagp1 , . . . , r q 0 0 0
Diagp1, . . . , r q
entonces 1 Diag r
1 1 ,..., 1 r
A U1 r V1
y AX
V11U1. r
Ahora, si hubiera otra descomposicin de A en valores singulares, como stos son o e unicos, existir matrices unitarias U Cmm y V Cnn tales que A U V . an y V como U y V tendr 1 r V1 con U1 y V1 matrices Partiendo U amos que A U cuyas columnas forman bases ortonormales de ImpAq y ImpA q, respectivamente. Para esta descomposicin de A, la inversa de Moore-Penrose correspondiente o X V1 1 U1 . Debemos demostrar que AX AX . r ser A a: Por una parte, las columnas de U1 y U1 forman bases ortonormales de ImpAq y las columnas de V1 y V1 forman bases ortonormales de ImpA q. Por lo tanto, existen matrices unitarias P, Q Crr tales que U1
U1P
U1 r V1
y V1
V1Q.
.c om
w.
Pero U1 U1
V1V1 Ir , as que
M
P r Q
at e
U1 P r Q V1
ww
Q1 P r
V1 Q1 P U1 r
de modo que
at
ic
U1r V1,
a1