Pseudo Inversa de Moore Penrose
Pseudo Inversa de Moore Penrose
Pseudo Inversa de Moore Penrose
1. Introduccin
Las inversas generalizadas presentan una alternativa a la resolucin de sistemas de ecuaciones lineales, proporcionando al mismo tiempo un excelente procedimiento para la resolucin de ecuaciones matriciales. Han sido utilizadas con
xito en la resolucin de programas matemticos, en particular, en programacin
convexa y lineal, resultando asimismo indispensables en el tratamiento y resolucin de problemas economtricos.
Si nos proponemos encontrar la solucin, en caso de que exista, del sistema
de ecuaciones lineales A.x = y, donde A es una matriz con elementos reales de
m filas y n columnas, y es el vector columna de coeficientes reales y x el vector
columna de las incgnitas, sabemos que si m = nyA es una matriz regular, nuestro sistema de ecuaciones lineales, es un sistema de Cramer y el valor del vector
x se obtiene aplicando este procedimiento.
Si m k n, para determinar si el sistema de ecuaciones lineales tiene o no solucin, podemos acudir al Teorema de Rouche-Frobenius, teorema que no nos
determina la expresin de dicha solucin en caso de wdstir.
Las inversas generalizadas y en particular una de ellas, la inversa de Penrose,
nos permite analizar si el sistema de ecuaciones lineales no homogneo admite
300
solucin y en este caso su expresin; en caso de no existir solucin nos proporcionan una solucin aproximada en un sentido concreto.
(1)
P = P.A.P.
(2)
A.P.
t(A.P)
(3)
P.A. = t(P.A)
(4)
Lema. Si A es una matriz de rango mximo, la matriz B = tA.A es una matriz simtrica regular de orden n.
Demostracin. Si A es una matriz de rango mximo ste coincidir con el
mnimo de sus filas o columnas, esto es, rg(A) = mn (m, n). La matriz B es simtrica, en efecto
tB = t (t.A.A) = tA.A = B
Si consideramos la relacin B = tA.A y la multiplicamos a ambos lados por
un vector no nulo x, obtenemos
tx.B.x. = tx. tA.A.x = t(A.x).A.x
la expresin de la derecha es suma de cuadrados y es nula si y slo si A.x = 0.
Como rg(A) = mn (m, n), A.x = 0 se verifica solamente si x = 0, por tanto,
la forma cuadrtica tx.B.x es definida y podemos concluir que la matriz B es regular de orden n.
Proposicin. Si A es una matriz cuadrada de rango mximo, la matriz inversa de A, A- 1 , es la inversa de Penrose de la matriz A.
Demostracin. Evidentemente la matriz A- 1 verifica las cuatro condiciones
La inversa de Penrose
301
A = A.A-1.A
A- 1 = A-1.A.A-1
A.A- 1 = I
A- 1 .A = I
Proposicin. Si A es una matriz con rg(A) = m < n, la inversa a la derecha
de la matriz A, tA.(A. 1A)-1 es la inversa de Penrose de la matriz A.
Demostracin. Denominemos D = 1A.(A.1A)-1. Tenemos:
A.D.A = A. tA.(A. tA)- 1 .A = A
D.A.D = 1A.(A.1A)- 1.A.tA.(A.ItA)-i = t A.(A. t A) -i = D
t(A.D) = t(k.tA.(A.tA)-1) = t (A. t A) - 1 .A. t A =
Sin prdida de generalidad podemos suponer que son las r primeras filas y las
r primeras columnas de la matriz A las que son linealmente independientes. La
matriz A, podemos descomponerla
A=
A 11
Al2)
A21
A22
siendo A il de dimensin (r, r), A l2 (r, n-r), A21 (m-r, r), y la matriz A22 de dimensin (m-r, n-r). En la matriz A las n-r ltimas columnas son combinaciones
lineales de las r primeras, tenemos
302
Al2)
All)
A22
A21
X =>
Al2 = AllX
A22 = A21X
1 11- A l2
A=
A21
denominemos
Al2)
B = t (A il A 21) , C =
A.C-dl .A B A =
=
t(C-di
- B i l .A) = t(Cl
t(A.Cl.
triz simtrica.
=Ai
=A
1.B
= t(-=s
15 -i 1 ) que tambin es una ma-
La inversa de Penrose
303
1002 )
2 0 1 5
1002
B =
010
1002 )
10)
Al 1
2015
21
P = edi -A ii- Bi l =
1/2
0
-1
0
-1/3
0
5/6
1/6
1/2)
0
-1
0
Las proposiciones anteriores completan todas las posibilidades sobre la matriz A, salvo el caso de que rg(A) = 0, en cuyo caso la inversa de Penrose es la
matriz nula. Por tanto, siempre podemos construir la inversa de Penrose de una
matriz cualquiera.
Trataremos ahora de resolver el problema de la unicidad.
es nica.
Demostracin. Supongamos que la matriz A admite dos inversas de Penrose: P i , P2; evidentemente ambas matrices verificarn las condiciones (1), (2), (3)
y (4). Tenemos por tanto
p i = p i. A. p i = p i.t(A. po = p i.tp rtA = p 1. tp 1. t(A . p2.A) =
= P 1 . tP 1 .tA.tP2 .tA = P 1 . t(A.P 1).t(A.P2) = P 1 .A.P I .A.P2 P1.A.P2
.tP2 -P2 =
P2 = P2 A P2 = t(P2A) P2 = tA tP2 .P2 = t(A.P
= tA .tpr tA.tp2. p2 = tw i.m . t(p2.A) . p2 = p 1. A . p2.A. p2 = p1.A.p2
Luego P i = P2.
304
(5)
La inversa de Penrose
305
Proposicin. La solucin de un sistema de ecuaciones lineales no homogneo consistente A.x = y es nica si y slo si P.A = I, donde P es la inversa de
Penrose de A.
Demostracin. Por la proposicin anterior sabemos, que la solucin general
del sistema consistente, considerando la matriz P, es
x = P.y + (I P.A).z
si P.A = I, tenemos x = P.y que evidentemente es nica.
Observemos que la condicin P.A = I se verifica si y slo si rg(A) = n lo
que equivale a la condicin establecida por Frobenius para la existencia de una
nica solucin, ya que una de las hiptesis de esta proposicin es que el sistema
de ecuaciones lineales sea consistente.
Consideremos ahora un (posible) sistema inconsistente, la inversa de Penrose nos permite encontrar una solucin aproximada x o del sistema de ecuaciones
lineales no homogneo, en el sentido de que minimiza la funcin
F(x) = t(A.x y).(A.x y)
donde r(x0) = A.xo y sera el error que cometeramos por considerar a xo
como solucin del sistema.
tA.(A.x y) = 0
(6)
306
y) = tA.(t(A.P).y y) =
t(A.P.A).y t Ay
t Ay = 0
La condicin suficiente para mnimo, se verifica si la matriz hessiana es (semi) definida positiva; en nuestro caso, la matriz hessiana es tA.A que es al menos semidefinida positiva.
Por tanto el vector x o = P.y minimiza la funcin F(x) y el valor que dicha
funcin alcanza en xo es:
F(x0) = t y.(I A.P).y
Observemos que para probar la primera parte de esta proposicin hemos necesitado exclusivamente que la matriz P verifique las condiciones t(A.P) = A.P
A.P.A = A.
El vector xo no es el nico que minimiza la funcin F(x). Si el vector x'0 ,
x'0 A xo , tambin minimiza la funcin F(x), tendr que verificar tambin las condiciones necesarias de ptimo siendo entonces solucin del sistema tA.A.x = tA.y.
La solucin general de este sistema viene dada por
x = P'.A.y + (I P'. 1 A.A).z
(7)
(8)
Luego
t x'o
La inversa de Penrose
307
para todo x r xo que minimice la funcin F(x). Entonces la matriz G es la inversa de Penrose de la matriz A.
Demostracin. Si xo = G.y verifica F(x0) = F(x) para todo x de Rn, xo verificar las condiciones necesarias de primer orden, esto es, se verifica
tA.(A.xo y) = 0
tA.(A.G I).y = 0
tA.(A.G.y y) = 0
tA.(A.G --- I) = 0
multiplicando (8) por tG a la izquierda, tenemos
t(A.G).A.G = t(A.G)
donde tomando traspuestas:
t(A.G).A.G = A.G = t(A.G)
luego, la matriz A.G es simtrica.
Si consideramos (8) y tomamos transpuestas, tenemos
t(A.G).A = A
0, entonces x
xo = G.y. Tenemos
G .A). G .y + t((i
308
4. Conclusiones
Dada una matriz A de m filas y n columnas, podemos asociarla diferentes
matrices G que constituyen el conjunto de inversas generalizadas de la matriz A,
seg n que tales matrices G verifiquen las condiciones (1), (1) y (3) o (1), (2), (3) y (4).
Si exclusivamente se verifica A.G.A. = A, hemos probado que a partir de
G podemos determinar si el sistema de ecuaciones A.x = y admite al menos una
solucin, y si sta existe, encontramos su expresin general.
Si se verifican las condiciones A.G.A. = A y t(A.G) = A.G, a partir de la
matriz G, hemos analizado cmo se construye un vector que minimiza la funcin
F(x) = t (A.x y).(A.x y) y por tanto, si el sistema A.x = y es inconsistente,
estaremos minimizando tr(x).r(x), donde r(x) es el error que cometemos al considerar que x es la solucin del sistema A.x = y.
La inversa de Penrose es la inversa generalizada que engloba a las dems;
hemos probado que ella nos permite caracterizar todos los problemas tratados
con las dems inversas generalizadas, adems, nos determina cuando es nica la
solucin del sistema de ecuaciones lineales A.x = y y nos permite caracterizar
el vector que minimiza tx x entre todos los vectores que minimizan la funcin F(x).
Bibliografa
BJERHAMMAR, A.: Theory of errors and generalized matrix inverses. Elsevier Scienc Publ.
(1973).
CAMPBELL, S. L.: Generalized inverses of linear transformations. Pitman (1973).
DHRYMES, P. J.: Mathematics for Econometrics. Springer-Verlag (1978).
POLLOK, D.S.G.: The Algebre of Econometrics. John-Wiley and Sons (1979).
RAO, C.R., MITRA, S.K.: Generalized Inverse of Matrices and its Applications. John-Wiley
(1971).
' SEARLE, S.R.: Linear Models. John-Wiley (1971).