Descomposición en Valores Singulares
Descomposición en Valores Singulares
Descomposición en Valores Singulares
2
=(Av
i
)
t
(Av
i
)=v
t
i
(A
t
A)v
i
=v
i
t
i
v
i
=
i
de aqu que los autovalores de A
t
A son no
negativos, llamaremos valores singulares de una matriz A a la raz cuadrada de los
autovalores de A
t
A
3
Ejemplo 0:
Sea la transformacin con dominio en R
3
y codominio en R
2
tal que su matriz asociada
es A=
,
_
1 1 0
0 1 1
se desea determinar el vector x de R
3
que maximice Axcon la
restriccin x=1 y calcular la longitud mxima.
El vector que estamos buscando es el mismo vector que maximiza Ax
2
=x
t
A
t
Ax
Con la restriccin x=1,cmo se vio antes el vector en cuestin est asociado al
mximo autovalor de A
t
A= , en este caso es 3 que tiene asociado el
autovector [1,2,-1]cuyo autoversor es v0=[1/ ,2/ ,-1/ ] luego el vector requerido
es
Av0= cuya longitud es 3, el primer valor singular de A es la norma de Av0
que adems es el mximo de todas las normas para vectores unitarios.
Ejemplo 1:
Dada la matriz
7 0 0 0
0 3 0 0
0 0 0 0
A
1
1
1
1
]
tenemos que A
t
A=
as
1
7
,
2
3
,
3
0
,
4
0
.
TEOREMA DE LA DESCOMPOSICIN EN VALORES SINGULARES
DE UNA MATRIA REAL
Sea A una matriz real mxn de rango r entonces se verifican que: existe una matriz S
mxn que en su diagonal principal contiene y la matrices
ortogonales U mxm y Vnxn tales que A=USV
t
, a esta factorizacin la denominamos de
valores singulares para matrices de coeficientes reales.
La demostrcin: consideremos los autovalores de A
t
A, digamos adems
es bon de R
n
luego es base ortogonal de Col(A) que
normalizada pasa a ser base ortonormal .
4
En efecto de aqu que Av
i
es ortogonal a Av
j
donde y Extendiendo el
conjunto hasta una base ortonormal de R
m
y sean
son matrices ortogonales
Entonces US
es:
=AV. De US=AV y por ser V ortogonal ,
USV
t
=AVV
t
=A.
Ejemplo elemental
Volvamos al caso
Dada la matriz
7 0 0 0
0 3 0 0
0 0 0 0
A
1
1
1
1
]
tenemos que los valores singulares son
as
1
7
,
2
3
,
3
0
,
4
0
. Las matrices V
t
=I
4
, U=I
3
, S=A
Ejemplo 3 para matrices de coeficientes reales
Dada la matriz calcular nmeros ,valores singulares de
A y matrices que verifiquen:
a) .
b) y son ortogonales .
c)
5
Solucin Seguimos el mtodo general expuesto anteriormente.
Los valores propios de son por tanto y .
Hallemos los subespacios propios asociados a
Unas respectivas bases son y . Una base ortonormal formada por
vectores propios de es por tanto .
En consecuencia la matriz es
Los valores singulares son . Los vectores son
Extendemos a una base ortonormal de . Un vector
ortogonal a y ha de cumplir y .
Elegimos por ejemplo , que normalizndolo obtenemos
. La descomposicin pedida es por tanto
6
LA DESCOMPOSICIN EN VALORES SINGULARES SE EXTIENDE A
MATRICES COMPLEJAS
Conjugada de una matriz A : en C
mxn
es otra matriz cuyos coeficientes son los
conjugados de los coeficientes de A
=
para todo i{1m} y j{1n}
Traspuesta de la conjugada( o conjugada de la traspuesta): denotaremos A
*
= =
De lo anterior se deduce que para matrices de coeficientes reales A= , luego A
*
=A
t
Definicin: una matriz compleja A tal que A
*
=A
-1
se dice que es unitaria
Proposicin: son equivalentes las siguientes afirmaciones
i) A es unitaria
ii) Las filas de A son un conjunto ortonormal de C
m
iii) Las columnas de A forman un conjunto ortonormal de C
n
Definicin: una matriz compleja cuadrada nxn se dice hermitiana o hermitica si A
*
=A,
lo que es equivalente a afirmar que
Proposicin: La matriz es hermitica, en efecto tenemos que
.
Vale notar que si la matriz es de coeficientes reales entonces
*
A A
=A
t
A y que
esta sera una matriz simtrica y por tanto ortogonalmente diagonalizable, es en este
caso que podemos deducir que:
,
Luego los 0,
Definicin: llamaremos valores singulares de una matriz A a las races cuadradas de los
autovalores de la matriz A*A, en el caso de matrices reales los valores singulares
corresponden a las races cuadradas de autovalores de A
t
A
TEOREMA 1: DESCOMPOSICIN EN VALORES SINGULARES PARA
MATRICES DE COEFICIENTES COMPLEJOS
Sea . Existen matrices unitarias , tales que
donde S contiene una submatriz diagonal con los
elementos diagonales todos con . A los
nmeros se les llama valores singulares de .
7
Demostracin Como fue probado antes la matriz es hermtica. Como
consecuencia del teorema espectral existe una base ortonormal en
formada por los autovectores de . Sea es autovalor de asociado al
autovector e
i
es decir, e
i
= e
i
Tenemos:
Supondremos sin prdida de generalidad que
Llamemos
La familia es ortonormal. Efectivamente
Podemos por tanto extender a una base ortonormal de .
Llamando y tenemos
8
Veamos qu matriz es
1) Si , . Es decir .
2) Para todo se verifica
3) y se verifica
(pues )
En consecuencia tenemos
SEUDOINVERSA DE UNA MATRIZ DIAGONAL
Dada la matriz diagonal,
1
2
0
0
r
D
1
1
1
1
1
1
1
1
1
1
]
O
O
de m x n su
seudoinversa es la matriz diagonal
D
+
de n x m,
9
1
2
1
1
1
0
0
r
D
+
1
1
1
1
1
1
1
1
1
1
1
]
O
O
SEUDOINVERSA EN FORMA GENERAL
Matriz pseudo-inversa de Moore-Penrose: Sea A la matriz real mxn de rango r y las
matrices reales ortogonales U mxm y V nxn .La descomposicin en valores
singulares es tal que A=U.S.V
t
entonces la matriz A+ = V.S1.U
t
, donde S1 es una
matriz nxm ,en cuya diagonal principal se encuentran los recprocos de los valores
singulares de A no nulos ordenados en forma decreciente, mientras que las dems
posiciones son 0,es la seudo inversa de Moore Penrose.
Cuando una matriz tiene su rango igual al mnimo entre la cantidad de filas y la de
columnas decimos que es de rango completo, en tal caso podemos calcular A
+
de la
siguiente forma:
Si el rango de A igual al nmero de filas A
+
=A
t
(A
t
A)
-1
Mientras que si el rango de
A es igual al nmero de columnas es A
+
=(A
t
A)
-1
A
t
Propiedades de Penrose:
1. A A
+
A = A
2. A
+
A A
+
= A
+
3. (AA
+
)
*
= AA
+
4. (A
+
A)
*
= A
+
A
Teorema 2:
Sea la matriz real A mxn de rango r y cuya d.e.s A=U.S.V
*
,donde
U es una mxm matriz.unitaria.
S es una mxn matriz con coeficientes no negativos en su diagonal y 0 fuera de
ella.
V es una nxn matriz unitaria.
entonces A
+
satisface las propiedades de Penrose,
Es A
+
as V S
+
U
*
.Veamos que A
+
is a pseudoinverse of A:
1. AA
+
A = USV
*
VS
+
U
*
USV
*
= USS
+
SV
*
= USV
*
= A
10
2. A
+
AA
+
= VS
+
U
*
USV
*
VS
+
U
*
= VS
+
SS
+
U
*
= VS
+
U
*
= A
+
3. (AA
+
)
*
= (USV
*
VS
+
U
*
)
*
= (USS
+
U
*
)
*
= U(SS
+
)
*
U
*
=
U(SS
+
)U
*
= USV
*
VS
+
U
*
= AA
+
4. (A
+
A)
*
= (VS
+
U
*
USV
*
)
*
= (VS
+
SV
*
)
*
= V(S
+
S)
*
V
*
= V(S
+
S)V
*
= VS
+
U
*
USV
*
= A
+
A
Teorema 3:
Dada una matriz mxn A una nica seudoinversa.
Demostracin: supongamos que para la matriz A existen las matrices X e Y que
verifican las condiciones de Penrose, entonces
* * * *
( ) ( ) ( ) ( )
X XAX
X XAYAX
X XAYAYAYAX
X XA YA Y AY AX
* * * * * * * *
* * * *
* * * *
* *
( ) ( )
( ) ( )
X A X A Y YY A X A
X AXA Y YY AXA
X A Y YY A
X YA Y YA
X YAYAY
X YAY
X Y
ac va (YA)*Y(AY)*
Ejemplos a) Del ejemplo 1
3 4
A=I AI
se obtiene
1/ 7 0 0
0 1/ 3 0
0 0 0
0 0 0
A
+
1
1
1
1
1
]
.
b) Del ejemplo 2 se obtiene
0 1.6 0.6
0 1.2 0.8
0 0 0
0 0 0
B
+
+
1
1
1
1
1
]
=
1 0 0 0.6 0.8 0 0
0 0 1
0 1/ 2 0 0.8 0.6 0 0
0 1 0
0 0 0 0 0 1 0
1 0 0
0 0 0 0 0 0 1
1 1
1
1 1
1
1 1
1
1 1
1
1 1
]
] ]
=
B
+
=
0 0 0 0
0.4 0.3 0 0
0.6 0.8 0 0
1
1
1
1
]
.
Referencias
11
[1] ] Murray-Lasso, M. A. (2007): Linear Vector Space Derivation of New
Expressions for the Pseudo
[2] Golub, G. H. & C. Reinsch (1971): Singular Value Decomposition and Least
Square Solutions.Contribution 1/10 in Wilkinson, J. H. & C. Reinsch: Handbook for
Automatic Computation.Volume II, Linear Algebra. Springer Verlag, New York,
pp. 134 151.
[3] Noble, B. (1969): Applied Linear Algebra. Prentice Hall, Inc., Englewood Cliffs,
NJ.
[4]Lay, D.(1999).lgebra lineal y sus aplicaciones. Addison Wesley. Mxico.pp
466-486
[5] Penrose, R. (1955): A Generalized Inverse for Matrices. Proceedings of the
Cambridge Philosophical Society, Vol. 51, pp. 406 413.
[6] Hefferon,J.(2000).Linear Algebra. Vermont U.S.A, pp 159-168
12
Ejercicios:
1) Encuentre la descomposicin en valores singulares de las matrices
5
4
1
1
]
,
[ ]
2 1
,
4 0 0
0 0 0
0 0 7
0 0 0
1
1
1
1
1
]
. R.
2 1
1
[5], [5 0],
1 2 25
P D Q
1
1
]
.
Encuentre
A
+
en el caso a)
*
A A
es invertible b)
*
A A
= I c) A es
hermitiana e idempotente.(
* 2
, A A A A ).
2) Pruebe que si A es hermitiana entonces
A
+
es hermitiana.
3) Demuestre las siguientes propiedades de la seudo inversa:
i)
* *
( ) AA A A
+ + +
ii)
* *
( ) A A AA
+ +
.
6) Sea A una matriz de m x n de rango r. Defina
,
i i
u v
y
i
como en el
teorema 1. Demuestre que
1 *
1
j
r
j j
j
A u v
+
= A, b) AA
A = A, c) A
AA
= A
+
,
d) (A
)
t
= (A
t
)
e) A
+
= (A
t
A)
+
A
t
13