Analisis Matricial
Analisis Matricial
Analisis Matricial
Anlisis Matricial a
Prefacio
El anlisis matricial (AM) es una continuacin natural del lgebra lineal, pero considerando a o a que el cuerpo de escalares son los nmeros reales o los complejos, y con una mirada basada u en la problemtica de las teor de espacios de Hilbert y de sus operadores acotados. a as Muchos problemas del anlisis, la geometr diferencial, el anlisis funcional, los sistemas a a a dinmicos, la f a sica terica y otras importantes teor pueden bajarse al caso de matrices. o as, Y eso sin mencionar todas las ramas de la matemtica aplicada, que suelen tener a este tipo de a reducciones como herramienta principal. En general, poder reducir y reformular un problema al caso matricial es un xito, porque es mucho ms viable resolver un problema de matrices e a que el problema de origen. Por todo lo anterior, mencionar aplicaciones del AM es innecesario. Cualquier matemtico a quiere poder aplicarlo, y trata sistemticamente de hacerlo. Porque es un contexto donde las a cuentas se pueden hacer (o la mayor cree a priori que deber poder hacerse). Ms an, a an a u cuando la reduccin a matrices de un problema P sigue siendo dif o cil, se puede concluir que P ten una dicultad intr a nseca. Pero con dicultad o sin ella, el tema es cmo resolver P en o matrices. Para poder hacerlo, hay que desarrollar a fondo una teor de matrices, o al menos una a extensa serie de herramientas para trabajar con ellas, que pueda resolver los inmumerables problemas que le caen de arriba. Podr decirse que eso es el AM. a Lo ms interesante del AM es que es el contexto ms basico (un alumno de segundo a a ao de la licenciatura ya puede entender la mayor de los enunciados) en el que se pueden n a plantear problemas matemticos bien dif a ciles, muchos de ellos no resueltos an. Pero para u entender a fondo este tipo de problemas, sus ramicaciones, y las tcnicas que se suelen e aplicar para resolverlos, hace falta hacer un curso espec co de AM, que pueda ser atendido tanto por matemticos formados como por estudiantes de la licenciatura. Otra particularidad a remarcable, es que con ese solo basamento, alcanza para leer y entender (y porqu no hacer) e una gran cantidad de publicaciones actuales. Un t pico trabajo nal para un curso de AM, es estudiar un paper de los ultimos 2 o 3 aos del tema. Y en muchos casos, con los contenidos n de este texto se tienen (casi) todas las herramientas para poder entenderlo a fondo. Por otra parte, como toda teor matemtica, el AM tiene su problemtica propia. El tema a a a ms t a picamente matricial son las desigualdades, que involucran normas, autovalores, valores singulares, determinantes, trazas, etc. El estudio de desigualdades de matrices y operadores es de una gran sutileza y forma una especie de mundo aparte. Sus especialistas son unos tipos especiales, una especie de gremio de artesanos. Las tcnicas que se usan suelen ser intrincadas e
iii
y de un gran ingenio. Se aplican ideas de toda la matemtica, pero la teor tiene sus reglas a a propias y toda una gama de herramientas y mtodos espcec e cos. Una de esas herramientas, fundamental y no muy conocida, es otro tema central para el AM: La teor de mayorizacin a o (de vectores y matrices), y sus mltiples ramicaciones. Esta teor elemental pero dif u a, cil, est poco difundida entre los matemticos, por lo que ha sido y sigue siendo redescubierta a a innumerables veces en distintas reas, muchas veces con terminolog ad hoc. Si bien la a as n mayorizacin aparece como una forma de comparar vectores de R , cuando se la piensa en o vectores de autovalores o de valores singulares, se percibe rpidamente que es una nocin a o intr nsecamente relacionada con la teor de matrices. Estos dos aspectos: mayorizacin y a o desigualdades, son desarrollados con profundidad en este texto. Una rama muy diferenciada del AM, la de matrices de entradas no negativas, llamada teor de Perron y Frobenuis, podr tener el rango de rea independiente. De ella daremos a a a un cap tulo con las bases principales de la teor y otro cap a, tulo exponiendo una de sus ramas: las matrices totalmente positivas. Este libro es el resultado de ms de una decena de cursos, dictados en diversos departaa mentos de matemtica (FCEN-UBA, FI-UBA, FCE-UNC y, sobre todo, en la FCE-UNLP) y a en varios congresos, en los ultimos aos. Es importante aclarar que se asumen como conocidos n (y no se exponen en este texto) todos los contenidos de un curso inicial de lgebra lineal. Para a comodidad del lector, y para jar notaciones y prerrequisitos, se enumeran al pricipio del primer cap tulo todas las nociones y resultados espec cos de un tal curso que sern usados a a lo largo del texto. Cualquier libro de lgebra lineal (y hay miles) sirve como referencia para los a mismos. Si me dan a elegir, yo recomiendo el de K. Homan y R. Kuntze [6] para algebristas, y el de P. D. Lax [10] para analistas. Debo mencionar que este libro est fuertemente basado en cuatro excelentes textos que a son la bibliograf bsica en el tema: los dos tomos Matrix Analysis [7] y Topics of Matrix a a Analysis [8] de R. Horn y C. Johnson, el reciente libro [4] y, sobre todo, el maravilloso libro Matrix Analysis [3], ambos de R. Bhatia. Sin embargo, hay varios aspectos que lo diferencian. Por un lado, el presente texto est pensado como base para un curso elemental, y organizado a efectivamente para que todo el material pueda darse en un cuatrimestre. Por otro lado, hay fuertes diferencias en la manera de encarar muchos de los temas, y se incluyen resultados ms a modernos y numerosas pruebas simplicadas de resultados clsicos, en base a publicaciones a recientes o al aporte de alumnos, ayudantes y profesores de todos los cursos antes mencionados. Los temas elegidos son solo una pequea parte de la teor pero son la base principal sobre n a, la que se edican la mayor de las reas no incuidas en el texto. Hay muchas tcnicas de a a e anlisis, funciones anal a ticas y geometr diferencial que suelen ser efectivas para problemas de a matrices. Ese tipo de interacciones no estn incluidos porque el texto est pensado para una a a audiencia no necesariamente experta. Una referencia escencial para esa clase de recursos son los libros mencionado de R. Bhatia [3] y [4]. Otra teor aparte, poco desarrollada aqu es la a , de perturbaciones de matrices (autovalores, autovectores, etc). Sobre estos temas, se podr an mencionar varios cap tulos de [3], y tambin el monumental tratado de T. Kato [9]. Tampoco e se hace mucho incapi en este texto en los mtodos algor e e tmicos, que vendr a ser la otra pata an de la teor Bajado un problema a matrices, hay dos alternativas: resolverlo tericamente a. o (para ese lado va este texto) o resolverlo aproximando, dado que en matrices se puede (si no
iv
son muy grandes). La bibliograf sobre aproximacin mediante algoritmos es inmensa, y nos a o limitaremos a citar el excelente tratado Matrix computations [2] de G. Golub y C. F. Van Loan, y la bibliograf que all aparece. La mayor de las herramientas necesarias para los a a algoritmos mencionados, y muchos de los procedimientos espec cos que ellos usan, s estn a expuestos en el texto; pero sin hacer hincapi en la ptica de la velocidad de convergencia o la e o robustez ante perturbaciones, sin en la problemtica terica que presentan. Otros temas que o a o no tratamos son los de matrices diagonalizables, polinomios minimales y formas cannicas, en o particular la forma de Jordan. Esto es porque ese tipo de resultados no se usarn en el resto a del texto, y porque suelen estar incluidos en un buen curso bsico de lgebra lineal. Los dos a a libros antes mencionados ([6] y [10]) dan excelentes tratamientos de estos temas. Muchos de los resultados que expondremos siguen siendo vlidos en contextos ms gea a nerales que las matrices reales o complejas. Por ejemplo matrices a coecientes en cuerpos generales o en anillos, lgebras de Banach, operadores en espacios de Banach o de Hilbert, a a gebras de operadores (C y de von Neumann). Esto sucede particularmente con resultados de los cap tulos 1 (en las secciones 5, 7 y 9), 3, 6, 7, 8 (seccin 3), 9, 10 y 12. La decisin o o que tomamos para presentarlos fue dar demostracines espec o cas para el caso matricial y, por lo general, mencionar luego los contextos donde siguen valiendo, y las tcnicas diferentes e para cada uno de ellos. La principal razn que justica este enfoque es que el libro busca ser o autocontenido en un nivel elemental, y que las teor mencionadas son muy variadas, lo que as har muy dif dar las demostraciones generales sin largas secciones introductorias de cada a cil una de ellas. Adems, las pruebas para el caso matricial suelen ser much a simo ms simples a y breves, y brindan un manejo interesante de las tcnicas propias del AM. Por otra parte, e opinamos que es muy util el enfrentarse con una primera versin de enunciados complicados o en un mbito menos complicado, para despus poder entender el signicado de esos enunciados a e en los contextos ms espec a cos (adems de su nueva demostracin). a o Sin embargo, este enfoque tiene un l mite. Por lo tanto, una parte importante del AM hemos decidido desarrollarlo en el ambiente ms general de operadores en espacios de Hilbert. a Se seleccionaron para esa parte aquellos resultados cuyas pruebas dieren poco al aumentar la generalidad, y que forman una rama imporante de la teor de operadores, aunque mantengan a un esp ritu claramente matricial. Sin embargo, ese trabajo se realizar en un segundo volumen, a dado que el contenido del presente libro ya es suciente para un curso cuatrimestral, y porque la segunda parte requiere una introduccin espec o ca de espacios de Hilbert que no consideramos necesaria para este texto puramente matricial.
Los contenidos del libro estn sucientemente explicitados en los t a tulos de las secciones del ndice. A continuacin haremos algunos comentarios sobre el enfoque aplicado en cada o cap tulo. Como se dijo anteriormente, al principio del cap tulo 1 se enumera una serie de notaciones y resultados del lgebra lineal elemental. En la seccin 5 se presentan varias a o frmulas elemetales, pero no demasiado conocidas, para operar con matrices. De particular o importancia es el manejo de matrices de bloques y las tcnicas para operar con ellas. Luego e se presenta el teorema de Schur que muestra la equivalencia unitaria de toda matriz con una triangular superior. Este teorema, si bien suele estar incluido en los textos elementales, es
presentado en detalle porque ser de importancia clave para numerosos resultados a lo largo a de todo el libro. El cap tulo culmina con tres secciones de resultados elementales, que tambin e sern muy usados ms adelante: polinomios aplicados a matrices, descomposicin QR y las a a o propiedades bsicas de las matrices de rango uno. a Los cap tulos 2 y 3, sobre matrices normales, autoadjuntas y positivas, empiezan con material bsico, desarrollan en detalle las propiedades variacionales de los autovalores de a matrices autoadjuntas, y dan una versin nitodimensional de los principales resultados de la o teor de operadores en espacios de Hilbert, pero con las notaciones tradicionales del AM. Se a propone un estudio exhaustivo de las propiedades y caracterizaciones de las matrices denidas positivas, dado que suelen ser las protagonistas de las ms interesantes desigualdades que se a estudiarn ms adelante. Por otra parte, muchos problemas generales de matrices pueden a a reducirse al caso positivo, a traves de yeites como tomar partes reales e imaginarias (ah se cae en las autoadjuntas) y luego positivas y negativas, usando matrices de bloques de 2 2, o bien usando la descomposicin polar. o Los cap tulos 4 y 5 tratan sobre mayorizacin, primero en su versin vectorial, y despus o o e en sus primeras aplicaciones a las matrices. El tratamiento es muy detallado, porque consideramos que es un tema poco difundido, y que es sumamente util en muchas ramas de la matemtica, adems de ser escencial para el AM. El cap a a tulo 6, sobre monoton y convexidad a de operadores, incluye una introduccin al clculo funcional para matrices autoadjuntas, en o a el estilo del de operadores en espacios de Hilbert, pero con pruebas ad hoc. Luego se dan las principales caracterizaciones y propiedades de las funciones mencionadas, que son herramientas escenciales para estudiar desigualdades de matrices y operadores. Este cap tulo esta fuertemente basado en la exposicin de estos temas que se hace en el libro de Bhatia [3]. o Sin embargo, hay importantes diferencias de enfoque, se presentan muchas pruebas diferentes, y la seleccin de resultados presentados es distinta. o En el cap tulo 7 se da una introduccin bsica a la teor de productos tensoriales y alo a a ternados, como siempre con pruebas adecuadas al contexto matricial. Esta teor por ser a, bastante ardua de exponer, suele aparecer mencionada sin mucho detalle en los libros, en funcin de poder aplicar los recursos que brinda (escenciales para entender las propiedades de o los determinantes y como herramienta para probar desigualdades) sin meterse en camisa de once varas. Aqu intentamos dar una exposicin detallada y (casi) autocontenida, dado que o el contexto matricial lo permite sin que el esfuerzo sea excesivo, y porque en cap tulos posteriores necesitaremos trabajar con propiedades muy espec cas del determinante de matrices y submatrices. El tema es que una buena presentacin de los productos alternados permite o justicar completamente todas esas propiedades, trabajo que se inicia en la seccin 3, y se o contina en el cap u tulo 12. El cap tulo 8 trata sobre productos de Hadamard. Aqu tambin el tratamiento es muy e detallado, porque es un rea que aparece poco en los tratados del tema, es un tema fuerte de a investigacin dentro del AM, y tiene adems muy intereantes aplicaciones en otras disciplinas. o a Se presenta una pueba completa del teorema de Haagerup que caracteriza la norma del operador de multiplicacin (de Hadamard) por una matriz ja, relativa a la norma espectral de o matrices. El cap tulo 9 presenta una serie de importantes desigualdades de matrices, y puede pen-
sarse como lugar en el que se concentran las tcnicas y desarrollos realizados en los cap e tulos anteriores. La lista no es exhaustiva, pero da una idea de las principales l neas de la teor y a, presenta la mayor de las tcnicas usuales que se utilizan para mostrar este tipo de desiguala e dades. En el cap tulo 10 se estudian las principales propiedades del rango y del radio numricos e de matrices. Los teoremas ms importantes que desarrollamos son el de Hausdor-Toeplitz a sobre la convexidad del rango numrico, y el de T. Ando sobre caracterizaciones matriciales e del radio numrico. e Los ultimos tres cap tulos enfocan la teor de Perron-Frobenius sobre las matrices de a entradas positivas, y las totalmente positivas. En el 11 se exponen los resultados clsicos a sobre matrices estrictamente positivas, no negativas e irreducibles. En el 12 se introducen los complementos de Schur y numerosas tcnicas con determinandtes que, adems de tener un e a inters propio, son la herramienta clave para desarrollar, en el cap e tulo 13, una introduccin o a la teor de matrices totalmente positivas. Esta cap a tulo se basa en un trabajo de T. Ando [20], y est escrito utilizando como punto de partida al trabajo nal de A. Iglesias para un a curso de AM dictado en La Plata. Todos los cap tulos tienen una ultima seccin de ejercicios. Se proponen adems numerosos o a ejercicios a lo largo del texto de cada cap tulo. Al principio de las secciones nales se los reenumeran, agreagndose a continuacin series de ejercicios nuevos. a o Qerr amos agradecer a Gustavo Corach por haber iniciado y habernos incluido en el trabajo de investigacin de nuestro grupo del IAM en los temas de Anlisis Matricial. Tambin va o a e nuestro agradecimiento a Celeste Gonzlez, a partir de cuyo trabajo [25] se comenzo a escribir a la primera versin de este libro, a Pedro Massey, que nos aport invalorables comentarios e o o ideas (adems de muchos ejercicios), y a Agust Iglesias e Ivan Angiono, de quienes hemos a n tomado algunos fragmentos de texto. Tambin agradecemos a los alumnos de los distintos e cursos que hemos dictado en estos aos, que han aportado una innidad de sugerencias, n correcciones e ideas.
Indice General
1 Preliminares 1.1 Generalidades . . . . . . . . . . . . . . 1.2 El espectro . . . . . . . . . . . . . . . 1.3 Matrices unitarias . . . . . . . . . . . . 1.4 Matrices triangulares . . . . . . . . . . 1.5 Herramientas para operar con matrices 1.6 El Teorema de Schur y sus corolarios . 1.7 Polinomios y matrices . . . . . . . . . 1.8 QR . . . . . . . . . . . . . . . . . . . . 1.9 Matrices de rango uno . . . . . . . . . 1.10 Ejercicios . . . . . . . . . . . . . . . . 2 Matrices normales y Hermitianas 2.1 Matrices normales . . . . . . . . . 2.2 Matrices Hermitianas . . . . . . . 2.3 Principio minimax . . . . . . . . 2.4 Entrelace de Cauchy . . . . . . . 2.5 Ejercicios . . . . . . . . . . . . . 0 0 6 8 9 10 13 15 17 19 20 25 25 27 28 31 34 37 37 39 42 43 46 48 49 53
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
3 Matrices denidas positivas 3.1 Propiedades bsicas . . . . . . . . . . . . . a 3.2 Descomposicin polar y valores singulares o 3.3 Parte positiva y parte negativa . . . . . . 3.4 Normas en Mn (C) . . . . . . . . . . . . . 3.5 Algunas caracterizaciones . . . . . . . . . 3.6 El producto de Hadamard . . . . . . . . . 3.7 El famoso truco 2 2 . . . . . . . . . . . . 3.8 Cortocircuitos . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
INDICE GENERAL
viii
3.9
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57 64 64 71 73 76 77 80 80 83 87 91 95 99 106 106 108 109 112 117 123 128 128 130 132 140 142 147 147 149 150 153 155
4 Mayorizacin o 4.1 Deniciones y caracterizaciones . . 4.2 Mayorizacin y funciones convexas o 4.3 Birkho, Hall y los casamientos . . 4.4 Mayorizacin logar o tmica . . . . . . 4.5 Ejercicios . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
5 Mayorizacin de autovalores y valores singulares o 5.1 Aplicaciones a matrices Hermitianas . . . . . . . . 5.2 Teorema de Schur-Horn . . . . . . . . . . . . . . . 5.3 Normas unitariamente invariantes . . . . . . . . . 5.4 Mayorizacin de matrices Hermitianas . . . . . . o 5.5 Teoremas de Lindskii y sus aplicaciones . . . . . . 5.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . 6 Funciones montonas y convexas de operadores o 6.1 Clculo funcional . . . . . . . . . . . . . . . . . . a 6.1.1 Continuidad del clculo funcional . . . . . a 6.1.2 Diferenciabilidad del clculo funcional . . a 6.2 Funciones montonas de operadores . . . . . . . . o 6.3 Funciones convexas de operadores . . . . . . . . . 6.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . 7 Productos tensoriales y alternados 7.1 Producto tensorial de a dos . . . . . . . . . . 7.2 Potencias tensoriales . . . . . . . . . . . . . . 7.3 Productos alternados y determinantes . . . . . 7.4 Propiedades utiles de los productos alternados 7.5 Ejercicios . . . . . . . . . . . . . . . . . . . . 8 Producto de Hadamard 8.1 Propiedades bsicas . . . . . . . . . . . . a 8.2 La norma de un multiplicador Hadamard 8.3 Funcionales positivas . . . . . . . . . . . 8.4 Matrices incompletas . . . . . . . . . . . 8.5 El teorema de Haagerup . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
INDICE GENERAL
ix
8.6 8.7
Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 163 163 166 167 168 175 179 180 182 184 187 189 192 194 197 197 198 202 204 207
9 Algunas desigualdades de matrices 9.1 Partes reales . . . . . . . . . . . . . . . . . . . 9.2 Desigualdad de Thompson . . . . . . . . . . . 9.3 Desigualdad aritmtico-geomtrica en matrices e e 9.4 Desigualdades de Young para matrices . . . . 9.5 Desigualdades tipo Hlder para matrices . . . o 9.6 La tcnica alternativa . . . . . . . . . . . . . . e 9.7 Primeras aplicaciones . . . . . . . . . . . . . . 9.8 La exponencial . . . . . . . . . . . . . . . . . 9.9 Desigualdades de Araki y Cordes . . . . . . . 9.10 Desigualades entre exponenciales . . . . . . . 9.11 Desigualdad de Ando-Johnson-Bapat . . . . . 9.12 Medias de operadores positivos . . . . . . . . 9.13 Ejercicios . . . . . . . . . . . . . . . . . . . . 10 Rango y Radio Numricos e 10.1 Deniciones y propiedades bsicas a 10.2 El Teorema de Hausdor Teplitz o 10.3 Caracterizaciones . . . . . . . . . 10.4 Comparacin con NUIs . . . . . o 10.5 Ejercicios . . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
11 Teor de Perron-Frobenius a 209 11.1 Matrices de entradas positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 11.2 Matrices de entradas no negativas . . . . . . . . . . . . . . . . . . . . . . . . . 215 11.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 12 Complementos de Schur y determinantes 12.1 Notaciones y deniciones . . . . . . . . . . 12.2 Identidades asociadas a determinantes . . 12.3 Un poco ms de complementos de Schur . a 12.4 Ejercicios . . . . . . . . . . . . . . . . . . 225 225 229 232 235
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
13 Matrices totalmente positivas 237 13.1 Deniciones y criterios de positividad total . . . . . . . . . . . . . . . . . . . . 237
INDICE GENERAL
Permanencia de la positividad total . . Factorizaciones LU y UL . . . . . . . . Matrices oscilatorias . . . . . . . . . . Variacin de signos . . . . . . . . . . . o Totalmente Perron-Frobenius . . . . . Algunos ejemplos . . . . . . . . . . . . Apndice: La prueba del criterio clave e Ejercicios . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
242 246 250 253 260 267 271 276 278 281 284
1.1.1. Para empezar, enumeraremos las notaciones y convenciones ms bsicas, sobre vectores a a y matrices, que usaremos a lo largo de todo el texto: 1. Usaremos a C o R como cuerpo de escalares. 2. Llamaremos R+ al conjunto de nmeros reales no negativos, y R al conjunto de nmeros u u + reales positivos. 3. Dado n N, usaremos el s mbolo In para denotar al conjunto {1, 2, . . . , n} N. 4. Llamaremos Mn,m (C) = Cnm , al espacio de matrices rectangulares de n m. 5. Cuando n = m, notaremos Mn (C) = Mn = Mn,n (C), a las matrices cuadradas de nn sobre C. 6. Para matrices reales escribiremos Mn,m (R) = Rnm y Mn (R) = Mn,n (R). 7. Para denotar las entradas de una matriz A Mn,m (C), usaremos indistintamente, por conveniencia del contexto, las notaciones A = (Aij ) iIn o A = (aij ) iIn .
jIm jIm
8. Dada A Mn,m (C), denotaremos por AT Mm,n (C) a su matriz traspuesta, dada por AT = Aji , para i In y j Im . ij 9. Dado n N, denotaremos por I Mn (C), o bien In , si es que hace falta aclarar su tamao, a la matriz identidad, dada por Iij = 1 si i = j e Iij = 0 si i = j. n 10. La suma y producto de matrices (cuando sus tamaos lo permitan) se hacen con las n deniciones usuales del lgebra lineal. Por ejemplo, si A Mn,m (C) y B Mm,r (C), a entonces AB Mn,r (C) y sus entradas son
m
(AB)ij =
k=1
Aik Bkj ,
(1.1)
1.1 Generalidades
11. Dada A Mn (C), diremos que A es inversible si existe A1 Mn (C), la unica matriz 1 1 que cumple que AA = A A = I. Denotaremos por Gl (n) = {A Mn (C) : A es inversible } , que es un grupo (de Lie) con la multiplicacin usual de matrices. Su neutro es In . o 12. Asumiremos como conocidas las propiedades del determinante, que denotaremos det : Mn (A) A, para cualquier n N y cualquier anillo conmutativo A. En el Cap tulo 7 sobre productos tensoriales, se darn deniciones precisas, y se demostrarn la mayor a a a de dichas propiedades. En el Cap tulo 12 se profundizar ese estudio. Sin embargo, a usaremos desde ahora esas propiedades, ad referendum de sus pruebas (esperemos que no haya c rculos muy viciosos). 13. Dada A Mn (C), consideremos la matriz xIn A Mn (C[x]). El polinomio caracter stico de A est dado por la frmula PA (x) = det(xI A) C[x]. Es un polinomio a o mnico de grado n. o
n
de que, si B Mn (C), entonces tr AB = tr BA. 15. Sea A Mn,m (C). Las columnas de A se pueden pensar como vectores de Cn , y sus las, como vectores de Cm . Se usar la notacin Ci (A) Cn (respectivamente Fi (A) Cm ) a o para denotar a la i-sima columna (resp. la) de A. e 16. Los vectores de Cn sern pensados como vectores columna, es decir que identicamos a n n1 C con C . Sin embargo, a lo largo del texto los describiremos como una la (estilo x = (x1 , . . . , xn ) Cn ), para ahorrar espacio. Por ejemplo, si A Mn (C) e i In , entonces Ci (A) = (a1i , a2i , . . . , ani ) Cn . 17. Si a = (a1 , . . . , an ) Cn , denotaremos por diag (a) a1 . diag (a) = diag (a1 , . . . , an ) = . . 0 a la matriz diagonal 0 0 . .. . . Mn (C) . . 0 an
Por ejemplo, si tomamos 1 = (1, . . . , 1) Cn , entonces diag (e) = In . 18. Por otra parte, si A Mn (C), llamaremos d(A) Cn al la diagonal de A pensada como vector, i.e. d(A) = (A11 , . . . , Ann ). 1.1.2 (Matrices y operadores). Enumeraremos a continuacin las propiedades de las matrices o cuando son vistas como transformaciones lineales: 1. Dados dos C-espacios vectoriales V y W, llamaremos L(V, W) al C-espacio vectorial de transformaciones lineales T : V W. Si V = W, ponemos L(V) = L(V, V).
1.1 Generalidades
2. Dado un C-espacio vectorial V y un conjunto X V, denotaremos por Gen {X} al subespacio de V generado por X. Si X = {x1 , . . . , xm }, escribiremos tambin e Gen {X} = Gen {x1 , . . . , xm }. 3. Si A Mn,m (C), la pensaremos tambin como un elemento de L(Cm , Cn ) actuando por e m multiplicacin: si x C = Mm,1 (C), entonces A(x) = A x Cn , usando el producto o de la Eq. (1.1). En este contexto usaremos las notaciones conocidas: ker A = {x Cm : Ax = 0} y R(A) = A(Cm ) = Im(A) .
4. Se denotar por E = {e1 , . . . , em } a la base cannica de Cm . A veces seremos ms a o a (m) (m) expl citos, poniendo Em = {e1 , . . . , em }, para aclarar el contexto. 5. Si A Mn,m (C), entonces se tiene que Aei
(m)
= Ci (A) Cn ,
para todo
i Im .
Por lo tanto, tenemos que R(A) = Gen {C1 (A), . . . , Cm (A) }. 6. Por el teorema de la dimensin, si A Mn (C) o L(Cn ), entonces
A Gl (n) ker A = {0} R(A) = Cn . 7. El rango de A Mn,m (C) es rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }. Ms a adelante, en la Observacin 3.7.4 (ver tambin el Ejercicio 1.1.15), veremos que coincide o e con el rango la de A, que es la dim Gen {F1 (A), . . . , Fn (A) }. 8. Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales ms a generales. Por ejemplo, si S Cn es un subespacio y A Mn (C) verica que A(S) S, entonces se puede pensar a A (o su restriccin a S) como un operador en S. En tal caso o diremos que pensamos a A|S L(S).
x, y =
k=1
xk yk ,
x, y Cn .
(1.2)
Es claro que , : Cn Cn C verica las propiedades que denen a un tal producto: Dados v, v, w Cn y C, entonces 1. v, v 0 y v, v = 0 si y slo si v = 0. o 2. u, v = v, u .
1.1 Generalidades
x = x
= x, x
1/2
=
k=1
|xk |
A x se lo llama unitario, si x = 1. Muchas veces consideraremos otras normas de vectores y matrices. Por ello damos una denicin general: o Denicin 1.1.4. Sea K = C o R y V un K-espacio vectorial. Una norma en V es una o funcin N : V R que verica las siguientes condiciones: Dados u, v V y K, o 1. N (v) 0 y, adems, N (v) = 0 si y slo si v = 0. a o 2. N (u + v) N (u) + N (v). 3. N (v) = || N (v). Denicin 1.1.5. Sean V un K-espacio vectorial, con K = C o R, y N una norma en V. o 1. Cuando N proviene de un producto interno , , diremos que el par (V, N ) , o bien (V, , ) es un K-espacio de Hilbert . Cuando K = C, tambin diremos que V es un espacio de Hilbert a secas. Ojo, ac se e a asume que dim V < . Sin hay que pedir que V sea completo. o 2. Usualmente usaremos letras H o K para tales espacios y notaremos por L(H, K) al espacio de operadores lineales de H en K (acotados, si dim H = ). 3. Si H = K, escribimos L(H) en lugar de L(H, H). 4. Si A L(H, K) notaremos por ker A a su ncleo y R(A) a su imagen. u Denicin 1.1.6. Sea H un espacio de Hilbert. o 1. Dados x, y H, decimos que son ortogonales, y escribimos x y si x, y = 0. 2. Sea X H. Denotaremos por X = {y H : y x para todo x X}, al subespacio ortogonal a X. 3. Los vectores x1 , . . . , xk H forman un conjunto ortogonal cuando xi , xj = 0, para todo i = j. 4. Si adems los vectores estn normalizados, es decir xi a a el conjunto se dice ortonormal.
2
= xi , xi = 1 (i Ik ), entonces
1.1 Generalidades
5. Usaremos las siglas BON para denotar a una base ortonormal de H. Por ejemplo, la base cannica En es una BON de Cn con el producto interno de la Eq. (1.2). o Denicin 1.1.7. Sean H y K espacios de Hilbert y sea A L(H, K). Se llama adjunto de o A al unico operador A L(K, H) que satisface Ax, z
K
= x, A z
x H, z K.
(1.3)
La demostracin de que A existe es un resultado bsico de la teor de espacios de Hilbert. o a a En el caso nitodimensional, se puede construir a A usando BONes, como veremos. 1.1.8 (Propiedades de la adjunta). Sean A, B L(H). Usando la Eq. (1.3) (y la unicidad) se verican fcilmente las siguientes propiedades: a 1. Supongamos que dim H = n. Si para cualquier BON ja B = {v1 , . . . , vn } de H, se identica a los operadores de L(H) con matrices en Mn (C) v a Aij = Avj , vi , i, j In ,
entonces la matriz de A es AT , la traspuesta conjugada de la matriz de A. En otras palabras, A = Aji , para todo par i, j In . ij 2. (A ) = A. 3. Dado C, se tiene que (A + B) = A + B . 4. ker A = R(A ) y, si dim H < , tambin R(A) = (ker A ) . e 5. (AB) = B A e I = I. 6. A es inversible si y slo si A es inversible. En tal caso, (A )1 = (A1 ) . o Denicin 1.1.9. Dado A L(H) un operador en un espacio de Hilbert, decimos que A es: o 1. Hermitiano si A = A . 2. anti-Hermitiano si A = A . 3. unitario si AA = A A = I. 4. normal si AA = A A. 5. denido positivo si Ax, x > 0 para todo x H. En tal caso de escribe A > 0. 6. semidenido positivo si Ax, x 0 para todo x H. En tal caso de escribe A 0. Los mismos nombres tendrn las matrices de Mn (C), al ser pensadas como operadores en a n H = C con el producto escalar y la norma usuales. En este contexto recordar que, si A Mn (C), entonces A = AT . Adems usaremos las siguientes notaciones: a
1.1 Generalidades
1. H(n) = {A Mn (C) : A = A }. 2. U(n) = {U Mn (C) : U es unitaria }. 3. N (n) = {N Mn (C) : N es normal }. 4. Mn (C)+ = {A Mn (C) : A 0}. 5. Gl (n) = {A Mn (C) : A es invertible } y Gl (n)+ = Gl (n) Mn (C)+ . Lema 1.1.10 (Polarizacin). Sea H un C-espacio de Hilbert y sea A L(H). Entonces o 1 Ax, y = 4
4
ik
k=1
A (x + i k y), (x + i k y)
(1.4)
Demostracin. La cuenta es directa, y se deja como ejercicio. o Proposicin 1.1.11. Sea H es un C-espacio de Hilbert y sea A L(H). Luego, las siguientes o condiciones son equivalentes: 1. A = 0. 2. Ax, y = 0 para todo par x, y Cn . 3. Az, z = 0 para todo z Cn . Demostracin. Es claro que 1 2 3. La implicacin 3 2 es consecuencia directa de o o la frmula de polarizacin (1.4). Si asumimos 2 y, para cualquier x H, tomamos y = Ax, o o 2 obtenemos que Ax = Ax, Ax = Ax, y = 0, por lo que A = 0. Observacin 1.1.12. Es importante sealar que el o n tem 3 no implica a los otros en el caso de que H sea slo un R-espacio de Hilbert. Observar que no puede valer la polarizacin. o o 0 1 Peor an, tomando como A = u L(R2 ) (una rotacin de 90 grados), es claro que o 1 0 Ax, x = 0 para todo x R2 . Veamos ahora una aplicacin a matrices: o Corolario 1.1.13. Sea A Mn (C). Entonces 1. A H(n) si y slo si Az, z R para todo z Cn . o 2. Mn (C)+ H(n). Demostracin. Si A H(n) y z Cn , entonces Az, z = z, Az = Az, z . Si suponemos o que Az, z R para todo z Cn , entonces Az, z = Az, z = z, Az = A z, z , z Cn = (A A ) z, z = 0 , z Cn .
Por la Proposicin 1.1.11, deducimos que A = A . Por la denicin de Mn (C)+ , si se tiene o o + n que A Mn (C) , entonces Az, z R+ R para todo z C .
1.2 El espectro
En particular, tr(A A) =
=
i,j=1
|aij |2 .
ker A = Gen {F1 (A), . . . , Fn (A) } Cn . Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos la y columna de A coinciden.
1.2
El espectro
Denicin 1.2.1. Se llama espectro de una matriz A Mn (C) al conjunto de todos los o autovalores de A: (A) = { C : es autovalor de A} = { C : ker(A I) = {0} }, que es un subconjunto nito y no vac de C. o 1.2.2 (Propiedades del espectro de matrices). Sea A Mn (C). Valen: 1. (A) si y slo si existe x Cn tal que x = 0 y Ax = x. o 2. Si C, entonces (A + I) = (A) + = { + : (A)}. 3. A Gl (n) si y slo si 0 (A). Ms an, (A) si y slo si A I Gl (n). o / a u / o 4. Sea PA (x) C[x] el polinomio caracter stico de A. Luego (A) si y slo si o PA () = 0, o sea que (A) es el conjunto de ra de PA (x). ces 5. Como gr(PA ) = n, se tiene que 0 < |(A)| n. 6. (A ) = (A). En efecto, usando 1.1.8, tenemos que A I Gl (n) (A I) = A I Gl (n) . / / 7. Si A Gl (n), entonces (A1 ) = (A)1 = {1 : (A)}. En efecto, es consecuencia de la igualdad ker(A I) = ker(A1 1 I) (Ejercicio: probarla). Observacin 1.2.3. Vimos que los autovalores de A Mn (C) son las ra o ces del polinomio caracter stico PA (x) = det(xI A) y que gr(PA ) = n. Pero PA puede tener ra mltiples, ces u por lo que (A) puede tener menos de n elementos (en tanto conjunto, sus elementos slo o pueden contarse de a uno). Muchas veces es necesario usar a cada (A) tantas veces
1.2 El espectro
como multiplicidad tiene como ra del caracter z stico. Para hacer eso, factorizamos en C[x] a
n n
PA (x) =
i=1
(x i ) =
i=1
donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene como ra de PA , y disponindolos en algn orden de C jado previamente (por ejemplo, el lexz e u icogrco en las coordenadas polares, con el cero al nal). Por eso quedan n. Al vector a (A) Cn se lo llama vector de autovalores de A. Observacin 1.2.4. Sean A, B Mn (C) y S Gl (n) tales que B = SAS 1 . Luego B diere o de A en un cambio de base. Se suele decir que A y B son similares y se nota A B. Por las propiedades del determinante, se tiene que PB (x) = det(xI SAS 1 ) = det S(xI A)S 1 = det(xI A) = PA (x) , por lo que (A) = (B) y tambin (A) = (B). e Denicin 1.2.5. Sea A Mn (C). o 1. El radio numrico de A se dene como e w(A) = mx{ | Ax, x | : x Cn , x = 1 } . a 2. El radio espectral de A se dene como (A) = mx{ || : (A)} . a 3. La norma espectral de A es su norma como operador, inducida por la norma eucl dea de Cn . Es decir, A
sp
= mx{ Ax : x Cn , x = 1} = m a n{C 0 : Ax C x , x Cn } .
4. La norma 2 o norma Frobenius de A es su norma eucl dea, si la pensamos como un vector largo. Por el Ejercicio 1.1.14, tenemos que
n
2
2
=
i,j=1
|aij |2 = tr(A A) .
(1.5)
Observar que, analizando los autovectores (unitarios) de A, se muestra fcilmente que a (A) w(A) A Tomando la matriz A =
sp
(1.6)
0 1 , se ve que las desiguadades pueden ser estrictas. En efecto, 0 0 (A) = 0 , w(A) = 1/2 y A
sp
=1.
Ejercicio: vericarlo.
1.3
Matrices unitarias
Recordemos que U Mn (C) es unitaria si U U = U U = I, y que U(n) denota al conjunto de matrices unitarias en Mn (C). Teorema 1.3.1. Si U Mn (C), las siguientes armaciones son equivalentes: 1. U U(n). 2. U U(n). 3. U Gl (n) y U 1 = U . 4. U preserva el producto escalar, o sea que U x, U y = x, y , para todo par x, y Cn .
5. Si B es una BON de Cn , entonces U (B) tambn lo es. e 6. Las columnas de U forman una BON de Cn . 7. Las las de U forman una BON de Cn . 8. Para todo x Cn , se tiene que U x = x (o sea que U es una isometr a). Adems, U(n) es un grupo con la multiplicacin de matrices. a o Demostracin. Ejercicio. Se sugiere usar el Ejercicio 1.1.14 y, para probar que 8 implica todo o lo dems, usar la Proposicin 1.1.11. a o Denicin 1.3.2. Dadas A, B Mn (C), se dice que A es unitariamente equivalente a B y o se nota A B si existe U U(n) tal que A = U BU . = Observar que, como U(n) es un grupo, se tiene que es una relacin de equivalencia. o = Teorema 1.3.3. Sean A y B Mn (C) tales que A B. Entonces = (A) = (B) , donde A
2
= B
sp
= B
sp
A es
si y slo si B es o
Demostracin. La primera igualdad se sigue de la Observacin 1.2.4. Sea U U(n) tal que o o B = U AU . Entonces, por la Eq. (1.5), B
2
2
2
2
donde la penltima igualdad se deduce del hecho de que tr(XY ) = tr(Y X) para todo par u X, Y Mn (C). Con respecto a las normas espectrales, B
sp
= mx U A(U x) = mx Ay = A a a
x =1 y =1
sp
ya que U {x Cn : x = 1} = {y Cn : y = 1}, porque U y U son isometr as sobreyectivas. Las armaciones sobre se prueban directamente de las deniciones, porque B = (U AU ) = U A U , con la misma U U(n).
1.4
Matrices triangulares
Denicin 1.4.1. Sea T Mn (C). Diremos que o 1. T es triangular superior (abreviamos TS) si verica que Tij = 0 para i > j. Es decir que T tiene ceros por debajo de su diagonal. 2. T es estrictamente TS si Tij = 0 para i j. Ac tambin d(T ) = 0. a e 3. Anlogamente se denen las matrices triangulares inferiores y estrictamente triangulares a inferiores. 4. Denotaremos por T S(n) = { T Mn (C) : T es triangular superior }. 1.4.2 (Propiedades de las matrices triangulares). Tenemos las siguientes propiedades (enumeraremos los resultados, y las pruebas no escritas quedarn como ejercicio para el lector): a 1. Sea E = {e1 , . . . , en } la base cannica de Cn . Notemos Hk = Gen {e1 , . . . , ek }, para o cada k In , y H0 = {0}. Dada T Mn (C) se tiene que T T S(n) T (Hk ) Hk , para todo k In , (1.7)
y T es estrictamente TS T (Hk ) Hk1 , para todo k In . 2. Usando la Eq. (1.7) sale fcil que T S(n) es un subanillo de Mn (C). Es decir que a T1 , T2 T S(n) = T1 + T2 y T1 T2 T S(n) . (1.8)
Tambin son subanillos los otros conjuntos de matrices triangulares, pero las estrictae mente triangulares no tienen uno. 3. Adems, dadas S, T T S(n), se tiene que a d (ST ) = d (S) d (T ) := (S11 T11 , . . . , Snn Tnn ) . Esto se muestra directamente calculando (ST )ii por la frmula (1.1). o 4. Si T Mn (C) es estrictamente triangular, entonces T n = 0. 5. Si T T S(n), entonces su polinomio caracter stico cumple que
n
(1.9)
(1.10)
Lo mismo pasa para su transpuesta T T , que es una trianagular inferior genrica. La e prueba es por induccin, desarrollando el determinante por la primera columna. o
n n
6. Si T T S(n), entonces tr T =
i=1
Tii y det T =
i=1
10
En efecto, por la Eq. (1.7) y el hecho de que T Gl (n), sabemos que T (Hk ) = Hk = T 1 (Hk ) = Hk , para todo k In = T 1 T S(n) . La igualdad d (T 1 ) = d (T )1 se deduce ahora de la Eq. (1.9).
1.5
En esta seccin veremos varias estrategias para operar con matrices: o 1.5.1. Sean A Mn, m (C) y B Mm,r (C). Enumeraremos los resultados, y las pruebas no escritas quedarn como ejercicio para el lector. a 1. La entrada (AB)ij es el producto de la Fi (A) M1, m (C) , por la Cj (B) Mm,1 (C). 2. Si x = (x1 , . . . , xm ) Cm , entonces Ax = A
m m
xi ei
i=1
=
i=1
xi Ci (A).
3. El producto AB Mn, r (C) representa la composicin A B : Cr Cn , cuando se las o piensa como operadores. Sus columnas se describen por la accin de A en las columnas o de B: Ci (AB) = A Ci (B) Cn , para todo i Ir . (1.12) Esto se puede probar directamente por la frmula (1.1) del producto, o bien observando o (r) (r) que Ci (AB) = (AB)ei = A ( Bei ) = A Ci (B), lo que se sigue de pensar a AB como una composicin. o 4. Anlogamente puede verse que a Fi (AB) = Fi (A) B Cr , para todo i In . (1.13)
5. Si alguna Ci (B) = 0, entonces Ci (AB) = 0 (con el mismo i). Anlogamente, si se tiene a que Fi (A) = 0, entonces Fi (AB) = 0. Esto se usa para identicar los ideales (a izq. y der.) del anillo Mn (C), cuando n = m. 6. Fijemos una columna Ci (A). Alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar la
m
Asi Bit ).
7. Por lo tanto, si Fi (B) = 0, entonces podemos cambiar la Ci (A) sin que ello afecte al producto AB. Anlogamente, si Ci (A) = 0, se puede cambiar impunemente Fi (B) . a 8. Sean Cn y Cm . Si D1 = diag () Mn (C) y D2 = diag () Mm (C), entonces D1 A = i aij
iIn jIm
AD2 = aij j
iIn jIm
D1 AD2 = i j aij
iIn jIm
(1.14)
11
Bloques
1.5.2. Sea k In , tal que 0 < k < n y llamemos I = Ik y J = In \ Ik = {k + 1, . . . , n}. Dada A Mn (C) notaremos su representacin en bloques como sigue: o A= AI AIJ AJI AJ Ck , Cnk donde AIJ = (Arl )rI Mk, nk (C) ,
lJ
y en forma similar se denen AI Mk (C), AJI Mnk, k (C) y AJ Mnk (C). Ms adelante a (en la seccin 2.4 y, sobre todo en los Cap o tulos 12 y 13) se usar una notacin ms detallada, a o a tipo AIJ = A[I|J] = A[I|I) y as Para jar ideas observemos que, por ejemplo, . A T S(n) AI T S(k) , AJ T S(n k) y AJI = 0. (1.15)
Es extremadamente util el hecho de que esta notacin es consistente con las operaciones de o matrices. Por ejemplo: Si B Mn (C): 1. A + B = 2. A = AI + BI AIJ + BIJ AJI + BJI AJ + BJ Ck , Cnk
A A I JI A A IJ J
A = A AI H(k) , AJ H(n k) 3. La ms importante es la frmula del producto: a o AB = AI BI + AIJ BJI AI BIJ + AIJ BJ AJI BI + AJ BJI AJI BIJ + AJ BJ
Ck , Cnk
(1.16)
que reproduce la frmula del producto de matrices en M2 (C). Observar que los tamaos o n de todos los productos que aparecen son los adecuados al bloque donde viven. La prueba de esta frmula es straightforward. Hay que usar la frmula (1.1) para (AB)ij , o o dividiendo cada suma en sus primeros k sumandos, y en los otros n k. 4. Por ejemplo, cualquiera sea C Mk, nk (C), se tiene que A= Ik C 0 Ink Gl (n) y, adems , a A1 =
1
Ik C 0 Ink =
Gl (n) .
(1.17)
Ik 0 X Ink
Ik 0 X Ink
5. Otra aplicacin: Si U U(k) y V U(n k), entonces o W = U 0 0 V U(n) y W AW = U AI U U AIJ V V AJI U V AJ V . (1.18)
12
6. Si uno parte a In en r mitades (con r 3), para cada A Mn (C) se pueden denir sus r r bloques relativos a esa particin. Y valen propiedades anlogas a las del caso o a 2 2. En particular, vale algo similar a la frmula (1.16), pero imitando el producto en o Mr (C). Observacin 1.5.3. Sea S Cn un subespaceio con dim S = k. Todo lo que se hizo o recin se puede generalizar exactamente igual a una representacin de Mn (C) en matrices e o de 2 2 de bloques, pero teniendo en cuenta la descomposicin Cn = S S . El caso o anterior corresponder a tomar S = Gen {e1 , . . . , ek }. La manera ms econmica de verlo a a o n es tomar una BON {v1 , . . . , vn } = B de C tal que S = Gen {v1 , . . . , vk } (por lo que S = Gen {vk+1 , . . . , vn } ). Tomando coordenadas de las matrices en la base B, el laburo anterior se extrapola a cualquier descomposicin. Pedimos que B sea una BON y no una base cuaquiera o (que empiece por una base de S) para que valgan las frmulas relativas a A , en particular o (1.18). Las dems valen tomando coordenadas en cualquer base de aquel tipo. La notacin a o que usaremos para estas representaciones es A= AS AS ,
S
AS, S AS
S . S
I 0 S . Adems, a 0 0 S AS = PS APS = PS A S , o sea pensado en L(S) (sin los tres ceros). Al operador AS L(S) se lo llama la compresin de A a S. Su matriz concreta (de k k) depende de la BON B o elegida, pero en tanto operador en L(S), nuestro AS slo depende del subsepacio S. Frmulas o o semejantes se tienen para los otros tres bloques de A.
Proposicin 1.5.4. Sea n 2, A Mn (C) y S Cn un subespacio propio. Si o A= B C 0 D S S = det A = det B det D y PA (x) = PC (x)PD (x) . (1.19)
Por lo tanto (A) = (B) , (D) . Una frmula similar vale si A es triangular inferior de o bloques (para S). Demostracin. Eligiendo bases de S y S , y usando que la similaridad no cambia ni el det ni el o caracter stico, podemos asumir que S = Gen {e1 , . . . , ek }, donde k = dim S. Ms an, ya que a u elegimos una BON cualquiera de S, podemos suponer su primer elemento era un autovector x1 S de B para cierto (B). Observar que entonces tambin se tiene que Ax1 = x1 . e Al tomar matrices, queda que A= 0 A1 y B= 0 B1 con A1 = B1 C1 0 D Mn1 (C) .
Ojo que si k era uno, queda que A1 = D y que B = [] (en ese caso , B1 y C1 no existen). Si k > 1, desarrollando por la primer comumna, queda que det A = det A1 , det B = det B1 , PA (x) = (x ) PA1 (x) y PB (x) = (x ) PB1 (x) .
13
x , y lo mismo para B. Haciendo 0 xIn1 A1 ahora induccin en n 2 (o en k, va por gustos), estamos hechos. Otra manera de probarlo o es v la denicin con permutaciones de Sn , porque las permutaciones que no pasan por el a o bloque nulo de abajo, son todas las del tipo Sk Snk . Este camino queda como ejercicio. Las dos ultimas salen porque xIn A = Como ejemplo del uso de estas tcnicas, mostraremos a continuacin la relacin que hay entre e o o el espectro del producto de dos matrices, en sus dos rdenes posibles. Se suguiere tratar de o probar el siguiente enunciado directamente, para ver cuanto ms fcil puede hacerse con la a a tcnica de bloques, y la primera aparicin del famoso truco de 2 2. e o Proposicin 1.5.5. Dadas A, B Mn (C), entonces (AB) = (BA). Ms an, AB y BA o a u tienen el mismo polinomio caracterstico, por lo que (AB) = (BA) Cn . Demostracin. Por la Eq. (1.17), sabemos que la matriz o M= I A 0 I Gl (2n) , y que M 1 = I A 0 I .
Usando la Proposicin 1.5.4, podemos deducir que PAB = PBA , porque si se tienen dos o polinomios P, Q C[x] que cumplen xn P (x) = xn Q(x), entonces P = Q. Observacin 1.5.6. Sean A Mn,m (C) y B Mm,n (C) con m > n. Con casi la misma o prueba que la Proposicin 1.5.5 puede mostrarse que (BA) = (AB) {0}, puesto que sus o polinomios caracter sticos cumplen PBA (x) = xmn PAB (x).
1.6
El siguiente resultado, el primero de los varios debidos a Schur que enunciaremos, es sumamente util, y ser usado sistemticamente en todo este trabajo. a a Teorema 1.6.1 (Schur 1). Sea A Mn (C) con vector de autovalores (A) = (1 , ... , n ), dispuestos en cualquier orden prejado. Entonces 1. Existen matrices U U(n) y T T S(n) que verican: a. A = U T U .
14
b. d (T ) = (A), i.e. Tii = i , para todo i In . 2. Si A Mn (R), el teorema sigue valiendo (con U Mn (R)) siempre que (A) R. 3. Si B Mn (C) conmuta con A, existen U U(n), y T1 , T2 T S(n) tales que A = U T1 U , B = U T2 U (con la misma U ) y d (T1 ) = (A) .
La d (T2 ) tendr a los autovalores de B, pero en un orden que no podremos elegir. a Demostracin. La prueba la realizaremos por induccin sobre la dimensin n. Si n = 1, el o o o resultado es trivial. Si n > 1, tomemos x1 ker(A 1 I) con x1 = 1. Completamos a una BON de Cn con vectores x2 , . . . , xn , y los ponemos en las columnas de una matriz U1 . Por a el Teorema 1.3.1, U1 U(n). Como U1 (e1 ) = x1 y U1 (x1 ) = e1 , es fcil ver que
C1 (U1 AU1 ) = U1 AU1 e1 = 1 e1
U1 AU1 =
1 0 A2
C , Cn1
donde A2 Mn1 (C). Por la Observacin 1.2.4, sus polinomios caractr o sticos cumplen
PA (x) = PU1 AU1 (x) = (x 1 )PA2 (x) = (A2 ) = (2 , . . . , n ) Cn1 .
Por HI, existen V U(n 1) y T2 T S(n 1) tales que V A2 V = T2 y d(T2 ) = (A2 ). 1 0 Podemos extender V a otra matriz U2 = U(n). Sea U = U1 U2 . Entonces, usando 0 V las ecuaciones (1.18) y (1.15) sobre productos de matrices de bloques, nos queda que
U AU = U2 (U1 A U1 ) U2 =
1 0 0 V
1 0 A2 =
1 0 0 V 1 0 T2 = T T S(n) ,
1 0 V A2 V
y se tiene que d(T ) = (1 , d(T2 ) ) = (1 , (A2 ) ) = (A). El caso real sale igual. Notar que se puede elegir x1 Rn siempre que 1 R. El caso de dos matrices que conmutan, se deduce de que ker(A 1 I) es invariante para B (cuenta fcil, a ya que conmutan), por lo que el vector x1 se puede elegir como un autovector de B actuando en ker(A 1 I) (no se sabe cuales de los autovalores de B en Cn pueden elegirse ah El resto ). de la prueba sigue igual, usando que las matrices achicadas A2 y B2 siguen conmutando. Corolario 1.6.2. Sea A Mn (C) con vector de autovalores (A) = (1 , . . . , n ). Entonces
n n
tr A =
i=1
det A =
i=1
i .
Demostracin. Por el Teorema 1.6.1 sabemos que podemos escribir A = U T U , donde se tiene o que U U(n), T T S(n) y d(T ) = (A). Luego tr A = tr T y det A = det T .
15
Corolario 1.6.3. Sea U U(n). Entonces | det U | = 1. Demostracin. Basta notar que (U ) {z C : |z | = 1}, dado que U es una isometr o a. Observacin 1.6.4. Sean A, B Mn (C). En general, no se tiene la menor idea de qu o e pueden ser los espectros (A + B) y (AB). Sin embargo, cuando A y B conmutan, el Teorema 1 de Schur nos da alguna informacin al respecto. El siguiente resultado vale tambin o e el lgebras de Banach de dimensin innita, pero con una prueba mucho ms sosticada. a o a Corolario 1.6.5. Sean A, B Mn (C), tales que AB = BA. Entonces 1. (A + B) (A) + (B) = { + : (A) y (B)}. 2. (AB) (A) (B) = { : (A) y (B)}. Ms an, existen ciertas ordenaciones de los vectores de autovalores (A) y (B) tales que a u (operando en esos rdenes), (A + B) = (A) + (B) y o (AB) = (A) (B) = (1 (A)1 (B), . . . , n (A)n (B) ) . (1.20)
Demostracin. Probaremos solamente la igualdad (1.20). Las cuentas para (A + B) son o iguales (y ms fciles). Por el Teorema 1 de Schur 1.6.1, existen U U(n), y T1 , T2 T S(n) a a tales que A = U T1 U , B = U T2 U , d (T1 ) = (A) y d (T2 ) = (B), aunque los rdenes en o que aparecen (A) y (B) no lo sabemos. Pero en esos rdenes, tenemos que o T1 T2 T S(n) = (T1 T2 ) = d (T1 T2 ) = d (T1 ) d (T2 ) = (A) (B) , por las frmulas (1.8), (1.10) y (1.9). Pero AB = (U T1 U )(U T2 U ) = U (T1 T2 )U . Luego, o por el Teorema 1.3.3, y en el orden que hab (T1 T2 ) = (AB). a, Corolario 1.6.6. Sea A Mn (C) con vector de autovalores (A) = (1 , . . . , n ). Entonces (A ) = (A) = (1 , . . . , n ) . Esto generaliza la igualdad (A ) = (A) ya vista. Demostracin. Sean U U(n) y T T S(n), con d (T ) = (A), tales que A = U T U . Luego o A = U T U , por lo que (A ) = (T ). Pero T es triangular inferior, as que tambin se e tiene que (T ) = d (T ) = d (T ) = (A).
1.7
Polinomios y matrices
m
en A de la siguiente manera:
m
P (A) =
k=0
bk Ak Mn (C) ,
dado que las potencias (enteras) Ak se denen con el producto de matrices, y viven en Mn (C). Adems, se tiene las siguientes propiedades: a
16
1. Como las potencias de A conmutan entre s se deduce fcilmente que la aplicacin , a o EA : C[x] Mn (C) dada por P P (A) (o sea la evaluacin en A) es un morsmo de o anillos. Por lo tanto, si se tiene una factorizacin P = QR, con Q, R C[x], entonces o P (A) = Q(A)R(A), ahora con el producto de matrices. 2. Si S Gl (n), entonces (SAS 1 )k = SAk S 1 , para todo k N. Luego, es fcil ver que a P (SAS 1 ) = S P (A) S 1 , para todo P C[x] . (1.21)
2 2 3. Si T T S(n), hemos visto que T 2 T S(n) y que d (T 2 ) = (T11 , . . . , Tnn ) = d (T )2 . Esto se extinede a potencias enteras, por induccin. Por lo tanto, o
(1.22)
Corolario 1.7.2. Sea A Mn (C) con vector de autovalores (A) = (1 , . . . , n ). Entonces, (P (A) ) = P ((A) ) := (P (1 ) , ... , P (n ) ) para todo P C[x] .
En particular, (P (A) ) = P ( (A) ) := P () : (A) . Demostracin. Supongamos que T T S(n). Recordemos de la Eq. (1.10) que d (T ) = (T ). o Por la Eq. (1.22), sabemos que P (T ) T S(n) y d (P (T ) ) = P (d (T ) ). Luego, (P (T ) ) = d(P (T ) ) = P (d (T ) ) = P ((T ) ) , lo que prueba el Corolario en este caso. Si A Mn (C) es cualquier matriz, sean U U(n) y T T S(n) tales que A = U T U y (A) = d(T ) = (T ) . Por la Eq. (1.21), tenemos que P (A) = U P (T )U . Luego, por la Observacin 1.2.4 (que dec o a que cambiar de base no cambia el vector ) y el caso anterior, sabemos que (P (A) ) = (P (T ) ) = P ((T ) ) = P ((A) ) . Se sugiere otra manera de hacerlo, aplicando cuentas de polinomios. Por ejemplo, factorizar el polinomio Q(x) = P (x) , para P ( (A) ) o (P (A) ), y analizar qu pasa con e Q(A). Esta prueba es la que sirve en dimensin innita. Pero tiene el defecto que no da o informacin sobre multiplicidades. o Corolario 1.7.3 (Hamilton-Cayley). Sea A Mn (C). Luego PA (A) es la matriz nula. Demostracin. Por el Teorema 1.6.1, la Eq. (1.21) y la Observacin 1.2.4, sabemos que existen o o U U(n) y T T S(n) tales que U T U = A, PT (x) = PA (x) y PA (A) = U PT (T )U . Luego
(1.10)
1.8 QR
17
basta probar que PT (T ) = 0 para matrices T T S(n). En este caso, por la Eq. (1.10), sabemos que
n n
PT (x) =
i=1
(x Tii ) = PT (T ) =
i=1
(T Tii I) .
Llamemos Ti = (T Tii I) y Hi = Gen {e1 , . . . , ei }, para cada i In . Todas las Ti estan en T S(n), comnutan entre s y cumplen que (Ti )ii = 0. Luego, si H0 = {0}, se tiene que , Ti (Hi ) = Ti Hi1 Gen {ei } = Ti Hi1 + Gen {T ei } Hi1 Si al producto de ellas PT (T ) =
iIn
para todo
i In .
Ti (Hn )
iIn1
O sea que PT (T ) = 0. Observacin 1.7.4. El Teorema de Hamilton Cayley vale para matrices en cualquier cuerpo. o La prueba anterior es simple, pero para generalizarla hace falta subir a una clausura algebrica a (o aun cuerpo de descomposicin de PA (x) ), porque necesita del Teorema 1 de Schur, que o solo vale para cuerpos algebricamente cerrados (se necesitan los i (A) , que son las raices que a factorizan a PA (x) ). A nadie se le ocurra postular la siguiente prueba general: PA (A) = det(A I A) = det 0 = 0, porque es desastrosamente errnea. En palabras del maestro Enzo Gentile, es peor que o pegarle una patada a una vieja en la cara (sic).
1.8
QR
Otra aplicacin importante de las matrices triangulares es el denominado mtodo QR. o e 1.8.1. Repaso: Recordemos lo visto en los tems 6 y 7 de 1.5.1. Sea A Mn (C) y jemos una columna Ci (A). Observar que alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar que
m
(AB)st =
i=1
Ci (A) sin que ello afecte al producto AB. Anlogamente, si Ci (A) = 0, se puede cambiar a impunemente a Fi (B) . Teorema 1.8.2. Sea A Mn (C). Entonces existen Q U(n) y R T S(n) tales que a. A = QR.
1.8 QR
18
b. Rjj 0, para todo j In . Si A Gl (n), entonces tales Q y R son unicas. Demostracin. Caso A Gl (n): Por el mtodo de Gramm-Schmidt, si notamos xk = Ck (A), o e existe una BON B = {u1 , . . . , un } tal que Gen {x1 , . . . , xk } = Gen {u1 , . . . , uk }, para todo k In . Adems, por la construccin de B por Gramm-Schmidt, a o
j1
xj uj = xj
i=1 i=1 j1
xj , ui ui = xj = xj , ui ui
j1
xj
i=1
xj , ui ui
> 0 . (1.23)
Tomemos Q U(n) con columnas Ci (Q) = ui , i In . Y tomemos R T S(n) dada por R = (rij )i, jIn , donde ponemos rij = 0 cuando i > j. Como se vi en 1.5.1, tenemos que o
n j
Cj (QR) = Q Cj (R) =
i=1
rij Ci (Q) =
i=1
rij ui = xj = Cj (A) ,
para todo j In .
Por lo tanto A = QR. Unicidad: Si hubiera otro par Q , R cumpliendo las hiptesis, llamemos Ci (Q ) = vi para o cada i In . Es fcil ver que Gen {x1 , . . . , xk } = Gen {v1 , . . . , vk }, k In (usar la Eq. (1.7) ). a De ah se deduce que existen constantes ci tales que |ci | = 1 y vi = ci ui para todo i In . Como rii > 0, de la Eq. (1.23) y del hecho de que A = Q R , se deduce que
i i
xi =
s=1
rsi vs =
s=1
para todo i In . Luego Q = Q y, por lo tanto R = Q A = R. Caso general: Si A Gl (n), el proceso es similar, salvo que, cada vez que aparece un / xk Gen {x1 , . . . , xk1 } , se pone uk = 0 en la Ck (Q), y, en la Eq. (1.23), ponemos rkj = 0 para todo j In , dado que el uk = 0 no aporta para generar a los xj (j k). Luego Fk (R) = 0. As queda que R T S(n), A = QR y rii 0 para todo i In , pero Q U(n). Esto se / arregla de la siguiente mantera: se cambian las Ck (Q) = uk = 0 del proceso anterior por una BON de R(A) = Gen {uj : uj = 0} (observar que la cantidad es la correcta). Como se vi o en el repaso 1.8.1 (o bien en 1.5.1), al multiplicar la Q cambiada por R, cada una de las nuevas Ck (Q) slo opera con la respectiva Fk (R) = 0. Luego sigue pasando que A = QR, pero ahora o Q U(n). Ejercicio 1.8.3. Sea A Mn (C). Usando QR, probar que
n
| det A|
i=1
Ci (A)
(1.24)
y que son iguales si y slo si A A es diagonal (o sea que R lo es). Se sugiere interpretarlo o tambin como un clculo de volmenes. e a u
19
1.9
Recordemos que, si A Mn,m (C), notamos rk(A) = dim R(A). A continuacin daremos una o caracterizacin muy util de las matrices con rango uno. o Denicin 1.9.1. Dados x Cn e y Cm consideremos la matriz o x1 . x y := xy = . [ y1 , . . . , ym ] = (xi yj ) iIn Mn,m (C) . . jIm xn Observar que x x y acta en Cm de la siguiente manera: u y(z) = (xy ) z = x (y z) = z, y x para todo z Cm . y) 1. (1.26)
(1.25)
Por ejemplo, si A Mn,m (C) cumple que su unica columna no nula es Ck (A), entonces se ve (m) fcilmente que A = Ck (A) ek , tanto por la Eq. (1.25) como por la Eq. (1.26). Observar a que todo Mn,m (C) es el span de este tipo de matrices, porque se tiene la igualdad
m n
A=
k=1
Ck (A)
ek
(m)
=
j=1
ej
(n)
Fj (A) ,
(1.27)
La segunda igualdad se sigue de un argumento similar al anterior. Proposicin 1.9.2. o 1. Si A Mn,m (C) tiene rk(A) 1, existen x Cn e y Cm tales que A = x 2. Mn,m (C) = Gen {x Demostracin. o 1. Sea x Cn tal que R(A) = Gen {x}. Luego existe una funcional lineal : Cm C tal que Az = (z) x , para todo z Cm . y : x Cn e y Cm }. y.
Es sabido que existe un unico y Cm tal que (z) = y (z) = z, y , para todo z Cm (basta poner yi = (ei ), para cada i Im ). Luego, por la Eq. (1.26), podemos concluir que A = x y. 2. Se deduce de la Eq (1.27). 1.9.3. Estudiaremos a continuacin las propiedades de las matrices x y. Enumeraremos los o resultados, y las pruebas no escritas quedarn como ejercicio para el lector. Tomemos dos a n m vectores x C e y C . Luego:
1.10 Ejercicios
20
sp
= x
y , ya que y x.
sp
= mx |y (z)| = y . a
z =1
y) = (xy ) = y x = y
y) = A x y = (Ax)
y.
y) B = x
6. El espectro: El unico autovalor de x y que puede ser no nulo es 1 = x, y (adivinen quin es el autovector). Ms an, (x y) = ( x, y , 0, . . . , 0). Para verlo basta tomar e a u la matriz de x y en una base que empiece por x, y usar la Proposicin 1.5.4. o 7. Si x = 1, entonces x x = Px es el proyector ortogonal sobre Gen {x}. En efecto, observar que x x(z) = z, x x, la conocida frmula de dicho proyector (se usa el hecho o de que z z, x x {x} ). 8. En general, si x = 0, el proyector Px = x x x 1 = x x
2
x.
9. Autoadjuntos: Se tiene que A H(n) si y slo si A se descompone como una suma o algebrica (i.e. con 1) de matrices xi xi (elegir los xi entre los autovectores de A y a esperar hasta el Teorema 2.2.1). 10. Positivos: A Mn (C)+ si y slo si A se descompone como una suma de matrices o xi xi (ver Proposicin 3.5.6 de bastante ms adelante). o a
1.10
Ejercicios
i k A (x + i k y), (x + i k y)
k=1
1.10.2. Demostrar los 7 items de 1.4.2 (sobre matrices triangulares). 1.10.3. Demostrar los 8 items de 1.5.1 y los 6 items de 1.5.2 (sobre matrices de bloques). 1.10.4. Demostrar la Proposicin 1.5.4 usando la denicin del determinante con permutao o ciones de Sn . Usar que las permutaciones que no pasan por el bloque nulo de abajo, son todas las del tipo Sk Snk .
1.10 Ejercicios
21
1.10.5. Demostrar los 10 items de 1.9.3 (sobre matrices tipo x 1.10.6. Sean A, Mm,n (C). Entonces se tiene que A A Mn (C)+ y
n
y).
En particular, tr(A A) =
=
i,j=1
|aij |2 .
ker A = Gen {F1 (A), . . . , Fn (A) } Cn . Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos la y columna de A coinciden. 1.10.8. Sea A Mn (C). Usando QR, probar que
n
| det A|
i=1
Ci (A)
y que son iguales si y slo si A A es diagonal (o sea que R lo es). Se sugiere interpretarlo o tambin como un clculo de volmenes. e a u
Ejercicios nuevos
1.10.9. Mostrar que una matriz diagonalizable A satisface una ecuacin polinomial de grado o igual al |(A)|, y no menor. 1.10.10. Usar el Teorema 1 de Schur para probar que si, A Mn (C) tiene vector de autovalores (A) = (1 , . . . , n ), entonces tr Ak =
n
k , para todo k N. i
i=1
1.10.11. Deducir que, si A, B Mn (C) cumplen que tr Ak = tr B k para todo k N, entonces (A) = (B) (si usamos el mismo convenio para ordenarlos). 1.10.12. Dadas A, B Mn (C), notemos C = AB BA. Probar que si C conmuta con A, entonces C es nilpotente. 1.10.13 (Triangulares). Si T T S(n) es inversible, probar que T 1 T S(n) y d T 1 = d (T )1 = (T )1 .
1.10.14. Sea A Mn (C). Demostrar: 1. Para todo > 0, existe una matriz diagonalizable D tal que A D
sp
1.10 Ejercicios
22
2. Para todo > 0 existe una matriz inversible S tal que T = SAS 1 es una matriz triangular superior que satisface
n1
|Tij |2 .
i=1 j>i
Notar que se suman los cuadrados de los mdulos de las entradas que estn estrictamente o a sobre la diagonal, por lo que puede decirse que T esta muy prxima a ser diagonal. o 1.10.15. El objetivo de este ejercicio es probar que las matrices de matrices, comnmente u llamadas matrices de bloques, se comportan del mismo modo que las matrices con entradas escalares. Una matriz de bloques es una matriz A, de n m, tal que sus entradas son matrices: para cada i, j, Aij Mni mj (C). Para que tenga sentido multiplicarlas como matrices de bloques, es decir que valga la frmula o
n
(A B)ij =
k=1
Aik Bkj ,
hay que restringirse a conjuntos de matrices donde las condiciones sobre los tamaos de los n bloques son ms espec a cas. Hallar estas condiciones. Explicitar en el caso m = n = 2. 1.10.16. Considerar la matriz de bloques A= A11 0 0 A22 , , Aii Mni (C)
Mostrar que (A) = (A11 ) (A22 ). Si la matriz es triangular de bloques, es decir A= A11 A12 0 A22 , Aii Mni (C) , i = 1, 2,
qu se puede decir del (A)?. e 1.10.17. Explicar cul es el error en cada una de las siguientes demostraciones (falsas) del a Teorema de Hamilton-Cayley: 1. Como pA () = 0 para cada autovalor de A, y como los autovalores de q(A) son los q() para cualquier polinomio, se sigue que los autovalores de pA (A) son todos nulos; por lo tanto, pA (A) = 0. 2. Como pA (t) = det(tI A), pA (A) = det(AI A) = det(A A) = det 0 = 0. Por lo tanto, pA (A) = 0. 1.10.18. Sea En Mn (C) la matriz cuyas entradas son todas iguales a 1. Hallar los autovalores de E2 y E3 . Generalizar para En .
1.10 Ejercicios
23
1.10.19. Probar que cualquier familia de matrices que conmutan dos a dos tiene un autovector comn a todas, mediante los siguientes pasos: u 1. Probar que si A, B Mn (C) conmutan, entonces tienen un autovector en comn. u 2. Si F = {A1 , . . . , Am } es una familia nita de matrices que conmutan dos a dos, usar induccin para probar que hay un autovector comn para todos. o u 3. Si la familia tiene cardinal no nito, encontrar algn curro para que d. u e 1.10.20. Sean A, B Mn (C), y suponer que una de las dos es no singular. Si AB es diagonalizable, mostrar que BA es diagonalizable. Hallar un contraejemplo si A y B son singulares. 1.10.21. Sean x, y, z, w Cn todos vectores unitarios. Probar que x, y = z, w = existe U U(n) tal que U x = z y Uy = w .
1.10.22. Sea A Mn (C). Una factorizacin A = BC con B, C Mn (C) es llamada o 1. LU -factorizacin si B es triangular inferior y C T S(n). o 2. U L-factorizacin si C es triangular inferior y B T S(n). o Probar que siempre existen tales factorizaciones. 1.10.23. Sean A, B Mn (C). Denamos las transformaciones lineales LA y RB : Mn (C) Mn (C) dadas por LA (X) = AX y RB (X) = XB , X Mn (C) .
1. Probar que (LA ) = (A) y que (RB ) = (B). 2. Probar que (LA RB ) = { : (A) y (B)}. 3. Deducir que las siguientes condiciones son equivalentes: (a) Para todo Y Mn (C), existe un unico X Mn (C) tal que AX XB = Y . (b) (A) (B) = . 1.10.24 (Proceso QR). Sea A Gl (n). Asumiremos que todos los autovalores de A tienen mdulos distintos. Deniremos recursivamente tres sucesiones o {Am }mN en Mn (C) , {Qm }mN en U(n) , y {Rm }mN en T S(n) ,
donde todas las factorizaciones que haremos sern la unica QR del Teorema 1.8.2: a 1. Pongamos A1 = A = Q1 R1 .
1.10 Ejercicios
24
2. Denimos A2 = R1 Q1 y lo factorizamos A2 = Q2 R2 . k. Denido Ak = Rk1 Qk1 , lo factorizamos Ak = Qk Rk , y denimos Ak+1 = Rk Qk . m. As seguimos deniendo y factorizando para todo m N. Probar que estas sucesiones cumplen lo siguiente. (a) A2 = Q AQ1 y A3 = Q A2 Q2 = Q Q A Q1 Q2 . 1 2 2 1
m
(d) Rm T T S(n), y tambin Am = Qm Rm T . e (e) T = U AU , por lo que (T ) = (A). Este proceso es fcil de aplicar, porque hacer QR es barato computacionalmente. Observar a es un algoritmo para realizar el Teorema 1 de Schur 1.6.1, por lo que que permite calcular los autovalores de A, cosa que en general es bien complicada. Sin embargo, las pruebas de los items (c), (d) y (e) son bastante dif ciles, y se enuncian ms a t a tulo informativo que como verdadero ejercicio. Sugerimos asumir (c) y probar todo lo dems. a
m m
2.1.1. Repaso: Sean A Mn (C) y a = (a1 , . . . , an ) Cn . 1. Recordemos que una matriz A Mn (C) es normal si A A = AA , es decir si A conmuta con su adjunta. 2. Si a = (a1 , . . . , an ) Cn , recordemos que diag (a) denota la matriz diagonal a1 0 0 . . diag (a) = diag (a1 , . . . , an ) = . . . . . Mn (C). . . 0 0 an 3. El Teorema 1.3.3 dec que si B Mn (C) cumple que A B, entonces a = (A) = (B) , A con
2
= B
, A
sp
= B
sp
y A es
si y slo si B es o
, (2.1)
Teorema 2.1.2. Sea A Mn (C) con vector de autovalores (A) = (1 , ... , n ). Entonces las siguientes condiciones son equivalentes: 1. A es normal. 2. Para todo x Cn , Ax = A x . 3. A D para cierta matriz diagonal D Mn (C) . = 4. A diag ((A) ). = 5. Existe una BON B = {v1 , . . . , vn } de Cn tal que Avi = i vi para todo i In .
26
6. A
2
2
=
i=1
|i |2
= A Ax, x
A x
= AA x, x .
2 3: Por el Teorema 1 de Schur 1.6.1, existen U U(n) y T T S(n) tales que T = U AU . Luego, tambin se tiene que T y = T y , para todo y Cn . Aplicando esto a la base e cannica, se deduce inductivamente (la por la) que T debe ser diagonal. o 3 4: Si A D, con D diagonal, la Eq. (2.1) asegura que (D) = (A). Pero como D es = diagonal, (D) = d (D) salvo el orden. Conjugando con una matriz de permutacin (o sea o que tiene a la base cannica en algn otro orden en sus columnas, por lo que es unitaria), o u reordenamos la diagonal de D, obteniendo que D diag ((A) ). = 4 5: Llamemos D = diag ((A) ). Si existe U U(n) tal que D = U AU , tomemos B = {C1 (U ), . . . , Cn (U )}. Como AU = U D, la frmula (1.12) dec que ACi (U ) = i Ci (U ) o a para todo i In . Rec procamente, si existe B como en 5, tomar la U U(n) dada por Ci (U ) = vi , para todo i In , y hacer la misma cuenta. 4 6: Si A diag ((A) ), la Eq. (2.1) muestra que A =
2
2
= diag ((A) )
2
2
=
i=1
|i |2 .
|i | = A
i=1
2
2
= T
2
2
=
i=1
|i |2 +
i<j
|tij |2 .
Por lo tanto tij = 0 para i < j, o sea que T es diagonal, y por ende normal. Por la Eq. (2.1), tambin A debe ser (o sea normal). e Denicin 2.1.3. Sea A Mn (C) una matriz normal. Diremos que o B = {v1 , . . . , vn } es una BON adaptada a (A) si B verica el tem 4 del Teorema 2.1.2, es decir que B es una BON de Cn , y Avi = i (A) vi para todo i In . Hemos visto en la Eq. (1.6) que si A Mn (C), entonces (A) w(A) A sp , y que en general estas desigualdades pueden ser estrictas. Pero no es as cuando A es normal: Corolario 2.1.4. Si A Mn (C) es normal, entonces A
sp
= w(A) = (A).
Demostracin. Sea (A) = (1 , ... , n ) el vector de autovalores de A. Llamemos D = o diag ((A) ). Por el Teorema 2.1.2, existe U U(n) tal que A = U DU . Por un lado, la Eq. (2.1) asegura que A sp = D sp y que (A) = (D), pues tienen el mismo espectro. Por otro lado, si x = (x1 , . . . xn ) Cn es unitario (i.e. x = 1), entonces
n n
Dx por lo que A
sp
=
i=1
|i | |xi | mx |i | a
iIn i=1
|xi |2 = (A)2 ,
= D
sp
27
Corolario 2.1.5. Sean A, B Mn (C) matrices normales. Si tomamos un orden jo en C para ordenar los vectores (A) y (B), se tiene que (A) = (B) existe U U(n) tal que B = U AU , i.e. A B . = En otras palabras, si denimos la rbita unitaria U(A) := { U AU : U U(n)}, entonces o U(A) = { B N (n) : (B) = (A) } . Demostracin. La Eq. (2.1) asegura que si A B, entonces (A) = (B). Rec o procamente, = si D = diag ((A) ) = diag ((B) ), el Teorema 2.1.2 dice que A D B. = =
2.2
Matrices Hermitianas
Por lo general no es fcil calcular los autovalores de una matriz. Pero en muchos casos es a suciente saber que ellos estn en un intervalo especicado. En el resto de este Cap a tulo estudiaremos algunas de las principales caracter sticas que distinguen a las matrices Hermitianas, en particular los principios variacionales que se utilizan para localizar su espectro, sin la necesidad de conocer los autovectores asociados en forma exacta. Recordemos las notaciones H(n) = {A Mn (C) : A = A } y Mn (C)+ = {A H(n) : A 0} .
Teorema 2.2.1. Sea A Mn (C). Luego son equivalentes: 1. A H(n) . 2. A es normal y (A) R. 3. (A) Rn y existe una base ortonormal B adaptada a (A). 4. (A) Rn y A diag ((A) ), i.e. existe U U(n) tal que U AU = diag ((A) ). = 5. Ax, x R para todo x Cn . Demostracin. Por el Corolario 1.6.6, se tiene que (A ) = (A). Por lo tanto, si A H(n), o vemos que (A) R. El resto se deduce del Teorema 2.1.2 y del hecho de que una matriz diagonal en Mn (R) debe ser autoajunta. La equivalencia entre el tem 5 y los dems se sigue a del Corolario 1.1.13. Denicin 2.2.2. Sea A H(n). Por el Teorema anterior, (A) R. Por lo tanto, sus o autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes notaciones: 1. Escribiremos (A) = (1 (A), . . . , n (A)) para denotar al vector de autovalores de A ordenados en forma creciente, es decir k (A) k+1 (A), k In1 .
28
2. (A) = (1 (A), . . . , n (A)) ser el vector de autovalores de A ordenados en forma dea creciente, es decir k (A) k+1 (A), k In1 . Tambin k (A) = nk+1 (A). e 3. Se llamarn a m (A) = 1 (A) = n (A) = m (A) n n y mx (A) = n (A) = 1 (A) = mx (A) . a a
As cuando escribamos i (A) o, directamente i (si el contexto es claro) estaremos asum, iendo que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma decreciente si escibimos i (A) o i . Proposicin 2.2.3. Sea A H(n). Entonces se tiene que o A
sp
(2.2)
Demostracin. Como H(n) N (n), la igualdad A sp = (A) se sigue del Corolario 2.1.4. o La otra se deduce de que (A) [1 (A), n (A)] R, y contiene a los bordes.
2.3
Principio minimax
Para matrices generales la unica caracterizacin conocida de sus autovalores es que son las o ra ces del polinomio caracter stico de la matriz. Pero cuando las matrices son Hermitianas, el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones ms a interesantes. Los prximos teoremas describen al vector (A), para A H(n), en funcin de o o Ax, x , para x Cn \ {0}, conocidas como cocientes de Rayleig-Ritz. las expresiones x, x Teorema 2.3.1 (Rayleigh-Ritz). Sea A H(n). Entonces 1. Para todo x Cn se tiene que m (A) x n 2. mx (A) = n (A) = mx a a
x=0 2
Ax, x mx (A) x 2 . a
3. m (A) = 1 (A) = m n n
x=0
En particular, si A H(n), tenemos que A Mn (C)+ m (A) 0 (A) R+ . n Demostracin. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a (A), o sea que Avi = o i (A)vi para todo i In . Por lo tanto, dado x Cn , se tiene que
n n n
x=
i=1
x, vi vi ,
=
i=1
| x, vi |
Ax, x =
i=1
i (A) | x, vi | 2 .
(2.3)
29
Ax, x =
i=1
i (A) | x, vi | n (A)
i=1 n
| x, vi | 2 = n (A) = Avn , vn .
Anlogamente, Ax, x = a
i=1
sigualdades muestran los tres tems a probar. Observacin 2.3.2. Dada A H(n), las caracterizaciones del Teorema anterior se pueden o reescribir de la siguiente forma: 1 (A) I A n (A) I, 1 (A) = mx{ R : I A} a y n (A) = m n{ R : A I} .
En efecto, para mostrarlo basta recordar que dados B, C H(n), vale que B C B x , x C x , x para todo x unitario en Cn . Notaciones: En el resto de esta seccin usaremos las siguientes convenciones: o 1. Las letras M y S denotarn subespacios de Cn . a 2. Dado M Cn , escribiremos M1 = {x M : x = 1} al conjunto de elementos de M de norma uno. Teorema 2.3.3 (Courant-Fisher). Sea A H(n) y sea k In . Entonces, k (A) =
dim M=k xM1
m n
mx Ax, x = a
mx a
m Ax, x . n
Demostracin. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a (A). Como en la prueba o del Teorema 2.3.1, cualquier x Cn verica la Eq. (2.3). Dado r In , notemos por Hr = Gen {v1 , . . . , vr } y Kr = Gen {vr , . . . , vn }. Notar que dim Hr = r y dim Kr = n r + 1. Por la Eq. (2.3) vemos que, si x Kk ,
n
Ax, x =
i=k
mx a
m Ax, x . n
i (A) | y, vi | 2 y que y
=
i=1
| y, vi | 2 = 1 . Luego
dim S=nk+1 xS1
mx a
m Ax, x . n
La otra frmula se demuestra en forma anloga: el m se alcanza en M = Hk , y cualquier o a n otro tal M cumple que M Kk = {0}.
30
Observacin 2.3.4. La versin tradicional de las frmulas de Courant-Fisher ser la siguo o o a iente: k (A) =
w1 ,w2 ,...,wnk Cn
m n
mx a
x Ax = mx a w1 ,w2 ,...,wk1 Cn x x
m n
x Ax . x x
Teorema 2.3.5 (Teorema de Weyl). Sean A, B H(n). Entonces: j (A) + 1 (B) j (A + B) j (A) + n (B) para todo j In . (2.4)
Demostracin. Por el Teorema 2.3.1, para todo x Cn tal que x = 1, se tiene que o Ax, x + 1 (B) Ax, x + Bx, x Ax, x + n (B) . Por lo tanto el teorema se puede deducir de las frmulas de Courant-Fischer. o Observacin 2.3.6. Una reformulacin del Teorema de Weyl, que es bastante comn en sus o o u aplicaciones, es la siguiente: Sean C, D H(n), entonces: 1 (C D) j (C) j (D) n (C D) , para todo j In . (2.5)
Para mostrarla, basta tomar A = D y B = C D, observar que ambos viven en H(n), que A + B = C y, por ultimo, aplicar la Eq. (2.4).
Corolario 2.3.7. Sean A, B H(n) tales que A B, i.e. B A Mn (C)+ . Entonces j (A) j (B) para todo j In .
Demostracin. Llamemos C = B A. Por el Teorema 2.3.5, tenemos que o j (A) + 1 (C) j (A + C) = j (A + (B A) ) = j (B) . Por otra parte, como C Mn (C)+ , entonces 1 (C) = m Cx, x 0. n
x =1
Una consecuencia importante del Teorema de Weyl es el hecho de que, entre las autoadjuntas, matrices muy cercanas tienen autovalores muy cercanos. Y con cotas bien claras: Corolario 2.3.8. Sean A, B H(n). Entonces: (A) (B)
:= mx |j (A) j (B)| (A B) = A B a
j In
sp
31
Demostracin. Por el Teorema de Weyl, en su versin dada por la Eq. (2.5), se tiene que o o 1 (A B) j (A) j (B) n (A B) , Por lo tanto, aplicando la Proposicin 2.2.3, se obtiene que o (A) (B)
para todo
j In .
mx || : 1 (A B), n (A B) a
= (A B) .
Ejercicio 2.3.9 (Aronszajn). Demostrar las siguientes armaciones: 1. Dados S1 , S2 y S3 subespacios de Cn , probar que dim(S1 S2 S3 ) dim S1 + dim S2 + dim S3 2n . 2. Sean A, B H(n). Dados i, j In tales que i + j n + 1, se tiene que i+j1 (A + B) i (A) + j (B) .
2.4
Entrelace de Cauchy
Una consecuencia directa del Teorema de Courant-Fisher es el llamado teorema de entrelace de Cauchy, que relaciona los autovalores de una matriz Hermitiana con los de sus submatrices principales. Antes jaremos nuevas notaciones para estas submatrices: Denicin 2.4.1. Sean A Mn (C) y J In . Si J tiene k elementos, notaremos o A[J] = {aij }i,jJ Mk (C) y A(J) = {aij }i,j J Mnk (C) . /
Si el contexto lo permite, a veces abreviaremos A[J] = AJ , como en la seccin 1.5. Con esa o convencin, se tiene que A(J) = AIn \J . Observar que A[J] es la matriz cuadrada resultante o de borrar de A las las y columnas con ndices fuera de J. Para cada r In , llamaremos Ar = A({r}) = {aij }i=r=j Mn1 (C) , a la submatriz principal obtenida de borrar la la y la columna r-simas de A. e Teorema 2.4.2 (Entrelace de Cauchy). Sean A H(n), r In y Ar Mn1 (C) la submatriz principal de A obtenida como en la Eq. (2.6) . Entonces k (A) k (Ar ) k+1 (A) , para cada k In1 . Es decir que 1 (A) 1 (Ar ) 2 (A) n1 (A) n1 (Ar ) n (A) . (2.6)
32
Demostracin. Supongamos, por simplicidad, que r = n. Los otros casos se prueban exactao mente igual, pero con notaciones algo ms engorrosas. Fijemos un k In1 . Sea a Hn1 = {en } = Gen {e1 , . . . , en1 } = {x Cn : xn = 0 } . Si x Hn1 , notaremos x0 = (x1 , . . . , xn1 ) Cn1 a su parte signicativa. Observar que
n1
A n x 0 , x0 =
i,j=1
M Hn1 que tienen dim M = k (que son menos que los subespacios de dimensin k de o todo Cn , pero se identican con todos los de Cn1 ), obtenemos, del Teorema 2.3.3, que k (An ) =
M Hn1
m n
mx An x0 , x0 a
m n
mx Ax, x = k (A). a
Tomemos ahora subespacios S Hn1 tales que dim S = n k. Como n k = n (k + 1) + 1 y a la ves, n k = (n 1) k + 1, obtenemos k (An ) =
dim S=nk xS1
S Hn1
mx a
m An x0 , x0 n
mx a
lo que prueba el teorema. Observacin 2.4.3. En forma anloga se puede probar versiones ms generales del Teorema o a a anterior: Dado A H(n), 1. Si J In cumple que |J| = r, entonces para cada k Ir , se tiene k (A) k A[J] k+nr (A) . Observar que, si r = n 1, entonces k + n r = k + 1, como en el Teorema 2.4.2 2. Ms en general an, si P L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre a u un subespacio S de dim S = r, entonces al producto P AP se lo puede pensar como un operador en el espacio de Hilbert S (para que su vector de autovalores tenga slo o r coordenadas, sacando los n r ceros que sobran). A esta compresin se la denota o AS = P AP L(S). Entonces se obtienen desigualdades anlogas: a
S
para cada k Ir .
En efecto, basta cambiar coordenadas a una BON de Cn cuyos primeros r vectores generen S. En esa base, AS = A[Ir ] y se aplica el caso anterior. Ejercicio 2.4.4. Escribir expl citamente cmo quedan los resultados de esta seccin (la o o frmula minimax, el teorema de Weyl y los tres entrelaces) en funcin de los vectores (A) o o ordenados decrecientemente. Ahora, como corolario del Teorema de entrelace, veremos una caracterizacin de positividad de o matrices en trminos de submatrices principales. Para ello necesitamos el siguiente resultado e previo.
33
Lema 2.4.5. Sea A Gl (n)+ . Entonces A[J] Gl (r)+ , para todo J In con |J| = r. Demostracin. Si HJ = Gen {ei : i J} y 0 = x HJ , llamemos xJ Cr al vector resultante o de sacarle a x los ceros fuera de J. Entonces 0 < Ax, x =
i,jIn
Aij xj xi =
i,jJ
Aij xj xi = A[J] xJ , xJ .
Como tales xJ recorren todo Cr \ {0}, vemos que A[J] Gl (r)+ . Teorema 2.4.6. Si A H(n), entonces las siguientes condiciones son equivalentes: 1. A es denida positiva (i.e. A Gl (n)+ ). 2. Si llamamos A[k] = A[Ik ] = {aij }i,jIk Mk (C) , entonces det A[k] > 0 para todo k In ,
3. Si llamamos A(k) = A(Ik ) = {aij }i,j>k Mnk (C) , entonces det A(k) > 0 para todo k In1 {0} ,
Demostracin. El Lema 2.4.5 dice que 1 2 y 3, porque es claro que si B Gl (r)+ , entonces o det B > 0. La rec proca se prueba por induccin sobre n. Si n = 1, entonces tenemos que o A = A[1] = det(A[1] ) > 0. Si n > 1, es claro que la condicin 2 se verica tambin para o e A[n1] , porque tiene las mismas submatrices involucradas. Por hiptesis inductiva, tenemos o que A[n1] Gl (n 1)+ , y por el Teorema 2.3.1 sabemos que 0 < 1 (A[n1] ) . El Teorema del entrelace de Cauchy 2.4.2 nos asegura que 2 (A) 1 (A[n1] ) > 0. Luego
n n
0<
k=2
k (A)
y tambn e
k (A) .
De ah deducimos que 1 (A) > 0. Usando el Teorema 2.3.1, podemos concluir rpidamente a + que Ax, x > 0 para todo x = 0, o sea que A Gl (n) . La prueba de la equivalencia con el tem 3 es exactamente igual, pero usando para la induccin a A(1) Mn1 (C) . o Ejercicio 2.4.7 (dif cil). Probar que, dada A H(n), entonces A Mn (C)+ det A[J] 0 para todo J In .
Se suguiere induccionar en n. Luego tomar un J de tamao mximo para que det A[J] = 0 y n a aplicar varias veces la frmula det(B + Eii ) = det B + det B(i), como en la Eq. (8.3). o
2.5 Ejercicios
34
2.5
Ejercicios
m Ax, x = n
m n
mx Ax, x . a
2.5.2. Sean A, B H(n). Demostrar las siguientes armaciones: 1. Para todo j In , se tiene que j (A) + n (B) j (A + B) j (A) + 1 (B) 2. Dados S1 , S2 y S3 subespacios de Cn , ellos cumplen que dim(S1 S2 S3 ) dim S1 + dim S2 + dim S3 2n . 3. Dados i, j In tales que i + j n + 1, se tiene que i+j1 (A + B) i (A) + j (B) . 2.5.3 (Aronszajn). Sea A = C X X D k H(n). Probar que nk para todo par i Ik , j Ink . (2.7)
1. Si J In cumple que |J| = r, entonces para cada k Ir , se tiene k (A) k A[J] k+nr (A) . En particular, si r In , entonces k (A) k Ar k+1 (A) para todo k In1 . 2. Sea P L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre un subespacio S de dim S = r. Sea AS = P AP S L(S), la compresin de A a S. Luego o k (A) k AS ) k+nr (A) , para cada k Ir .
2.5.5 (Ejercicio dif cil). Probar que, dada A H(n), entonces A Mn (C)+ det A[J] 0 para todo J In .
2.5 Ejercicios
35
Ejercicios nuevos
2.5.6. Mostrar que A es normal si y slo si sus partes real e imaginaria conmutan. o 2.5.7. Sea A Mn (C) y p(t) un polinomio. 1. Probar que si A es normal entonces p(A) tambin lo es. e 2. Si p(A) es normal, puede asegurarse que A lo sea?. 2.5.8. 1. Mostrar que si A es similar a una matriz unitaria, entonces A1 es similar a A . 2. Considerar la matriz 2 0 0 1/2 y mostrar que el conjunto de matrices que son similares a una matriz unitaria es un subcojunto propio del conjunto de matrices A para las que A1 es similar a A . 2.5.9. Sea A una matriz normal. Mostrar: 1. La matriz A es autoadjunta si y slo si todos sus autovalores son reales. o 2. La matriz A es unitaria si y slo si todos sus autovalores tienen mdulo 1. o o 3. Si la matriz A es nilpotente, entonces, A = 0. 2.5.10. 1. Mostrar que dos matrices normales son similares sii son unitariamente equivalentes. 2. Mostrar que A es normal sii conmuta con una cierta matriz normal con autovalores distintos. 2.5.11. Dada A Mn (C), probar que A es normal si y slo si hay un polinomio p de grado o a lo sumo n 1 tal que A = p(A). Notar que esto da una buena explicacin intuitiva de o por qu una matriz normal conmuta con su adjunto. Si A es real, mostrar que se puede elegir e p con coecientes reales, de manera que AT = p(A). 2.5.12. Sea A H(n) y S Mn (C). Mostrar que SAS es autoadjunta. Si S es invertible, SAS 1 es autoadjunta ? 2.5.13 (*). A lo largo de este ejercicio consideraremos la traza normalizada de modo que n 1 tr(I) = 1, es decir, dada una matriz A de n n, tr(A) = Aii . n k=1 Sean A, B H(n). Demostrar:
2.5 Ejercicios
36
(Pista: Usar la desigualdad de Jensen.) 2.5.14. Sea A Mn (C) una matriz normal. Probar que w(A) = (A) = A 2.5.15 (Gersgorin). Sea A Mn (C). Para cada i In , sea Ri =
j=i sp
(A)
iIn
{z C : |z aii | Ri } .
Deducir que, si Ri < |aii | para todo i In , entonces A Gl (n). Una tal matriz suele ser llamada diagonal dominante. 2.5.16 (Este es bien dif cil). Sea A H(n). Para cada i In , mostrar que si
1/2
ri =
j=i
|aij |
Esto mejora al Ejercicio anterior en dos aspectos: Primero observar que cada ri Ri . Adems, a ubica al menos un autovalor en cada disquito (ac son intervalitos). a
Recordemos que A Mn (C)+ si Ax, x 0 para todo x Cn . Denicin 3.1.1. Dadas A, B H(n), se dice que A B si se tiene que B A Mn (C)+ , o o sea si Ax, x Bx, x para todo x Cn . Proposicin 3.1.2. Sean A, B y C Mn (C). Entonces o 1. A Mn (C)+ si y slo si A H(n) y (A) R+ . o 2. A Gl (n)+ si y slo si A H(n) y (A) R . o + 3. Si A = B B entonces A Mn (C)+ . 4. Si A, B H(n) y A B, entonces C AC C BC. Demostracin. o 1. Si A H(n) y (A) R+ , el Teorema 2.3.1 asegura que 0 1 (A) x
2
Ax, x
para todo x Cn
= A Mn (C)+ .
Por el Corolario 1.1.13, sabemos que Mn (C)+ H(n) (para que A H(n) bastaba que Ax, x R para todo x Cn ). Por el Teorema 2.3.1, se tiene que, si A Mn (C)+ , entonces 1 (A) = m Ax, x 0, por lo que (A) R+ . n
x =1
2. Slo diere del caso anterior en que en ambas situaciones 0 (A). Notar que si A > 0, o / como la bola de Cn es compacta, existe un > 0 tal que 1 (A) = m Ax, x . n
x =1
38
3. Para todo x Cn tenemos que B Bx, x = Bx, Bx = Bx Por lo tanto B B Mn (C)+ . 4. Si B A 0 y x Cn , entonces C (B A)Cx, x = (B A)Cx, Cx 0. Luego C (B A)C 0, es decir C AC C BC. Teorema 3.1.3. Sea A Mn (C). Entonces: 1. A Mn (C)+ si y slo si existe B Mn (C) tal que A = B B. o 2. En tal caso, existe una unica matriz B Mn (C)+ tal que A = B B = B 2 . Demostracin. Sabemos que si A = B B entonces A Mn (C)+ . Luego basta probar que o si A Mn (C)+ , entonces existe una raiz cuadrada B Mn (C)+ para A, y que la tal B es unica. Escribamos A = U DU , con U U(n) y D = diag ((A) ) Mn (C)+ . Se toma D1/2 := diag 1 (A)1/2 , . . . , n (A)1/2 Mn (C)+ . Esto es posible por la Proposicin 3.1.2. Es claro que (D1/2 )2 = D. Finalmente se dene o B = U D1/2 U . Luego B Mn (C)+ y B 2 = A. La unicidad es algo ms complicada. El a problema es que la matriz U U(n) que diagonaliza a A no es unica. Sea otra C Mn (C)+ 2 tal que C = A. Entonces, como C y A conmutan, el Teorema 1 de Schur 1.6.1 asegura que existe V U(n) tal que V AV = D y V CV Mn (C)+ es diagonal . Para lo anterior se usa que N (n) T S(n) consta de las matrices diagonales, como se vi en la o prueba del Teorema 2.1.2. Como (V CV )2 = V AV = D, es claro que V CV = D1/2 (entre diagonales la unicidad es trivial). Por otro lado, U DU = V DV = A = (V U )D = D(V U ) . Aqu usaremos que D1/2 se puede escribir como P (D) para cierto polinomio P R[X]. En efecto, basta elegir un P tal que P (i (A) ) = i (A)1/2 , para todo i In . Pero entonces V U conmuta con P (D) = D1/2 . Por ello B = U D1/2 U = V D1/2 V = C. Observacin 3.1.4 (El Grammiano). Dada una matriz B Mn (C), llamemos fi = Ci (B), o i In . Notar que, entonces,
n 2
0.
G(f1 , . . . , fn ) :=
fi , fj
i,j=1
= B B Mn (C)+ .
La matriz anterior es conocida como matriz de Gramm (o Grammiano) de f1 , . . . , fn . Del Teorema 3.1.3 deducimos que una matriz es semi denida positiva si y slo si es una matriz o de Gramm. Y que es denida positiva si y slo si es una matriz de Gramm de un sistema o linealmente independiente (en nuestro caso, esto equivale a que B Gl (n) ).
39
Los mismos resultados son ciertos (la prueba es una ligera variacin de la del Teorema o 3.1.3) si la n-unpa f1 , . . . , fn vive en cualquier espacio de Hilbert H (anche innitodimensional, porque en tal caso B es un operador B : Cn H, que es automticamente continuo). Notar a + que la matriz de Gramm sigue estando en Mn (C) (y en Gl (n)+ si el sistema es LI), donde n es el nmero de vectores en cuestin. u o Corolario 3.1.5 (Cholewsky). Sea A Mn (C)+ . Entonces existe T T S(n) tal que Tii 0 para todo i, y tal que A = T T . Demostracin. Sea B Mn (C) tal que A = B B. Sea B = QT , Q U(n), T T S(n), una o descomposicin de B como en el Teorema 1.8.2. Entonces A = T Q QT = T T . o
3.2
Denicin 3.2.1. Dada A Mn (C)+ , llamaremos A1/2 a la unica raiz cuadrada de A en o + Mn (C) , que existe (y es unica) por el Teorema 3.1.3. Observacin 3.2.2. Sea A Mn (C)+ . En la prueba del Teorema 3.1.3 se muestran las dos o maneras usuales de describir a A1/2 : 1. Si A = U diag ((A) ) U , con U U(n), se tiene que A1/2 = U diag (A)1/2 U . 2. A1/2 = P (A) para culquier P C[x] tal que P () = 1/2 para todo (A). Denicin 3.2.3. Sea A Mn (C), o 1. Llamaremos mdulo de A a la matriz o |A| = (A A)1/2 Mn (C)+ . 2. Llamaremos valores singulares de A a los autovalores de |A| ordenados en forma decreciente, notndolos s1 (A) sn (A) 0. Notar que, por el Corolario 1.7.2, a si (A) = i (|A|) = i (A A)1/2 , para todo i In . (3.1)
3. Llamaremos s(A) = (s1 (A), . . . , sn (A) ) = (|A|) y (A) a la matriz diagonal s1 (A) 0 0 . . . ... . (A) = diag (s(A)) = . . . 0 0 sn (A) Observar que |A| (A). = Ejemplos 3.2.4. Sea A Mn (C).
40
1. Si A 0, entonces A = |A| y s(A) = (A). 2. Si A Mn (C) es normal, entonces s(A) = |(A)|, salvo el orden. En efecto, si A = U diag ((A) ) U para cierto U U(n), entonces A A = U diag (A) diag ((A) ) U = U diag |(A)|2 U . 3. En general (fundamentalmente, si A no es normal), los autovalores y los valores singulares de una misma matriz pueden ser bien distintos. Por ejemplo, si A es un bloque nilpotente de Jordan en Mn (C) (i.e. Aek = ek+1 , k In1 y Aen = 0), entoces (A) = {0} porque An = 0, pero s(A) = (1, . . . , 1, 0), porque A A es un proyector de rango n 1. Teorema 3.2.5 (Descomposicin polar y en valores singulares). Sea A Mn (C). Entonces o 1. Para todo x Cn , se verica que Ax = |A|x . 2. En particular, se tiene que A
sp
= |A|
sp
3. Existe una matriz unitaria U U(n) tal que A = U |A| , que es la llamada descomposicin polar (DP) de A, aunque no es siempre unica. o 4. Cualquier U U(n) que cumpla A = U |A|, verica que A = U |A | , AA = U A AU , U |A|U = |A | y A = |A | U .
Esto dice que U es un unitario admisible para la DP de A . O sea que A tiene una descomposicin polar a derecha A = |A | U con el mismo U que la otra. o 5. Existen V, W U(n) tales que A = W (A)V . 6. Las columnas Ci (V ) forman una BON de autovectores de |A| (y A A), y las columnas Ci (W ) forman una BON de autovectores de |A | (y AA ). Demostracin. o 1. Dado x Cn , se tiene que Ax
2
41
3. Podemos denir (con buena denicin) una isometr suryectiva o a U1 : R(|A|) R(A) dada por U1 (|A|x) = Ax, para todo x Cn . De hecho, |A|x = |A|y x y ker |A| = ker A Ax = Ay. Como dim R(A) = n dim R(A) = dim ker(A) = dim ker(|A|) = dim R(|A|) , podemos extender la isometr U1 a una matriz unitaria U U(n), operando isoma e tricamente desde R(|A|) sobre R(A) . Por la denicin de U , se tiene que A = U |A|. o 4. Notar que AA = U |A|2 U = U A AU . Sea P (x) C[x] tal que P () = 1/2 , para todo (AA ) = (A A) (acabamos de ver que AA A A). Luego = |A | = (AA )1/2 = P (AA ) = U P (A A)U = U |A|U . Luego A = U |A| = U |A|U U = |A |U , por lo que tambin A = U |A |. e 5. Sea V U(n) tal que |A| = V (A)V . Si llamamos W = U V U(n), tenemos que A = U |A| = U V (A)V = W (A)V . 6. Notar que (A) = V |A|V , por lo que cada Ci (V ) es un autovector de |A|, y todas las columnas de V forman una bon, por ser V unitaria. La prueba para W es similar, dado que tambin (A)2 = W AA W . e Existe una versin de la caracterizacin minimax de Courant-Fisher 2.3.3 para los valores o o singulares de una matriz: Proposicin 3.2.6. Sea A Mn (C) (no necesariamente autoadjunta). Con las mismas o notaciones (para subespacios) que en el Teorema 2.3.3, se tiene que sk (A) = mx a
dim M=k xM1
m Ax = n
m n
mx Ax a
para todo k In .
(3.2)
Demostracin. Basta notar que Ax = A Ax, x 1/2 y que sk (A) = k (A A)1/2 . Luego se o aplica el Teorema 2.3.3 (y el Ejercicio 2.4.4 para traducirlo a es) para A A. Corolario 3.2.7. Dadas A, C Mn (C), para todo k In se tiene que sk (AC) A
sp
sk (C) .
En particular
tr |AC| A
sp
tr |C| .
(3.3)
Demostracin. Se usa la Eq. (3.2) para calcular sk (AC) y sk (C), junto con la siguiente o desigualdad: ACx A sp Cx , para todo x Cn .
42
3.3
Fijemos una matriz autoadjunta A H(n), y tomemos A = U |A|, con U U(n), una DP de A. Supongamos, adems, que U opera como la identidad en ker A = ker |A| = R(|A|) . a Una tal U existe por la construccin hecha en el Teorema 3.2.5, y adems es unica (Ejercicio: o a mostrar ambas cosas). Luego se verican las siguientes propiedades: 1. Si B = {v1 , . . . , vn } es una BON de Cn adaptada a (A), luego A A = A2 , |A|, |A|1/2 y U son diagonales en la base B. Por lo tanto conmutan entre ellos (y con A). 2. En la base B, la matriz de U es diagonal con 1s en la diagonal. Ms espec a camente, U v k = vk si k (A) 0 , y U vk = vk si k (A) < 0 , (3.4)
dado que |A| vk = (2 (A) )1/2 vk = |k (A)| vk para todo k In . Por lo tanto, k U = U = U 1 y I U I .
3. Podemos deducir que |A| A |A|. En efecto, |A|1/2 U |A|1/2 = A, y |A| = |A|1/2 I|A|1/2 |A|1/2 U |A|1/2 |A|1/2 I|A|1/2 = |A|. 4. Luego, si denotamos A+ = se prueba fcilmente que a (a) Ambas matrices A+ , A Mn (C)+ . (b) A = A+ A y |A| = A+ + A . (c) A+ A = A A+ = 0. Es fcil ver que A+ y A son las unicas matrices que cumples las tres propiedades a anteriores. Se las llama partes positiva y negativa de la matriz autoadjunta A. 5. Otras propiedades que verican A+ y A son: (a) AA+ = A+ A = (A+ )2 (idem con A ). (b) (A)+ = A y (A) = A+ . (c) Por la denicin de A+ y la frmula (3.4), se tiene que o o k (A+ ) = mx { k (A) , 0 } , para todo k In . a (d) k (A ) = k ( (A)+ ) = mx{k (A), 0} = m a n{nk+1 (A), 0}, k In . (3.6) A + |A| 2 y A = |A| A , 2 (3.5)
43
6. Si A = B C con B, C Mn (C)+ , entonces se tiene que k (A+ ) k (B) y k (A ) k (C) , para todo k In . (3.7)
En efecto, si A < 0, entonces A+ = 0 y la primera desigualdad es obvia. Si 1 (A) 0, sea p = mx{k In : k (A) 0}. Luego, como B = C + A A, se tiene que a k (A+ ) = k (A) k (B) para k Ip y k (A+ ) = 0 k (B) para k > p ,
por el Teorema de Weyl 2.3.5. La otra desigualdad en (3.7) se deduce de lo anterior aplicado a la igualdad A = C B, dado que (A)+ = A .
3.4
Normas en Mn(C)
Se estudiarn en esta seccin distintas normas en el espacio vectorial de matrices Mn (C). a o Muchas de estas normas son utiles en diversas desigualdades matriciales espec cas. Pero no olvidemos que, como dim Mn (C) < , es un resultado conocido que todas las normas en Mn (C) son equivalentes. En los siguientes ejemplos deniremos las normas ms clsicas para matrices. Dejaremos a a como ejercicio para el lector la vericacin (en algunos casos altamente no trivial, pensada a o futuro) de que son, efectivamente, normas. Ejemplos 3.4.1. 1. La norma espectral A = A
sp
sp
= mx Ax = s1 (A), a
x =1 sp
donde la ultima igualdad surge de que A 2. Las normas de Schatten. Dado 1 p <
n
|A|
sp
= (|A|).
1/p
A La
=
i=1
si (A)
2
2
= tr A A =
i,j=1
|aij |2
y proviene del producto escalar en Mn (C) denido por A, B = tr B A. 3. Las normas Ky-Fan. Dado k {1, . . . , n}
k
A Notar que A
(1)
(k)
=
i=1 1
= A
sp
y A
(n)
= A
44
4. Toda norma N en Cn induce una norma ||| |||N en Mn (C) del siguiente modo: |||A|||N = mx N (Ax). a
N (x)=1
Estas normas satisfacen que: (a) |||I|||N = 1 (b) (A) |||A|||N (c) |||AB|||N |||A|||N |||B|||N . Ejercicio 3.4.2. Consideremenos en Cn las siguientes normas:
n
=
i=1
|xi |
= mx |xi | , a
iIn
para todo x Cn ,
conocidas como las normas 1 e . Como en el Ejemplo anterior, ellas inducen en Mn (C) las siguientes normas matriciales: Dada A Mn (C), |||A||| = mx a
x
Ax
=1
|||A|||1 = mx Ax a
x
1 =1
Probar que estas normas pueden calcularse efectivamente mediante las frmulas: o |||A||| = mx Fi (A) a
iIn 1
|||A|||1 = mx Ci (A) a
iIn
(3.8)
para toda A Mn (C). Denicin 3.4.3. Una norma o 1. Matricial: si AB A B en Mn (C) se llama:
2. Unitariamente invariante (NUI): si U AV = A , para todo U, V U(n). Ejemplo 3.4.4. Sea N (A) = mx |aij |, para A Mn (C). Sean 1n = (1, . . . , 1) Cn y a
ijIn
En = 1n
mientras que N (En ) = 1. O sea que N no es matricial en Mn (C) para ningn n > 1. El u lector interesado puede demostrar que n N () s es una norma matricial en Mn (C). Teorema 3.4.5. Sea una norma matricial en Mn (C). Dada A Mn (C) se tiene que
(I A)n
2. Si B Gl (n) y B A < B 1
, entonces, A Gl (n).
45
B 1 A I = B 1 (A B) B 1
AB <1 .
Si valiera 1, luego B 1 A ser inversible y A = B(B 1 A) tambin deber serlo. Para probar a e a el tem 1, llamemos C = I A. Tenemos que
C < 1 =
m N =
k=0
k=0
1 1 C
Luego, la serie
k=1 N
A
k=0
C k = (I C)
k=0
Ck =
k=0
Ck
k=1
C k = 1 C N +1 1 .
N
Analogamente
k=0
C k A = 1.
Proposicin 3.4.6. Sea A Mn (C) y una norma matricial. Entonces (A) A . o Ms an, Am 1/m (A) para todo m N. a u Demostracin. Sean (A) y x Cn tales que x = 0 y Ax = x. Llamemos X a la matriz o cuyas columnas son todas iguales al vector x. Luego, AX = X, y por ende || X = AX A X ,
de donde se deduce que || A . Como el autovalor era cualquiera, (A) A . Adems, a por el Corolario 1.7.2, se tiene que (Am ) = (A)m , y entonces tambin (Am ) = (A)m . Por e lo tanto, usando la parte ya probada, obtenemos que (A) Am 1/m . Observacin 3.4.7. Dada una norma matricial en Mn (C) y una matriz S Gl (n), la o frmula A S := SAS 1 , A Mn (C), dene otra norma matricial. o Proposicin 3.4.8. Dados A Mn (C) y > 0, existe una norma matricial NA, en Mn (C) o tal que NA, (A) (A) + . Demostracin. Sea A = U T U con T una matriz triangular superior y U U(n). Luego, o 1 T = U AU . Sea Ds = diag (s, s2 , . . . , sn ). Entonces, (Ds T Ds )ij = tij sij para todo par i, j In (eso fue visto en la Eq. (1.14) ). Por lo tanto,
1 Ds T Ds diag (1 (A) , . . . , n (A)) . s
En cualquier norma
sp
1 = (A), entonces, Ds T Ds
sp
1 Ds0 sp
o sea
sp
B Mn (C).
1 = Ds0 T Ds0
sp
< (A) + .
46
Corolario 3.4.9. Si A Mn (C), entonces Am 0 si y slo si (A) < 1. o Demostracin. Es claro que (A) < 1 si y slo si (Am ) = (A)m 0. Usando que o o (Am ) Am sp para todo m N, una implicacin es clara. Para probar la otra, supongamos o que (A) < 1. Por la Proposicin 3.4.8, existe una norma matricial N tal que (A) N (A) < o 1. Como N es matricial, deducimos que N (Am ) N (A)m 0.
m m
Teorema 3.4.10. Sea A Mn (C). Entonces, para cualquier norma (A) = lim
m
en Mn (C),
Am
1/m
Demostracin. Supongamos primero que es una norma matricial. Por la Proposicin o o m 1/m 3.4.6, sabemos que se tiene (A) A para todo m N. Fijado > 0, consideremos A la matriz B = . Como (B) < 1, el Corolario 3.4.9 asegura que B m 0. En (A) + consecuencia existe un m0 N tal que, para todo m m0 , se verica Bm < 1 , es decir que Am < ((A) + )m = Am
1/m
< (A) + ,
lo que prueba el Teorema en este caso. El mismo resultado vale para normas no matriciales, por ser todas las normas equivalentes. Ejercicio 3.4.11. Sea A Mn (C). Si N es una norma matricial en Mn (C), mostrar que (A) = N (Am )1/m . Ms an, probar que en tal caso, N (Am )1/m nf a u (A) .
mN m
Observacin 3.4.12. Todos los resultados de esta seccin, a partir del Teorema 3.4.5, son o o tambin ciertos en lgebras de Banach, donde las normas son matriciales por denicin. El e a o unico resultado propio de matrices es la Proposicin 3.4.8, que nos permite dar una prueba fcil o a de la frmula del radio espectral (Teorema 3.4.10). Esta frmula vale tambin en dimensin o o e o innita, y la prueba usa herramientas de anlisis complejo. El curro es mostrar que la llamada a resolvente, que es la funcin o A : C \ (A) Gl (n) dada por A (z) = (zI A)1 , z C \ (A) ,
es anal tica. La frmula dada surge del radio de convergencia de su serie de potencias alrededor o del innito. Sin embargo, hemos incluido las demostraciones anteriores porque tienen un buen sabor matricial, salvo el Teorema 3.4.5, que tiene la prueba standard (y no creo que pueda mejorarse). Ntese que se asumi impl o o citamente que Mn (C) es un espacio completo, porque usamos que una serie absolutamente sumable es convergente.
3.5
Algunas caracterizaciones
A continuacin daremos algunas caracterizaciones fciles de la positividad y la contractividad o a de matrices. Al nal incluimos una mini-introduccin al producto de Hadamard, mostrando o el Teorema de Schur 2. A lo largo de sta Seccin abreviaremos A sp = A . Usaremos la e o Proposicin 1.5.5 que dice que dadas A, B Mn (C), entonces (AB) = (BA). El primer o enunciado resume varias caracterizaciones ya mencionadas de esta norma.
47
Lema 3.5.1. Sea A Mn,m (C) entonces s1 (A) = A = |A| = (|A|) = (A A)1/2 = A A
1/2
= AA
1/2
(3.9)
Demostracin. Como |A| y A A H(n), la Proposicin 2.1.4 asegura que o o |A| = (|A|) = s1 (A) y que (A A)1/2 = A A
1/2
Las igualdades A = |A| = s1 (A) se deducen de que Ax = |A|x para todo x Cn ( tem 1 del Teorema 3.2.5). La igualdad (|A|) = (A A)1/2 se sigue del Corolario 1.7.2, usando que |A|2 = A A. Observar que (A A) = (AA ) porque (A A) = (AA ). Proposicin 3.5.2. Sea A H(n), entonces A I A A I . Ms an, o a u I A I para cialquier R . + Demostracin. Notar que si A H(n), entonces A = (A) = mx{1 (A), n (A)}. Por lo o a tanto, (A) n (A) 1 (A) . Por el Teorema 2.3.1, tenemos que n (A) = m Ax, x I A n
x =1
A (A) ,
y adems a
mx Ax, x = 1 (A) A I . a
x =1
Proposicin 3.5.3. Dada A Mn (C), se tienen las equivalencias o A = s1 (A) 1 |A| I AA I A A I . Demostracin. Es consecuencia del Lema 3.5.1 y de la Proposicin 3.5.2. o o Proposicin 3.5.4. Si A Mn (C)+ y B Gl (n)+ , entonces o A B Demostracin. Notemos que o A B B 1/2 AB 1/2 I (A1/2 B 1/2 ) A1/2 B 1/2 I . Luego se aplica la Proposicin 3.5.3 y el hecho de que B 1/2 AB 1/2 = (AB 1 ). o 3.5.5. Sea x Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como vimos en 1.9.3, la matriz Px = x x = xx = (xi xj )ij Mn (C)+ es el proyector ortogonal sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que
n n
(3.10)
(3.11)
z=
i=1
z, xi xi
para todo z C
I=
i=1
xi
xi ,
(3.12)
48
Proposicin 3.5.6. Sea A Mn (C). Las siguientes condiciones son equivalentes: o 1. A Mn (C)+ . 2. Existen y1 , . . . , yr Cn tales que A =
r r
yi
i=1
yi =
i=1
yi yi .
proDemostracin. La implicacin 2 1 es clara, porque cada matriz yi yi Mn (C)+ . Rec o o + n camente, si A Mn (C) , sea B = {x1 , . . . , xn } es una BON de C adaptada a (A). Usando la ecuacin (3.12), para todo z Cn se tiene que o n n n n
Az = A
i=1
z, xi xi =
i=1
z, xi Axi =
i=1
i (A) z, xi xi =
i=1
i (A) xi
xi z .
Luego basta elegir yi = i (A)1/2 xi para aquellos i In tales que i (A) > 0.
3.6
El producto de Hadamard
A B = aij bij Mn,m (C) .
Notar que este producto tiene sentido tanto para matrices como para vectores. A este producto de matrices, tambin llamado producto de Schur, le dedicaremos un cap e tulo entero, porque tiene interesant simas aplicaciones dentro y fuera de la teor del Anlisis a a Matricial. Pero vamos adelantando un resultado al respecto (otro teorema de Schur), porque es elemental y compete a las matrices positivas. Teorema 3.6.2 (Teorema 2 de Schur). Sean A, B Mn (C)+ , entonces A B Mn (C)+ . Adems, si A, B Gl (n)+ , entonces A B Gl (n)+ . a Demostracin. La segunda parte se deduce de la primera. En efecto, si A > 0 y B > 0, o existen nmeros a, b > 0 tales que A aI y B bI. Entonces, aplicando dos veces el caso u que an no hemos probado, obtendr u amos A B aI B aI bI = ab I Gl (n)+ .
r
(3.13)
Supongamos entonces que A, B Mn (C)+ . Por la Proposicin 3.5.6 (ver tambin 1.9.3), o e deben existir vectores vi Cn , i Ir , tales que A =
vi vi . Como el producto es
distributivo, basta mostrar que v v B Mn (C)+ para todo v Cn y toda B Mn (C)+ . Y para ver esto, alcanza con hacer la siguiente cuenta: v v B = vi vj Bij
i,jIn
i=1
donde la igualdad del medio se testea haciendo la cuenta, o mirando la Eq. (1.14).
49
= 1 (A B) 1 (A)1 (B) = A
sp
sp
Demostracin. La primera desigualdad se deduce de la ecuacin (3.13), pero usando que o o A n (A)I y B n (B)I. La segunda, de una cuenta anloga, pero aplicando ahora las a desigualdades A 1 (A)I y B 1 (B)I (tadas fueron vistas en la Observacin 2.3.2). o Corolario 3.6.4. Si A Mn (C)+ , entonces B = |Aij |2 Demostracin. Se deduce de que AT = A = Aij o
i,jIn i,jIn
Mn (C)+ .
Mn (C)+ .
Ejercicio 3.6.5. Mostrar que el resultado anterior falla si uno no eleva los mdulos al o cuadrado. En otras palabras, se debe encontrar un ejemplo de una matriz A Mn (C)+ tal que B = |Aij | i,jIn Mn (C)+ . Observar que hay que buscar para n 3. / Corolario 3.6.6. Si A Mn (C)+ y P (x) R[x] tiene coecientes no negativos, entonces P (A) := P (Aij )
i,jIn
Mn (C)+ .
Demostracin. Por una induccin directa, podemos ver que A[k] = A A A Mn (C)+ o o (se multiplica k veces) para todo k N. Despus se usa lo que cumple P (x). e Ejercicio 3.6.7. Probar que, si A Mn (C)+ , entonces eA := eAij
i,jIn
Mn (C)+ .
3.7
El famoso truco 2 2
Cuando se trabaja con operadores y matrices, muchas veces una cuenta inmanejable termina saliendo mgicamente y en un par de renglones, con el famoso truco de matrices de bloques a de 2 2. Ver, por ejemplo, la Proposicin 1.5.5, y tratar de probarla de otra manera. En o esta seccin juntaremos varios resultados que aportan tcnicas para usar dicho mtodo. Para o e e operar entre matrices de bloques, se usarn sistemticamente los resultados desarrollados en a a la Seccin 1.5. En particular, las frmulas (1.16), (1.17) y (1.18). o o 3.7.1. Sea A Mn (C). Entonces A Mn (C)+ A(2) = En efecto, Si tomamos la matriz 1 U= 2 I I I I U(2n), A A A A M2n (C)+ .
50
Ahora s es claro que A 0 si y slo si A(2) 0. Dejamos como ejercicio la vericacin de o o que si A(k) Mkn (C) se dene en foma semejante a A(2) , entonces A 0 si y slo si A(k) 0. o 3.7.2. Si A Mn (C), entoces B = A = U |A|. Entonces 0 U 0 0 I |A| |A| |A| |A| = U 0 0 I |A | A A |A| = U |A| U |A| |A| |A| , U 0 0 I |A | A A |A| 0. En efecto, sea U U(n) tal que
dado que U |A|U = |A |. El mismo resultado sigue valiendo si A Mnm (C), o sea si A es rectangular. En ese caso B Mn+m (C)+ (Ejercicio). Proposicin 3.7.3. Sea A Mn,m (C), y llamemos r = m o n{n, m}. Luego sk (A ) = sk (A) para todo k Ir . (3.14)
Demostracin. Como vimos en la Observacin 1.5.6, (AA ) = (A A) salvo una cola de o o m n (o n m) ceros. Usando el Corolario 1.7.2 (o sea que (P (A) ) = P ((A) ) para todo polinomio P ) y la denicin de |A|, vemos que (A A) = (|A|2 ) = (|A|)2 . De ah sale que o s(A) = s(A ) salvo los ceros nales. Esto muestra la frmula (3.14). o Observacin 3.7.4 (El rango). Recordemos que, si A Mn,m (C) decimos que o rk A = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} , lo que usualmente se llama rango columna de A. Llamemos r = m n{n, m}. Sea U U(n) tal que A = U |A|. Es fcil ver que a rk A = rk |A| = rk (A) = mx{k Ir : sk (A) = 0} . a (3.15)
El rango la de A es, con esta denicin, la dim Gen {F1 (A), . . . , Fn (A)} = rk AT = rk A . o Por la Proposicin 3.7.3, s(A ) = s(A) (salvo ceros nales). Luego la frmula (3.15) muestra o o que ambos rangos son iguales. Proposicin 3.7.5. Sea A Mn (C). Entonces o A := 0 A A 0 = (A) 0 0 (A) H(2n) .
En particular, (A ) = {si (A)} (con las mismas multiplicidades). Es decir, (A ) = (s1 (A), , sn (A), sn (A), , s1 (A) ). (3.16)
51
Demostracin. Sean U, V U(n) tales que (A) = V AU = U A V . Es fcil ver que o a 1 W = 2 Entonces WA W = 1 2 1 2 V V U U U(2n). V V U U V AU U A V V AU U A V
U A VA U A V A U A V + V AU U A V V AU (A) 0 0 (A) ,
M=
I A A I
0.
Demostracin. Notar que M = I2n + A. Usando que (A) = (A) (por la Proposicin 3.7.5) o o y luego el Teorema de Rayleigh-Ritz 2.3.1 (o la Observacin 2.3.2), obtenemos que o I A A I 0 I2n + A 0 A I2n I2n A I2n .
sp
= s1 (A) = (A) = A
sp
1.
Observacin 3.7.7. Notar que la Proposicin 3.7.6 sigue siendo vlida si A es rectangular, o o a por el simple recurso de agregarle ceros (arriba o a la derecha) para que A quede cuadrada, lo que no cambia su norma. 3.7.8. Si A, B Mn (C)+ , entonces son equivalentes 1. A B. 2. La matriz M = B A A B 0.
En efecto, si B Gl (n)+ , entonces M 0 si y slo si o 0 B 1/2 0 1/2 0 B B A A B B 1/2 0 1/2 0 B = I B 1/2 AB 1/2 B 1/2 AB 1/2 I ,
lo que, por la Proposicin 3.7.6, equivale a que A1/2 B 1/2 2 = B 1/2 AB 1/2 1. Por la o Proposicin 3.5.2, se tiene que A1/2 B 1/2 1 si y slo si A B. Un ejercicio fcil es o o a deducir que la equivalencia sigue valiendo si no se pide que B sea inversible (si uno cambia B por B + I, entonces M pasa a ser M + I2n ).
52
3.7.9. Sea A Mn (C) una contraccin, es decir que A o 1. Se tiene que A (I AA )1/2 = (I A A)1/2 A . 2. Entonces las matrices A (I AA )1/2 1/2 (I A A) A son unitarias en M2n (C). y
sp
1.
A (I AA )1/2 1/2 (I A A) A
En efecto, observar que A (I AA ) = A A AA = (I A A)A . Por induccin vemos o k k que A (I AA ) = (I A A) A para todo k N {0}. Luego se usa que a (I AA )1/2 se lo puede realizar como un polinomio en (I AA ), y lo mismo para (I A A), con el mismo polinomio, dado que tienen el mismo espectro. La vericacin la segunda parte es directa, y o se deja como ejercicio. 3.7.10. Sea M H(n), y representmosla por bloques M = e A C C B k . nk
2. En el caso general, dado > 0, existe > 0 tal que A C C B En efecto, si M = A + Ik 0 0 Ink .
Ik C 1/2 Ik 0 , conjugandola con D = , caemos en C Ink 0 1/2 Ink el caso de la Proposicin 3.7.6 (para C Mk,nk (C) rectangular, donde tambin es cierto). o e Luego, por las citas que se indican sobre los s mbolos, M 0 DM D =
Prop. 3.7.6
Ik 1/2 1/2
2
Lema 3.5.1
Prop. 3.5.3
1 1 C
1 1 C C 1
C C Ik . C
2
B B Ink = Ink B B
Ink ,
C 2 Im
Ik C C Im B
A + Ik 0 0 Im
A C C B
3.8 Cortocircuitos
53
3.8
Cortocircuitos
Lema 3.8.1. Sean D, A Mn (C)+ . Luego, las siguientes condiciones son equivalentes: 1. D A. 2. D1/2 x A1/2 x para todo x Cn . 3. Existe C Mn (C) tal que C
sp
1 y D1/2 = CA1/2 .
Demostracin. Observar que D1/2 x 2 = D1/2 x , D1/2 x = Dx , x y lo mismo vale para A. o Esto da la equivalencia 1 2. El hecho de que 3 1 se deduce de que C sp 1 C C I (por la Proposicin 3.5.3). Asumamos ahora que vale 2. Entonces ker A1/2 ker D1/2 . Luego, o podemos denir (con buena denicin) la funcin o o C0 : R(A1/2 ) R(D1/2 ) dada por C0 (A1/2 x) = D1/2 x , para cualquier x Cn .
Es fcil ver que C0 es lineal. Extendmosla a una C Mn (C) poniendo C|ker A1/2 0. Ahora a a podemos vericar sin dicultades que D1/2 = CA1/2 y, por la condicin 2, el hecho de que o C sp 1 (ac se usa que ker A1/2 = R(A1/2 ) ). a Notacin: Recordar que, si M Cn es un subespacio, denotamos por PM Mn (C)+ o al proyector ortogonal sobre M. Observar que 0 PM I, que PM (M ) = {0} y que PM x = x para todo x M. Teorema 3.8.2. Sea A Mn (C)+ y S Cn un subespacio. Sea M(A, S) := {D Mn (C)+ : D A y R(D) S} . (3.17)
Consiredemos el subespacio M = A1/2 (S) y la matriz T = A1/2 PM A1/2 . Entonces, 1. T M(A, S). 2. Para cualquier D M(A, S), se cumple que D T . En otras palabras, T = A1/2 PM A1/2 es el mximo de M(A, S) en el orden usual de H(n) . a Demostracin. Observar que T = A1/2 PM A1/2 A1/2 I A1/2 = A. Adems, se tiene que o a 1/2 R(T ) A (M) S. Luego T M(A, S). Si D M(A, S), en particular D A. Por el Lema 3.8.1, debe existir una contraccin C tal que D1/2 = CA1/2 , o sea que D1/2 = A1/2 C . o Como A1/2 (R(C ) ) = R(D1/2 ) S, deducimos que R(C ) M, o sea PM C = C . Usando que C C I (porque C sp 1), podemos deducir que C C = PM C CPM PM . Luego D = D1/2 D1/2 = A1/2 C CA1/2 A1/2 PM A1/2 = T , lo cual muestra que T = mx M(A, S). a
3.8 Cortocircuitos
54
Denicin 3.8.3. Sean A Mn (C)+ y S Cn , un subespacio. Llamaremos shorted de A o al subespacio S, y lo notaremos (A, S), al mximo del conjunto M(A, S). a En la siguiente proposicin, recopilamos una serie de resultados ms o menos inmediatos de o a la denicin y la demostracin del Teorema 3.8.2. o o Proposicin 3.8.4. Sean A Mn (C)+ y S Cn , un subespacio. Entonces: o 1. (A, S) A. 2. Para todo R+ , se tiene que (A, S) = (A, S). 3. Si B Mn (C)+ cumple que A B, entonces M(A, S) M(B, S) y por lo tanto (A, S) (B, S) .
4. Si S T Cn , entonces M(A, S) M(A, T ) y (A, S) (A, T ). 5. Si R(A) S, entonces (A, S) = A. 6. ( (A, S) , S) = (A, S). Demostracin. Ejercicio. o Proposicin 3.8.5. Sean A Mn (C)+ y S, T Cn , dos subespacios . Entonces o ( (A, S) , T ) = (A, S T ) . Demostracin. Consideremos los conjuntos o M(A, S T ) = {D : 0 D A R(D) S T } M( (A, T ) , S) = {D : 0 D (A, T ) R(D) S}. Probaremos que estos conjuntos son iguales y por ende sus mximos tambin lo son. En a e efecto, sea D M(A, S T ), entonces se tiene que R(D) T y D A = D (A, T ) , y tambin que e R(D) S .
En consecuencia, D M( (A, T ) , S). Reciprocamente, si D M( (A, T ) , S) entonces D (A, T ), lo cual muestra que R(D) T y en consecuencia R(D) S T . Pero como D (A, T ) A se tiene que D M(A, S T ).
3.8 Cortocircuitos
55
1. A L(S)+ y D L(S )+ . 2. Existe una contraccin C L(S , S) tal que B = A1/2 CD1/2 . o En tal caso se tiene que R(B) R(A) y que R(B ) R(D). Demostracin. Si se cumplen las condiciones pedidas, se observa que o M= A B B D = A1/2 0 0 D1/2 IS C C IS A1/2 0 0 D1/2 Mn (C)+ ,
por la Proposicin 3.7.6 y la Observacin 3.7.7. Si suponemos que M 0, es claro que o o A L(S)+ y D L(S )+ . Asumamos que ambas son inversibles. Haciendo la cuenta anterior al reves, si llamamos C = A1/2 BD1/2 se tiene que IS C C IS = A1/2 0 1/2 0 D A B B D A1/2 0 1/2 0 D Mn (C)+ .
Luego queda que C sp 1 y B = A1/2 CD1/2 . El caso general sale aplicando lo anterior a 1 1 1 las matrices M + n I. Se toma la sucesin Cn = (A + n IS )1/2 B (D + n IS )1/2 , que consta o de contracciones. Como la bola de Mn (C) es compacta, hay una subsucesin Cnk C, o donde C es tambin una contraccin. Ahora observamos que, para todo k N, e o B = (A + 1 1 IS )1/2 Cnk (D + IS )1/2 A1/2 CD1/2 , k nk nk
k
donde la continuidad de tomar raices cuadradas se deduce de que todas las matrices de cada sucesin se diagonalizan en la misma base. o Proposicin 3.8.7. Sean A Gl(k)+ , C Mm (C)+ y B Mk,m (C). Sea o M= A B B C Cn Cm Mk+m (C) .
Entonces se verican las siguientes propiedades: 1. M Gl(m + k)+ B A1 B < C (o sea que C B A1 B Gl(m)+ ). 2. M Mk+m (C)+ B A1 B C.
3.8 Cortocircuitos
56
1 (C B A B)1
Demostracin. Sea X = A1 B Mkm (C). Entonces, haciendo cuentas elementales, obteno emos que Ik 0 Ik X A 0 M = , X Im 0 Im 0 C B A1 B lo que prueba 1 y 2. Por otra parte, como Ik X 0 Im y, por lo tanto, que M 1 = Ik X 0 Im A1 0 1 0 (C B A B)1 Ik 0 X Im = 1 (C B A B)1 ,
1
Ik X 0 Im =
Ik X 0 Im
, deducimos que
Ik 0 X Im
A1 0 0 (C B A1 B)1
lo que prueba la parte 3. Ejercicio 3.8.8. Dar otra prueba de la Proposicin 3.8.7, v la Proposicin 3.8.6. o a o Corolario 3.8.9. Sean M Mn (C)+ y S Cn , un subespacio. Supongamos que M= A B B C S S y que la compresin o A = MS Gl(S )+ ,
o sea que M x , x > 0 para todo x S \ {0}. Luego se tiene que 1. (M, S) = 0 0 0 C B A1 B S . S
2. M Gl (n)+ existe un R tal que PS (M, S). + Demostracin. Pongamos que dim S = m y llamemos k = n m = dim S . Trabajando en o una BON que empiece generando a S , podemos asumir que S = Gen {ek+1 , . . . , en } y que estamos en las condiciones de la Proposicin 3.8.7 (en particular, que A Gl(k)+ ). Si ahora o S 0 0 llamamos T = , es claro que R(T ) S y que 0 C B A1 B S M T = A B B C 0 0 0 C B A1 B = A1/2 0 B A1/2 0 A1/2 A1/2 B 0 0 0,
A B B B A1 B
3.9 Ejercicios
57
0 0 0 D
para cierto R , volviendo a aplicar la Proposicin 3.8.7. o + Observacin 3.8.10. La dencin ms tradicional del shorted de un M Mn (C)+ se suele o o a hacer usando el complemento de Schur, segn la frmula que se desarrolla en el Cap u o tulo 12 y se muestra en el Corolario 3.8.9. La ventaja de la denicin que surge del Teorema 3.8.2 es que no o necesita que haya una submatriz inversible. Sin embargo, utilizando seudoinversas de MoorePenrose, se puede dar una frmula estilo la del Corolario 3.8.9 para cualquier M Mn (C)+ , o 1 reemplazando B A B por B A B, que en dimensin nita siempre existe (ver el Ejercicios o 3.9.20 y 3.9.30). Ms all de esto, la simpleza de las pruebas de las Proposiciones 3.8.4 y 3.8.5 a a da una muestra de que el enfoque basado en maximizar el conjunto M(M, S) tiene fuertes ventajas metodolgicas. o Todos los resultados de esta seccin siguen siendo vlidos en el contexto de operadores acotados o a en espacios de Hilbert. Las pruebas son muy similares, pero necesitan tcnicas espec e cas, sobre todo para mostrar el Lema 3.8.1 y la Proposicin 3.8.6 (ojo con la bola compacta). o Estos temas se expondrn, con mucha mayor profundidad, en el tomo II. a
3.9
Ejercicios
=
i=1
|xi |
= mx |xi | , a
iIn
para todo x Cn ,
que inducen en Mn (C) las sendas normas matriciales: Dada A Mn (C), |||A||| = mx a
x
Ax
=1
|||A|||1 = mx Ax a
x
1 =1
Probar que estas normas pueden calcularse efectivamente mediante las frmulas: o |||A||| = mx Fi (A) a
iIn 1
|||A|||1 = mx Ci (A) a
iIn
3.9 Ejercicios
58
3.9.3. Sea A Mn (C). Si N es una norma matricial en Mn (C), mostrar que (A) = N (Am )1/m nf
mN
y que
N (Am )1/m
m
(A) .
i,jIn
3.9.4. Encontrar una matriz A Mn (C)+ tal que B = |Aij | que hay que buscar para n 3. 3.9.5. Probar que, si A Mn (C)+ , entonces eA := 3.9.6. Si A Mn,m (C), entoces B = |A | A A |A| agregndole ceros a A para que quede cuadrada. a eAij
i,jIn
Mn (C)+ . Observar /
Mn (C)+ .
3.9.7. Sea A Mn,m (C) una contraccin, es decir que A o 1. A (In AA )1/2 = (Im A A)1/2 A Mm,n (C). 2. Las matrices A (I AA )1/2 1/2 (I A A) A son unitarias en Mn+m (C). 3.9.8. Demostrar los 6 items de la Proposicin 3.8.4. o y
sp
1. Probar que
A (I AA )1/2 1/2 (I A A) A
Ejercicios nuevos
3.9.9. Sea A Mn,m (C). Probar que, para todo k In , se tiene que sk (A) = mx a
dim S=k xS1
m Ax = n
dim M=nk+1
m n
xM1
mx Ax . a
3.9.10. Consideremos los conjuntos Rk (n) = {T Mnm (C) : rk T k}. Mostrar que A Mnm (C) = sk (A) = min
T Rk1
AT
para todo k In .
3.9.11. Mostrar que si A, H Mnm (C), y rk H = k, entonces sj (A) sj+k (A + H) , para todo j Ink .
3.9.12. Mostrar que, para cualquier A Mnm (C) y para cada k In , vale que
k k
sj (A) = max
j=1 j=1
Axj , yj
3.9 Ejercicios
59
sp
1. Se denen DA = (I AA )1/2 .
< 1, vericar:
1 1 (a) Si K = DA C y L = DA B, entonces
A A + C C 1 (resp. AA + BB 1). 2 1 1 DA DA ADA 1 I A . (b) Demostrar que = A I 1 1 2 DA A DA DA (c) Sea X Mn (C). Demostar que las matrices I 0 A B I A 0 B 0 A I C 0 I C X y A B I 0 0 C I X C X 0 I B 0 X I son conjugadas y ambas positivas. 2. (Parrot) Demostrar que las siguientes armaciones son equivalentes: (a) Existe X Mn (C) tal que (b) A B 1y A C A B C X 1.
sp
KK 1 (resp. LL 1)
1.
sp
sp
Aij Bij 0
para toda
B Mn (C)+ .
3.9.15. Sea A Mn (C). Probar que Re A Mn (C)+ = Re (A B) Mn (C)+ 1. Ak+1 Ak (es decir que A es decreciente) 2. Existe B H(n) tal que B Ak (o sea que A es acotada inferiormente). Observar que esto equivale pedir que la sucesin { Ak sp }kN sea acotada. o Entonces existe A = inf Ak = lim Ak H(n). Es decir que Ak A, que A Ak para
kN kN k
para toda
B Mn (C)+ .
3.9.16. Sea A = {Ak }kN una sucesin en H(n) tal que, para todo k N, o
todo k N y que, si un C H(n) es menor que todos los Ak , entonces tambin C A. e Probar un resultado similar si A es creciente y acotada superiormente. Se suguiere denir Ax , x = lim Ak x , x para cada x Cn , y extrapolar a Ax , y usando
kN
polarizacin. Otro argumento (bien nitodimensional) ser diagonalizar a todas, aplicar el o a Teorema de Weyl 2.3.5 y usar que U(n) es compacto, para construir A y ver que el l mite de arriba camina, y que es un nmo por hiptesis. o
3.9 Ejercicios
60
Q=
IS X 0 0
S . S
1. Probar que para cualquier pseudoinversa B de A se cumple que (AB)2 = AB , (BA)2 = BA , R(AB) = R(A) y ker BA = ker A .
2. Dadas dos proyecciones oblicuas (o no) P, Q tales que R(P ) = R(A) y ker Q = ker A, probar que existe una unica pseudoinversa B (de A) tal que AB = P y BA = Q. Denicin 3.9.21. Dada A Mn (C), se denen: o 1. La pseudoinversa de Moore-Penrose A de A, como la unica que cumple que las proyec ciones AA y A A H(n) i.e., son ortogonales. 2. El mdulo m o nimo reducido de A como: (T ) := m n Ax : x ker A x =1 y .
1 sp
3.9.22. Sea A Gl (n). Probar que, en ese caso, A = A1 3.9.23. Sea A Mn (C). Demostrar lo siguiente: 1. (A ) = (A ) y (A ) = A. 2. A = A (AA ) . 3. Sea B Mn (C) tal que R(B) = ker A , Entonces (AB) = B A . ker AB = ker B y
(A) = A1
R(AB) = R(A) .
3.9 Ejercicios
61
3.9.24. Sea {An } Mn (C) una sucesin de matrices que poseen el mismo rango. Supongao mos que {An } L Mn (C) y que L posee el mismo rango que las An .
n
1. Probar que A L . n
n
2. A =
n=0
(I A A) A =
n=0
2 sp
(A) = m n{ (A) : = 0} .
3.9.27. Sea A Mn (C) tal que su descomposicin en valores singulares es A = W (A)V . o Expresar A en funcin de W , (A), y V . Qu relacin hay entre los valores singulares de o e o A y los de A ? 3.9.28. Dada A Mn (C) demostrar las siguientes propiedades: 1. (A)2 = (A A) = (AA ) = (A )2 . 2. (A) = A
1
3.9.29. Sean A, B Mn (C)+ . Probar que A B (AB ) 1. 3.9.30. Sean M Mn (C)+ y un subespacio S Cn tales que M = que (M, S) = 0 0 0 C B A B S . S A B B C S . Probar S
= inf
A x , x
: y S
3.9.32. Sean A Mn (C)+ y S Cn un subespacio. Entonces existen unicos F y G Mn (C)+ tales que A=F +G , R(F 1/2 ) S y R(G1/2 ) S = {0} .
3.9 Ejercicios
62
D B B ?
S . Sea S
Mn (C)+ .
Probar que P(M, S) = si y slo si R(B) R(D1/2 ). Ms an, probar que en tal caso o a u existe X0 = m P(M, S), e identicarlo. n Denicin 3.9.34. Dada una matriz A Mn (C)+ , consideraremos en Cn el pseudoproducto o interno , A denido por x, y
A
= Ax, y
3.9.35. Sea A Mn (C)+ y S un subespacio de Cn . Demostrar las siguientes propiedades: 1. S A = A1 (S ) = A(S) . 2. T Mn (C) es A-autoadjunto si y slo si T A = A T . o 3. El conjunto de las proyecciones A-autoadjuntas con rango S, que denotaremos P(A, S) = {Q Mn (C) : Q2 = Q, AQ = Q A y R(Q) = S} = . 3.9.36. Sea A Mn (C)+ y S un subespacio de Cn . Si A = proyeccin PA, S denida por o PA, S = 1 a b 0 0 S Mn (C) S
sp
a b b c
S , probar que la S
QP(A, S)
m n
sp
3.9.37. Dada una un proyeccin Q Mn (C), no necesariamente ortogonal, construir una o matriz A Gl (n)+ de modo que Q resulte A-autoadjunta. 3.9.38. Sea A Mn (C). Dada una matriz W Gl (n)+ , demostrar que B = (A W A) A D es una pseudoinversa de A tal que AB es una proyeccin ortogonal respecto al producto interno o , W y BA lo es respecto al producto interno usual. 3.9.39. Dado T Mn (C) y A Gl (n)+ , encontrar una expresin para la Moore-Penrose de o T respecto al , A . 3.9.40. Sean A, B Mn (C). Encontrar C Mn (C), tal que AC B
sp
m n
XMn (C)
AX B
sp
Ahora reemplazar la norma espectral por alguna otra NUI y encontrar C para dicha norma. Qu conclusin puede sacar?, puede extender su conclusin para otras normas unitariamente e o o invariantes?.
3.9 Ejercicios
63
3.9.41. Dadas A, B Mn (C), se dice que A * B si BA = AA y B A = A A. Demostrar: 1. A * B A A = B A y AA = AB . 2. A = mx {B Mn (C) : BAB = B, (AB) = AB, y (BA) = BA}. a
*
3.9.42 (Ljance-Ptak.). Sea E Mn (C) una proyeccin oblicua. Si P, Q Mn (C) designan o las proyecciones ortogonales al rango y nucleo de E respectivamente, probar que PQ
sp
<1
y que
1 1 PQ
2 sp
4.1
Deniciones y caracterizaciones
Notaciones: Sea x = (x1 , ..., xn ) Rn . 1. Notaremos x y x a los vectores obtenidos al reordenar las coordenadas de x en forma decreciente y creciente respectivamente. Es decir, por ejemplo, que x = mx xi , x + x = mx xi + xj , etc. a a 1 1 2
i i=j
Por ejemplo, si x es el vector de autovalores de una matriz A H(n), entonces se tendr a que x = (A) y x = (A). 2. Denotaremos por 1 = (1, 1, . . . , 1) Rn , al vector con todas sus entradas iguales a uno. Si hace falta aclarar el tamao, escribiremos 1n . n
n
3. Escribiremos tr x = x, 1 =
j=1
xi .
Con estas notaciones podemos dar la denicin de mayorizacin: o o Denicin 4.1.1. Sean x, y Rn . o 1. Se dice que y mayoriza a x, y se nota x
k
y si se verica que
k
tr y = tr x ,
y adems a
j=1
x j
j=1
yj
para todo k In .
(4.1)
65
2. Dado que
j=1
x = tr x j
nk j=1
y equivale a que
tr y = tr x ,
y adems a
j=1
x j
j=1
yj
para todo k In .
(4.2)
3. Si slo se cumple la segunda condicin (4.1) (o sea que se permite que tr x < tr y ), se o o dice que x est submayorizado por y y se nota x w y. a 4. Si slo se cumple la segunda condicin (4.2) (aca se permite que tr x > tr y ), se dice que o o x est supramayorizado por y y se nota x w y. a Ejemplos 4.1.2. 1. Sea x Rn . Llamemos a = tr x. Entonces a a a , ,..., n n n k ka supongamos que existiera un k In tal que xi < . En tal caso, n i=1 a 1= n x k 1 k
k
x . En efecto,
x i
i=1
a = < n
x i
i=k+1
(n k)a < = n
x < a . i
i=1
2. Si x Rn , entonces x +
(tr x, 0, . . . , 0).
3. Sean x, y Rn . Si sucediera que x y e y x, entonces es fcil ver que x = y . Por a lo tanto, x e y slo dieren en una permutacin. o o Existe una relacin muy estrecha entre las relaciones de mayorizacin y las matrices dobleo o mente estocsticas. Notaciones: Sea A Mn,m (C). a 1. Diremos A 0 si Aij 0 para todo par i In , j Im . En otras palabras, A tiene entradas no negativas. Ojo con el simbolito, no el lo mismo escribir A 0 (entradas positivas) que A 0 (semidenida positiva) . 0 si A
2. Si x, y Rn , pondremos x y si se cumple que xi yi para todo i In . Tambin e n escribiremos que x > 0 si x R+ . Denicin 4.1.3. Una matriz A Mn (R) se denomina doblemente estocstica si o a A 0 , tr Fi (A) = 1 y tr Ci (A) = 1 para todo i In .
66
Ejercicio 4.1.4. Sea A Mn (R). Probar que A DS (n) si y slo si o A 0, A1 = 1 y A 1 = 1, donde 1 = (1, 1, . . . , 1) Rn . Deducir que DS (n) es un conjunto convexo, y que dadas dos matrices A, B DS (n), entonces tambin AB DS (n). e Observacin 4.1.5 (Matrices de permutacin). Sea n N. o o 1. Llamaremos Sn al n-simo grupo simtrico, es decir e e Sn = { : In In : es biyectiva } , con el producto dado por la composicin de funciones. o 2. Dados Sn y x Cn , llamaremos x = (x(1) , . . . , x(n) ). 3. Dada Sn , llamaremos P : Cn Cn al operador dado por P x = x , x Cn . Es claro que esta funcin es lineal, por lo que pensamos a P Mn (C) como su matriz o en la base cannica. o 4. Observar que, dado x Rn , existen , Sn tales que x = P x y x = P x. 5. Dada Sn , las columnas de P estn dadas por a Ck (P ) = P (ek ) = (ek ) = e1 (k) , k In .
6. Dadas , Sn , entonces P P = P , porque (x ) = x para todo x Cn . 7. El grupo UP (n) = {P : Sn } est incluido en U(n), dado que cada P es claramente a T 1 isomtrico. Por lo tanto, para cada Sn , P1 = P = P = P . e 8. Por otra parte, tambin se tiene que UP (n) DS (n). En efecto, dada Sn , e Ck (P ) = P (ek ) = e1 (k) y
T Fk (P ) = Ck (P ) = Ck (P1 ) = e(k) ,
(4.3)
T para todo k In . Otra forma de verlo es notando que P 1 = P 1 = 1. Ms adelante a veremos que UP (n) es ni ms ni menos que el conjunto de puntos extremales de DS (n). a
9. Dadas A Mn (C) y P UP (n), para cada k In se tiene que Fk (P A) = F(k) (A) , Ck (AP ) = C1 (k) (A) y
d (P AP ) = d (A) .
(4.4)
En efecto, para todo i In , tenemos que Ci (P A) = P (Ci (A) ) = Ci (A) . Luego (P A)ki = A(k)i , para todo i In . Esto prueba la primera igualdad. La seguna sale aplicando la de las las a (AP )T = P1 AT . La de las diagonales sale porque cada
(P AP )kk = P AP ek , ek = AP ek , P ek = A e(k) , e(k) = A(k)(k) .
En resumen, multplicar por P a izquierda permuta las las, hacerlo a derecha permuta las columnas (con 1 ), y conjugar con P permuta la diagonal de las matrices.
67
Teorema 4.1.6. Sea A Mn (R). Luego se tiene que A DS (n) Ax x para todo x Rn .
Demostracin. Supongamos que Ax x para todo x. Sea E = {e1 , . . . , en } la base cannica o o n de C . Para cada i In , se tiene que Ci (A) = Aei ei . Esto implica que A 0 y que 1 = tr ei = tr A ei = tr Ci (A) para todo i In .
Por otra parte, sabemos que A 1 1. Pero por el Ejemplo 4.1.2, como todas las coordenadas de 1 son iguales, deducimos que 1 A 1. Y como no vale la pena permutar al 1, queda que 1 = A 1 = (tr F1 (A), . . . , tr Fn (A) ) . Rec procamente, supongamos que A DS (n) y llamemos y = Ax. Queremos probar que y x. Se puede suponer que las coordenadas de x y de y estn ordenadas en forma decreciente, a porque si P, Q UP (n) son matrices de permutacin (ver Observacin 4.1.5), entonces QAP o o DS (n) (por el Ejercicio 4.1.4). Por otra parte, como y = Ax,
k k n n k
yj =
j=1 j=1 i=1
aji xi =
i=1 j=1
aji xi
k
para todo
k In .
(4.5)
aji , entonces
k
y
i=1
ti =
j=1
tr Fi (A) = k .
yj
j=1 j=1
xj =
j=1 i=1 n
aji xi
i=1 k
xi =
i=1 n
ti xi
i=1
xi
=
i=1 k
ti xi
i=1 n
xi + (k
i=1 k
ti )xk
k n
=
i=1 k
ti xi +
i=k+1
ti xi
i=1 k
xi + k xk
i=1 k n
ti xk
i=k+1
ti xk
=
i=1 k
(ti 1) xi +
i=1 k
xk
i=1
ti xk +
i=k+1 n
ti (xi xk ) ti (xi xk )
=
i=1 k
(ti 1) xi +
i=1
(1 ti ) xk +
i=k+1 n
=
i=1
(ti 1) (xi xk ) +
i=k+1
ti (xi xk ) 0,
68
pues los dos sumandos del ultimo rengln son sumas de trminos no positivos. Por lo tanto o e
k k
yj
j=1 j=1
xj para todo k In . Por ultimo, observar que la Eq. (4.5) muestra que tr y = tr x x.
Ejemplo 4.1.7. Como motivacin del siguiente resultado, supongamos que o x, y R2 cumplen que y = (y1 , y2 ) x = (x1 , x2 ) , y1 y2 y x1 x2 .
Luego, debe existir un [0, 1] tal que y1 = x1 + (1 )x2 . Entonces, y2 = y1 + y2 y1 = x1 + x2 y1 = x1 + x2 x1 + (1 )x2 = (1 )x1 + x2 . y por lo tanto y = (y1 , y2 ) = (x1 , x2 ) + (1 )(x2 , x1 ) = x + (1 )P x, donde S2 es la permutacin no trivial. o Teorema 4.1.8. Sean x, y Rn . Entonces, son equivalentes: 1. y x.
2. y es una combinacin convexa de permutaciones de x. o 3. Existe A DS (n) tal que y = Ax. Demostracin. Como DS (n) es convexo y UP (n) DS (n), obtenemos que 2 3. Por el o Teorema 4.1.6 se tiene que 3 1. Luego, solo resta probar que 1 2. Lo haremos por induccin sobre la dimensin n. Para n = 1 es trivial y el caso n = 2 fue probado en el o o Ejemplo 4.1.7. Sea n > 2. Sin perdida de generalidad podemos suponer que los vectores estan ordenados en forma decreciente. Luego, xn yn y1 x1 . Sea k > 1 tal que xk y1 xk1 y 0 tal que y1 = x1 + (1 ) xk . Sea Sn la trasposicin que permuta 1 con k. Luergo o P UP (n) verica que P x = (xk , x2 , . . . , xk1 , x1 , xk+1 , . . . , xn ) . Denamos z = x + (1 )P x. Observar que z1 = x1 + (1 ) xk = y1 . Sean y = (y2 , . . . , yn ) y z = (z2 , . . . , zn ) Rn1 .
Vamos a probar que y z : Como z1 = y1 y tr z = tr x = tr y, se deduce fcilmente que a tr(y ) = tr(z ). Si m k 1, entonces, como y1 xk1 ,
m m m
zi =
i=2 i=2
xi (m 1)xk1 (m 1)y1
i=2
yi .
69
zi =
i=2 i=2 m
xi + (1 )x1 + xk +
i=k+1
xi
=
i=1 m
xi x1 (1 )xk
m m
=
i=1
xi y1
i=1 s
yi y1 =
i=2
yi .
Luego y
para ciertas permutaciones i Sn1 (pensadas como biyecciones del conjunto {2, 3, . . . , n}). Llamemos tambin i Sn a la extensin de cada permutacin i a todo In , poniendo e o o
s
i Pi z . Pero entonces
s
y=
i=1
i P i z =
i=1
i Pi x +
i=1
(1 ) i Pi P x ,
que es una combinacin convexa de permutaciones de x. o Observacin 4.1.9. Un error t o pico al tratar de demostrar mayorizacin entre dos vectores, o es olvidarse de ordenarlos antes de sumar sus primeras k coordenadas. De hecho, esto sucede en la prueba anterior con los vectores z e y . Por suerte no es grave en este caso, porque z est del lado de los mayores, y lo grave es no reordenar del lado de los menores. Ms a a n expl citamente, si x, y R , como
k k
yi
i=1 i=1
yi ,
es imprescindible ordenar a y para vericar que y x, pero no para vericar que x la prueba de la relacin y o z , el vector y ya ven ordenado correctamente. a Corolario 4.1.10. Sean w, z Rm tales que w z, y sean x, y Rk tales que x Entonces los vectores (x, w), (y, z) Rk+m cumplen que (x, w) (y, z).
y. En y.
Demostracin. Por el Teorema 4.1.8, existen A DS (k) y B DS (m) tales que Ay = x y o Bz = w. Pero si consideramos C= A 0 0 B Mk+m (C),
70
u.
a a Demostracin. Es claro que x = mx xi mx ui = u . Si ambos mximos se alcanzan en la o a 1 1 misma coordenada de x y de u, un argumento inductivo permite concluir que x u . Sin, o supongamos que x = xk mientras que u = uj . Si llamamos y Rn al resultado de permutar 1 1 las cordenadas k y j de x, sigue pasando que y u, porque y j = x k uk u = u j 1 Por el caso anterior, x = y mientras que
w
y k = xj x = xk uk . 1 u.
u , y por lo tanto x
y .
Demostracin. Antes que nada, es claro que si el tal u existe, entonces x w y (por el Lema o 4.1.11 y la transitividad de w ). Para probar la rec proca, podemos asumir que tr x < tr y, porque sin basta tomar u = x. Asumiremos tambin que x e y estn ordenados en forma o e a decreciente, dado que una ves encontrado el u para este caso, luego se lo puede reordenar igual que a x, lo que preserva la relacin x u y no afecta la relacin u y. o o Se har induccin sobre n. Si n = 1, el resultado es trivial (en ese caso signica igualdad, a o y w equivale a ). Si n > 1, cosideramos dos casos:
k k
xi =
i=1
a = (x1 , . . . , xk ) y b = (y1 , . . . , yk ) Rk . Como x e y estn ordenados, es claro que a b. Por a otra parte, si llamamos w = (xk+1 , . . . , xn ) y z = (yk+1 , . . . , yn ) Rnk , es tambin claro que e w w z, porque estn bien ordenados y, si r Ink , entonces a
r r k+r k+r
zi
i=1 i=1
wi =
i=1
yi
i=1
xi 0 .
Ahora bien, por hiptesis inductiva, debe existir v Rnk tal que w v z. Entonces basta o tomar u = (a, v) Rn que cumple lo pedido, porque x = (a, w) (a, v) = u. Por otra parte, como a b y v z, el Corolario 4.1.10 dice que u = (a, v) (b, z) = y.
k k
yi
i=1
xi
Tomemos v = x + d e1 , es decir que agrandamos en d la primera coordenada de x. Observar que v est ordenado decrecientemente, por estarlo x. Por ser d quien es, es claro que x v a y que v w y. Pero claramente v cae en el Caso 1 (sumando hasta k0 , y si k0 era n, bingo). Entonces existe u Rn tal que x v u y. Ejercicio 4.1.13. Probar que, dados x, y Rn , entoncecs 1. x 2. x
w w
y. w x.
71
4.2
Por otra parte, cuando I es un intervalo, decimos que f es convexa si, dados a, b I y [0, 1], se cumple que f a + (1 )b f (a) + (1 )f (b). La funcin f se dice cncava si f es convexa. o o Teorema 4.2.1. Sean x, y Rn . Sea I R un intervalo (semirrecta o todo R) tal que x, y In . Entonces, son equivalentes: 1. y x
3.
i=1
|yi t|
i=1
x (submayorizacin) o
3.
i=1
(yi t)
i=1
Demostracin. Slo probaremos la primer parte, puesto que los argumentos para probar o o la segunda son similares (para 1 2, se aplica 1 2 y la Proposicin 4.1.12, que ser o a util para funciones no decrecientes). Supongamos que y x. Entonces, por el Teorema
s
4.1.8, y =
s i=1
f
i=1
i Pi x
i=1
tr f (y) = tr f
i=1
i P i x
tr
i=1
i f P i x =
i=1
i tr Pi f (x) = tr f (x) .
La implicacin 2 3 (respectivamente, 2 3 ) se deduce de que la funcin x |x t| (resp. o o + x (x t) ) es convexa (resp. convexa no decreciente) para todo t R.
72
Probemos 3 1. Supongamos que los vectores x e y estn ordenados de forma decreciente a (ni 3 ni 1 depende del orden de las coordenadas). Sean M = mx{x1 , y1 } y m = m n , yn }. a n{x Tomando t > M , se tiene que
n n n
|yi t| =
i=1 i=1
t yi = kt
i=1
yi ,
y lo mismo para x. Luego la desigualdad 3 para estos valores de t implica que tr x tr y. Anlogamente, la desigualdad 3 para valores de t tales que t < m implica que tr y tr x. a Luego tr x = tr y. Por otro lado, dado x R, se tiene que 2x+ = x + |x|. Luego
n n n n
2
i=1
(yi t) =
i=1
(yi t) +
i=1 n
|yi t| = tr y nt +
n i=1 n
|yi t| |xi t|
i=1
tr x nt +
i=1 n
|xi t| =
i=1
(xi t) +
=2
i=1
(xi t)+ .
(xi t)+ =
i=1 i=1
(xi t)+ =
i=1
xi kt .
Por lo tanto
k k k n
yi kt =
i=1 i=1 n
(yi t)
i=1 k i=1
(yi t)+
k k
xi kt,
i=1
yi
i=1
xi .
Corolario 4.2.2. Sea I R un intervalo. Sea g : I R una funcin convexa (resp. convexa o n creciente). Entonces, dados x, y I , x En particualr x y (resp. x
w w
y)
=
w
g(x)
g(y).
w
y = |x|
|y|, y tambin x e
y = x+
y+.
Demostracin. Sea f : R R convexa no decreciente. Es fcil ver, entonces, que f g es una o a funcin convexa. Por el Teorema 4.2.1, si x y, entonces o tr f (g(x)) = tr f g (x) tr f g (y) = tr f (g(y)).
73
Pero por el mismo Teorema (en su segunda parte), como lo anterior vale para toda f : R R convexa no decreciente, deducimos que g(x) w g(y). Si g es creciente y x w y, por el Corolario 4.1.12 existe u Rn tal que x u y. Luego, por el caso anterior, g(x) g(u) w g(y). Para concluir que g(x) w g(y) basta aplicar el Lema 4.1.11. Corolario 4.2.3. Sean x, y Rn , tales que x > 0 e y > 0. Entonces, se tiene que
n n
=
i=1
xi
i=1
yi .
Demostracin. Sea g(t) = log t, que es una funcin convexa (pero decreciente), denida en o o I = (0, +). Por el Corolario 4.2.2, si x y, entonces g(x) w g(y). En particular,
n n n n
log
i=1 n
xi =
i=1 n
log xi
i=1
log yi = log
i=1
yi ,
xi
i=1
yi .
4.3
El objetivo de esta seccin es probar el teorema de Birkho que asegura que UP (n) es el o conjunto de puntos extremales de DS (n) y por ende (ya sea por el teormea de Krein Millman, o porque va a salir a mano), que toda A DS (n) es combinacin convexa de matrices o de permutacin. Observar que este hecho va a explicar una parte del Teorema 4.1.8. La o herramienta clave, en funcin de poder probar lo anterior inductivamente, son dos resultados o combinatorios que son interesantes por s mismos: El teorema de los casamientos de Hall, y el criterio de Knig-Frobenius sobre existencia de diagonales sin ningn cero para matrices. o u Empecemos con las notaciones para los casamientos: Sean V = {v1 , . . . , vn } y M = {m1 , . . . , mn } dos conjuntos de n elementos. Pensaremos que V es un conjunto de varones (humanos) y M de mujeres. Dada una relacin C V M , diremos o que vi conoce a mj (puede usarse tambien tiene onda con, o gusta de) si (vi , mj ) C. El llamado problema de los casamientos (PC) consiste en encontrar condiciones sobre C que aseguren que exista f : V M biyectiva, tal que Gr(f ) C. Si pensamos que cada v se casa con f (v), el problema se traduce a poder casar todos los varones de V con mujeres de M (sin bigamia) y que todas las parejitas sean felices (se gusten mutuamente). Para describir esas condiciones pongamos un poco de notacin: Dado J In , llamaremos o VJ = {vj : j J} y MJ = {mi M : (vj , mi ) C para algn j J} u = { chicas conocidas por algn muchacho de VJ } . u
Es claro que esta notacin es machista, pero en la poca de Hall nadie cuestionaba esas cosas. o e Observar que MJ = M ([VJ M ] C), donde M es la proyeccin sobre M . Como siempre, o
74
se abrevia Mi = M{i} . Es evidente que si el PC tiene solucin, debe cumplirse que |MJ | |J| o para todo J In , porque f (VJ ) deber estar incluido en MJ . Pero mucho menos claro es a que vale la rec proca: Teorema 4.3.1 (El problema de los casamientos de Hall). El PC tiene solucin para una o relacin C V M si y slo si o o |MJ | |J| para todo J In . (4.6)
Demostracin. Probaremos la suciencia por induccin sobre n. Todo es fcil si n = 1 (ese es o o a el problema de la pareja de nufragos). Si n > 1, separemos dos casos: a Caso 1: Supongamos que tenemos una condicin mejor que (4.6), a saber, o |MJ | |J| + 1 para todo J In , = J = In . (4.7)
En tal caso jamos al vago vn de V y lo casamos con una chica que conozca (mj Mn , o sea que (n, j) C). Veamos ahora que, si J = In1 , los conjuntos VJ y M \ {mj } cumplen la condicin (4.6) (para aplicarles la HI). En efecto, notar que si I J, entonces la Eq. (4.7) o asegura que |MI M \ {mj }| |MI | 1 |I|. En otras palabras, dados k de los muchachos restantes, entre todos deben conocer al menos k chicas todav solteras. Por HI, tenemos una a biyeccin entre VJ y M \ {mj } con grco contenido en C, que se puede extender, mandando o a n j, a todo V sobre todo M . Caso 2: Si existe un J In tal que = J = In y |MJ | = |J| = k < n , (4.8)
por HI podemos denir una biyeccin f1 : VJ MJ con Gr(f1 ) C. Por otra parte, por la o igualdad (4.8), es fcil ver que los conjuntos que quedan, VJ c y M \ MJ cumplen tambin la a e c condicin (4.6). En efecto, si I J tiene |I| = r, observemos que MIJ \ MJ = MI \ MJ (las o que no conocen los de J deben conocerlas los de I). Pero |MIJ \ MJ | |MIJ | |MJ | (r + k) k = r . Luego |MI \ MJ | r = |I|. Otra forma de verlo es la siguiente: casamos k pibes que conoc an justo k chicas. Dados r de los solteros, junto con los casados conoc al menos k + r chicas, an por lo que los r solteros conoc ellos a todas las solteras de este grupo (por lo menos r), an porque los k novios solo conoc a las k que se casaron con ellos. Aplicamos nuevamente la an HI para denir otra biyeccin f2 : VJ c M \ MJ , tambin con grco dentro de C. Pegando o e a ambas funciones, encontramos la biyeccin buscada. o Denicin 4.3.2. Sea A Mn (C). o 1. Dada Sn , llamamos al vector (a1(1) , . . . , an(n) ) una diagonal de A. Notar que las diagonales tienen exactamente un elemento de cada la y uno de cada columna de A. 2. Decimos que A tiene una diagonal sin ceros si alguna de las diagonales antes denidas tiene todas sus coordenadas no nulas.
75
Corolario 4.3.3 (Knig-Frobenius). Sea A Mn (C). Entonces son equivalentes: o 1. Toda diagonal de A tiene ceros. 2. Existen subconjuntos I, J In tales que |I| + |J| > n y la submatriz AIJ 0, es decir que aij = 0 para todo par (i, j) I J. Demostracin. Consideremos los conjuntos M = V = In y la relacin o o C = {(i, j) In In : aij = 0}. Es claro que A tiene alguna diagonal sin ceros si y slo si el PC tiene solucin para la relacin o o o C. Que A no tenga ninguna diagonal sin ceros equivale, por el Teorema 4.3.1, a que exista I In tal que |MI | < |I| = k. Observar que K := In \ MI = {j In : aij = 0 para todo i I}
es el mayor de los conjuntos J de ndices tales que AIJ 0. Adems, si |K| = r, entonces a k + r > n si y slo si n r = |MI | < k. Y esto concluye la prueba. o Corolario 4.3.4. Si A DS (n), entonces A debe tener alguna diagonal sin ceros. Demostracin. Supongamos que no. Reordenando las y columnas de A (multiplicando por o matrices de permutacion) podemos suponer, por el Corolario 4.3.3, que existen k, r In tales que k + r > n y que aij = 0 si i Ik y j Ir . En otras palabras, que existen P, Q UP (n) tales que 0kr B P AQ = DS (n) , C D donde 0kr es la matriz nula de Mk,r (C). En tal caso, las k las de B deben tener traza uno, lo mismo que las r columnas de C. Pero entonces la suma de todas las entradas de P AQ (las de D son no negativas) deber sumar estrictamente ms que n. Pero esto contradice el hecho a a de que P AQ DS (n). Teorema 4.3.5 (Birkho). El conjunto de matrices doble estocsticas DS (n) es convexo y a sus puntos extremales son el conjunto UP (n) de matrices de permutacin. Es decir que toda o A DS (n) es combinacin convexa de matrices de permutacin. o o Demostracin. Es fcil ver que si P UP (n), entonces es extremal en DS (n). Luego basta o a ver que toda A DS (n) es combinacin convexa de matrices de permutacin. o o Sea A DS (n). Notaremos k(A) = {(i, j) In In : aij = 0} . Probaremos el resultado induccin en k(A). Observar que n k(A) n2 , y que k(A) = n si y slo si A UP (n), por o o lo que lo armado es trivial en este caso. Supongamos que k(A) > n. Por el Corolario 4.3.4 existe Sn tal que ai(i) > 0, para todo i In . Sea P = P UP (n) la matriz asociada a la permutacin . Por la Eq. (4.3), Pij = 0 si y slo si o o j = (i). Sea a = m ai(i) . Notar que, por el hecho de que k(A) > n, se debe cumplir que n
iIn
76
A aP DS (n). Finalmente, se observa que 1a A = aP + (1 a)B, y se aplica la hiptesis inductiva, ya que k(B) < k(A). En efecto, si o aij = 0, entonces Pij = 0, por lo que tambin bij = 0. Esto dice que k(B) k(A). Por otra e parte, si a = ai(i) = 0, entonces bi(i) = 0, con lo que k(B) < k(A) como se arm. o 0 < a < 1. Es fcil ver, entonces, que B = a Observacin 4.3.6. El Teorema de Birkho est intimamente relacionado con el Teorema o a 4.1.8. Sin embargo, no se implican mutuamente. En efecto, el Teorema 4.3.5 da como novedad la implicacin 3 = 2 del Teorema 4.1.8. Pero esta sal impl o a cita por el rulo de auqella prueba, y el Teorema 4.3.5 no dice que si y x entonces haya una A DS (n) tal que Ax = y. Mirndolos ahora al reves, la implicacin 3 = 2 del Teorema 4.1.8 dice que para cada a o x Rn , hay una combinacin convexa de permutaciones que hace, en ese x, lo mismo que o hace A. Pero no que haya una que sirva para todos los x a la vez.
4.4
Denicin 4.4.1. o
si
x i
i=1
i=1
yi
para todo
k In .
n n
(4.9)
2. Si x, y > 0, escribimos x
log
y si se cumple que x
log
y , y adems a
i=1
xi =
i=1
yi .
comn, se cumplen desigualdades invesas para las entradas mas pequeas de x e y. Es decir, u n x i
i=k
i=k
yi
para todo
k In .
(4.10)
y, entonces xp
yp
para todo
p R+ .
w
2. Si x, y > 0, entonces x
log
y implica que xp
y p para todo p R .
t ept es convexa para todo p R, deducimos lo armado en el item 2. a partir del Corolario 4.2.2.
4.5 Ejercicios
77
1. Si x, y Rn y x +
w
log
Observar que, si k1 = mx{j In : xj > 0}, entonces la condicin (4.9) implica que a o yk1 > 0 . Podemos suponer, entonces, que k1 = n, porque las desigualdades que denen la relacin xp w y p sern automticas para k > k1 . Estamos casi en el caso anterior, o a a dado que la unica diferencia es que tenemos log x w log y en lugar de log x log y. Pero esto es suciente si suponemos que p R+ , porque en tal caso se tiene que la funcin t ept es convexa creciente, y se aplica nuevamente el Corolario 4.2.2. o Observacin 4.4.4. o 1. El caso ms usado de la Proposicin 4.4.3 es cuando p = 1. Es a o n decir que, si x, y R+ , entonces x w y implica x w y. Esto ser sumamente util a
log
cuando se lo aplique a desigualdades con valores singulares de matrices, usando tcnicas e de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si hubese quedado x y, deb cumplirse que x y . a
log
2. Por otra parte, la Proposicin 4.4.3 se puede generalizar, sin cambiar la prueba, si o remplazamos las funciones f (t) = tp por cualquier funcin f : R+ R tal que la o aplicacin t f (et ) resulte convexa (o convexa creciente). Notar que, en el caso o demostrado, se usaba esa propiedad para la funcin t (et )p = ept . o
4.5
Ejercicios
Deducir que DS (n) es un conjunto convexo, y que dadas dos matrices A, B DS (n), entonces tambin AB DS (n). e 4.5.2. Probar los 9 items de la Observacin 4.1.5. o 4.5.3. Probar que, dados x, y Rn , entoncecs 1. x 2. x
w w
y. w x.
Ejercicios nuevos
4.5.4. Sea x Rn . Probar que
k
x = m n i
i=1
+k z
:x=y+z
para todo k In .
4.5 Ejercicios
78
y junto con x
y.
2. Si > 0, entonces x 3. x
w w w
y = x y.
y = x
y .
y x
y x
y.
4.5.6. Una transformacin lineal A en Cn se dice que preserva positividad si lleva vectores de o coordenadas no negativas en vectores de coordenadas no negativas. Se dice que preserva la traza si tr Ax = tr x para todo x. Se dice unital si A1 = 1. Dada A Mn (C), probar que A DS (n) si y slo si la transformacin lineal A preserva o o positividad, preserva la traza, y es unital. Mostrar que A preserva la traza si y slo si A es o unital. 4.5.7. Sea A DS (n) . 1. Sea x Rn . Si |x| = (|x1 |, . . . , |xn |), demostrar que |Ax| A(|x|) ( signica coordenada a coordenada) .
2. Demostrar que 1 (A) y que 1 admite un autovector de coordenadas positivas. 3. Demostrar que 1 = (A) = A 4.5.8. Sean x, y Rn . Probar que 1. x + y x+y x + y .
w sp
xy
x y .
(x + y, 0) en R2n .
y w y.
4.5.9. Sea f : R+ R+ cncava y tal que f (0) = 0. Probar que: o 1. f es creciente (es continua?). 2. Si c, d R+ , entonces f (c + d) f (c) + f (d).
4.5 Ejercicios
79
3. Si x, y Rn , + x y =
iIn
f (xi )
iIn w
f (yi ). y. f (|yi |) .
iIn
f (|xi |) +
4.5.10. Sean x, y, u Rn tales que sus coordenadas estan ordenadas en forma decreciente. Probar que: 1. x y = x, u y, u .
w
5.1
Teorema 5.1.1 (Teorema de mayorizacin de Schur 3). Sea A H(n). Recoredemos la o n notacin d (A) = (a11 , . . . , ann ) R . Entonces, se tiene que o d (A) (A).
81
Demostracin. Para demostrar que d (A) (A) vamos a probar que d (A) = B (A), para o cierta B DS (n). Como A H(n), si D = diag ((A)), existe U U(n) tal que A = U DU . Mediante cuentas elementales de matrices, se puede vericar que cada entrada de A tiene la forma: dados i, j In ,
n n
aij =
k=1
uki k ukj ,
en particular,
aii =
k=1
k |uki |2 .
Consideremos ahora la matriz B = (|uji |2 )ij que, por ser U unitaria, cumple B DS (n). Adems a n 2 |u | k=1 k1 k |u11 |2 |un1 |2 1 . . . = . ... = d (A) . . . . B(A) = . . . . . n |u1n |2 |unn |2 n |u |2
kn k k=1
Luego, el Teorema 4.1.8 completa la demostracin. o Observacin 5.1.2. Otra demostracin del Teorema mayorizacin de Schur puede hacerse o o o por induccin, aplicando el Teorema de entrelace de Cauchy 2.4.2. Para ello basta reordenar o la diagonal de A, conjugandola por una matriz de permutacin como se hace en la Observacin o o 4.1.5, lo que no cambia sus autovalores. Observacin 5.1.3. La matriz B = (|uji |2 )ij DS (n) que aparece en el teorema anterior o (para cierta U U(n) ), es un tipo especial de matriz doble estocstica. A tales matrices se a las llama ortoestocsticas. Este simptico nombre, que proviene de construir elementos de a a DS (n) a partir de matrices unitarias (que en el caso real se llaman ortogonales), est bien a elegido porque no toda matriz DS (n) tiene la suerte de provenir de una matriz unitaria. A 1 1 0 1 Por ejemplo A = 1 0 1 DS(3), pero no es ortoestocstica, porque no hay modo de a 2 0 1 1 que sus columnas provengan de vectores ortogonales. Como corolario del Teorema mayorizacin de Schur, encontramos una nueva caracterizacin o o para los autovalores de una matriz Hermitiana. En este caso, para la suma de los k-primeros. Proposicin 5.1.4 (Principio del Mximo de Ky Fan). Sea A H(n). Entonces o a
k k
j (A) = mx a
j=1 j=1
Axj , xj ,
para todo k In ,
donde el mximo se toma sobre todas las k-uplas ortonormales {x1 , ..., xk } en Cn . a Demostracin. Fijemos k In . Sea {x1 , ..., xk } una k-upla ortonormal cualquiera. Sea o U U(n) tal que sus primeras k columnas sean los vectores dados. Sea B = U AU . Luego
k k k k
(B) = (A)
y
j=1
bjj =
j=1
Bej , ej =
j=1
A U ej , U ej =
j=1
Axj , xj .
82
Axj , xj =
j=1 j=1
bjj
j=1
d (B) j
j=1
j (B) =
j=1
j (A) .
Para ver la otra desigualdad, tomemos B = {v1 , ..., vn } una BON de Cn adaptada a (A). Luego {v1 , ..., vk } es una k-upla ortonormal y
k k k k
mx a
j=1
Axj , xj
j=1
Avj , vj =
j=1
j (A) vj , vj =
j=1
j (A) ,
como quer amos demostrar. Ejercicios 5.1.5. Sea A H(n). Identicando las k-uplas ortonormales de Cn con bases de rangos de proyectores, y con columnas de isometr de Ck en Cn , probar que: as 1. Si, para k In , notamos Pk (n) = {P H(n) : P 2 = P y rk(P ) = k}, entonces
k
j (A) = mx a
j=1
P Pk (n)
tr P AP .
(5.1)
j (A) = mx tr U AU , a
j=1 U Uk (n)
(5.2)
Es importante el hecho de que, en la suma (A) + (B), se asume que ambos vectores estn a ordenados de la misma forma. Demostracin. Por la frmula (5.1), para todo k In podemos escribir o o
k
j (A + B) = mx a
j=1
P Pk (n)
tr P (A + B)P
P Pk (n) k
mx a
tr P AP + mx a
k
P Pk (n)
tr P BP
=
j=1
j (A) +
j=1
j (B).
83
La igualdad para k = n surge de que tr(A + B) = tr(A) + tr(B). Recordar que en la Proposicin 3.7.5 probamos que, dada C Mn (C), entonces si o C= 0 C M2n (C) , C 0
se tiene que C = {si (C)} (con las mismas multiplicidades). Es decir, (C) = (s1 (C), , sn (C), sn (C), , s1 (C) ) . Corolario 5.1.7. Sean A, B H(n). Entonces s(A + B)
w
(5.3)
s(A) + s(B).
Demostracin. Notar que A + B = A + B. Por la Eq. (5.3) y las desigualdades resultantes o de la relacin (A + B) (A) + (B) para los n primeros o ndices k In I2n , se tiene que s(A + B) w s(A) + s(B). Observacin 5.1.8. Notar que el resultado anterior es necesario para vericar que las normas o (k) de Ky Fan, para cada k N, denidas en el Ejemplo 3.4.1, cumplen la desigualdad triangular. Les hab salido el ejercicio? a
5.2
Teorema de Schur-Horn
5.2.1. Sea x Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como vimos en 1.9.3, la matriz Px = x x = xx = (xi xj )ij Mn (C) es el proyector ortogonal sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que
n n
z=
i=1
z, xi xi
para todo z C
I=
i=1
xi
xi .
(5.4)
Proposicin 5.2.2. Sea A Mn (C). Se tiene que A Mn (C)+ si y slo si existen vectores o o n unitarios x1 , . . . , xr C , y nmeros 1 , . . . , r R+ tales que u
r r
A=
i=1
i x i
xi ,
o sea que
A=
i=1
i P xi .
(5.5)
Demostracin. Por un lado es claro que si A cumple (5.5), entonces A 0. Rec o procamente, si A Mn (C)+ , sea B = {x1 , . . . , xn } es una BON de Cn adaptada a (A). Usando la ecuacin o n (3.12), para todo z C se tiene que,
n n n n
Az = A
i=1
z, xi xi =
i=1
z, xi Axi =
i=1
i (A) z, xi xi =
i=1
i (A) xi
xi z .
84
Observacin 5.2.3. Notar que la m o nima cantidad r de proyectores de rango uno que puede usarse para obtener una representacin de A como en (5.5) es r = rk(A). Adems, si A o a 1/2 + Mn (C) cumple (5.5), deniendo yi = i xi , se tiene que las matrices yi yi no son ms a
r
yi
yi .
Es natural preguntarse, dado A Mn (C)+ y r rk(A), para qu sucesiones 1 , . . . , r en e R+ se puede obtener para A una representacin como (5.5). Este problema est o a ntimamente relacionado con el llamado Teorema de Schur-Horn. Recordemos que si A Mn (C), llamamos d (A) = (a11 , . . . , ann ) Cn . Proposicin 5.2.4. Sean c Rn y A Mn (C)+ . Son equivalentes: o +
n
cj xj
xj .
2. Existe B Mn (C)+ tal que d (B) = c y (B) = (A), o sea que B A. = Demostracin. Si se verica 1, sea X Mn (C) denida por Ck (X) = ck xk , k In . o Veamos que XX = A: Para cada k In , notemos por Xk Mn (C) a la matriz tal que Ck (Xk ) = Ck (X), pero Cj (Xk ) = 0 si j = k. Luego, se tiene que X=
kIn 1/2
Xk ,
Xk Xj = 0
si
j=k
y Xk Xk = ck xk x = ck xk k
xk .
Es claro que todo esto implica que XX = A. Por lo tanto (A) = (XX ) = (X X). Si B = X X, es fcil ver, adems, que Bii = ci xi 2 = ci , i In , lo que prueba 2. a a Rec procamente, si B Mn (C)+ cumple (B) = (A) y d (B) = c, sea U U(n) tal que U AU = B (se puede hacer, pasando por diag ((A)) ). Consideremos la matriz X = A1/2 U . Entonces X X = B y XX = A1/2 U U A1/2 = A, mientras que ci = Bii = Ci (X) 2 . Basta Ci (X) , y se verica como antes que ahora denir xi = Ci (X)
n n
A = XX =
j=1
cj xj x j
=
j=1
cj xj
xj ,
lo que prueba 1. Ahora s podemos probar la rec , proca del Teorema 3 de Schur , sobre mayorizacn entre la o diagonal y los autovectores. Este resultado se debe a R. Horn, y ponindolos juntos se los e conoce como el Teorema de Schur-Horn, que tiene importantes aplicaciones y generalizaciones a operadores en espacios de Hilbert y a lgebras de operadores. Como ingrediente extra (clave a para la prueba) se incluye una tercera condicin equivalente (en el caso positivo), que tiene o que ver con lo que ven amos viendo, o sea el expresar una matriz A Mn (C)+ como suma de mltiplos de proyectores unidimensionales. u
85
2. Existe B H(n) tal que d (B) = c y (B) = b . Si, adems, b y c tienen entradas no negativas, lo anterior equivale a a 3. Existen vectores unitarios x1 , . . . , xn Cn tales que
n
diag (b) =
j=1
cj xj x . j
Demostracin. Antes que nada, notemos que se puede suponer que b = b y c = c , porque o las tres condiciones son invariantes por permutaciones (en el caso de 2 y 3, v conjugar con a matrices de permutacin adecuadas, usando la Observacin 4.1.5). Notemos A = diag (b). El o o Teorema 3 de Schur 5.1.1 muestra que 2 implica 1. La Proposicin 5.2.4 muestra que 2 y 3 o son equivalentes, cuando b y c tienen entradas no negativas. Vericaremos, en principio, que 1 implica 3 en el caso en que b y c tienen entradas estrictamente positivas. Lo haremos por induccin en n. Si n = 1 no hay nada que probar. Sea n > 1. o Como b1 c1 bn , podemos tomar un k In1 tal que bk c1 bk+1 . Se arma: existe x1 Gen {ek , ek+1 } de norma uno, tal que A1 = A c1 x1 x tiene rango a 1 lo sumo n 1. En efecto, para ver que el tal x1 existe, denimos x(t) = cos t t ek + sin ek+1 2 2 y A(t) = A c1 x(t)x(t) , t [0, 1] .
Entonces la curva d(t) = det A(t) es continua. Pero d(1) 0 d(0) porque A(0) y A(1) son matrices diagonales, con un slo elemento diagonal no positivo (es bk+1 c1 ) en el caso de o A(1), y con todos no negativos (anche bk c1 ) en el de A(0). Luego basta tomar x1 = x(t) para algn t [0, 1] tal que d(t) = 0. u Es claro que existe una BON {y1 , y2 } de Gen {ek , ek+1 } tal que A1 y1 = (bk + bk+1 c1 )y1 y A1 y2 = 0. Luego la matriz de A1 en la bon B = {y2 , e1 , . . . , ek1 , y1 , ek+2 , . . . , en } queda A1
B
(5.6)
Sean a, d Rn1 , dados por a = (c2 , . . . , cn ) y d = (b1 , . . . , bk1 , (bk + bk+1 c1 ), bk+2 , . . . , bn ) . Notar que, como bk c1 bk+1 , entoncecs dk1 = bk1 bk dk bk+1 bk+2 = dk+1 . Para aplicar la HI al asunto anterior, deber amos probar que a d. En efecto, si r k,
r1 r r1 r1 r1
ai =
i=1 i=2
ci
i=1
ci
i=1
bi =
i=1
di .
86
Si k + 1 r n 1,
r r r1 r k1 r r1
ci
i=1 i=1
bi =
i=1
ai =
i=2
ci
i=1
bi + (bk + bk+1 c1 ) +
i=k+2
bi =
i=1
di
b. En consecuencia, a
n j=2
Mn (C)+ .
(5.7)
Si denimos x2 , . . . , xn Cn tales que las coordenadas de cada xj en B sean (0, zj ), resulta que son tambin unitarios (los zj lo son y B es una bon). Traduciendo la ecuacin (5.7) (pensada e o en la base B) a coordenadas en la base cannica, obtenemos o
n
A1 =
j=2
cj xj x Mn (C)+ j
y, por lo tanto,
n
A = A1 + c 1 x 1 x = 1
j=1
cj xj x . j
Conclu mos que 1 implica 3, si b y c tienen entradas estricatamente positivas. De lo anterior podemos deducir que 1 2 en ese caso (b, c > 0), porque 1 3 y 3 2 (2 1 era el Teorema 3 de Schur). Pero esto se generaliza sin dicultad al caso general (con b y c cualesquiera en Rn ) usando que para todo m R se tiene que x + m1 y + m1 x y,
y que dada B H(n), entonces d (B + mI) = d (B) + m1 y (B + mI) = (B) + m1. Finalmente, probado 1 2 en general, ahora por la Proposicin 5.2.4, ya sabemos que 3 es o equivalente a ellas si b y c tienen entradas no negativas. Teorema 5.2.6. Sea a Rn y A H(n) tal que (A) = a . Entonces, {x Rn : x a} = d ( U AU ) : U U(n) .
Demostracin. Si B = U AU , con U U(n), entoces (A) = (B) = a . Luego por el o Teorema de mayorizacin de Schur 5.1.1, se tiene que d (B) a. o Rec procamente, si x Rn cumple x a, por el Teorema 5.2.5 existe B H(n) tal que d (B) = x y (B) = a . Por lo tanto debe existir U U(n) tal que B = U AU . Luego x {d (U AU ) : U U(n)}.
87
Corolario 5.2.7. Sean A Mn (C)+ y c Rm , con m n. Entonces existen proyectores + autoadjuntos P1 , . . . , Pm de rango uno, tales que
m
A=
k=1
c k Pk
((A), 0, . . . , 0) := (A) Rm . +
Demostracin. Sea A1 = o c
A 0 Mm (C)+ . Luego (A1 ) = (A). Por el Teorema 5.2.6, 0 0 (A) si y slo si existe U U(m) tal que d (U A1 U ) = c. Es claro que si o P = In 0 0 0 Mm (C)+ , entonces U A1 U = U P A1 P U .
Luego, si llamamos U1 Mm,n (C) a la parte no nula de U P , entonces U1 AU1 = U A1 U . Notar que U1 U1 = In . Si denimos T = A1/2 U1 Mn,m (C), y xi = Ci (T ) Cn para i Im , se tiene que U A1 U = T T , por lo que xi 2 = ci , i Im . Por otro lado, m m
A = TT =
k=1
xk x k
=
k=1
c k Pk ,
donde Pk = c1 xk x es proyector autoadjunto de rango uno, para k Im (si ck = 0, puede k k tomarse como Pk cualquier cosa). La rec proca se prueba deniendo T Mn,m (C) tal que 1/2 tenga columnas xk = ck yk , donde yk yk = Pk , k Im . El hecho de que A = T T implica que existe una U1 Mm,n (C) que cumple todo lo siguiente:
T = A1/2 U1
U1 U1 = In
d (U1 AU1 ) = d (T T ) = c .
Observacin 5.2.8. El resultado anterior resulve el problema planteado en el prrafo anterior o a a la Proposicin 5.2.4, al menos para el caso r n. Es fcil ver, usando el Teorema 5.2.5, que o a si A Mn (C)+ , rk(A) r < n y c Rr , entonces la condicin necesaria y suciente para o + r que A pueda ser representado A = k=1 ck Pk para ciertos proyectores Pk de rango uno, es que (A) (c, 0, . . . , 0) Rn .
5.3
Denicin 5.3.1. Dada una norma N en Mn (C), decimos que N es una norma unitariamente o invariante (NUI) , si cumple que N (U AV ) = N (A) para toda A Mn (C) y todo par U, V U(n) .
En tal caso, el Teorema 3.2.5 dice que N (A) = N ((A) ) para toda A Mn (C).
88
Denicin 5.3.2. Sea N una NUI en Mn (C). Consideremos la funcin o o gN : Cn R+ para todo x Cn . Proposicin 5.3.3. Sea N una NUI en Mn (C) y sea x Cn . Entonces: o 1. gN es una norma en Cn . 2. gN (x) = g(|x|) := gN (|x1 | , . . . , |xn |). 3. gN (x) = g(x ) = gN (x(1) , . . . , x(n) ), para toda Sn . Demostracin. o 1. Se deduce de que la aplicacin Cn o x diag (x) Mn (C) es lineal e inyectiva. dada por gN (x) = N (diag (x) )
2. Sea xj = j |xj | donde wj = ei j . Como W = diag (1 , . . . , n ) U(n), tenemos que gN (|x|) = N (diag (|x|) ) = N (W diag (x) ) = N (diag (x) ) = gN (x) .
3. Sea P UP (n) la matriz asociada a . Luego P diag (x) P = diag (x ) . Entonces, gN (x ) = N (P diag (x) P ) = N (diag (x) ) = gN (x) .
Denicin 5.3.4. Una funcin f : Cn R que cumple los o o tems 1, 2 y 3 de la Proposicin o anterior se denomina gauge simtrica. Abreviaremos esto escribiendo que f es una fgs. e Lema 5.3.5. Si g es una fgs, entonces, g es montona en el siguiente sentido: Si se cumple o que |xi | |yi | para todo i In , entonces, g(x) g(y). Demostracin. Por la Proposicin 5.3.3, podemos suponer que x, y Rn . Por un argumento o o + inductivo, es suciente vericar que si t [0, 1] y k In , entonces g(y1 , . . . , t yk , . . . , yn ) g(y1 , . . . , yk , . . . , yn ) . En efecto, si tomamos ese x = (y1 , . . . , t yk , . . . , yn ), entonces g(x) = g 1t 1+t y + (y1 , . . . , yk , . . . , yn ) 2 2 1+t 1t g(y) + g(y1 , . . . , yk , . . . , yn ) 2 2 1+t 1t = g(y) + g(y) = g(y) , 2 2
Este Lema nos permitir mostrar la relacin clave que existe entre estas fgss y la mayorizacin a o o dbil de vectores. e
89
Teorema 5.3.6. Sea g es una funcin gauge simtrica en Cn y sean x, y Rn tales que o e + x w y. Entonces, g(x) g(y). Demostracin. Como x w y, la Proposicin 4.1.12 nos asegura que existe u Rn tal que o o x u y. Ahora bien, el Lema 5.3.5 garantiza que g(x) g(u) (recordar que x 0). Por otro lado, como u [0, 1] tales que
Sn
y , para ciertos
= 1. Luego
g(u) = g
Sn
Sn
g(y ) =
Sn
g(y) = g(y) .
Teorema 5.3.7. 1. Si N es una NUI en Mn (C), entonces, gN es una fgs en Cn . 2. Si g es una fgs en Cn , entonces la funcin Ng : Mn (C) R+ dada por o Ng (A) = g(s1 (A) , . . . , sn (A) ) , es una NUI en Mn (C). Demostracin. o 1. Esto es la Proposicin 5.3.3. o 2. Slo demostraremos la desigualdad triangular. Las dems propiedades quedan como o a ejercicio para el lector. Sean A, B Mn (C). Luego Ng (A+B) = g(s(A+B)) g(s(A)+s(B)) g(s(A))+g(s(B)) = Ng (A)+Ng (B) , ya que s(A + B)
w
para
A Mn (C) ,
Teorema 5.3.8 (Ky Fan). Sean A, B Mn (C). Entonces son equivalentes: 1. N (A) N (B) para toda norma unitariamente invariante N . 2. A
(k)
B
w
(k)
para todo k In .
3. s(A)
s(B).
(k)
para todo
k In
s(A)
s(B) ,
y en tal caso se tiene que g(s(A) ) g(s(B) ) para toda fgs. La rec proca es evidente. Ahora saldamos otra deuda contraida en el Ejemplo 3.4.1:
90
=
i=1
si (A)
es efectivamente una norma en Mn (C), y adems es NUI. a Demostracin. Se usa el Teorema 5.3.7 y el hecho de que la norma p usual en Rn es una o funcin gauge simtrica. o e Corolario 5.3.10. Sean A, B Mn (C)+ tales que A B. Entonces, N (A) N (B) para toda norma unitariamente invariante N . Demostracin. Aplicando el Corolario 2.3.7, obtenemos que o 0 A B = sk (A) = k (A) k (B) = sk (B) , Luego basta aplicar el Teorema 5.3.8. Corolario 5.3.11. Sea N una NUI en Mn (C). Dadas A, B Mn (C), se tiene que 1. N (AB) A
sp
para todo
k In .
N (B).
N (A) A
= tr |A|.
3. N es una norma matricial. Demostracin. o 1. Se deduce de la desigualdad sk (AB) A (3.3), y del Teorema 5.3.8.
sp
2. Sea g la funcin gauge simetrica asociada a N . Como N est normalizada, entonces o a g(ek ) = 1 para todo k In . Luego, A
sp
sk (A)g(ek ) =
k=1
sk (A) = A
3. Es claro usando lo anterior. Proposicin 5.3.12. Sea g : Rn R, una funcin convexa e invariante por permutaciones, o o n es decir que si x R y P UP (n) , entonces g(x) = g(P x). Entonces, dados x, y Rn , x y = g(x) g(y) .
91
P y . para ciertos
= 1. Entonces g(x) = g
Sn
P y
Sn
g (P y) = y .
Notar que si g es una fgs, es convexa por ser una norma (homogeneidad + DT). Corolario 5.3.13. Dadas A, B H(n). Entonces (A) (B) = s(A)
w
s(B).
Demostracin. Como A H(n), se tiene que s(A) = | (A)| . Por lo tanto, si g es una o fgs, se tiene que g(s(A) ) = g((A) ). Lo mismo pasa para B, y el resultado se deduce de la
k
5.4
Hasta el momento slo hemos visto resultados relacionados con la mayorizacin de vectores. o o Pero a cada matriz A H(n) se le puede asociar el vector (A) Rn formado por todos los autovalores de A. Esto permite la siguiente denicin, o Denicin 5.4.1. Si A, B H(n), se dice que A est mayorizada por B y se escribe A o a si se verica que (A) (B). Es decir, A B si
k k
j (A)
j=1 j=1
j (B),
1kn
tr A = tr B .
Denicin 5.4.2. Sea A Mn (C). o 1. Dado un proyector P H(n) (o sea P = P 2 = P ), se dene el pinching de A como CP (A) := P AP + (I P )A(I P ) H(n) . Por ejemplo, si P proyecta sobre las primeras k coordenadas en Cn , entonces A= B C D E = CP (A) = B 0 0 E ,
donde los bloques tienen los tamaos adecuados (por ejemplo, B Mk (C) ). La matriz n de CP (A) tiene siempre esa pinta, si uno trabaja en coordenadas de una BON que empiece generando R(P ) y termine generando ker P .
92
2. Ms generalmente, un sistema de proyectores en Mn (C) es una conjunto a P = {P1 , . . . , Pr } H(n) , donde los Pi son proyectores no nulos tales que
r
Pi Pj = 0
si
i=j
y
i=1
Pi = I .
Notar que un proyector P H(n) dene un sistema de dos proyectores P = {P, I P }. 3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), se dene el pinching asociado:
r
CP : Mn (C) Mn (C) ,
dado por
CP (A) =
i=1
Pi APi ,
A Mn (C),
que tambin puede verse como una compresin a bloques diagonales (operando en una e o BON adecuada). Notar que se tiene la siguiente factorizacin: o CP = CP1 CP2 CPr , y lo mismo en cualquier otro orden entre los CPi . Ejercicios 5.4.3. 1. Si A H(n) y (A) = {1 , . . . , r } (todos distintos), entonces deniendo Pi como el proyector sobre ker(A i I), i Ir , se obtiene un sistema de proyectores que verica
r
(5.8)
que A =
i=1
i Pi .
2. Dado un sistema de proyectores P en Mn (C) y una matriz A Mn (C), se tiene que CP (A) = A si y slo si A conmuta con todos los Pi de P. O sea, si A es diagonal de o bloques. Vericar que eso sucede en el ejemplo anterior. 3. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP verica las siguientes propiedades: (a) Es lineal, idempotente (i.e., CP CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi , i Ir . (b) Reduce normas espectrales y preserva trazas (si no sale, ver la Proposicin 5.4.9). o (c) Si A Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto (resp. positivo). Por lo tanto, en general, CP (A ) = CP (A) . Proposicin 5.4.4. Sea A H(n) y P un sistema proyectores en H(n). Entonces o CP (A) A.
93
Demostracin. Por la Eq. (5.8), basta considerar el caso de pinchings de un solo proyector o P H(n), o sea, el sistema P = {P, I P }. Sea U = P (I P ) = 2 P I H(n). Es fcil a ver que, si R(P ) = S, entonces se tiene que U = P (I P ) = I 0 0 I S U(n) = 2 CP (A) = A + U AU = A + U AU . (5.9) S
Pero, como (U AU ) = (A), por el Teorema de Weyl 5.1.6 se tiene 2 (CP (A)) por lo que CP (A) A. (A) + (U AU 1 ) = 2 (A) ,
Ejercicio 5.4.5. 1. Claricar en qu sentido la Proposicin 5.4.4 es una generalizacin del e o o Teorema de mayorizacin de Schur. o 2. Dados x, y, z, w Rn tales que x = x , y = y , z = z y w = w , probar que z w y x y = x + z y+w .
Es cierto si no estan ordenados? 3. Deducir del Teorema 5.1.6 (+ induccin) que, si A1 , . . . , Am H(n), entonces o
m m
k=1
Ak
k=1
(Ak ) .
Denicin 5.4.6. Dado un espacio vectorial V y un subconjunto C V, llamaremos conv [C] o a la cpsula convexa de C: a
m
conv [C] =
k=1
k bk : m N, bk C, Rm y
(1, 0, . . . , 0) .
es decir, el conjunto de todas las combinaciones convexas de elementos de C. El siguiente teorema da una caracterizacin, intr o nseca de matrices, de la mayorizacin mao tricial: Teorema 5.4.7. Sea A H(n). Denotemos por U(A) = {U AU : U U(n)} = {B H(n) : (B) = (A)} la rbita unitaria de A. Entonces, o {T H(n) : T O sea que T A} = conv [U(A) ] . (5.10)
94
T =
k=1
e1
(m)
(T )
=
k=1
k (A) = (A) = T
Rec procamente, sea T H(n) tal que (T ) (A). Notaremos a = (A). Con las notaciones de la Observacin 4.1.5, el Teorema 4.1.8 dice que o (T ) =
Sn
P a =
Sn
diag ((T ) ) =
Sn
P DP .
Luego T conv [{U AU : U U(n)}] = conv [U(A) ]. Observacin 5.4.8. Notar que el Teorema 5.4.7 permite generalizar el Corolario 5.3.14 en el o siguiente sentido: Si A, B H(n), por la frmula (5.10) se tiene que o A B = N (A) N (B)
para toda norma N que verique N (U CU ) = N (C), C Mn (C), U U(n). Estas normas se llaman dbilmente unitariamente invariantes (NDUI). Notar que, por ejemplo, e w(C) = mx | Cx, x | : x = 1 , a C Mn (C),
que se llama radio numrico de C, es una tal norma, pero no es NUI. Otro ejemplo de este e tipo es M (C) = N (C)+| tr C|, que es NDUI para cualquier NUI N . Para el caso de pinchings, se tiene un resultado ms general que la Proposicin 5.4.4: a o Proposicin 5.4.9. Sean A Mn (C) (no necesariamente autoadjunta) y P un sistema o proyectores en H(n). Entonces N CP (A) N (A) , para toda norma N que sea NDUI en Mn (C) . (5.11)
95
Demostracin. Por la Eq. (5.8) basta probarlo para un solo proyector P H(n). En tal caso, o sea U = P (I P ) = 2 P I U(n). Por la Eq. (5.9), se tiene que 2 CP (A) = A + U AU = A + U AU . Con esto, la desigualdad al tomar N es clara. Observacin 5.4.10. Otra forma de verlo es observar que, en el caso general, siempre se o verica que CP (A) conv [{U AU : U U(n)}], aunque A no sea autoadjunta. Esto se hace eligiendo las matrices unitarias y diagonales de bloques (para P), con IR(Pi ) en cada bloque (ver el ejercicio 5.6.4). Proposicin 5.4.11. Sean A, B Mn (C). Sea N una NUI. Entonces se tienen las desigualo dades 1 A+B 0 A 0 |A| + |B| 0 N N N . 0 A+B 0 B 0 0 2 Demostracin. La primera desigualdad se deduce de que o B 0 0 A = A 0 0 B , v la matriz a 0 I I 0 U(n) .
Para probar la segunda, notar que, si A = U |A| y B = V |B| con U, V U(n), entonces A 0 0 B = U 0 0 V |A| 0 0 |B| = N A 0 0 B =N |A| 0 0 |B| ,
por lo que podemos suponer que A, B Mn (C)+ . En tal caso, si C = A1/2 , D = B 1/2 , y T = C 0 D 0 , entonces A+B 0 0 0 = T T .
5.5
El teorema de Lidskii tiene tres versiones equivalentes. Comenzaremos enunciando las tres, y luego iremos armando las pruebas.
96
Teorema 5.5.1 (Lidskii 1). Sean A, B H(n). Entonces (A) (B) (A B) (A) (B) .
Ejercicio 5.5.2. 1. Decir porqu es incorrecta la siguiente prueba de la primera parte del e Teorema de Lidskii 1: Si A, B H(n), por el Teorema 5.1.6, (A) (A B) + (B). Por lo tanto, para todo k In ,
k k
j (A) j (B)
j=1 j=1
j (A B) .
Deducimos entonces que (A) (B) (A B). La igualdad, para k = n, sale tomando trazas. Si no ven la piada, leer la Observacin 4.1.9. o 2. Demostrar (bien) la otra parte del Teorema ( quien era (B)?). Recordemos que, si B Mn (C), llamamos s(B) = (s1 (B), . . . , sn (B)) = (|B|), al vector de valores singulares de B, ordenados en forma decreciente. Teorema 5.5.3 (Lidskii 2). Sean A, B Mn (C). Entonces |s(A) s(B)|
w
s(A B) .
Una ves resuelto el Ejercicio 5.5.2, se entender porque es necesaria (y suciente) la siguiente a versin ms tcnica del Teorema de Lidskii. Obsrvar que puede verse como una generalizacin o a e o natural del Teorema de Weyl 2.3.5 (que, de hecho, es lo que se usa en su prueba). La prueba, asombrosamente simple comparada con las que histricamente la precedieron, necesita un o m nimo repaso: Si A H(n), se denen A+ = A+|A| y A = |A|A . Se probaba en la Seccin o 2 2 + 3.3 que ambas estn en Mn (C) , que A = A+ A y que para todo k In se tiene a k (A+ ) = mx { k (A) , 0 } a y k (A ) = m n{nk+1 (A), 0} . (5.12)
j (A) +
j J i=1
i (B)
j J
j (A + B)
j J
j (A) +
i=1
i (B) .
(5.13)
Demostracin. Probaremos, en principio, la desiguadad de la derecha en (5.13). Sin prdida o e de generalidad podemos suponer que k (B) = 0. En efecto, si probaramos el resultado para B k (B)I (que cumple lo pedido) y A, podr amos deducir inmediatamente la desigualdad de la derecha en (5.13), dado que j (A + B) = j (A + B k (B)I) + k (B) y i (B) = i (B k (B)I) + k (B) ,
97
para todo j J e i In (sobrar kk (B) en ambos trminos, y se puede cancelar). Sea a e B = B+ B la descomposicin de B en partes positiva y negativa descriptas en el repaso o previo (sino, ver la Eq. (3.5) ). Como k (B) = 0, aplicando la Eq. (5.12) se tiene que
k
tr(B+ ) =
j=1
j (B) .
Por el teorema de Weyl, ms especicamente el Corolario 2.3.7, el hecho de que a A + B A + B+ = j (A + B) j (A + B+ ) En consecuencia, j (A + B) j (A)
j J j J
para todo j In .
j (A + B+ ) j (A) .
j (A + B+ ) j (A)
j J j=1
= tr(B+ ) =
j=1
j (B) .
Esto prueba la desiguadad de la derecha en la Eq. (5.13). La otra se deduce de la anterior, pero aplicada al conjunto J = {n j + 1 : j J} y las matrices A y B. Se usa que r (C) = nr+1 (C) = r (C) , para cualquier C H(n) y para todo r In . Observacin 5.5.5. Una formulacin equivalente del Teorema 5.5.4 que tambin se usa muo o e cho es la siguiente: Dadas A, B H(n), k In y J In con |J| = k, se tiene que
k
j (A) j (B)
j J i=1
i (A B)
j J
j (A) j (B) .
(5.14)
En efecto, basta aplicar la Eq. (5.13) a las matrices B y A B, y pasar restando. Demostracin del Teorema de Lidskii 1. Usando la formulacin (5.14) del tercer Teorema de o o Lidskii, obtenemos
k k
(A) (B)
j=1
= mx a
JIn |J|=k j J
j (A) j (B)
j=1
j (A B) ,
(5.15)
98
para todo k In . Como las trazas estn bien, sale que (A) (B) a
(A B).
mx a
j A j B
j J
=
j=1
s(A) s(B)
En efecto, por la frmula (3.16) de Proposicin 3.7.5, si j In se tiene que o o j A j B = sj (A) sj (B) y 2nj+1 A 2nj+1 B = sj (A) sj (B) . Por otro lado, aplicando la frmula (5.15) o la (5.14) a A, B y a A B = A B, vemos que o
k JI2n |J|=k k
mx a
j A j B
j J k
j=1
j A B =
j=1
sj (A B) ,
s(A) s(B)
j=1
sj (A B) para todo k In .
Corolario 5.5.6. Sean N una NUI en Mn (C) y A, B Mn (C). Entonces N (A) (B) N (A B) . Demostracin. Notar que s((A) (B) ) = |s(A) s(B)| . Por lo tanto el Teorema de o Lidskii 2 implica que (A) (B)
(k)
AB
(k)
para todo k In .
Luego se aplica el Teorema 5.3.8. Corolario 5.5.7. Sean N una NUI en Mn (C) y A Gl (n). Sea U la unica matriz unitaria tal que A = U |A| (i.e. U = A|A|1 U(n)). Entonces dN (A, U(n) ) = N (A U ) = N ((A) I) = gN (s(A) 1) . Demostracin. Sea V U(n). Entonces (V ) = I. Por el Corolario 5.5.6, tenemos que o N (A V ) N ((A) I). Por otra parte, sea W U(n) tal que |A| = W (A)W . Entonces A U = U W (A)W U W W = U W ((A) I)W . Dado que N es una NUI, resulta que N (A U ) = N ((A) I).
5.6 Ejercicios
99
Ejercicio 5.5.8. Sea Mn (C)1 el conjunto de matrices en Mn (C) de rango uno (o cero). Dada A Mn (C), llamemos 1 (A) = diag (0, s2 (A), . . . , sn (A)) . Probar que si N es una NUI, dN (A, Mn (C)1 ) = N (1 (A)) y se alcanza en la matriz A1 = U W diag (s1 (A), 0, . . . , 0) W , donde A = U W (A)W . Probar, aparte, que A1 no depende de la matriz U U(n) elegida para realizar la descomposicin polar de A, pero s puede depender de W (si s1 (A) tiene o multiplicidad mayor que uno para |A|). Mostrar que otra manera de encontrar A1 es tomando A1 = s1 (A)x y = s1 (A)yx , donde x es un vector unitario tal que Ax = A sp = s1 (A), e y = U x. Generalizar el resultado al conjunto de matrices de rango a lo sumo k.
5.6
Ejercicios
j (A) = mx a
j=1
P Pk (n)
tr P AP =
U Uk (n)
mx tr U AU . a
5.6.2. Si A H(n) y (A) = {1 , . . . , r } (todos distintos), entonces deniendo Pi como el proyector ortogonal sobre ker(A i I), i Ir , se obtiene un sistema de proyectores que
r
verica que A =
i=1
i Pi .
5.6.3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), probar que se tiene la siguiente factorizacin de su pinching: o CP = CP1 CP2 CPr , y lo mismo en cualquier otro orden entre los CPi . 5.6.4. Sean A Mn (C) y P = {P1 , . . . , Pr } Mn (C) un sistema de proyectores. Probar que CP (A) = 2n UJ AUJ = 2n UJ AUJ ,
J In J In
donde cada UJ =
kJ
Pk
kJ /
5.6.5. Dado un sistema de proyectores P en Mn (C) y una matriz A Mn (C), se tiene que CP (A) = A si y slo si A conmuta con todos los Pi de P. O sea, si A es diagonal de bloques. o
5.6 Ejercicios
100
5.6.6. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP verica las siguientes propiedades: 1. Es lineal, idempotente (i.e., CP CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi , i Ir . 2. Reduce normas espectrales y preserva trazas (si no sale, ver la Proposicin 5.4.9). o 3. Si A Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto (resp. positivo). Por lo tanto, en general, CP (A ) = CP (A) . 5.6.7. Dados x, y, z, w Rn , todos ordenados en forma decreciente, probar que z w y x y = x + z y+w .
Ak
k=1
(Ak ) .
5.6.11. Probar que las siguientes normas son NDUIs. 1. El radio numrico. e 2. N (A) = A + | tr A|. 3. N (A) =
U(n)
de Haar (normalizada) de U(n). 5.6.12. Sea N una NDUI. Demostrar que 1. Dadas A, B Mn (C), si A B, entonces N (A) N (B).
2. Dado un sistema de proyectores P en Cn , se tiene que N (CP (A) ) N (A) para toda A Mn (C) . | tr A| N (I). Si no sale a mano, n
5.6.13. Probar que si N es una NDUI, entonces N (A) esperar hasta el Corolario 10.2.7.
5.6 Ejercicios
101
Ejercicios nuevos
5.6.14. Dadas A, B Mn (C)+ , mostrar que (A) (B) (AB) (A) (B) .
Si slo tenemos que A, B H(n), entonces mostrar que o (A) , (B) tr AB (A) , (B) . 5.6.15. Dada A Mn (C), probar que 1. A
(k)
= m n
+k C
sp
:A=B+C .
2. Usar lo anterior para dar una nueva prueba del Teorema 5.5.3 (Lidskii 2), mostrando previamente que, dadas A, B H(n), (a) (A) (B) (b) (A) (B)
1
AB .
1
AB
= AB
(n) .
3. Mostrar que el Teorema 5.5.3 implica el Teorema 5.5.1 (Lidskii 1). 5.6.16. Sea A H(n) 1. Sea S Cn un subespacio de dimensin n1. Si AS = PS APS : S S es el comprimido o de A a S, entonces: (a) k (A) k (AS ) k+1 (A), para todo k In1 . (b) Sea v1 , . . . , vn una BON adaptada a (A). a. Si v1 , . . . , vk S, entonces i (A) = i (AS ) para i Ik . b. Si vk , . . . , vn S, entonces i1 (AS ) = i (A), k i n. 2. Probar el Teorema de Lidskii 3 (por induccin sobre n) usando el ejercicio anterior, y o considerando independientemente los casos: (a) ik < n , (b) 1 < i1 , (c) i1 = 1, ik = n. 5.6.17. Sean A, B H(n). Entonces 1. (A) + (B) (A + B) (A) + (A).
5.6 Ejercicios
102
3. Si, para C H(n), llamamos Ed (C) = diag ((C)) y Ec (C) = diag ((C)), entonces N Ed (A) Ed (B) N (A B) N Ed (A) Ec (B) N Ed (A) + Ec (B) N (A + B) N Ed (A) + Ed (B) . 5.6.18 (Homan-Weilandt y agregados). Sean A, B Mn (C) matrices normales. Sean (A) y (A) sus vectores de autovalores en algn orden. u 1. Demostrar que existe una matriz doble estocstica D DS (n) tal que a AB
2
2
=
i,j
m n
i=1
2
2
mx a
Sn i=1
3. Sea B Mn (R) diagonal y denamos U(B) = {U BU : U U(n)} H(n). Demostar que dada C Mn (C), la distancia d2 (C, U(B)) (calculada en norma 2, la de Frobenius), se realiza en una matriz diagonal D U(B). 5.6.19. Consideremos el pinching C : M2n (C) Mn (C) Mn (C) dado por C X Y X 0 = Z W 0 W B 0 si y solo si 0 C
1. Si A M2n (C)+ entonces: existe U U(2n) tal que C(U AU ) = existe unitarios U1 , U2 U(2n) tales que
A = U1
B 0 0 0 U + U2 U . 0 0 1 0 C 2
Sugerencia: primero notar que C(U AU ) 0; representar a A como XX con cierta X M2n (C) y recordar que XX y X X son unitariamente equivalentes. 2. Usar lo anterior para probar que para A, B Mn (C)+ se tiene que ((A + B), 0) Sugerencia: vericar que ((A), (B)) . 0 0 B 0 In In 0 .
A+B 0 A 0 0 In = + 0 0 0 0 In 0
5.6 Ejercicios
103
5.6.20. Probar que para cualquier A Mn,m (C) vale: sj (A) = mx a para cualquier j In . 5.6.21. Para j {0} In , sea Rj = {T Mn,m (C) : rk(T ) j} . Mostrar que para cualquier j In , se tiene que sj (A) = m n
T Rj1 dim S=j
m n
xS, x =1
Ax =
dim T =nj+1
m n
mx a
xT , x =1
Ax
AT .
5.6.22. Mostrar que si A, H Mn,m (C), y H tiene rango k, entonces sj (A) sj+k (A + H) , para todo j Ink .
5.6.23. Mostrar que para cualquier A Mn,m (C) y para cada k In , vale
k k
sj (A) = mx a
j=1 j=1
Axj , yj ,
donde el mximo se toma sobre todas las kuplas ortonormales x1 , . . . , xk e y1 , . . . , yk . a 5.6.24. Sea A H(n). 1. Demostrar que
k k
j (A) = mx tr(U AU ) a
j=1 U Uk (n)
y
j=1
j (A) = m tr(U AU ) . n
U Uk (n)
j (A) = mx det(U AU ) a
j=1 U Uk (n)
y
j=1
j (A) = m det(U AU ) . n
U Uk (n)
Recordar que Uk (n) = {U Mn,k (C) : U U = Ik } es el espacio de isometr de Ck en Cn . as 5.6.25. Sean A, B Mn (C)+ . Probar que (A) (B) (AB) (A) (B).
Si slo pedimos que A, B H(n), mostrar que o (A), (B) tr(AB) (A), (B) .
5.6 Ejercicios
104
5.6.26. Sean N una NUI y A Mn (C). Probar que si (A) es el vector de los autovalores de A y Eig(A) = diag((A) ) Mn (C), entonces N (Eig(A) ) = { SAS 1 : S Gl (n)}. nf Qu matrices A verican que el e nmo es un m nimo para toda NUI? Observar que la conclusin anterior no vale para cada NUI sola. Diga algunas en las que s vale y otras donde o no. 5.6.27 (Mayo conjunta). Dadas X, Y Mn,m (R) decimos que Y Y Y
s p w
Esta es una manera compacta de describir lo que podr amos llamar mayorizacin conjunta o n (fuerte, puntual y dbil) de m vectores de R ; a saber, las columnas de X y de Y . e 1. Probar que Y
w
2. Probar que s = p = w , pero no valen las rec procas (el contraejemplo de p = s es opcional, porque es bastante complicadito). 3. Si n = 2 (solo dos las, o mejor dicho, muchos vectores de R2 ), o m = n y las matrices son inversibles (esto signica bases), entonces s vale que p = s . 4. Supongamos que m = n y Y w X. Entonces | det X| | det Y |. Adems, si | det X| = a | det Y | = 0, entonces existe una matriz P Sn tal que Y = P X.
Normas duales
Denicin 5.6.28. Sean una norma en Cn y N una en Mn (C). Se denen sus normas del o siguiente modo: dados x Cn y A Mn (C), ponemos (x) = sup | x, y |
(x)=1
Las normas duales aparecen como las normas de los operadores adjuntos de los vectores o matrices, cuando se los piensa como funcionales segn indica el siguiete ejercicio: u 5.6.29. 1. Sea una funcional lineal en Cn . Probar que existe un unico x Cn tal que (y) = x (y) = y, x , para todo y Cn .
5.6 Ejercicios
105
2. Sea una funcional lineal en Mn,m (C). Probar que existe una unica X Mn,m (C) tal que (A) = X (A) = tr(X A) , para todo A Mmn (C) .
Usando esas identicaciones, denir para las funcionales en Mn (C), las nociones de adjunta, autoadjunta y positiva, en funcin de cmo actua en las matrices. Despus comparar lo que o o e haya hecho con la Denicin 8.3.1. o 5.6.30. Sean M una norma en Cn y N una en Mn (C). Ellas inducen normas en las funcionales lineales. Dados x Cn y X Mn (C), mostrar que M (x) = x
M
= mx |x (y)| a
M (y)=1
N (X) = X
= mx |X (A)| . a
N (A)=1
5.6.31. Sean y normas en Cn , Demostrar: 1. | x, y | (x) (y) para todo x, y Cn . 2. Si (x) c(x) para cierto c > 0 y para todo x Cn , entonces, c1 5.6.32. Mostrar que para toda norma en Cn , = , es decir que es igual a la norma dual de su norma dual. 5.6.33. Sea una funcin gauge simetrica en Cn . o 1. Mostrar que es tambien una fgs. 2. Sea N la NUI en Mn (C) asociada a . Probar que N = N . 5.6.34. Demostrar que 1. A
p
= A
, donde 1 p y
1 p
1 q
= 1.
2. La unica NUI que coincide con su dual es la norma 2. 5.6.35. Dados k In y A Mn (C), probar que A
(k)
= mx{ A a
1 (1) , k
(n) }.
5.6.36. Sean p, q, r nmeros reales positivos tales que 1/r = 1/p + 1/q. u 1. Mostrar que para toda funcin gauge simtrica se tiene que o e (|x y|r )1/r (|x|p )1/p (|y|q )1/q . 2. Probar que para toda norma unitariamente invariante ||| ||| se verica que: ||||AB|r |||1/r ||||A|p |||1/p ||||B|q |||1/q .
Notaciones: Diremos que un subconjunto I R es un intervalo, cuando I es un conjunto convexo (i.e., si I es un intervalo abierto, semiabierto o cerrado; acotado, semirrecta o todo R). Dado un intervalo I R, llamaremos HI (n) = A H(n) : (A) I .
Denicin 6.1.1. Sea I R un intervalo, y sea f : I C una funcin cualquiera. Fijada o o A HI (n), se dene f (A) = P (A), donde P C[x] verica que P () = f () para todo (A). La denicin es buena, porque o si Q C[x] cumple lo mismo que P , entonces, por el Corolario 1.7.2, (P (A) Q(A)) = ( (P Q)(A)) = (P Q)( (A) ) = {0}, y esto, dado que P (A) Q(A) es normal, implica que P (A) = Q(A). Observacin 6.1.2. Sean I R un intervalo, f : I C una funcin y A HI (n). Es fcil o o a ver que, si A es diagonl, es decir A = diag (x) para cierto x I n Rn , entonces f (A) = diag (f (x) ) . Y de esto puede deducirse que, si B HI (n) y U U(n) son tales que B = U diag ((B)) U = f (B) = U diag (f ((B) ) ) U . Otra manera de ver este clculo es la siguiente: Sea (A) = {1 , . . . , k } (sin repeticin). a o Llamemos Si = ker(A i I), y Pi a los proyectores ortogonales sobre Si , para i Ik .
107
Luego P = {P1 , . . . , Pk } es un sistema de proyectores en H(n) (o sea que son autoadjuntos, ortogonales 2 a 2 y que suman I) que verica que
k k
A=
i=1
i Pi .
f (A) =
i=1
f (i ) Pi .
(6.1)
Por otra parte, notar que este clculo no est bien denido en matrices que nos son autoadjuna a 0 1 tas (en realidad, si no son normales). Por ejemplo, si A = , entonces los polinomios 0 0 P (t) = t y Q(t) = t2 coinciden en (A) = {0}, pero P (A) = A mientras que Q(A) = 0. Ejercicios 6.1.3. Vericar que el clculo funcional cumple las siguientes propiedades: Sean a I R un intervalo, f, g : I C dos funciones y A HI (n). Entonces 1. (f g)(A) = f (A) g(A) y f g(A) = f (A)g(A). 2. (f (A) ) = {f () : (A)}. Ms an, (f (A) ) = f ((A) ) . a u 3. f (A) siempre es una matrix normal. 4. f (t) R para todo t I si y slo si f (A) H(n) para toda A HI (n). o 5. f (B) 0 para toda B HI (n) si y slo si f (t) 0 para todo t I. o 6. Si U U(n), entonces f (U AU ) = U f (A)U . 7. Si la matriz de A en alguna BON tiene la forma A= B 0 0 C , entonces f (A) = f (B) 0 0 f (C) .
8. Si una sucesin (fm )mN de funciones denidas en I convergen puntualmente a f , o entonces fm (B) f (B) para toda B HI (n).
m
9. Si tiene sentido la composicin h f , entonces g f (A) = h(f (A) ). o Ejemplos 6.1.4. 1. Si f : R R esta dada por f (t) = t1 , entonces f (A) = A1 para toda A Gl (n)+ . + 2. Si A Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica raiz cuadrada positiva de A denida en la Proposicin 3.1.3. o 3. Si A H(n), entonces eA := exp(A) = Am . m! m=0
4. Si A Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que verica la frmula eB = A. En efecto, B = log A est bien denida, y cumple que o a eB = A por 9 del Ejercicio 6.1.3. La unicidad se deduce de la frmula (6.1). o
108
6.1.1
Proposicin 6.1.5. Sea I un intervalo y f : I R una funcin. Entonces o o 1. HI (n) es un subconjunto convexo de H(n). 2. Si I es es un intervalo abierto, entonces HI (n) es abierto en H(n). 3. Si > 0 y g : I R es otra funcin tal que o f g
I,
entonces f (A) g(A) < para toda A HI (n). 4. Si f es continua, dada una sucesin (Am )mN en HI (n) tal que Am A HI (n), o
m
Demostracin. o 1. Sean A, B HI (n). Dado [0, 1], el Teorema 5.1.6 asegura que x = A + (1 )B (A) + (1 )(B) = y .
Por lo tanto xi [yn , y1 ] I (porque I es convexo), para todo i In . 2. Sea A HI (n), y sea > 0 tal que (n (A) , 1 (A) + ) I. Si B H(n) y A B < , entonces, para todo x Cn con x = 1, se tiene que Ax, x Bx, x AB x
2
<.
Luego, por el Teorema 2.3.1, deducimos que n (A) < n (B) por lo que (B) I. 3. Notar que (f (A) g(A)) = (f g) (A) y f (A) g(A) = (f (A) g(A) ). 4. Sea (a, b) R un intervalo abierto tal que (A) (a, b) I [a , b ] = J I . Por el item 2, existe m0 N tal que Am H(a,b) (n)HI (n) HJ (n), para todo m m0 . Por el teorema de Weierstrass (en el intervalo cerrado J), dado > 0, existe P C[x] tal que f P J, < . Entonces, por el item 3, si m m0 , f (A) f (Am ) f (A) P (A) + P (A) P (Am ) + P (Am ) f (Am ) < 2 + P (A) P (Am ) 2 ,
m
109
Observacin 6.1.6. El item 1 de la Proposicin 6.1.5 se puede generalizar de la siguiente o o forma: Dado un conjunto abierto V C, el conjunto Mn (C)V = { A Mn (C) : (A) V } es abierto. Ms an, el mismo resultado es cierto cambiando Mn (C) por L(H), para cualquier a u espacio de Hilbert H, an con dimesin innita. La demostracin se deja como ejercicio. u o o Observacin 6.1.7. La nocin de clculo funcional para autoadjuntos que hemos presentado, o o a es una traduccin al caso matricial del clculo funcional continuo para operadores autoadjuntos o a en espacios de Hilbert. Las unicas diferencias en el caso general son: 1. Las funciones a evaluar deben ser continuas. 2. No existen, en general, polinomios que coincidan con una f dada en todo el espectro del operador elegido (o del intervalo I), por lo que se usa el teorema de Weierstrass para denir f (A) (la buena denicin se prueba como en el item 2 de la Proposicin 6.1.5). o o 3. La convergencia util entre funciones no es la puntual, sino la uniforme en compactos (notar que coinciden en conjuntos nitos). Todos los dems resultados y ejercicios presentados en esta seccin (salvo las menciones esa o pec cas de vectores de autovalores, como la Observacin 6.1.2) son ciertos en el caso general, o con las mismas pruebas, luego de adaptarlas m nimamente a operadores en espacios de Hilbert. La unica que necesita ms cuidado es la identidad (f (A)) = f ( (A)), que es fcil para poli a a nomios, pero requiere argumentos especiales para funciones continuas en general. Tambin e son ciertos en general los resultados de las prximas dos secciones, dado que las nociones de o monoton y convexidad de operadores se reducen al caso de matrices (siempre que valga para a matrices de cualquier tamao). n
6.1.2
En la Proposicin 6.1.5 hemos visto que, si I un intervalo y f : I R una funcin continua, o o entonces la aplicacin f : HI (n) H(n) dada por A f (A), A HI (n), es tambin continua. o e 1 En caso de que I sea abierto y que f sea de clase C , veremos que f es diferenciable, y mostraremos cmo calcular sus derivadas direccionales. Sin embargo, como una demostracin o o completa de estos resultados necesita un desarrollo anal tico bastante extenso, solo daremos los enunciados y un esbozo de las demostraciones, dejando ciertos pasos tcnicos sin demostrar. e Para una prueba completa de los resultados de esta seccin, remitimos al Cap o tulo V del libro de Bhatia [3]. Daremos adems un resultado probado por Daleki y Kre [23], [24] (ver tambin [8] o a i n e [3]), el cual provee una herramienta importante para derivar curvas de matrices producidas con el clculo funcinal, que puede interpretarse como una especie de regla de la cadena. a Ms adelante, este resultado nos permitir encontrar una caracterizacin de las denominadas a a o funciones montonas de operadores. Para simplicar su enuciado usaremos el producto de o
110
Hadamard o de Schur de matrices, el cual ser estudiado con ms detalle en el Cap a a tulo 8. Recordar (de la Seccin 3.5) que, dadas A, B Mn,m (C), se dene el producto de Hadamard o A B como la matriz A B = aij bij iIn Mn,m (C) .
jIm
Denicin 6.1.8. Sea I un intervalo abierto de R y f : I R una funcin de clase C 1 . o o 1. Denotaremos por f [1] a la funcin denida sobre I I dada por o f (y) f (x) si x = y yx [1] . f (x, y) = f (x) si x = y A esta funcin se la denomina primera diferencia dividida de f . o 2. Si D = diag (d1 , . . . , dn ) Mn (C) es una matriz diagonal, llamaremos f [1] (D) = f [1] (di , dj )
i,jIn
Mn (C) .
Notationes: Recordemos que, dada g : U Rn Rm (U abierto), se dice que g es diferenciable en x0 U si existe una matriz Dgx0 Mmn (C) (llamada derivada o diferencial de g en x0 , y que debe tener las derivadas parciales de g en sus columnas) que cumple g(x0 + h) g(x0 ) Dgx0 h h 0 .
h0
(6.2)
En tal caso se tiene que, para todo h Rn , la derivada direccional d g(x0 ) := h dt g(x0 + th) = Dgx0 h .
t=0
Observar que si I es un intervalo abierto, entonces HI (n) es abierto en H(n), que es un R-espacio vectorial que identicaremos con un RM . Luego podemos aplicar las nociones anteriores, pero reemplazando x0 y h por matrices adecuadas. Teorema 6.1.9. Sean I R un intervalo abierto y f : I R una funcin de clase C 1 . o Entonces su extensin f : HI (n) H(n) es diferenciable en todo punto A HI (n). Si o tomamos coordenadas en las que A sea diagonal, se tiene que DfA (H) = f [1] A) H , para todo H H(n) . (6.3)
Es decir que dados B HI (n) y U U(n) tales que A = U BU es diagonal, entonces DfB (H) = U f [1] A U HU U , para todo H H(n) , (6.4)
111
Demostracin. Mostremos el resultado, en principio, para funciones polinmicas. En este o o m contexto, por linealidad podemos asumir que f (x) = x , para m N {0}. Observar que, en tal caso, f [1] a, b =
m
k=1
d DfA (H) = dt
(A + tH) =
t=0 k=1
Ak1 HAmk .
t=0
Si ahora usamos que A = diag (a1 , . . . , an ), nos queda lo que quer amos:
m m
DfA (H) =
k=1
k1
HA
mk
=
k=1
= f [1] A) H .
i,jIn
Luego, si f es un polinomio y B HI (n) no es diagonal, uno puede diagonalizar a B con una U U(n), derivar ah y desdiagonalizar. Usando que f (U (B + H)U ) = U f (B + H)U para todo H H(n) pequeo (para que B + H HI (n) ), no es dif ver que n cil DfB (H) = U f [1] U BU ) U HU U , para todo H H(n) . (6.5)
por el mtodo directo de calcular el cociente incremental, como en la Eq. (6.2). En particular, e el trmino de la derecha no depende de la U que diagonalice a B. e Sea ahora f una funcin de clase C 1 en I. Usando el teorema de Weierstrass se puede construir o una sucesin (Pm )mN de polinomios que aproximan uniformemente tanto a f como a f en o cualquier subintervalo cerrado prejado de J. Es fcil ver que Pm [1] A) f [1] A). Fijemos a ahora H H(n) pequeo, y U U(n) tal que A = U BU es diagonal. Llamemos n DfB (H) = U f [1] A) U HU U (para ese U U(n) jo), al cadidato a derivada. Hay que mostrar que el cociente incremental f (B + H) f (B) DfB (H) H 2
2
0 .
H0
(6.6)
Esto probar que f es diferenciable en B, que su derivada DfB (H) = DfB (H) (o sea que a (6.4) es cierta), que su frmula no depende del U elegido, y que se cumple la Eq. (6.3), para o el caso en que B ya era diagonal (tomando U = I). La prueba de (6.6) es una ardua acotacin, de la que slo mostraremos sus ideas principales. o o Se hace intercalando trminos que involucran a los polinomios Pm . En efecto, si uno ja un e > 0, encuentra un m N tal que tres cantidades: f (B + H) f (B) (Pm (B + H) Pm (B) ) Pm (B + H) Pm (B) D(Pm )B (H)
2 2
112
se pueden hacer menores que H 2 , siempre que H sea chico. Luego uno se olvida del m y queda que el cociente de (6.6) es menor que 3 para un tal H. Observar que la tercera vale a partir de un m para todo H. La primera se puede hacer vlida para todos los m grandes (y a para cualquier H tal que B + H HJ (n) ), por un argumento que depende del teorema del valor medio y de la convergencia de las matrices Pm [1] A) (ms bien de que sean una sucesin a o de Cauchy). Finalmente, la segunda es la que pide H chico, tamao que depende del m, pero n este m se puede elegir de modo que se cumplan las otras dos. Corolario 6.1.10 (Daleki y Kre i n). Sean I, J R dos intervalos abiertos y consideremos un curva de clase C 1 : I HJ (n). Sea f : J R otra funcin de clase C 1 . Entonces o 1. La curva que llamaremos f : I H(n) dada por f (t) = f (t) , v el clculo a a funcional, es tambin de clase C 1 . e 2. Supongamos que (t0 ) = diag (a1 , . . . , an ) para cierto t0 I. Entonces se cumple la siguiente frmula: o (f ) (t0 ) = f [1] (t0 ) (t0 ) . (6.7) Demostracin. La suavidad de f se deduce de la diferenciablidad de f : HJ (n) H(n) o (y de la la suavidad de ). La regla de la cadena y la frmula (6.7) se deducen tambin del o e [1] Teorema 6.1.9, puesto que (f ) (t0 ) = Df(t0 ) (t0 ) = f (t0 ) (t0 ).
6.2
Denicin 6.2.1. Sea I R un intervalo y f : I R, una funcin. Diremos que f es o o montona de operadores (MOP) si, para todo n N y A, B HI (n), se tiene que o AB = f (A) f (B) .
Notar que, tomando n = 1, se ve que f debe ser montona en el sentido usual. o Ejemplos 6.2.2. 1. Dados a, b R, la funcion f (t) = a + bt es MOP si y slo si b 0. o 2. f (t) = t2 no es montona de operadores (en ningn intervalo I [0, +) con ms de o u a 1 1 2 1 un punto). En efecto, tomando A = yB= , se ve que A B, pero 1 1 1 1 A2 = 2 2 2 2 5 3 3 2 = B2 .
El ejemplo se puede cambiar, de acuerdo al intervalo I, tomando C = aI + A y D = aI + B, para constantes a I y > 0 convenientes. Notar que las entradas 2, 2 de C 2 y D2 siguen coincidiendo.
113
3. f (t) = t1 es MOP en I = (0, +). En efecto, si 0 < A B Mn (C)+ , entonces 0 < B 1/2 AB 1/2 I. Luego 1 (B 1/2 AB 1/2 ) 1, o sea n ((B 1/2 AB 1/2 )1 ) 1 = (B 1/2 AB 1/2 )1 = B 1/2 A1 B 1/2 I , por lo que A1 B 1 . Ejercicio 6.2.3. Probar que 1. La suma y la composicin (cuando tenga sentido) de MOPs es MOP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d
fM (t) =
Por lo tanto, si det M < 0, entonces fM es composicin de MOPs. Pero si fM fuera o MOP y det M > 0, podr deducirse que t 1/t es MOP. a Proposicin 6.2.4. La funcin f (t) = t1/2 es MOP en I = [0, +). o o Demostracin. Sean A, B Mn (C)+ tales que A B. Supongamos, en principio, que B > 0. o Entonces, por la Proposicin 3.5.4, o 1 A1/2 B 1/2
sp
Por lo tanto B 1/2 A1/2 . Si B no es inversible, para cada > 0 se toma la matriz B + I > 0. puntualmente Luego A1/2 (B + I)1/2 para todo > 0. Como (t + )1/2 t1/2 = f (t),
0
A1/2 x, x
(B + I)1/2 x, x B 1/2 x, x ,
0
para todo
x Cn .
Deducimos que A1/2 B 1/2 . Ejercicio 6.2.5. Rellenar los detalles de la siguiente prueba alternativa de la Proposicin o 6.2.4, que se basa en un resultado del Cap tulo 9: Suponemos que 0 < A < B. Entonces denimos la funcin o C : [0, 1] Gl (n)+ , dada por C(t) = A + t(B A) , t [0, 1] .
Sea R(t) = C(t)1/2 , t [0, 1]. Entonces R(t)2 = C(t) = R(t)R(t) + R(t)R(t) = C(t) = B A > 0 , t [0, 1] ,
donde el punto denota derivada respecto de t. Por la Observacin 9.1.5, como R(t) > 0 y o C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t [0, 1]. Luego R es creciente y, en particular, A1/2 = R(0) < R(1) = B 1/2 .
114
Teorema 6.2.6. Las funciones f (t) = tr son MOPs en I = [0, +), para todo r [0, 1]. En otras palabras, si 0 A B Mn (C)+ , entonces Ar B r para todo 0 r 1. Demostracin. Supongamos, en principio, que 0 < A B Gl (n)+ y que r es didico, o a m es decir que r = k/2 , para k I2m . En este caso probaremos, por induccin en m, que o Ar B r . En efecto, si m = 1, ya lo sabemos por la Proposicin 6.2.4. o Si suponemos el hecho cierto para todo nmero j/2m , tomemos r = k/2m+1 . Si k 2m , u m entonces k/2 1. Por la hiptesis inductiva y la Proposicin 6.2.4, se tiene que o o Ak/2 B k/2
m m
Si k > 2m , usaremos que B 1 A1 . Por tanto, B r A1 B r B r B 1 B r = B 2r1 . Luego, como k 2m 1, por la hiptesis inductiva tenemos que o 0 < 2r 1 = 2m (A1/2 B r A1/2 )2 = A1/2 B r A1 B r A1/2 A1/2 B 2r1 A1/2 A1/2 A2r1 A1/2 = A2(r1) . Aplicando la Proposicin 6.2.4, deducimos que A1/2 B r A1/2 Ar1 , y por ello B r Ar . o Si r no es didico, tomemos una sucesin de didicos rm r. Como las funciones a o a
m
fm (t) = t
rm
puntualmente
1 1 Finalmente, si A > 0, como (A + m I)r (B + m I)r para todo m N y la funcin t tr es o continua, aplicando la Proposicin 6.1.5 obtenemos que o
Ar = lim A +
m
1 I m
lim B +
m
1 I m
= Br ,
lo que prueba la desigualdad en el caso general. Lema 6.2.7. Sea A Gl (n)+ . Entonces Ah I = log A . h0 h lim Demostracin. Observar que, para todo t (0, +), se verica que o th 1 eh = lim h0 h0 h lim Por lo tanto las funciones fh (t) =
log t
= log t .
th 1 puntualmente g(t) = log t en todo (0, +). Aplicando h0 h el item 8 del Ejercicio 6.1.3, se culmina la prueba. Proposicin 6.2.8. La funcin f (t) = log t es MOP en I = (0, +). En otras palabras, o o + dados A B ambos en Gl (n) , se tiene que log A log B.
115
Demostracin. Se deduce del Lema 6.2.7. En efecto, tomando h con valores en (0, 1), por el o Teorema 6.2.6 se tiene que Bh I Ah I lim+ = log B . log A = lim+ h0 h0 h h Para nalizar daremos una caracterizacin de las MOPs en terminos de la primera diferencia o dividida de f , la cual puede interpretarse como anlogo matricial al resultado clsico de clculo a a a que dice que una funcin de una variable real derivable es no-decreciente si y slo si su derivada o o es no-negativa. Teorema 6.2.9. Sea I un intervalo abierto de R, f : I R una funcin de clase C 1 . o Entonces, las siguientes armaciones son equivalente: 1. f es MOP. 2. Para todo n N y toda matriz diagonal D HI (n), se tiene que f [1] (D) Mn (C)+ . Demostracin. 1 2. Sea D = diag (d1 , . . . , dn ) HI (n). Recordemos que por medio o de A B denotamos al producto de Hadamard, i.e., el producto entrada a entrada. Sea En = 1n 1 Mn (C)+ . Respecto a este producto, En se comporta como la identidad. Sea n : (, ) H(n) dada por (t) = D + t En . Observar que para todo t 0 se tiene que D + t En D. Por la Proposicin 6.1.5, (D + t En ) I para valores pequeos de t. Luego, o n para dichos valores de t, tiene sentido hacer f . Ms an, como f es de clase C 1 y es a u suave, podemos derivar la curva f , y por el Teorema 6.1.9 obtenemos d f (D + t En ) dt = DfD (En ) = f [1] (D) (0) = f [1] (D) En = f [1] (D) .
t=0
Usando que En Mn (C)+ y que f es MOP, se tiene que el cociente incremental f (D + t En ) f (D) Mn (C)+ , t para todo t (, ) ,
lo cual se preserva al tomar l mite. Por ende, f [1] (D) Mn (C)+ . 2 1. Sean A, B HI (n) tales que A B, y denamos la curva (t) = (1 t)A + tB, para t [0, 1]. Como HI (n) es convexo (Proposicin 6.1.5), (t) HI (n) para todo t [0, 1]. o Luego, la nueva curva (t) = f ((t) ) est bien denida. El primer paso ser probar que a a + para todo t (0, 1) se tiene que (t) Mn (C) . Para ello, jemos un t (0, 1) cualquiera. Sin prdida de generalidad podemos suponer que (t) es diagonal (sino se conjuga con una e unitaria). Luego, por el Corolario 6.1.10 se tiene que (t) = f [1] ((t) ) (t) = f [1] ((t) ) (B A) Mn (C)+ , donde usamos que A B, que f [1] ((t) ) Mn (C)+ y luego el Teorema 2 de Schur 3.6.2 (producto de positivas es positiva). Ahora bien, jemos x Cn . Por la linealidad de la funcin A Ax, x se tiene que la funcin g(t) = (t)x, x es continua en el [0, 1], derivable o o
116
en (0, 1). Ms an, g (t) = (t)x, x para todo t (0, 1). Pero entonces, por lo que acabamos a u de ver, g es creciente en el [0, 1]. En consecuencia f (A)x, x = g(0) g(1) = f (B)x, x . Como x Cn es arbitrario, f (A) f (B), lo cual concluye la demostracin. o Para ilustrar como se utiliza esta caracterizacin para demostrar que una funcin es montona o o o de operadores, probaremos que la funcin f (t) = tan(t) es MOP en el itervalo (, ). Para o ello, necesitaremos un par de lemas previos. Lema 6.2.10. Sea d = (d1 , . . . , dn ) Rn . Entonces la matricz Ke (d) = ei(dj di )
i,jIn
Mn (C)+ .
Demostracin. En efecto, si tomamos E = 1 1 Mn (C)+ (la matriz de cuyas entradas son o todas iguales a 1) y U = diag eid1 , . . . , eidn , entonces Ke (d) = U EU Mn (C)+ . Lema 6.2.11. Sea d = (d1 , . . . , dn ) Rn . Entonces la matriz Ks (d) = sen(dj di ) dj di Mn (C)+ ,
i,jIn sen 0 0
= 1.
Demostracin. Este lema se deduce del anterior si recordamos la siguiente identidad, la cual o puede testearse a mano muy facilmente: 1 sen a = eiat dt para todo a R (incluso si a = 0) . (6.8) a 2 En efecto, dado x = (x1 , . . . , xn ) C se tiene que Ks (d) x, x = Pero por la formula integral (6.8) y el lema anterior se tiene que sen(dj di ) 2 xi xj = dj di i,j=1
n n n
sen(dj di ) xi xj . dj di i,j=1
ei(dj di )t xi xj dt =
i,j=1
Ke (d) x, x dt 0 .
Proposicin 6.2.12. La funcin f (t) = tan(t) es MOP en I = (/2 , /2). o o Demostracin. Sea D = diag (d1 , . . . , dn ) HI (n) y la matriz de diferencias divididas o tan(dj ) tan(di ) si d = d i j [1] dj di tan (D)ij = . 2 sec (di ) si di = dj Usando la identidad tan(x) tan(y) = tan[1] (D)ij = 1 cos(di ) sen(dj di ) dj di sen(x y) se tiene que cos(x) cos(y) 1 cos(dj ) = sec(D) Ks (d) sec(D) Mn (C)+ ,
i,jIn
por el Lema 6.2.11. Con esta informacin, el Teorema 6.2.9 garantiza que f (t) = tan(t) es o MOP en I = (, ).
117
6.3
Recordemos que la Proposicin 6.1.5 asegura que, si I R es un intervalo, HI (n) es comvexo. o Denicin 6.3.1. Sea I R un intervalo y f : I R, una funcin. Diremos que f es convexa o o de operadores (OP) si, para todo n N, [0, 1] y A, B HI (n), se tiene f A + (1 )B f (A) + (1 )f (B) . (6.9)
Notar que, tomando n = 1, se ve que f debe ser convexa en el sentido usual. Diremos que f es cncava de operadores (OP) si f es OP. o Observacin 6.3.2. Si f : I R es continua, para vericar que es convexa de operadores, o es suciente probar que A+B f (A) + f (B) f , 2 2 para todo par A, B HI (n) (y todo n N). En efecto, esta condicion implica que f cumple la Eq. (6.9) para todo didico en [0, 1]. Esto se prueba por induccin. Por ejemplo, a o 1 3 A+ B 4 4
A+B 2
=f
+B 2
A+B 2
+ f (B) 2
f (A)+f (B) 2
+ f (B)
1 3 f (A) + f (B) . 4 4
Como f es continua, la Proposicin 6.1.5 dice que (6.9) se cumple para todo [0, 1]. o Ejemplos 6.3.3. 1. Dados a, b R, se tiene que la funcion f (t) = a + bt es OP (y OP). 2. f (t) = t2 s es OP en [0, +). En efecto, dados A, B Mn (C)+ , se tiene que A+B A2 + B 2 2 2
2
1 2 1 A + B 2 AB BA = (A B)2 . 4 4
Como f es continua, esto prueba que es OP. 3. f (t) = t3 no es OP en [0, +). En efecto, una cuenta elemental muestra que, si A= 1 1 1 1 y B= 3 1 1 1 entonces A3 + B 3 A+B 2 2
3
6 1 1 0
118
En efecto, esto se deduce de la identidad 2(A + B)1 = A1 (A1 + B 1 )1 B 1 + B 1 (A1 + B 1 )1 A1 . Como f es continua, lo que vimos muestra que es OP. Ejercicio 6.3.4. Probar que 1. La suma y la composicin (cuando tenga sentido) de OPs es OP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d
fM (t) =
Entonces fM es OP en I = ( c , +) si y slo si det M 0 . Por otra parte, f es o d OP en I si y slo si f es MOP en I si y slo si det M 0 . o o 3. Sea I R un intervalo tal que 0 I. Sean f (t) = |t| y g(t) = t 0, t I. Entonces f no es OP y g no es OP ni MOP. Denicin 6.3.5. Sean A Mn (C) y P H(n) un proyector con R(P ) = S. Llamaremos o compresin de A a S, al operador o AS : S S Notar que AS = P AP
S
dado por
AS (x) = P A x ,
xS .
pensado en L(S). En coordenadas de una BON de Cn tal que la I 0 matriz de P en esa base sea P = , se tiene que 0 0 P AP = AS 0 0 0 y CP (A) = AS 0 0 AS ,
donde las matrices (grandes) viven, ahora, en Mn (C). Recordemos que, para cada k In , notamos Uk (n) = {U Mn,k (C) : U U = Ik }, es decir, el espacio de isometr de Ck en Cn . as Teorema 6.3.6. Sea I R un intervalo y f : I R, una funcin. Son equivalentes: o 1. f es convexa de operadores.
119
2. Para todo n N y para todo sistema de proyectores P en H(n), se tiene que f CP (A) CP (f (A) ) para todo A HI (n) .
3. Dados n N, A HI (n) y S Cn un subespacio, se tiene que f (AS ) f (A)S . 4. Dados k, n N tales que k n, A HI (n) y V Uk (n), se verica que f (V AV ) V f (A)V . Demostracin. Antes que nada, observar que CP (A) HI (n) por la Proposicin 5.4.4 (o la o o Eq. (6.10) de abajo) y el hecho de que HI (n) es convexo. De ahi se deduce que, si dim S = k, entonces AS HI (k) y tiene sentido calcular f (AS ), incluso si 0 I. / 1 2. Como otras veces, por la Eq. (5.8), podemos suponer (s.p.g.) que trabajamos con un solo proyector P H(n). Observar que, dado A HI (n), se tiene que CP (A) = A + U AU , 2 con U = 2P I U(n) . (6.10)
Por lo tanto, si asumimos que f es OP, entonces f CP (A) f (A) + f (U AU ) f (A) + U f (A)U = = CP f (A) . 2 2
2 3. Basta mirar los bloques 1, 1 de la desigualdad f CPS (A) CPS f (A) . 3 4. Llamemos S = R(V ) Cn y P = PS . Entonces se tiene que V AV = V (P AP )V . Por lo tanto, si denotamos V0 : Ck S, al mismo V correstringido a su imagen, tenemos que a V0 es unitario y que V AV = V0 AS V0 HI (k). Adems f (V AV ) = f (V0 AS V0 ) = V0 f (AS )V0 por lo que f (V AV ) V f (A)V f (AS ) f (A)S . 4 1. Dados A, B HI (n), consideremos el operador T = [0, 1], sean = 1 y V = 2 In 1 2 In
1
V f (A)V = V0 f (A)S V0 ,
A 0 0 B
HI (2n). Dado
V T V = A + B usando que f (T ) =
y que
120
1. CP (A) Gl (n)+ y CP (A)1 CP (A1 ). 2. Si S = R(P ) entonces, AS 1 (A1 )S . Es decir que, pensados como operadores en L(S), se tiene que (P AP )1 P A1 P. (6.11) Demostracin. Se deduce de que Gl (n)+ = H(0,+) (n) y del Teorema 6.3.6, dado que t t1 o es OP en (0, +), como se ha observado en el Ejemplo 6.3.3.4. Observacin 6.3.8. Una versin ms detallada de la desigualdad (6.11) se deduce de la teor o o a a de complementos de Schur. En la Proposicin 3.8.7 vimos que, si S = R(P ), o A= a b b c S , = (A1 )S 1 = (P A1 P )1 = a bc1 b . S
En particular, tambin as se muestra que (P A1 P )1 a = AS . e Proposicin 6.3.9. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin. o o Entonces son equivalentes: 1. f es convexa de operadores y f (0) 0. 2. Dados n N, A HI (n) y P H(n), un proyector, se cumple que f (P AP ) P f (A)P , pensados como matrices en Mn (C). Demostracin. Como 0 I, es fcil ver que P AP HI (n). Sea S = R(P ). Entonces, en o a I 0 coordenadas de una BON de Cn tal que P = , se tiene que 0 0 P AP = AS 0 0 0 = f (P AP ) = f (AS ) 0 0 f (0)IS .
Por lo tanto, las condiciones 1 y 2 son equivalentes, por serlo 1 y 3 del Teorema 6.3.6 (es decir, que f (AS ) f (A)S para todo el mundo, equivale a que f sea OP). Ejercicio 6.3.10. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin. Entonces o son equivalentes: 1. f es convexa de operadores y f (0) 0.
121
2. Dados n N, A HI (n), se cumple que f (C AC) C f (A)C. para todo C Mn (C) tal que C 1. 3. Dados n N, A, B HI (n) y C, D Mn (C) tales que C C + D D I, se verica f (C AC) + f (D BD) C f (A)C + D f (B)D. Se sugiere usar las matrices unitarias construidas en 3.7.9. Corolario 6.3.11. La funcin f (t) = tr es OP en I = [0, +), para todo r [1, 2]. o Demostracin. Como f (0) = 0, por la Proposicin 6.3.9, bastar probar que o o a (P AP )r P Ar P , n N , A Mn (C)+ y P un proyector en H(n) .
En efecto, como 0 P I, tenemos que 0 A1/2 P A1/2 A. Sea g(t) = tr1 . Por el Teorema 6.2.6, g es MOP (porque 0 r 1 1). Luego (A1/2 P A1/2 )r1 Ar1 , por lo que P A1/2 A1/2 P A1/2
r1
Finalmente, observar que para todo k N {0} se tiene que P A1/2 A1/2 P A1/2 A1/2 P = (P AP )k+1 . Por lo tanto, para todo polinomio Q C[x] vale la igualdad P A1/2 Q A1/2 P A1/2 A1/2 P = Q(P AP ) P AP . , De ah deducimos que una igualdad similar valdr para toda f : [0, +) R (eligiendo un a Q C[x] que coincida con f en A1/2 P A1/2 = (P AP ) ). En particular, P Ar P P A1/2 A1/2 P A1/2
r1 k
A1/2 P = (P AP )r .
Proposicin 6.3.12. Sea f : [0, +) [0, +) una funcin continua. Entonces se tiene o o que f es MOP si y slo si f es OP ( i.e., f es OP ). o Demostracin. Supongamos que f es MOP, y sea S Cn un subespacio. Notemos P = PS . o Como f (0) 0 por hiptesis, usando la Proposicin 6.3.9 bastar probar que o o a P f (A)P f (P AP ) , para toda A Mn (C)+ ,
ya que, en tal caso, podr amos deducir que f es OP. Para hacerlo, llamemos Q = I P y P Q A 0 tomemos las matrices U = U(2n) y T = M2n (C)+ . Como se vi en o Q P 0 0 3.7.10, para todo > 0 existe > 0 tal que UT U = UT U = P AP P AQ QAP QAQ P AP + I 0 0 I .
122
f (A) 0 0 0 T por T y usando que f es MOP, obtenemos que P f (A)P P f (A)Q Qf (A)P Qf (A)Q
f (A) 0 0 f (0)I
= f (T ) . Reemplazando
= U T U U f (T )U = f (U T U )
f (P AP + I) 0 0 f ()I
En particular, se cumple que P f (A)P f (P AP + I) para todo > 0. Como f es continua, por la Proposicin 6.1.5 se tiene que P f (A)P f (P AP ), como necesitbamos. o a Para probar la rec proca, tomemos A B ambos en Mn (C)+ . Dado (0, 1), podemos escribir B = A + (1 ) (B A) . 1
Si f es cncava (y con valores positivos), esto nos da que o f (B) f (A) + (1 )f (B A) f (A) , 1 para todo (0, 1) .
Tomando 1 , del hecho de que f es continua podemos deducir que f (B) f (A). Corolario 6.3.13. Sea f (t) = tr , denida en I = [0, +). Si r > 1, f no es MOP. Demostracin. Si lo fuera, deber ser OP. Pero, como funcin escalar, es convexa. o a o Corolario 6.3.14. 1. Las funciones t tr , para r (0, 1), son OP en [0, +). 2. f (t) = log t es OP en (0, +). Demostracin. La primera parte se deduce de los Teoremas 6.2.6 y 6.3.12. Para probar la o concavidad de operadores del logaritmo, jemos un subespacio S de Cn . Dada A Gl (n)+ , por lo anterior sabemos que (Ar )S (AS )r , Luego, por el Lema 6.2.7, log(AS ) = (AS )r IS r0 r r A In = lim + r0 r lim + lim + (Ar )S IS r r (0, 1) .
r0
= (log A)S .
S
6.4 Ejercicios
123
Observacin 6.3.15. El Teorema 6.3.6 da un criterio heur o stico para dilucidar qu funciones e crecientes pueden ser MOPs: por lo menos deber ser cncavas de nmeros. Esto es coheran o u ente con los ejemplos: tr para r 1, t1 , log t son todas cncavas. o Sin embargo hay que tener mucho cuidado. Porque el Teorema 6.3.6 pide que la f , adems a de tomar valores positivos, debe estar denida en toda la semirrecta [0, +), incluido el cero, y hasta el innito. Esto se ve claramente mirando bien la prueba, porque uno hace tender a cero, por lo que se va a innito, y uno necesita poder tomar f (). Y para demostrar la implicacin MOP = OP, se usa tambin que exista f (0). (ejercicio: probar OP = o e MOP para f no denida en 0. Ojo con B A). Por ello el Teorema no se puede aplicar directamente a los ejemplos t1 y log t (para ver que log t es OP hizo falta el razonamiento de recin, pasando por tr ). e Pero la cosa es ms grave si el dominio de f se termina antes del innito. Ah el criterio a heur stico (que los autores difund amos muy conados hasta que fuimos despabilados por unos alumnos despiertos) es directamente errneo. Para convencerse, basta recordar (de la o Proposicin 6.2.12) que la funcin f : [0, /2) [0, +) dada por f (t) = tan t es MOP, o o siendo a la vez convexa como funcin numrica en esa mitad de su dominio. o e
6.4
Ejercicios
8. Si una sucesin (fm )mN de funciones denidas en I convergen puntualmente a f , o entonces fm (B) f (B) para toda B HI (n).
m
6.4 Ejercicios
124
6.4.2. Probar las siguientes armaciones. 1. Si f : R R esta dada por f (t) = t1 , entonces f (A) = A1 para toda A Gl (n)+ . + 2. Si A Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica raiz cuadrada positiva de A denida en la Proposicin 3.1.3. o 3. Si A H(n), entonces e := exp(A) =
A
Am . m! m=0
4. Si A Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que B verica la frmula e = A. o 6.4.3. Completar los detalles de la demostracin del Teorema 6.1.9. En particular, con las o notaciones de all mostrar que dado > 0, existe m0 N tal que, para todo m m0 , , f (B + H) f (B) (Pm (B + H) Pm (B) )
2
para todo H H(n) tal que B + H HJ (n) . Se sugiere acotar el incremento de la funcin o Pk Pm usando su diferencial en un punto intermedio del segmento entre B y B + H, y que esas diferenciales convergen uniformemente a cero. 6.4.4. Probar que 1. La suma y la composicin (cuando tenga sentido) de MOPs es MOP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d
fM (t) =
Entonces fM es MOP en ( c , +) si y slo si det M 0. o d 6.4.5. Sea : [a, b] H(n) una curva suave tal que (t) Mn (C)+ para todo t (a, b). Probar que es creciente, en el sentido de que t s = (t) (s), en el orden de H(n). En particular, deducir que (a) (b). Se suguiere chusmear el Teorema 6.2.9. 6.4.6. Rellenar los detalles de la siguiente prueba alternativa de la Proposicin 6.2.4: o Supongamos que A < B, ambos en Gl (n)+ . Entonces denimos la funcin o C : [0, 1] Gl (n)+ , dada por C(t) = A + t(B A) , t [0, 1] .
Sea R(t) = C(t)1/2 , t [0, 1]. Entonces R(t)2 = C(t) = R(t)R(t) + R(t)R(t) = C(t) = B A > 0 , t [0, 1] ,
donde el punto denota derivada respecto de t. Por la Observacin 9.1.5, como R(t) > 0 y o C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t [0, 1]. Luego R es creciente y, en particular, A1/2 = R(0) < R(1) = B 1/2 .
6.4 Ejercicios
125
6.4.7. Probar que 1. La suma y la composicin (cuando tenga sentido) de OPs es OP. o 2. Dada una matriz M = a b c d M2 (R), con d = 0, denamos la funcin o a + bt , c + dt t= c . d
fM (t) =
Entonces fM es OP en I = ( c , +) si y slo si det M 0 . Por otra parte, f es o d OP en I si y slo si f es MOP en I si y slo si det M 0 . o o 3. Sea I R un intervalo tal que 0 I. Sean f (t) = |t| y g(t) = t 0, t I. Entonces f no es OP y g no es OP ni MOP. 6.4.8. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin. Entonces son o equivalentes: 1. f es convexa de operadores y f (0) 0. 2. Dados n N, A HI (n), se cumple que f (C AC) C f (A)C. para todo C Mn (C) tal que C 1. 3. Dados n N, A, B HI (n) y C, D Mn (C) tales que C C + D D I, se verica f (C AC) + f (D BD) C f (A)C + D f (B)D. Se sugiere usar las matrices unitarias construidas en 3.7.9. (6.12)
Ejercicios nuevos
6.4.9. Mostrar que todas las denciones y propiedades del clculo funcional no necesitan que a el dominio de f sea un intervalo. En particular, vericar que si U R es abierto, entonces 1. HU (n) := {A H(n) : (A) U } es abierto en H(n). 2. Si f : U R es C 1 , su extensin f : HU (n) H(n) es diferenciable. o 3. El Teorema 6.1.9 y el Corolario 6.1.10 siguen siendo vlidos en este contexto. a 6.4.10. Sea A H(n) y sea : (1, 1) H(n) una curva C 1 tal que (0) = A. Sea (A) una raiz simple de PA (x), y sea x0 ker(A I) un autovector unitario. Probar que existe un > 0 y una curva suave x : (, ) Cn tal que
6.4 Ejercicios
126
1. x(0) = x0 . 2. x(t) es autovector de (t) para todo t (, ). 3. La funcin (, ) o t (t), que da el autovalor asociado a cada x(t), es suave.
4. Todos los (t) son autovectores simples de (t). Mostrar, adems, que x(0) d ( , (A) \ {} )1 (0) x0 . a Sugerencia: Tomar un abierto U (A) que separe a del resto de (A), y denir all la funcin f que vale uno cerca de y cero en el resto de U . Tomar g(t) = f ((t) ), para los o t (, ) tales que (t) HU (n), observar que cada g(t) es un proyector autoadjunto de rango uno (por el Corolario 2.3.8) y usar la Eq. (6.1) para ver qu proyector es. Denir e entonces x(t) = g(t) x0 . Para obtener (t), buscar una coordenada no nula de x0 y dividir ah (o tomar (t) = tr g(t)(t) ). Para acotar la norma, diagonalizar adecuadamente a A y luego usar el Corolario 6.1.10. 6.4.11. Sean U (t) = cos t sen |t| 1 + t2 0 y A(t) = U (t) U (t) para t R. sen |t| cos t 0 1 t2 Mostrar que la curva A(t) es suave cerca de 0, pero como A(0) = I tiene multiplicidades, no hay curvas suaves x(t) a valores en Rn que cumplan lo mismo que en el ejercicio anterior. Ojo: La curva x(t) = U (t)e1 no es suave, pero hay que ver que no puede haber otra suave. 6.4.12. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin tal que f (0) 0. o Entonces son equivalentes: 1. f es convexa (a secas, no pedimos OP). 2. Dados n N y A HI (n), se cumple que f (C AC) para todo C Mn (C) tal que C
sp w
C f (A)C.
6.4.13. Sea I R un intervalo tal que 0 I y sea f : I R, una funcin convexa creciente o tal que f (0) 0. Dados n N y A HI (n), probar que para todo i In se verica que i (f (C AC) ) i (C f (A)C) . donde C Mn (C) es una contraccin. Dar un contraejemplo si la funcin no es creciente. o o Sugerencia: Usar minimax. 6.4.14. Sea C Mn (C) una contraccin y A Mn (C)+ . Demostrar que dados r, s R tales o r 1/r que 1 r s, entonces (C A C) (C As C)1/s .
6.4 Ejercicios
127
6.4.15. Sea A, B Mn (C)+ , r (1, +) y [0, 1]. Probar que (Ar + B r ) r 1 r A + (1 )1 r B . Sugerencia: Analizar separadamente los casos = 0 o 1 y (0, 1). Usar que t t r es tanto MOP como OP. Si no sale, chusmear el Lema 9.5.3. 6.4.16. Sean A, B Mn (C)+ . Probar que la funcin o [1 , +) p Ap + B p 2
1 p 1 1 1 1
es creciente, relativa al orden de Mn (C)+ . Sugerencia: Dados r, q [1 , +) tales que r < q, aplicar el ejercicio anterior para los nmeros u 1 o r = q > 1 y = 2 . Si no sale, chusmear la Proposicin 9.5.6. r
Comenzaremos jando ciertas convenciones de notacin adecuadas para esta teor o a: 1. Para cada n N, llamaremos Hn = Cn con el producto interno usual. Denotaremos por (n) (n) e1 , . . . , en a los vectores de la base cannica de Hn . o 2. Llamaremos Hn Hk al espacio de funcionales F : Hn Hk C bilineales (i.e., lineales en cada coordenada), pensado como C-espacio vectorial de la forma natural. 3. Dada F Hn Hk , le asociamos la matriz F = F (ei , ej ) Mn,k (C). Luego
n k (n) (k)
F (x, y) =
i=1 j=1
xi yj Fij = xT F y ,
x Hn , y Hk .
Esto muestra que podemos identicar naturalmente Hn Hk con Mn,k (C). 4. Esto permite, ademas, denir el producto interno natural en Hn Hk . Dadas F, G Hn Hk , las identicamos con sus matrices en Mn,k (C), denimos F, G = tr G F =
(i,j)In Ik
Fij Gij .
(7.1)
5. Dados x Hn e y Hk , notaremos por x y Hn Hk , al llamado tensor elemental, dado por x y(u, v) = u, x v, y , u Hn , v Hk . (7.2) Observar que u, x v, y = xT u y T v = uT xy T v. Por lo tanto, la matriz de x y es xy T Mn,k (C) . Por lo tanto, no toda F Hn Hk es elemental, pero s sucede que toda F es suma de tensores elementales, porque las matrices del tipo xy T son todas las de rango uno. Observar que la aplicacin o Hn Hk (x, y) x y Hn Hk
129
es bilineal. Adems, a partir de la Eq. (7.1), vemos la frmula a o x y , u v = tr (uv T ) xy T = tr u x y T v = x, u y, v , para x, u Hn , y, v Hk . 6. Se puede deducir que el conjunto En,k = {ei
(n)
(7.3)
(k)
es una base ortonormal de Hn Hk , que llamaremos base cannica. La consideraremos o ordenada alfabticamente (leyndola por f ilas). e e 7. Dados A L(Hn ) y B L(Hk ), podemos denir el operador A B L(Hn Hk ), a travs de la frmula A B(F ) = AF B T , para F Hn Hk , pensado como una matriz e o en Mn,k (C). En particular, A B(x y) Axy T B T = (Ax) (By)T Ax By , x Hn , y Hk .
Observar que esta ecuacin no dene a A B en todos los elementos de Hn Hk , pero o s lo caracteriza completamente (por ser lineal). 8. El producto tensorial de matrices verica las siguientes propiedades: (a) Sean In Mn (C) y Ik Mk (C). Entonces In Ik es la identidad de Hn Hk . (b) (A1 + A2 ) B = (A1 B) + A2 B, para todo C. (c) (A B) = A B . (d) (A1 B1 )(A2 B2 ) = A1 A2 B1 B2 . (e) Si existen A1 y B 1 , entonces A1 B 1 = (A B)1 . En particular, si A U(n) y B U(k), entonces A B U(nk). (f) A B 0 si A 0 y B 0. Ms an, |A B| = |A| |B|. Se usa el Teorema a u 3.1.3 y la unicidad de la raiz cuadrada positiva. Observacin 7.1.1. Dados A L(Hn ) y B L(Hk ), la matriz de A B en la base cannica o o de Hn Hk (ordenada por las) es el llamado producto de Kronecker de A y B que se dene como la matriz por bloques a11 B . . . a1n B . .. . M (C) . . . AB = (7.4) . nk . . an1 B . . . ann B La vericacin es sumamente tediosa, pero podemos dar un esbozo: La base canonica de o Hn Hk se ordena as : e1 e1 , . . . , e1 ek , e2 e1 , . . . , e2 ek , . . . . . . , e(n) e1 , . . . , e(n) ek . n n
(n) (k) (n) (k) (n) (k) (n) (k) (k) (k)
130
Luego, el vector ei er se ubica en el lugar k(i 1) + r de la base cannica. Fijemos un par o i, j In . Como el bloque de k k ubicado en el jugar (i, j) involucra las las entre k(i 1) + 1 y ki, y a las columnas k(j 1) + 1 y kj, se escribe A B(ej e(k) ) , ei s como se armaba. Proposicin 7.1.2. Sean A Mn (C) y B Mm (C). Si los autovalores de A son la n-upla o {1 , ..., n }, y los de B son {1 , ..., m }, entonces los autovalores de A B son { (i,j) }(i,j)In Im , todos contados con multiplicidad. Demostracin. Aplicando el Teorema 1 de Schur 1.6.1, si A = U T1 U y B = V T2 V , con U, V o unitarias y T1 , T2 triangulares superiores, entonces A B = U V T1 T2 (U V ) , por lo que (A B) = (T1 T2 ) (con multiplicidades). Por la representacin matricial de o T1 T2 como producto de Kronecker (que queda tambin triangular superior, pero con los e productos i j en su diagonal), se obtiene la igualdad anunciada. Corolario 7.1.3. Sean A Mn (C) y B Mm (C). 1. A B
sp (n) (n)
(n)
(k)
e(k) r
=
r,sIk
Aej , ei
(n)
(n)
Be(k) , e(k) s r
r,sIk
= aij B ,
donde
(i,j) = i j ,
= A
sp
sp
2. Ms an, los valores singulares de A B son a u s(A B) = { si (A)sj (B) }(i,j)In Im contados con multiplicidad, y ordenados en forma decreciente. Demostracin. Se sigue de que |A B| = |A| |B| y de la Proposicin 7.1.2. o o
7.2
Potencias tensoriales
Una cuenta muy engorrosa, aunque elemental, muestra que se tiene un isomorsmo natural entre (Hn Hk ) Hr y Hn (Hk Hr ), identicando a ambos con las funciones trilineales en Hn Hk Hr . La clave es observar que, dados x Hn , y Hk y z Hr , a los tensores elementales (x y) z & x (y z) se los puede identicar con la misma funcional trilineal, por una frmula semejante a (7.2). Es decir, que el producto tensorial es asociativo. o Esto permite denir productos de varios espacios, sin necesidad de aclarar el orden en que se los dene. Lamentablemente, en ese contexto se pierde la representacin de las funciones o multilineales como matrices, a menos que se quiera pensar en matrices de muchas dimensiones. Usaremos particularmente la asociatividad para denir potencias, en el sentido tensorial, de un mismo espacio Hn , y de operadores en Hn . Damos, a continuacin, el listado de notaciones o y resultados que se siguen naturalmente (y que se prueban planarmente por induccin usando o lo anterior y la asociatividad):
131
7.2.1. Sean n, k N. 1. Notaremos k Hn , llamado espacio k-tensorial sobre Hn , al producto tensorial de Hn k por s mismo k veces. Los elementos de Hn se pueden pensar como funcionales k k-multilineales F : Hn C. 2. Dados x1 , , xk Hn , se dene el k-tensor elemental x1 x2 xk por la frmula o
k
x1 xk (u1 , , uk ) =
i=1
ui , x i ,
(u1 , , uk ) Hk . n
(7.5)
3. El producto interno sobre k Hn , denido inductivamente en todo par de elementos de k Hn , est determinado por el producto de k-tensores: a
k
x1 x2 xk , y1 y2 yk =
i=1
x i , yi ,
(7.6)
para x1 , . . . , xk , y1 , . . . , yk Hn .
k
4. La aplicacin o
Hk n
(x1 , . . . , xk ) x1 xk
k
Hn es k-multilineal.
Luego dim
Hn = nk .
k
7.2.2. Todo operador A : Hm Hn induce un operador de llamado potencia k-tensorial de A, determinado por la frmula o
k
A :
Hm
Hn ,
A (x1 x2 xk ) = Ax1 Ax2 Axk , para x1 , . . . , xk Hm . Se tienen las siguientes propiedades: a. Dados A L(Hm , Hn ) y B L(Hn , Hr ),
k k k
(7.7)
(AB) = b. (
k
B.
(7.8)
A) =
A .
k
A1 = (
A)1 . En particular
A es unitaria si A
132
d. Si A Mn (C)+ , entonces k A = (k C) k C.
A| =
|A|.
k
ij : (i1 , . . . , ik )
j=1
Ik n
resp.
j=1
A = (A)
sp
= A
k sp
7.3
Sea Sk el grupo simtrico de grado k, esto es el grupo de todas la permutaciones de Ik . Cada e (n) Sk da lugar a un operador linear P U( k Hn ), por la siguiente frmula: Si pensamos o k k a los elementos de Hn como funcionales k- multilineales F : Hn C, se dene
(n) P (F ) (x1 , x2 , , xk ) = F (x(1) , x(2) , , x(k) ) ,
(x1 , x2 , , xk ) Hk . n
(7.9)
(7.10)
Observacin 7.3.1. El hecho de que P sea unitario se puede probar mostrando primero o (n) (n) que (P ) = P1 (esto puede hacerse usando solo los k-tensores elementales). Despues, ah (n) (n) 1 si por denicin, se ve que P1 = (P ) . o Deniremos a continuacin las nociones bsicas de productos alternados o a Denicin 7.3.2. Sea n N y k In . Llamaremos espacio k-alternado (o k-simo Grasso e k mann) sobre Hn , al subespacio de Hn dado por
k
k Hn =
(n) Hn : P F = sgn() F
para toda
Sk
donde sgn() = 1 de acuerdo a si es una permutacin par o impar. Los elementos de o k k Hn se llaman k-tensores alternados. Se considera a Hn como un espacio de Hilbert con el producto interno de k Hn .
133
Observacin 7.3.3. Notaremos por Pn a la proyeccin ortogonal de o o k n fcil ver que Pk est dada por la frmula a a o Pn = k
(n)
Hn sobre k Hn . Es
1 k!
(7.11)
En efecto, como cada P U( k Hn ), entonces (P ) = (P )1 = P1 . Por lo tanto (Pn ) = Pn , ya que al adjuntarlo tan solo se reordena la suma (se usa sgn( 1 ) = sgn() ). k k Por otro lado, como para todo par , Sk se tiene que sgn() = sgn() sgn() y
(n) (n) (n) P = P P ,
podemos deducir que R(Pn ) k Hn . Finalmente, es claro, a partir de la denicin de k Hn , o k n k que Pk (F ) = F para toda F Hn . Denicin 7.3.4. Dados x1 , . . . , xk Hn , se dene el k-tensor alternado elemental : o x1 x2 xk := Pn (x1 x2 . . . xk ) = k 1 k! sgn() x(1) x(2) x(k) ,
Sk
tambin llamado producto alternado de la k-upla ordenada x1 , x2 . . . , xk . e Observacin 7.3.5. Enumeraremos aqu algunas propiedades de los k-tensores elementales: o
k 1. Notar que, como k Hn = Pn Hn , y los k-tensores elementales generan k podemos asegurar que los k-tensores alternados elementales generan k Hn . k
Hn ,
2. Usando el tem 5 de 7.2.1 y el hecho de que Pn es lineal, podemos deducir que la k aplicacin (x1 , . . . , xk ) x1 xk es k-multilineal. o 3. Por otra parte, dados x1 , x2 . . . , xk Hn y Sk , se sigue de las deniciones que x(1) x(2) x(k) = sgn() x1 x2 xk . (7.12)
En resumen, (x1 , . . . , xk ) x1 xk es una aplicacin k-multilineal alternada. o 4. De la frmula (7.12) puede deducirse que, si existen xi = xj con i = j, entonces x1 o xk = 0 (usando la transposicin = (i, j) Sk , cuyo sgn( ) = 1). o 5. Ms an, esto implica que si el conjunto {x1 , . . . , xk } es linealmente dependiente, su a u produco alternado debe ser nulo. xEsto se usar en la subseccin siguiente. a o
134
y de sus conocidas propiedades. Dar una exposicin completa y formal de dichos resultados o es algo que uno siempre trata de evitar, porque es un asunto complicado y poco amigable. Sin embargo, con la teor de productos alternados a mano, esto est bastante cerca, por lo que a a trataremos de dar las dos deniciones usuales, mostrar su equivalencia, y dar pruebas de sus propiedades ms importantes. Por lo tanto, en esta seccin supondremos que nos olvidamos lo a o que sabemos (y hemos usado) al respecto. Empecemos por una de las deniciones. Asumimos conocida cierta teor bsica de grupos de permutaciones, como hemos hecho hasta ahora. a a Denicin 7.3.6. Sea A = (aij )i,jIn Mn (C). Denimos su determinante por la frmula o o
n
det A =
Sn
sgn()
j=1
aj,(j) C .
(7.13)
Con la misma frmula se dene el determinante de matrices a coecientes en cualquier anillo o (como en C[X], lo que se usa para denir el polinomio caracter stico de una matriz). 7.3.7. A continuacin enumeraremos una serie de propiedades que se siguen fcilmente de o a esta denicin del determinante. Las pruebas que no estn escritas deben considerarse como o e ejercicios: Sea A Mn (C). 1. det AT = det A y det A = det A. Ac se usa solamente que sgn( 1 ) = sgn(). a
n
3. Si todas las diagonales de A tienen algn cero (en el sentido de la Denicin 4.3.2), u o entonces det A = 0. Por ejemplo (usando el Teorema 4.3.3) esto sucede si existe una submatriz nula de tamao k r con k + r > n. n 4. En particular, si exite alguna Fi (A) = 0 (o bien una columna), entonces det A = 0. 5. Dada Sn y P UP (n) su matriz de permutacin asociada, entonces se tiene que o det P = sgn(). Esto sale por que la unica diagonal sin ceros de P es la producida por la misma , como se ve en la Eq. (4.4). 6. Si T T S(n), entonces det T =
iIn
cap tulos anteriores, y se lo justic desarrollando por la primera columna. Eso no o es incorrecto (ver el Ejercicio 7.5.11 o la Eq. (12.13) ), pero sale ms directo con la a Denicin 7.3.6, porque la unica diagonal sin ceros de T (si es que hay una) es la o producida por = Id. 7. La funcin Mn (C) A det A C es continua (ms an, es de clase C ), debido a o a u que es un polinomio de grado n en los coecientes de A.
135
Para dar la segunda denicin y probar las principales propiedades del determinante, necesio tamos desarrollar un poco la teor de productos alternados. La relacin clave entre estos y a o la frmula (7.13) para el determinante es lo siguiente: o Proposicin 7.3.8. Sean x1 , . . . , xk , y1 , . . . , yk Hn . Entonces o x 1 x 2 x k , y1 y 2 y k = 1 det k! x i , yj
i,jIk
(7.14)
Demostracin. Es consecuencia de las ecuaciones (7.6) y (7.11), v la Denicin 7.3.6 para o a o el determinante. En efecto, si D x1 xk , y1 yk , entonces D = Pn x1 xk , Pn y1 yk = x1 xk , Pn y1 yk k k k 1 = sgn() x1 xk , y(1) y(k) k! S
k
1 sgn() = k! S
k
xi , y(i) =
i=1
1 det k!
x i , yj
i,jIk
=
k
(m) A P
para toda
Sk .
A Pm . k
(7.15)
Por lo tanto
A k Hm k Hn .
k
Denicin 7.3.10. Sea A L(Hn , Hm ). La restriccin de o o es llamada la k-potencia exterior de A, y denotada por k A L(k Hn , k Hm ) .
A al espacio alternado k Hn
Por la Eq. (7.7) y la Observacin 7.3.5, la k-potencia exterior k A est determinada por la o a frmula: o k A (x1 x2 xk ) = Ax1 Ax2 Axk , (7.16) para toda k-upla x1 , . . . , xk en Hn .
136
Observacin 7.3.11. Si In es la identidad de Hn , entonces k In = Ik Hn . Por otra parte, se o sigue de (7.8) o de (7.16) que, si A L(Hn , Hm ) y B L(Hm , Hr ), entonces k (AB) = k A k B y (k A) = k A . (7.17)
Cuando n = m, i.e. A L(Hn ), la Eq. (7.15) dice que k Hn reduce a k A, por lo que se k Hn k A 0 k tiene una identidad matricial del tipo A = . De ahi se deducen 0 k Hn fcilmente las siguientes propiedades: a a. Si A Gl (n), k A1 = (k A)1 . b. k A es unitaria si A U(n). c. k A 0 si A 0. Adems |k A| = k |A|. a Denicin 7.3.12. o 1. Sea n N y k In . Notamos por Qk,n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk,n = = (1 , 2 , , k ) Ik : 1 1 < 2 < < k n n .
Otra manera de verlo es Qk,n = J In : |J| = k , si pensamos a los conjuntos J ordenados en forma creciente. Luego |Qk,n | = n . k 2. Sean A Mn,m (C), Qk,n y Ql,m . Entonces denotaremos por A[|] a la submatriz de k l de A dada por A[|] = Ai j
(i,j)Ik Il
Mk,l (C) .
Cuando = , A[|] se abreviar como A[]. Si = In (resp. = Im ), notaremos a A[|] = A[|] (resp. A[|] = A[|]). 3. Dada Qk,n , usaremos la abreviacin: o e = e(n)
(n) := e1 e(n) e(n) k Hn . 2 k
A continuacin veremos que forman una BON de k Hn . o Proposicin 7.3.13. El conjunto o Ek,n = { k! e : Qk,n } es una BON de k Hn . Por lo tanto, tenemos que dim k Hn = |Qk,n | =
n
k
(7.18) .
Demostracin. El hecho de que Ek,n genera k Hn se deduce de los o tems 1, 2 y 3 de la Observacin 7.3.5 (la Eq. (7.12) permite ordenar las coordenadas). Por otro lado, si , o Qk,n no son iguales, es fcil ver que la matriz ei , ej i,jI debe tener una la nula (la de a k algn i ). Luego, por la Proposicin 7.3.8 y el u / o tem 4 de 7.3.7, se tiene que e , e = 0. Finalmente, como det Ik = 1, llegamos a que Ek,n es una BON.
137
Proposicin 7.3.14. Sea A Mn,m (C). Identiquemos k A L(k Hm , k Hn ) con su o matriz en las bases Ek,m y Ek,n . Dados Qk,n y Qk,m , se tiene que k A
,
= det A[|] .
(7.19)
k A
k! e ,
(m)
(m)
(n)
= det
Aej , ei
i,jIk
Determinantes
Miremos qu es n Hn , o sea el caso k = n. Comon es el unico elemento de Qn,n , la Proposie I cin 7.3.13 asegura que el vector en = n! eIn = n! e1 e2 en es una BON de n Hn . o O sea que n Hn = C en . Dados x1 , . . . , xn Hn , si tomamos la matriz X Mn (C) dada por Fi (X) = xi , queda n! x1 x2 xn = det X en . (7.20) En efecto, si abreviamos a = x1 xn , entonces a = a, en en . Ah podemos aplicar la Proposicin 7.3.8, ya que xi , ej = Xij , para todo par i, j In . o La frmula (7.20) es la segunda denicin para el det X, en el sentido de que X det X es la o o unica funcin n-multilineal alternada (en las las de X) tal que det In = 1 (esto vale porque la o matriz X asociada a e1 en es X = In ). La Proposicin 7.3.8 muestra que es equivalente o a la de diagonales y permutaciones. Si en la Proposicin 7.3.14 consideramos el caso k = n = m, e identicamos L(n Hn ) con C o (v zI z), tenemos que a n A = det A para toda A Mn (C) . (7.21)
Observar que esto brinda un camino directo para probar la igualdad det AB = det A det B, que no se ve tan fcil v la Denicin 7.3.6. a a o Proposicin 7.3.15. Sean A, B Mn (C), Entonces se tiene que o 1. det AB = det A det B. 2. det A = 0 si y slo si A Gl (n). o 3. Gl (n) es abierto y denso en Mn (C).
138
Demostracin. Lo primero se deduce de que n AB = n A n B v la frmula (7.21). Si o a o 1 A Gl (n), tenemos que det A det A = det In = 1 = 0. Si A Gl (n), entonces sus / columnas deben ser un conjunto linealmente dependiente (porque ker A = {0}). Luego se aplica la Eq. (7.20) y el ultimo punto de la Observacin 7.3.5 a la matriz AT , y el hecho de o que det A = det AT , como asegura 7.3.7. Como A det A es continua, el item 2 implica que Gl (n) = det1 {z C : z = 0} es abierto en Mn (C). La densidad podr probarse usando a la multilinealidad de A det A, pero sale ms fcil viendo que, para cualqueir A Mn (C), a a existen matrices A + I Gl (n) para arbitrariamente pequeo. n Corolario 7.3.16. Sean k, n N. 1. Un conjunto {x1 , x2 , . . . , xk } Hn es linealmente independiente si y slo si el producto o alternado x1 x2 xk = 0. 2. El espacio k Hn = {0} si y slo si k n. o Demostracin. Sea X Mn,k dada por Ci (X) = xi , i Ik . Luego {x1 , x2 , . . . , xk } es o linealmente independiente si y slo si ker X = {0}. Esto, a su ves, equivale a que X X Gl (k) o (porque ker X X = ker X). Pero, por la Proposicin 7.3.8, tenemos que o X X = x j , xi
i,jIk
x i , xj
i,jIk
= det X X = k! x1 x2 xk
Luego aplicamos la Proposicin 7.3.15. La segunda parte se deduce inmediatamente de la o primera, porque en Hn puede haber, a lo sumo, n vectores linealmente independientes. Observacin 7.3.17. Recordemos que, si A Mn,m (C) decimos que o rkA = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} , es el rango columna de A. Como k A (e ) = C1 (A) Ck (A), para todo Qk,m , el Corolario 7.3.16 muestra que rk A = mx{k N : k A = 0} a (7.22)
(ver tambin el Corolario 7.4.3 de ms adelante). Usando que k A = (k A) , la frmula e a o (7.22) da otra prueba de que rk A = rk A. El siguiente resultado generaliza la Proposicin 7.3.15 a determinantes de submatrices: o Corolario 7.3.18 (Frmula de Cauchy-Binnet). Dadas A Mn,r (C) y B Mr,m (C) , sea o k m n{n, r, m}. Luego, para cada par Qk,n , Qk,m se tiene que det(AB)[|] =
Qk,r
(7.23)
139
Demostracin. Por la ley de multiplicacin (7.17) y la Proposicin 7.3.14, tenemos que o o o det(AB)[|] = (k AB) = k A k B =
Qk,r
=
Qk,r
lo que prueba lo armado. Observacin 7.3.19. La versin ms clsica de la Frmula de Cauchy Binnet es la siguiente: o o a a o Sean A Mk,r (C) y B Mr,k (C) , con k r. Luego, det AB =
Qk,r
(7.24)
que resulta de operar con todas las submatrices cuadradas de tamao mximo de A (eligiendo n a columnas) y de B (eligiendo las mismas las). Es claro que (7.24) se deduce del Corolario 7.3.18. Tambin vale la rec e proca, porque dadas A y B como en el Corolario 7.3.18, las matrices A0 = A[, ] Mk,r (C) y B0 = B[, ] Mr,k (C) cumplen que A0 B0 = (AB)[|] , A0 [|] = A[|] y B0 [|] = B[|] , Qk,r ;
por lo que (7.23) para A y B se reduce a (7.24) para A0 y B0 . Proposicin 7.3.20. Sean A, B Gl (n)+ y [0, 1]. Entonces o det A + (1 )B (det A) (det B)1 . Es decir, la aplicacin Gl (n)+ o A log det A es cncava. o
Demostracin. Sea C = B 1 A. Como (C) = B 1/2 AB 1/2 (con multiplicidades), o podemos llamar (C) = (B 1/2 AB 1/2 ) R+n . Adems, a det A + (1 )B = det B B 1 A + (1 )I = det B det C + (1 )I . Luego basta probar que det C + (1 )I (det A) (det B)1 det B 1 = (det A) (det B) = (det C) . En otras palabras, basta ver que
n n
i (C) + 1
i=1 i=1
i (C) .
Finalmente, veremos que i (C) + 1 i (C) para cada i In , con lo cual el resultado quedar probado. En efecto, dado c > 0, la funcin f (t) = ct es convexa en todo R. Notar a o que f (0) = 1 y f (1) = c. Por lo tanto c + 1 = f (1) + (1 )f (0) f (1 + (1 )0) = f () = c . Aplicando lo anterior a cada c = i (C), obtenemos el resultado.
140
Ejercicio 7.3.21.
Para probarlo, hacer un cambio de variables diag ((H)). Como U es unitaria, la integral 1/2 a1/2 . De paso, esto prueba que e Hx,x de variables manda bolas en bolas). Vale lo
y = U x, para U U(n) tal que U HU = 2 no cambia. Luego usar que Rn eat dt = es integrable en Rn (notar que el cambio mismo para matrices complejas?
7.4
El siguiente resultado, si bien es algo tcnico, es la llave para la caracterizacin completa de e o los autovalores de un producto alternado: Lema 7.4.1. Sea T T S(n), con los nmeros 1 , . . . , n en su diagonal. Sea k In . u
1. En trminos de la BON Ek,n de la Eq. (7.18), ordenada lexicogrcamente, la matriz de e a k T es, tambin, triangular superior. e
i .
Demostracin. Sean I, J Qk,n tales que I > J. Debemos probar que o (k T )IJ = det T [I, J] = 0 , donde la primea igualdad sabemos que es cierta por la Proposicin 7.3.14. Si I = (1 , , k ) o y J = (1 , . . . , k ) (vectores ordenados en forma creciente), debe existir algn j Ik tal que u j > j (sino valdr que I J en el lexicogrco). Por lo tanto, a a i > r para todo par (i, r) tal que 1rjik.
Como T T S(n), tenemos que Ti r = 0 para todos esos pares. Es decir que T [I, J] tiene una submatriz nula de tamao (k j + 1) j. Aplicando Knig-Frobenius (Corolario 4.3.3), n o deducimos que T [I, J] no tiene ninguna diagonal sin ceros. Esto implica que det T [I, J] = 0, como se arm. Por otra parte, si J Qk,n , por la Proposicin 7.3.14 sabemos que o o (k T )JJ = det T [J] =
i J
i ,
141
Teorema 7.4.2. Sea A Mn (C) con vector de autovalores (A) = (1 (A), . . . , n (A) ). Sea k In . Entonces los autovalores de k A estn dados por a J (k A) =
i J
i (A) ,
J Qk,n ,
contados con multiplicidad. Demostracin. Es similar al caso de los productos tensoriales (Proposicin 7.1.2). Se aplica el o o Teorema 1 de Schur 1.6.1 y el hecho de que k U es unitaria si U U(n), pero usando ahora el Lema 7.4.1. Corolario 7.4.3. Sea A Mn (C). Sea k In . Entonces los valores singulares de k A son s k A = sJ k A
JQk,n
=
i J
si (A)
JQk,n
contados con multiplicidad, y ordenados en forma decreciente. Adems, si ordenamos a los a autovalores 1 (A), . . . , n (A) de A con mdulos decrecientes, se tiene que o
k k
k A =
i=1
|i (A)|
k A
sp
= s1 k A =
i=1
si (A) .
Demostracin. Se deduce del Teorema 7.4.2 y del hecho de que k A = k |A|. o A continuacin veremos algunas propiedades funtoriales de los productos alternados, que sern o a necesarias para las aplicaciones a desigualdades. Proposicin 7.4.4. Sea A Mn (C) y k In . o 1. Si Am A, entonces k Am k A.
m m
2. Si A Mn (C)+ entonces, para todo r R+ se tiene que (k A)r = k (Ar ) . 3. Si A es alguna de estas cosas: a. Idempotente (i.e., A2 = A), b. Proyector (i.e., A2 = A = A ), c. Isometra parcial (i.e., AA y A A son proyectores), d. Autoadjunto, normal o unitario, entonces k A es del mismo tipo.
7.5 Ejercicios
142
4. Si A = U |A| es una DP de A, entonces k A = k U k |A| es una descomposicin polar de k A. o Demostracin. o 1. Por la frmula (7.19), para todo par , Qk,n , tenemos que o (k Am ) = det Am [|] det A[|] = (k A) .
m
(7.25)
Observar que el determinante de una matriz es un polinomio en sus entradas, por lo que la funcin B det B es continua. o 2. Como (k A)2 = k (A2 ), la veracidad del enunciado cuando r N se deduce a travs de e una simple induccin. Recordando que (k A)1 = k (A1 ), es claro que tambin vale si o e r Z. Para extender el resultado a los r Q, basta notar que si m N {0} entonces: (k A1/m )m = k [(A1/m )m ] = k A . Finalmente, el caso general se obtiene por continuidad (y el item 1.). 3. Todas estas propiedades se deducen directamente de las propiedades vistas en la Observacin 7.3.11. o 4. Ya hemos visto (o podemos deducir de lo anterior) que |k A| = k |A|. Como k U es isometr parcial, y la igualdad (7.25) se tiene que cumplir a partir de que A = U |A|, a entonces (7.25) es una DP de k A.
7.5
Ejercicios
7.5 Ejercicios
143
5. Si existen A1 y B 1 , entonces A1 B 1 = (A B)1 . En particular, si A U(n) y B U(k), entonces A B U(nk). 6. A B 0 si A 0 y B 0. Ms an, |A B| = |A| |B|. Se usa el Teorema 3.1.3 y a u la unicidad de la raiz cuadrada positiva. 7.5.2. Completar los detalles de la prueba de la Eq. (7.4). 7.5.3. Completar los detalles de la denicin inductiva del espacio o de 7.2.1 y los 6 de 7.2.2.
k
7.5.4. Dados n, k N y Sk , tomemos el operador de permutacin P o denido en la Eq. (7.9). Probar las siguentes propiedades: 1. La frmula (7.10) sobre como acta P o u 2. Mostrar que P
(n) (n)
L(
Hn ),
1 k!
(n) sgn() P . Sk
7.5.5. Dar los detalles de las pruebas de los 5 items de la Observacin 7.3.5, sobre las o propiedades de los k-tensores elementales. 7.5.6. Probar todos los resultados enunciados en la Observacin 7.3.11, sobre las propiedades o de las k-potencias alternadas (o exteriores) de matrices. 7.5.7. Probar los 7 items de 7.3.7 (sobre determinantes). 7.5.8. Probar que Gl (n) es denso en Mn (C). 7.5.9. Hacer el Ejercicio 7.3.21.
Ejercicios nuevos
7.5.10. Sea Sn y P UP (n) su matriz de permutacin asociada, denida en la Obsero vacin 4.1.5. Probar que det P = sgn() de las tres maneras propuestas: o 1. Usando la Denicin 7.3.6 de una (esto es parte del Ejercicio anterior). o 2. Mostrar que si Sn es una trasposicin, entonces det P = 1, y usar que sigma es o producto de trasposiciones, y que la echa det P es un morsmo. 3. Usando que P tiene las Fi (P ) = e(i) , i In (por la Eq. (4.3) ), y aplicando luego las ecuaciones (7.12) y (7.20).
7.5 Ejercicios
144
4. Alguna otra que se les ocurra. 7.5.11. Demostrar el algoritmo usual para calcular det A, para A Mn (C), desarrollando por alguna la o columna de A. Por ejemplo la la r-sima: e det A =
iIn
(7.26)
Se sugiere usar la multilinealidad de B det B (tanto para las como para columnas) y calcular det B en el caso de que alguna la o columna de B est en la base cannica de Cn . e o Otra opcin es esperar hasta la Eq. (12.13). o 7.5.12. Sea t = (t1 , . . . , tn ) Cn . Se llama matriz de 1 t1 . . . 1 t2 . . . V (t) = tj1 = . . i . . ... i,jIn . . 1 tn . . . Probar que det V (t) =
i<j
Vandermonde de t a n1 t1 n1 t2 . Mn (C) . . . n1 tn
7.5.13. Sean A, B Mn (C). Probar: 1. (s(A), s(B)) 2. (s(A), s(B)) (s(|A| + |B|), 0) en R2n .
w
o 3. Sea F : Mn (C) R+ dada por F (C) = i f (si (C)), para una f : R+ R+ cncava tal que f (0) = 0. Probar que F es subaditiva, o sea F (A + B) F (A) + F (B).
n
4. Si z C, det(I + zA) =
k=0
z k tr(k A).
5. PA (x) = xn +
n1 k=0
(1)nk tr(nk A) xk .
6. det(I + |A + B|) det(I + |A|) det(I + |B|). 7. | det(I + A)| det(I + |A|). 8. | det(I + A + B)| det(I + |A|) det(I + |B|).
7.5 Ejercicios
145
Productos simtricos e
Sean k, n N. Recordemos que, dados x1 , . . . , xk Hn y Sk , tenemos que
(n) P (x1 x2 xk ) = x1 (1) x1 (2) x1 (k) ,
donde P es un operador unitario que cumple (P1 ) = (P )1 . Dado k In . Llamaremos espacio k-simtrico sobre Hn , al subespacio de k Hn dado por e
k
(n)
(n)
(n)
Hn =
(n) Hn : P F = F
para toda
Sk
Los elementos de k Hn se llaman k-tensores simtricos. Se considera a k Hn como un espacio e de Hilbert con el producto interno de k Hn . Dados x1 , . . . , xk Hn , se dene el k-tensor simtrico elemental: e x1 x2 xk := 1 k! x(1) x(2) x(k) k Hn .
Sk
per A =
Sn j=1
aj,(j) C .
(7.27)
Es decir que es como el determinante, pero sin signos negativos. 1. Probar que, si T T S(n), entonces per T =
iIn
2. Si A 0, mostrar que per A = 0 existen subconjuntos I, J In tales que |I| + |J| > n y la submatriz AIJ 0, es decir que aij = 0 para todo par (i, j) I J. 3. Deducir que si A DS (n), entonces per A = 0. 4. Si B, C Mn (C)+ cumplen que C B, probar que 0 per C per B. 7.5.15. Sean x1 , . . . , xk , y1 , . . . , yk Hn . Probar que x1 x2 xk , y 1 y2 yk = 7.5.16. Dados x1 , . . . , xk , y1 , . . . , yk Hn , llamemos G(x, y) = x i , yj
i,jIk
1 per k!
x i , yj
i,jIk
Mk (C)
a la matriz que se us en el Ejercicio anterior. o 1. Probar que | det G(x, y)|2 det G(x, x) det G(y, y)
7.5 Ejercicios
146
2. Tambin que |per G(x, y)|2 per G(x, x) per G(y, y) . e 3. Traducir a que si A, B Mn,k (C), entonces |per A B|2 per A A per B B
4. (Otro teorema de Schur) Si A Mn (C)+ , per A det A (se sugiere usar el teorema de Cholewsky, Corolario 3.1.5). 7.5.17. Sea A Gl (n)+ . Llamemos ri = tr(Fi (A) ) , 1. Probar que sn per A n!
ij In
i In
s = r1 + + rn = A1 , 1 .
|ri |2 .
Recordemos algunas nociones adelantadas en la Seccin 3.5 o Denicin 8.1.1. Dadas A, B Mn,m (C) se dene el producto de Hadamard A B como o la matriz A B = aij bij iIn Mn,m (C) .
jIm
Notar que este producto tiene sentido tanto para matrices como para vectores. Teorema 8.1.2 (Teorema 2 de Schur). Sean A, B Mn (C)+ , entonces A B Mn (C)+ . Adems, si A > 0 y B > 0, entonces A B > 0. a Demostracin. Ya fue demostrado en 3.6.2 o Corolario 8.1.3. Sean A, B Mn (C)+ , entonces 1. n (A)n (B) n (A B). 2. A B = 1 (A B) 1 (A)1 (B) = A Demostracin. Ejercicio. o Ahora empezamos a mostrar novedades sobre el producto de Hadamard. Proposicin 8.1.4. Sea S = Gen {ei ei : i In } Hn Hn . Identicaremos L(S) con o Mn (C) en la manera obvia. Denamos el operador lineal : L(Hn Hn ) Mn (C) dado por (T ) = TS , T L(Hn Hn ) . B .
148
Demostracin. Representemos A B como producto de Kronecker, como en la Observacin o o 7.1.1. Con las notaciones de submatrices de la Denicin 7.3.12, es fcil ver que, si tomamos o a = (1, 1), (2, 2), . . . , (n, n) In In , entonces (A B) = (A B)S = (A B)[] = A B , como se armaba. Denicin 8.1.5. Dada A Mn,m (C), llamaremos o C(A) = mx Ci (A) a
i Im
2
F (A) = mx Fi (A) a
i In
Notar que estos nmeros pueden, tambin, caracterizarse por las frmulas u e o C(A)2 = A A Im Por lo tanto C(A) A
sp sp sp
y .
F (A)2 = AA In
sp
y F (A) A
C(A)F (B) A
sp
sp
=
i,j
=
i,j
=
j
i,j
|xj |2
i 2 2
|aij |2
i
|yj |2
2
C(A) x Como A B
sp
F (B) y
= C(A) F (B)2 .
Observacin 8.1.7. Sean A Gl (n)+ y J In , con |J| = k. Luego se tiene que o A[J] = (aij )i,j J Gl (k)+ y A1 [J] A[J]1 .
En efecto, esto es un caso particular del Corolario 6.3.7 (o de la Proposicin 3.8.7). o Proposicin 8.1.8. Sean A, B Gl (n)+ . Entonces se verica que o 1. (A B)1 A1 B 1 . 2. A A1 I (A A1 )1 . Demostracin. Se deduce de la Observacin 8.1.7 y de la Proposicin 8.1.4, ya que que A B o o o es una submatriz principal de A B, mientras que A1 B 1 lo es de A1 B 1 = (A B)1 , para los mismos ndices.
149
8.2
Fijada una norma N en Mn (C), denotaremos KN (A) a la norma inducida para MA : KN (A) = mx N (A B) : B Mn (C) es tal que N (B) = 1 a = m k 0 : N (A B) k N (B) para toda B Mn (C) . n En el caso de que N sea la norma espectral, escribiremos KA en lugar de K
sp
(A).
Observacin 8.2.2. Sea A Mn (C). Si N es una norma unitariamente invariante tal que o N (E11 ) = 1, entonces mx |aij | KN (A) . a
i,j
En efecto, notar que para todo i, j In se tiene N (A Eij ) = |aij |N (Eij ) = |aij | y N (Eij ) = 1 .
Por otra parte, para la norma espectral, de la Proposicin 8.1.6 se puede deducir que o KA m C(A), F (A) A n En efecto, notar que para toda B Mn (C), tenemos que A B C(A)F (B) C(A) B ya que Ci (B)
2
sp
A B F (A)C(B) F (A) B ,
Ejercicios 8.2.3. 1. Si N =
2
A Mn (C) .
Notar que (Mn (C), N ) es un espacio de Hilbert, MA es un operador diagonal, y KN (A) = MA sp . 2. Algo ms complicado es probar que, para cualquier A Mn (C), a K
(A) = KA .
Debe usarse que 1 es la norma dual de la espectral (esto es del mismo tipo que ( 1 ) = , pensada en los valores singulares), y que el operador adjunto de MA es el mismo MA . Esto ultimo se deduce de la identidad tr (A B)C t =
i,j In
donde se identica a Mn (C) con Mn (C) a travs de la aplicacin C C = tr( C t ) e o (ver los Ejercicios 5.6.29 al 5.6.33) .
150
Teorema 8.2.4. Sea A Mn (C). Dada una factorizacin A = D B, con B, D Mn (C), o se verica que KA C(D)C(B) . Demostracin. Consideremos la siguiente matriz: o P = D 0 B 0 D B 0 0
sp
D D A A B B I M M I
1. Luego
I M M I
I D D M A (M A) I B B
M2n (C)+ .
Como (D D)ii = Ci (D) 2 , i In , podemos deducir que I D D C(D)2 I, y anlogamente a 2 se ve que I B B C(B) I. Por ende, PM Conjugando con F = C(D)2 I M A (M A) C(B)2 I = RM .
C(D)1 I 0 0 C(B)1 I
F RM F =
= C(D)1 C(B)1 M A
sp
1, o sea
1 =
M A
C(D)C(B) .
En otras palabras, KA C(D)C(B). Corolario 8.2.5 (Schur 4). Sea A Mn (C)+ . Entonces KA = mx{Aii : i In }. a Demostracin. Notemos M = mx{Aii : i In }. Hemos visto que M KA (porque o a Aii = A Eii ). Por otra parte, como A Mn (C)+ , sabemos que existe B Mn (C) tal que A = B B. Es fcil ver que, en tal caso, Aii = Ci (B) 2 para todo i In . Esto dice que a M = C(B)2 . Por el Teorema 8.2.4 deducimos que KA C(B)2 = M .
8.3
Funcionales positivas
El teorema de Haagerup (1983) dice que, dado A Mn (C), existe una factorizacin A = D B, o como en el Teorema 8.2.4, tal que se obtiene la igualdad KA = C(D)C(B). Su formulacin o y demostracin original utilizaba profundas nociones y resultados de lgebras de operadores. o a
151
Esto motiv que, desde el mbito de los especialistas en anlisis matricial, fueran apareciendo o a a numerosas pruebas simplicadas del teorema de Haagerup. De todas ellas hemos seleccionado la obtenida por Paulsen, Power y Smith en [29]. Necesitaremos, sin embargo, adaptar al contexto de matrices ciertas nociones y resultados elementales de lgebras de operadores. a Fundamentalmente, propiedades y criterios de existencia de funcionales positivas. Denicin 8.3.1. Sea S Mn (C) un subespacio cerrado por adjuncin, es decir, T S si o o y slo si T S. Una f uncional en S es una aplicacin lineal : S C. Se denen los o o siguientes tipos de funcionales: 1. Notamos (adjunta de ) a la funcional dada por (A) = (A ), A S. 2. Decimos que es autoadjunta si = . Es decir, si (A ) = (A), A S. 3. La funcional se llama positiva si (A) 0 cuando A S Mn (C)+ . 4. Se considera la norma inducida en las funcionales por la norma espectral de las matrices. Es decir = mx{|(A)| : A S , A sp = 1} . a Ejercicios 8.3.2. Sea S Mn (C) un subespacio cerrado por adjuncin. o 1. Sea una funcional en S. Probar que (a) = . (b) es autoadjunta si y slo si (A) R para toda A S H(n). o (c) Si es positiva, entonces es tambin autoadjunta. e (d) Toda funacional autoadjunta en S es resta de dos positivas. Se usa que si A S, entonces Re A S e Im A S. 2. Dada B Mn (C), se dene la siguiente funcional en Mn (C): B : Mn (C) C Vericar que (a) Para toda funcional en Mn (C) existe una unica matriz B Mn (C) tal que = B . (b) Dados x, y Cn consideremos la matriz x seccin 1.9. Se tiene que B (xy ) = x, By . o (d) B es positiva si y slo si B Mn (C)+ . o Proposicin 8.3.3. Sea B Mn (C). Entonces o 1. | tr B| tr |B|. y = xy Mn (C) , denida en la dada por B (A) = A, B = tr(AB ) , A Mn (C).
152
2. tr B = tr |B| si y slo si B Mn (C)+ . o 3. B = B Demostracin. o 1. Sea B = {v1 , . . . , vn } una bon de vectores propios de |B| asociada a s(B). Luego, si B = U |B| es la DP de B, con U U(n),
n n n 1
= tr |B|.
| tr B| =
k=1
U |B|vk , vk
k=1
sk (B) U vk , vk
k=1
sk (B) = tr |B| .
2. Si tr B = tr |B|, entonces
n n n
sk (B) = tr |B| = tr B =
k=1 k=1
Bvk , vk =
k=1
sk (B) U vk , vk .
Dado que | U vk , vk | 1 para todo k In , por el caso en que se obtiene igualdad en la desigualdad de Cauchy Schwarz, todos los nmeros complejos U vk , vk deben u tener el mismo argumento. Como la suma da un nmero positivo, se debe vericar que u U vk , vk = 1 para todo k In . Pero un unitario con unos en la diagonal (en nuestro caso la matriz de U en la base B) debe ser la identidad. De ello se deduce que U = I y que B = |B| Mn (C)+ . La rec proca es obvia. 3. Notar que tr |B| = tr(U |B|U ) = tr(U B ) = B (U ) B . Por otro lado, por el item anterior y el Corolario 5.3.11, | tr(AC)| tr |AC| A para todo par A, C Mn (C). Entonces |B (A)| = | tr(A|B|U )| = | tr(U A |B|)| U A para toda A Mn (C). Por lo tanto B tr |B|. Teorema 8.3.4. Sea S Mn (C) un subespacio cerrado por adjuncin tal que I S. Sea o una funcional en S. Luego las siguientes condiciones son equivalentes: 1. es positiva. 2. = (I). 3. Existe B Mn (C)+ tal que es la restriccin de B a S . o Demostracin. o
sp sp
tr |C| ,
sp
153
sp
IA A
sp
(I) (A) A
sp
(I) = |(A)| A
sp
Si A = A , sea [0, 2) tal que (A) = ei |(A)|, o sea que (ei A) = |(A)|. Llamenos A0 = ei A. Como es autoadjunta y (A0 ) R, deducimos que (A0 ) = (Re A0 ). Por todo esto, |(A)| = (A0 ) = (Re A0 ) Re A0
sp
(I) A0
sp
sp
(I) = A
sp
(I) .
= 1).
2 3 Sea una funcional en S tal que = (I). Por el teorema de Hahn Banach (en dimensin nita se lo puede probar por induccin con la prueba tradicional), existe una o o extensin de a todo Mn (C) que tiene la misma norma. Luego existe B Mn (C) o tal que = B . Por la Proposicin 8.3.3, deducimos que o tr |B| = B = = = (I) = B (I) = tr B , y por lo tanto B Mn (C)+ . 3 1 Sea B Mn (C)+ tal que es la restriccin de B a S. Si A S Mn (C)+ , tenemos o que (A) = tr AB = tr B 1/2 AB 1/2 0 , porque B 1/2 AB 1/2 Mn (C)+ y la funcional tr es positiva. Corolario 8.3.5. Sea S Mn (C) un subespacio cerrado por adjuncin tal que I S, y o una funcional positiva en S. Luego existe funcional positiva en Mn (C), con la misma norma, tal que es la restriccin de a S. o
8.4
Matrices incompletas
Sea J In In . Una matriz incompleta asociada al conjunto J es un cacho de matriz A = (aij )i,j J . O sea que no se pone nada en las entradas (i, j) J. Una matriz B Mn (C) / es una completacin de A si bij = aij para todo (i, j) J. o Denicin 8.4.1. Sea J In In . o 1. Llamaremos SJ Mn (C) al subespacio SJ = C Mn (C) : cij = 0 para todo (i, j) J . /
2. Si A est denida solo en J, y C SJ , denotaremos A C = B C, donde B Mn (C) a es cualquier completacin de A. Notar que, como C SJ , la denicin no depende de o o la completacin elegida. o
154
3. Diremos que J cumple (P) si (a) (i, j) J = (j, i) J, (b) (i, i) J para todo i In . En otras palabas, si J es simtrico y contiene a la diagonal (reexivo). e Existen numerosos resultados sobre matrices incompletas, fundamentalmente relativos a preguntas del tipo: que debe cumplir A para que se la pueda completar a una matriz que cumpla una propiedad dada? Un ejemplo de este tipo de resultados, es el llamado teorema de Parrot, que describe algunos casos de matrices incompletas que pueden completarse a una contraccin. Una versin de o o aquel resultado aparece en el Ejercicio 3.9.13. El siguiente teorema da una respuesta al problema de cuando se puede completar una casimatriz A para que quede positiva (semidenida), siempre que el conjunto J en el que est a + denida tenga la propiedad (P). Observemos que si B Mn (C) es una completacin de un o tal A, entonces, por el Teorema 2 de Schur 3.6.2, debe cumplirse que A C = B C Mn (C)+ para toda C SJ Mn (C)+ . (8.1)
Esto nos da una condicin necesaria sobre A para que pueda existir una completacion poo sitiva. Esta condicin ser muy pobre si J no cumple (P), porque en tal caso habr muy o a a pocas matrices en SJ Mn (C)+ . Pero veremos que, si J cumple (P), entonces la condicin o es tambin suciente: e Teorema 8.4.2. Supongamos que J In In cumple (P). Sea A = (aij )i,j J una matriz denida solo en J. Luego las siguientes condiciones son equivalentes: 1. Existe una completacin B de A tal que B Mn (C)+ . o 2. Para toda matriz C SJ Mn (C)+ se verica A C Mn (C)+ . Demostracin. En la Eq. (8.1) vimos que la ida es consequencia del Teorema 2 de Schur. o Supongamos entonces que A cumple 2. Sea A : SJ C la funcional denida por A (C) =
(i,j) J
aij cij ,
C = (cij ) SJ .
Veriquemos ahora que A es positiva en SJ . En efecto, si C SJ Mn (C)+ , luego tambin e T + + C = C SJ Mn (C) . Por hiptesis A C Mn (C) . Si llamamos e = (1, . . . , 1) Rn , o entonces 0 (A C) e, e = aij cij = A (C) = A (C),
(i,j) J
por lo que A es positiva. Observar que SJ verica las hiptesis del Teorema 8.3.4 (es cerrado o por adjuncin e I SJ ), gracias a que J cumple (P). Luego, obtenemos una matriz B o
155
Mn (C)+ tal que B S = A . Notar que, si (i, j) J, entonces Eij SJ . Por otra parte, es J fcil ver que tr (BEij ) = bji = bij . Luego, a bij = tr (BEij ) = B (Eij ) = A (Eij ) = aij Eso dice que B es una completacin positiva de A. o , (i, j) J .
8.5
El teorema de Haagerup
Lema 8.5.1. Sean T Mn (C) y , R+n . Notemos D1 = diag () , D2 = diag () Gl (n)+ y L Mn (C) la matriz con entradas Lij = i M= Demostracin. Observar que o D1 0
1/2 1/2 1/2 j .
Entonces
D1 T T D2
M2n (C)+
LT 1 .
0 D2
1/2
D1 0
1/2
0 D2
1/2
I D1 1/2 1/2 D2 T D1
1/2
1/2
T D2 I
1/2
Luego, por la Proposicin 3.7.6, M M2n (C)+ si y slo si D1 o o 1/2 1/2 = L T. queda probado con slo observar que D1 T D2 o
T D2
1/2
1. El resultado
Teorema 8.5.2. Sea A Mn (C). Luego las siguientes condiciones son equivalentes: 1. KA 1, es decir A C C para todo C Mn (C). . 2. Existen X, Y Mn (C)+ tales que (a) X I I e Y I I. (b) La matriz N = X A A Y M2n (C)+ .
3. Existen B, D Mn (C) tales que (a) A = D B. (b) C(B) 1 y C(D) 1. Demostracin. 1 2: Sea J I2n I2n dado por o J = {(i, i) : i I2n } {(i, n + j) : i, j In } {(n + i, j) : i, j In }. Observar que J cumple (P). Consideremos la matriz P de tamao 2n 2n, denida slo en n o J, dada por 1 ? D A ... P = , donde D = , A D ? 1
156
que es una matriz de tamao n n denida solamente en la diagonal. n Clamor: Si M SJ M2n (C)+ , entonces P M M2n (C)+ . D1 T En efecto, M = , donde T Mn (C), y D1 = diag () , D2 = diag () son matrices T D2 diagonales positivas en Mn (C). Si suponemos que D1 , D2 son estrictamente positivas, y 1/2 1/2 notamos L Mn (C) la matriz con entradas Lij = i j , el Lema 8.5.1 nos dice que, como M M2n (C)+ , entonces L T 1. Observar que P M = D1 AT (A T ) D2 .
Como KA 1, tenemos que L (A T ) = A (L T ) 1. Usando nuevamente el Lema 8.5.1, deducimos que P M M2n (C)+ . El caso general (sin suponer que D1 y D2 son inversibles) se deduce del anterior, tomando la sucesin o Mm = M + 1 I2n m en SJ . Entonces M2n (C)+ P Mm P M .
m
Como M2n (C)+ es cerrado, el clamor queda demostrado. Por el Teorema 8.4.2, tenemos que existe una completacin N de P tal que o N= X A A Y M2n (C)+ y, por lo tanto, X I =Y I =I .
Luego las matricecs X, Y Mn (C)+ cumplen lo pedido. 2 3: Como N M2n (C)+ , por el teorema de Cholewsky (Corolario 3.1.5), existe una matriz K M2n (C) triangular superior tal que N = K K. Si la escribimos en bloques de n n, K= D B 0 G = K K = D D BD D B B B + G G = X A A Y = N.
C(B)2 = B B I (B B + G G) I = X I 1 . La implicacin 3 1 fu probada en el Teorema 8.2.4. o e Corolario 8.5.3 (Teorema de Haagerup (1983)). Sea A Mn (C). Entonces KA = m n C(B)C(D) : B, D Mn (C) y A = D B .
Demostracin. Si KA = 0, entonces por la Observacin 8.2.2, se tiene que A = 0 y el resultado o o es trivial. Si KA > 0, una desigualdad se deduce del Teorema 8.2.4 y, para probar la otra, 1 basta cambiar A por KA A y aplicar 1 3 del Teorema 8.5.2.
8.6 Determinantes
157
Corolario 8.5.4. Sea A Mn (C). Notemos A(k) Mkn (C) la matriz con k k bloques de n n iguales a A. Entonces KA = KA(k) . Demostracin. Es evidente que KA KA(k) (trabajando con matrices de n n rellenadas o con ceros). Rec procamente, si B, D Mn (C) cumplen que A = D B y KA = C(B)C(D), entonces A ... A D ... D B ... B A ... A 0 ... 0 0 ... 0 A(k) = . . . = . . . . . . = Dk Bk . . . . . . . . . . . . . . . . . . . A ... A 0 ... 0 0 ... 0 Pero es claro que C(Bk ) = C(B) y C(Dk ) = C(D), dado que tienen las mismas columnas (salvo ceros). As KA(k) C(B)C(D) = KA . ,
8.6
Determinantes
n
aii .
La igualdad vale si y slo si A es diagonal. o Demostracin. Podemos suponer que A > 0, y entonces aii > 0, para todo i In . Consideo ramos la matriz diagonal 1/2 1/2 D = diag a11 , . . . , ann . Entonces B = D1 AD1 = (aii
1/2 1/2 ajj aij )ij
= det A
i=1
a1 . ii
Por lo tanto, ser suciente mostrar que det B 1. Aplicando la desigualdad aritmticoa e 1 geomtrica obtenemos, e
n
det(B) =
i=1
i (B)
1 n
i (B)
i=1
= tr
B n
=1.
y esto prueba el resultado. Con respecto a la igualdad, si la hubiera en la desigualdad aritmtico-geomtrica, entonces los nmeros involucrados deben ser todos iguales. Es decir que e e u todos los i (B) = 1. Pero entonces, como B 0, debe ser B = I, o sea A = D2 .
1 m
1
Si a1 , . . . , am > 0, entonces
i=1
aim
1 m
8.6 Determinantes
158
| det A|
i=1
Ci (A)
(8.2)
Demostracin. Se aplica la desigualdad de Haramard a la matriz B = A A 0. Notar que o det B = | det A|2 y que Bii = Ci (A) 2 , para todo i In . 2 Ejercicio 8.6.3. Veremos tres demostraciones alternativas de estas desigualdades. 1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3. 2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard. 3. Probar el Corolario 8.6.2 usando la descomposicin QR (Teorema 1.8.2) de A Mn (C). o Observar que (8.2) es trivial para matrices triangulares. 4. Probar el Corolario 8.6.2 usando la interpretacin del determinante como un rea o o a volumen.
detA Lema 8.6.4. Sean A Gl (n)+ y (A) = detA11 , donde A11 = (aij )2i,jn Mn1 (C). Sea E11 = e1 et Mn (C). Entonces A tE11 0 si y slo si t (A). o 1
Demostracin. Es fcil ver, desarrollando por la primera columna, que o a det(A tE11 ) = det A t det A11 . (8.3)
Luego, det(A tE11 ) 0 si y slo si t (A). Por otro lado, todas las dems submatrices o a principales de A tE11 obtenidas con las ultimas i las y columnas, son las mismas que las respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por el Teorema 2.4.6 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El caso general sale tomando l mite. Teorema 8.6.5 (Desigualdad de Oppenheim). Si A, B Mn (C)+ , entonces
n
det A
i=1
Demostracin. Si det A = 0, el resultado se deduce del Teorema 2 de Schur 8.1.2, que asegura o que A B 0. Supongamos, entonces, que A > 0. La demostracin la realizaremos por o induccin sobre n. Si n = 1, el resultado es inmediato. Sea n 2 y supongamos el resultado o vlido para todas las matrices de dimensin n 1. Entonces, con las notaciones del Lema a o 8.6.4, sabemos que
n
det A11
i=2
8.6 Determinantes
159
Por el Lema 8.6.4, si = (det A11 )1 det A, entonces A E11 0. El Teorema 2 de Schur 8.1.2 dice que (A E11 ) B 0. Aplicando la frmula (8.3), como E11 B = b11 E11 y o (A B)11 = A11 B11 , resulta que 0 det(A B E11 B) = det A B b11 det(A11 B11 ). Aplicando la hiptesis inductiva, obtenemos o
n n
bii = det A
i=1
bii
y el teorema queda demostrado. Teorema 8.6.6 (Desigualdad de Fisher). Sea A Mn (C)+ , y sea P un sistema de proyectores en H(n). Entonces det A det(CP (A)). Recordamos que CP (A) =
r i=1
Pi APi , si P = {P1 , . . . , Pr }.
Demostracin. Por la Eq. (5.8), basta probar el caso P = {P, I P }, para P H(n) o un proyector. Supongamos que dim R(P ) = k. Conjugando a P y a A con alguna matriz unitaria (lo que no cambia los determinantes), podemos suponer que R(P ) es el subespacio generado por los primeros k elementos de la base cannica de Cn . O, lo que es lo mismo, que o P = diag (1, . . . , 1, 0, . . . , , 0), donde los unos llegan hasta el lugar k. Dado r N, llamemos Er Mr (C)+ a la matriz con todas sus entradas iguales a 1. Notar 2 que Er 0 porque 0 Er Er = Er = rEr . Consideremos la matriz de bloques B= Ek 0 0 Enk Mn (C)+ ,
det A = det A
i=1
Observacin 8.6.7. Otra demostracin del Teorema anterior puede hecerse usando las Proo o posiciones 5.4.4 y 4.2.3. En efecto, con las notaciones de 8.6.6, como (CP (A)) (A), si n (A) > 0, entonces tambin n (CP (A)) > 0 y e
n n
det A =
i=1
i (A)
i=1
Si n (A) = 0, entonces det A = 0, pero CP (A) 0, por lo que det CP (A) 0. De los resultados anteriores obtenemos la siguiente relacin para el determinante del producto o convencional de matrices y el producto de Hadamard.
8.7 Ejercicios
160
Teorema 8.6.8. Si A, B Mn (C)+ , entonces det A B det A B. Demostracin. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim. En o
n
bii det A B.
8.7
Ejercicios
= A A Im
1/2 sp
y .
F (A) = mx Fi (A) a
i In
= AA In
1/2 sp
sp
A Mn (C) .
3. Probar que el operador adjunto de MA L(Mn (C) ) es el mismo MA , idencando Mn (C) con Mn (C), a travs de la aplicacin e o Mn (C) 4. Probar que K
C C = tr( C T ) Mn (C) .
(A) = KA .
8.7.3. Sea S Mn (C) un subespacio cerrado por adjuncin (i.e. T S = T S). o 1. Sea una funcional en S (usaremos notaciones de la Denicin 8.3.1). Probar que o (a) = . (b) es autoadjunta si y slo si (A) R para toda A S H(n). o (c) Si es positiva, entonces es tambin autoadjunta. e (d) Toda funacional autoadjunta en S es resta de dos positivas.
8.7 Ejercicios
161
Se usa que si A S, entonces Re A S e Im A S. 2. Dada B Mn (C), se dene la siguiente funcional en Mn (C): B : Mn (C) C Vericar que (a) Para toda funcional en Mn (C) existe una unica matriz B Mn (C) tal que = B . (b) Dados x, y Cn consideremos la matriz x seccin 1.9. Se tiene que B (xy ) = x, By . o (d) B es positiva si y slo si B Mn (C)+ . o 8.7.4 (Hahn Banach nito). Sea S Mn (C) un subespacio, y sea : S C una funcional lineal. Si = mx{|(A)| : A S y A sp = 1}, existe una extensin de a todo a o Mn (C) que tiene la misma norma.
n
1
dada por
B (A) = A, B = tr(AB ) ,
A Mn (C).
y = xy Mn (C) , denida en la
ain
1 n
ai .
i=1
8.7.6. Distintas pruebas de la desigualdad de Hadamard: 1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3. 2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard. 3. Probar el Corolario 8.6.2 usando la descomposicin QR (Teorema 1.8.2) de A Mn (C). o Observar que (8.2) es trivial para matrices triangulares. 4. Probar el Corolario 8.6.2 usando la interpretacin del determinante como un rea o o a volumen. 8.7.7. Dar los detalles de la prueba del Lema 8.6.4.
Ejercicios nuevos
8.7.8. Sean x, y Cn y G Mn (C). Probar que Gx y = diag (x) G diag (y) .
Denicin 8.7.9. Dada G Mn (C)+ , se dene: o 1. El ndice minimal de G como I(G) = max{ 0 : G B B para todo B Mn (C)+ } .
8.7 Ejercicios
162
2. Dada una norma N en Mn (C), se dene el ndice N de Hadamard para G como IN (G) = max = min 0 : N (G B) N (B) para todo B Mn (C)+
N (G B) : B Mn (C)+ y N (B) = 1 .
El ndice de G asociado con la norma espectral = sp se denota Isp (G), mientras que el asociado a la norma Frobenius 2 ser denotado por I2 (G). a 8.7.10. Sean G Mn (C)+ , 1 = (1, . . . , 1) Cn y E = 1 1T . Sea N una norma. 1. I(G) = 0 si y slo si 1 R(G). Si y Cn cumple que Gy = 1, entonces o
m 1 n
I(G) =
i=1
yi
= y, 1
= (G E)
= min { Gz, z
:
i=1
zi = 1 }
(G1 )ij
2. I(G) IN (G) para cualquier norma unitariamente invariante N . 3. IN (G) = 0 G I = 0 Gii = 0 para todo i In . 4. Si D = diag (d) Gl (n)+ es diagonal, IN (D) = N (D1 )1 . En part.
n
d1 i
I2 (D) =
i=1
d2 i
1/2
5. Los indices I2 e Isp se alcanzan en matrices B Mn (C)+ de rango 1. O sea, I2 (G) = min G xx
x =1
2
G yy . 0).
y =1
Ms an, ambos minimos se alcanzan en vectores x a u 6. Isp (A) = { Isp (D) : A D y D es diagonal }. nf 7. Si x Cn , entonces Isp (x 8. Sea A = a b b c x) = m |xi |2 . n
iIn
(b) Si |b| m n{a, c}, se tiene que Isp (A) = m n{a, c}.
Si x Cn , notaremos Re x Rn al vector de las partes reales de sus coordenadas. Proposicin 9.1.2 (Fan-Homan). Sea A Mn (C). Entonces o 1. k (Re A) k (|A|) = sk (A), para todo k In . 2. Existe U U(n) tal que Re A U |A|U . Demostracin. Sean x1 , . . . , xn y w1 , . . . , wn bases ortonormales de Cn , formadas por autoveco tores de Re A (resp. A A) adaptadas a (Re A) (resp. (A A) ). Dado k In , sea x Gen {x1 , . . . , xk } Gen {wk , . . . , wn } , un vector unitario (debe existir por las dimensiones de los subespacios). Entonces, por el Teorema de Courant-Fisher 2.3.3 y la Proposicin 3.2.6, o k (Re A) Re A x, x = Re Ax, x | Ax, x | Ax = A Ax, x
1/2
La segunda parte se deduce de la primera, dado que diag ((Re A) ) (A). Proposicin 9.1.3 (Ky Fan). Dada A Mn (C), sea (A) Cn el vector de autovalores de o A en algn orden. Entonces u Re (A) (Re A)
164
Demostracin. Ordenemos al vector (A) de tal modo que o Re 1 (A) Re 2 (A) . . . Re n (A) . Sea {x1 , . . . , xn } una base ortonormal respecto a la cual A es una matriz triangular superior, y tal que Axi , xi = i (A) (que existe por el Teorema 1 de Schur 1.6.1). Dado k In , por el Principio del mximo de Ky Fan (Proposicin 5.1.4), se tiene que a o
k k k k k
Re (A) j
j=1
=
j=1
Re j (A) =
j=1
Re Axj , xj =
j=1
Re A xj , xj
j=1
j (Re A) .
tr A + tr A A + A = tr = tr Re A. 2 2
Corolario 9.1.4. Si A Mn (C) cumple que A + A > 0, entonces (A) {z C : Re z > 0} . En realidad, se puede cambiar Re z > 0 por n (Re A) Re z 1 (Re A). Observacin 9.1.5. Sean A, B H(n). Se llama producto simetrizado de A y B a o S = S(A, B) = AB + BA H(n) . Supongamos que A > 0 y S = S(A, B) > 0. Notar que, si C = A1/2 BA1/2 , 0 < A1/2 SA1/2 = A1/2 BA1/2 + A1/2 BA1/2 = Re C . Por el Corolario 9.1.4, se tiene que (C) = (B) R . Como B H(n), debe ser B > 0. Si + A Mn (C)+ no es inversible, notar que dado > 0 bien chico, se tiene que S(A + I, B) = S(A, B) + 2B > 0 (porque Gl (n)+ es abierto en H(n) ) .
Luego se aplica el caso anterior, y tambien A 0 + S(A, B) > 0 = B > 0. Ejercicio 9.1.6. Sean A, B H(n). 1. Probar que, para cada x Cn , se tiene S(A, B)x, x = 2 Re Ax, Bx . 2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) 0. Proposicin 9.1.7 (Kittaneh 95). Sean A, B Mn (C) tales que AB H(n). Entonces, o |||AB||| ||| Re BA||| para toda NUI ||| ||| en Mn (C).
165
Demostracin. Comencemos notando que los autovalores de BA son los mismos que los de o AB y por ende son todos reales. Ms an, en la Proposicin 1.5.5 vimos que (AB) = (BA). a u o Luego, usando la Proposicin 9.1.3, obtenemos que o (AB) = (BA) = Re (BA) (Re BA).
Como AB y Re BA H(n), podemos aplicar el Corolario 5.3.14 (usando que t |t| es convexa) y deducir que s(AB) = |(AB)| w |(Re AB)| = s(Re AB), por lo que |||AB||| ||| Re(BA)||| para toda NUI. Proposicin 9.1.8 (Corach-Porta-Recht, 93). Sean T, S H(n) y supongamos que S es o inversible. Entonces, |||ST S 1 + S 1 T S||| 2 |||T ||| para toda NUI ||| ||| en Mn (C). Demostracin. Aplicar la desigualdad de Kittaneh a A = T S 1 y B = S. o Ejercicios 9.1.9. 1. Usando el famoso truco de las matrices de 2 2, extender la desigualdad CPR a cualquier T Mn (C), no necesariamente autoadjunta. Se sugiere usar las matrices 0 T T = M2n (C) T 0 y una adecuada S1 H(2n) invertible. Ojo con los sk (T ), que son los de T , pero repetidos dos veces cada uno. 2. Con el mismo truco, probar tambin que, si T Mn (C) y S H(n) es inversible, e entonces |||ST S + S 1 T S 1 ||| 2 |||T ||| para toda NUI ||| ||| en Mn (C). 3. Vericar, adems, que la constante 2 es ptima en el primer caso (jando S y moviendo a o todos los T Mn (C) o H(n) ), pero no siempre lo es en el segundo. Para qu matrices e S lo ser? (esto ultimo es dif pero es fcil encontrar familias razonablemente grandes a cil, a de ejemplos donde vale, al menos para la norma espectral). 4. Otra manera de probar la desigualdad CPR (la original) es (a) Primero reducir al caso en que S es diagonal. (b) Despus escribir ST S 1 + S 1 T S como un producto de Hadamard. e (c) Vericar que la matriz que multiplica Hadamard, luego de pasarla dividiendo, es semi denida positiva. (d) Aplicar el siguiente resultado: Si A 0, entonces para toda B Mn (C) y para toda nui ||| ||| en Mn (C), se tiene que |||A B||| mx { aii : i In } |||B||| . a Esto es conocido como el Teorema de Schur (ver Corolario 8.2.5, Schur 4).
166
9.2
Desigualdad de Thompson
Observacin 9.2.1. A diferencia del mdulo de nmeros, el de matrices no cumple la deo o u sigualdad triangular. O sea que existen matrices A, B tales que |A + B| |A| + |B| (Ejercicio: encontrar un par as en M2 (C) ). Esto sucede porque sus partes unitarias pueden mezclar tamaos en forma aleatoria. Lo mejor que se tiene para ese lado es el siguiente resultado, n donde uno corrige ese problema: Teorema 9.2.2 (Thompson). Dadas A, B Mn (C), existen U, V U(n) tales que |A + B| U |A|U + V |B|V . (9.1)
Demostracin. Hagamos la descomposicin polar A+B = W |A+B|, con W U(n). Entonces o o |A + B| = W (A + B) = Re W (A + B) = Re W A + Re W B . Por otra parte, por la Proposicion 9.1.2 (Fan-Homan), existen U, V U(n) tales que Re W A U |W A|U = U |A|U y Re W B U |W B|U = U |B|U , (9.2)
porque (W A) W A = A W W A = A A y entonces |W A| = |A| (lo mismo para B). En el caso de la desigualdad triangular numrica, la igualdad se da si y slo si ambos nmeros e o u poseen igual argumento. Algo similar vale en el caso matricial: Teorema 9.2.3. Dadas A, B Mn (C), las siguientes armaciones son equivalentes: 1. Slo la igualdad puede darse en la ecuacin (9.1). o o 2. Existe W U(n) tal que A = W |A| y tambin B = W |B|. e Demostracin. o 1 2 Sea A + B = W |A + B| la descomposicin polar de A + B, con W U(n). Veremos que o W A 0 y W B 0. Como en la Eq. (9.2), se tiene que |A + B| = Re W A + Re W B . Llamemos C = W A y D = W B. Siguiendo el razonamiento anterior, por la Proposicion 9.1.2 (Fan-Homan), existen U, V U(n) tales que Re W A = Re C U |A|U y Re D V |B|V . Ahora bien, la hiptesis de que slo puede darse la igualdad en (9.1) o o fuerza a que Re C = U |A|U y Re D = V |B|V . Por lo tanto, tr (Re C)2 = tr |A|2 = tr A A = tr AA + tr A A tr CC + tr C C = . 2 2 (9.3)
Observar que 4 tr (Re C)2 = tr CC + tr C C + tr C 2 + tr(C )2 , por lo que la Eq. (9.3) se traduce como tr CC + tr C C = tr C 2 + tr(C )2 . Luego tr (C C )(C C) = tr CC + tr C C tr C 2 tr(C )2 = 0 . Esto muestra que C = W A H(n). Luego W A = Re W A = U |A|U Mn (C)+ . Analogamente se prueba que W B Mn (C)+ .
167
2 1 Supongamos ahora que A = W |A| y B = W |B| para la misma W U(n). Luego A + B = W (|A| + |B|) = |A + B| = |A| + |B|. Si vale (9.1) para algn par u U, V U(n), entonces |A| + |B| U |A|U + V |B|V = M = U |A|U + V |B|V |A| |B| Mn (C)+ . Luego, la matriz M Mn (C)+ y tiene traza nula, o sea que M = 0. Esto muestra que slo la igualdad puede complirse en (9.1). o
9.3
Recordemos la siguiente desigualdad numrica, que ya hab aparecido en el Teorema 8.6.1: e a Dados a1 , . . . , am R y 1 . . . , m [0, 1] tales que i = 1, se cumple que +
iIm m m
ai i
i=1
i=1
i ai .
(9.4)
Es la llamada desigualdad aritmtico-geomtrica, y se demuestra rpidamente usando que el e e a logaritmo es una funcin creciente y cncava (de nmeros). Como se har en la mayor de o o u a a las secciones que siguen, daremos versiones matriciales de ella. Pero en principio slo para el o 1 a a caso m = 2 y 1 = 2 = 2 . Algunas pginas ms adelante (Teorema 9.4.1), mostraremos una versin ms general (slo se asume que m = 2), que es tambin conocida como la desigualdad o a o e de Young. Igual damos una prueba de este caso, porque usa una tcnica interesante que es e bueno ver cmo funciona. o Proposicin 9.3.1. Sean A, B Mn (C). Entonces o si (AB ) Demostracin. Sea X = o X X = Sean P = I 0 0 0 AB = yU= 1 si (A A + B B) 2 para todo i In .
A 0 B 0
A A + B B 0 0 0 I 0 0 I
0 AB BA 0
1 XX U XX U . 2
Tomemos la descomposicin AB = AB AB . Observar que ambas matrices XX y o U XX U M2n (C)+ . Luego, la Eq. (3.7) y el tem 5.b de la Seccin 3.3 aseguran que o si (AB ) = i AB = i AB
+
1 1 1 i (XX ) = i (X X) = si (A A + B B) , 2 2 2
168
para todo i In . El siguiente resultado es ms no que el anterior, y no se generaliza tan fcilmente (salvo para a a la norma Frobenius, ver Teorema 9.4.7). Proposicin 9.3.2. Sean A, B, X Mn (C). Entonces se tiene que o |||AXB ||| para toda NUI ||| ||| en Mn (C). Demostracin. Debemos dividir la prueba en tres pasos: o Paso 1: Supondremos que A = B H(n) y tambin X H(n). Por la Proposicin 9.1.7, e o |||AXA||| ||| Re XA2 ||| = 1 |||A2 X + XA2 ||| . 2 1 |||A AX + XB B||| , 2 (9.5)
H(2n)
Y =
0 X X 0
H(2n) .
0 AXB BX A 0
T 2 Y + Y T 2 = A2 X + XB 2 .
1 2
s(A2 X + XB 2 ) = s
[A2 X + XB 2 ] .
Paso 3: El caso general. Tomemos descomposiciones polares A = U |A| y B = V |B|, con U, V U(n). Notar que A AX + XB B = |A|2 X + X|B|2 , mientras que |||AXB ||| = ||| U |A| X |B| V ||| = ||| |A| X |B| |||, con lo que la desigualdad (9.5) queda demostrada en general a partir del Paso 2.
9.4
con igualdad si y slo si ap = bq . Observar que escrita as es un refraseo de la desigualdad o , aritmtico geomtrica (9.4). Primero daremos una versin de (9.6) para valores singulares de e e o matrices, que generaliza la Proposicin 9.3.1. o
169
Teorema 9.4.1 (Ando [19]). Sean p, q [1, +) tales que par de matrices A, B Mn (C) y todo j In , se tiene que sj (AB ) sj
1 p
1 q
|A|p |B|q + p q
, |A|p |B|q + . p q
(9.7)
Antes de demostrar el teorema, necesitamos algunos pasos tcnicos: e Lema 9.4.2. Sean Q Mn (C) una proyeccin ortogonal y X Mn (C)+ . Entonces o QX r Q (QXQ)r para 0 < r 1 y QX r Q (QXQ)r para 1 r 2 .
Demostracin. Puesto que f (t) = tr es cncava de operadores para r [0, 1] y convexa de o o operadores para r [1, 2], este lema es un respaso de la Proposicin 6.3.9. o El paso clave para probar el teorema, v el cculo de los autovalores con el principio minimax a a del cap tulo 2, es el siguiente resultado tecniqu simo:
1 Lema 9.4.3. Sean p (1, 2] y q [2, +) tales que p + 1 = 1. Sean A Mn (C)+ , q B Gl (n)+ y k In . Sean B = {v1 , . . . , vn } una BON de Cn adaptada a (|AB|), y Sk = Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B 1 P ) = B 1 (Sk ). Si abreviamos = k (|AB|), se tiene que
QAp Q QB q Q + . p q
(9.8)
Por otra parte, sabemos que B(R(Q) ) = B(M) = Sk = R(P ) , por lo que P BQ = BQ y QBP = QB . (9.10)
Luego, juntado esta ultima igualdad con (9.9) (QB 2 Q)(B 1 P B 1 ) = QBP B 1 = Q . Anlogamente, se ve que (B 1 P B 1 )(QB 2 Q) = Q, lo cual muestra que la inversa de QB 2 Q a dentro de M es B 1 P B 1 . Usando quien es Sk , vemos que P |AB|. Luego, (BA2 B)1/2 = |AB| P = BA2 B 2 P = A2 2 B 1 P B 1 , donde vale elevar al cuadrado por que |AB| y P conmutan. Como p (1, 2], tenemos que la p o funcin f (t) = t 2 es montona de operadores. Luego, usando (9.9), se ve que o Ap p (B 1 P B 1 ) 2
p
= QAp Q p Q(B 1 P B 1 ) 2 Q = p (B 1 P B 1 ) 2 .
170
(9.11)
Para probar (9.8), primeramente consideremos el caso q [2, 4]. Por el Lema 9.4.2 QB q Q (QB 2 Q) 2 . Luego, juntando (9.11) y (9.12) se tiene que QAp Q QB q Q p (QB 2 Q) + p q p (QB 2 Q)
p 2 q
(9.12)
(QB 2 Q) 2 + q
1
1 2
(QB 2 Q) 2 = Q ,
donde se puede probar usando la desigualdad de Young numrica, puesto que (QB 2 Q)1/2 e 2 1/2 y (QB Q) conmutan entre s Esto concluye a demostracin para este caso. Supongamos . o q ahora que q (4, ). Sea s = 2 . Entonces 0 < 2 < 1, y q = 2. Por el Lema 9.4.2 se tiene s s Q B q Q = Q (B s ) s Q (Q B s Q) s
p q q
(Q B s Q) s Q B 2 Q .
(9.13)
Por lo tanto, usando que f (t) = t 2 es MOP, se tiene que (QB s Q) s (QB 2 Q) 2
p p
= (QB s Q)
p s
(QB 2 Q)
p 2
en L(M) .
Combinando esta desigualdad con (9.11) se obtiene QAp Q p (QB s Q) y luego combinndola con (9.13) resulta a QAp Q QB q B (QB s Q) + p p q p (QB s Q)
p s p s
(QB s Q) s + q
1
1 s
(QB s Q) s = Q ,
donde nuevamente en la segunda desigualdad se ha usado la versin numrica de la desigualdad o e de Young. Demostracin del Teorema 9.4.1: Probaremos la Eq. (9.7), mientras que la segunda o formulacin queda como ejercicio para el lector. Supongamos primero que A, B Mn (C)+ . o En tal caso tenemos que |AB| = (BA2 B)1/2 y la ecuacin (9.7) puede reescribirse como o j (BA2 B)1/2 = j BA2 B
1/2
Ap B q + p q
para todo j In .
(9.14)
Como j (BA2 B) = j (AB 2 A) para todo j In , los papeles de A y B son simtricos, razn e o por la cual podemos suponer que p (1, 2] y q [2, ). Ms an, apelando a las tecnicas a u
171
usuales de continuidad, podemos tambin asumir que B > 0. Dicho todo esto, jemos k In e 1/2 2 y llamemos = k (BA B) = k (|AB|). Sean B = {v1 , . . . , vn } una BON de Cn adaptada a (|AB|), y Sk = Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B 1 P ) = B 1 (Sk ). Entonces, el Lema 9.4.3 dice que Q QAp Q QB q Q + = m n xM p q x =1 Ap B q + p q x,x = k (|AB|) .
Observar que dim Sk = dim M = k. Luego, utilizando el principio minimax (Teorema 2.3.3) p q para calcular k A + B , la desigualdad (9.14) queda demostrada en este caso. p q El caso general se deduce de lo anterior por la siguiente observacin: Dadas A, B Mn (C), o si hacemos la descomposicin polar B = V |B| con V U(n), se tiene que o |AB |2 = BA AB = B|A|2 B = V |B| |A|2 |B| V = V |A| |B| V . De ah podemos deducir que los vectores s(AB ) = (|AB |) = (|A| |B|). Volviendo a mirar la Eq. (9.7) se ve que lo anterior hace suciente probar el caso positivo, cosa que ya hicimos. Ejercicio 9.4.4. Mostrar con un ejemplo que la desigualdad (9.7) deja de ser cierta si en el miembro izquierdo se quita la estrella en B. (Ayuda: basta considerar matrices de 2 2 y el caso p = q = 2).
1 Corolario 9.4.5. Sean p, q [1, +) tales que p + 1 = 1 y sea N una NUI en Mn (C). q Entonces para todo par de matrices A, B Mn (C), se tiene que 2
N (AB ) N
|A|p |B|q + p q
. =
w
Ap X XB q + p q
.
2
(9.15)
172
Sin embargo, mostraremos un resultado ms no, debido a Hirzallah y Kittaneh [26], que a adems determina completamente los casos en que en (9.15) pudiera darse la igualdad. Para a ello, comenzamos por demostrar unas desigualdades numricas: e
1 Lema 9.4.6. Sean a, b R , y p, q [1, +) tales que p + 1 = 1. Si r = mx{p, q}, entonces a + q
ap b q + p q
1 (ap bq )2 + a2 b2 . 2 r
(9.16)
Demostracin. Primero observar que si p = q = 2, tenemos en realidad una igualdad. o Asumamos que q = r > p, o sea que q [2, +). V cuentas elementales, se ve que a ap b q + p q
2
1 p (a bq )2 = ap q2
2 q
ap +
2 q b q
1 1 1 donde se usa la igualdad 1 2 = p 1 = p 1 p + 1 = p12 q12 . Ahora, usando la q q q q desigualdad de Young clsica (o la aritmtico geomtrica), tenemos que a e e
2 q
ap +
qp 2 2 2 q b ap (1 q ) b q q = a q b2 , q
p q
= p 1, vemos que
ap b q + p q
qp 1 p (a bq )2 ap a q b2 = a2 b2 q2
Eq. (9.16) .
ap b q + p q
1 p (a bq )2 + a2 b2 . p2
1 p
Teorema 9.4.7. Sean A, B Mn (C)+ , X Mn (C), y p, q [1, +) tales que Si r = mx{p, q}, entonces a AXB
2 2
1 q
= 1.
1 Ap X XB q r2
2 2
Ap X XB q + p q
.
2
(9.17)
Demostracin. Como A, B Mn (C)+ , existen U, V U(n) tales que A = U D1 U y B = o V D2 V , donde D1 = diag((A) ) y D2 = diag ((B) ). Llamemos Y = U XV , = (A) y = (B). Entonces tenemos que Ap X XB q + = p q
p q U D1 U X X V D2 V + = U p q q p j i = U + yij V , p q i,jIn p q D1 Y Y D2 + p q
p q Ap X XB q = U (D1 Y Y D2 ) V = U
p q yij i j
V
i,jIn
173
V .
i,jIn
=
2 i,j=1
q p j i + p q n
|yij |2
n
1 2 r =
p i
i,j=1
2 q j
|yij | +
i,j=1 2 2
2 2 |yij |2 i j
2
1 Ap X XB q r2
+ AXB
lo que completa la prueba del teorema. Observacin 9.4.8. Para el caso p = q = 2, la desigualdad (9.17) es en realidad una igualdad. o Esto se observa en la demostracin del Teorema 9.4.7, ya que la desigualdad que se presenta o all es en realidad una igualdad, como se observ en el Lema 9.4.6. o A partir de lo anterior pueden encontrarse condiciones necesarias y sucientes para que se satisfagan las igualdades en (9.15) y (9.7), como se demuestra a continuacin. o Corolario 9.4.9. Sean A, B, X, p y q como en el Teorema 9.4.7. Se tiene que Ap X XB q + p q Demostracin. Si se tiene que o que Ap X XB q
2
= AXB
2 Ap X p XB q q
Ap X = XB q .
(9.18)
= AXB
2
= 0, o sea que Ap X = XB q .
Asumamos que Ap X = XB q . Como antes, tenemos A = U D1 U , B = V D2 V , donde D1 = diag((A) ) y D2 = diag ((B) ). Luego
p p Ap X = U D1 U X = U [D1 (U XV )] V
q q XB q = XV D2 V = U [(U XV ) D2 ] V ,
AXB = XB p B = XB q =
XB q XB q Ap X XB q + = + . p q p q
Vemos que vale la igualdad entre las matrices, que implica la igualdad de sus normas.
174
1 p
1 q
= 1. Entonces Ap = B q .
para todo j In
Demostracin. Es consecuencias del Corolario 9.4.9 aplicado a X = I. Observar que la o condicin Ap = B q implicaba igualdad de matrices. o Corolario 9.4.11. Sean p, q [1, +) tales que U Ap X XB q + p q U = |AB|
1 p
1 q
= 1. Entonces Ap = B q .
Demostracin. Es lo mismo que el Corolario 9.4.10. o Observacin 9.4.12. Sean a, b R , y p, q [1, +) tales que o + ap b q + p q
2 1 p
+ ,
1 q
= 1. Luego (9.19)
ap b q + ab p q
+ a2 b 2
2
ap b q ap b q + + ab + ab p q p q p q a b 1 p |a bq | + ab , s p q
+ 4a2 b2
(9.20) (9.21)
p q
donde s = m n{p, q}. En efecto, para probar (9.19) recordamos que = ap + bq ab, con lo cual 2 2 2ab+2a2 b2 = ( ab)2 +a2 b2 . Tambin, ( +ab)2 ( ab)2 = 4ab 4a2 b2 , e y obtenemos (9.20). Para obtener (9.21), si ap bq , tambin tenemos a bq/p , y como e 1/s 1/p 0, 1 1 s p ap + ab = 1 1 s p bq + bq/p b = 1 1 + s q bq =
1 p ap b q |a bq | + ab. s p q q p Si b a , la demostracin es anloga. Partiendo de estas desigualdades y siguiendo el o a razonamiento de la demostracin de (9.17), podemos mostrar que si A, B Mn (C)+ , X o 1 Mn (C), y p, q [1, +) cumplen que p + 1 = 1, entonces q Ap X XB q + p q Ap X XB q + + ABX p q 1 Ap X XB q s
2
2 2
+ AXB
2 2
2 2 2 2
, ,
2 2
+ AXB
2
,
2
donde s = m n{p, q}. Notar que (9.22) tambin es ms fuerte que (9.15). Adems, (9.24) e a a puede usarse para demostrar de manera directa los corolarios anteriores.
175
Ejercicio 9.4.13. Sean A, B, C, D Mn (C)+ tales que AD = DA y BC = CB. Sean 1 X Mn (C) y p, q [1, +) tales que p + 1 = 1. Entonces q 1 p 1 A XC p + Dq XB q p q
2
1 Ap XC p Dq XB q r2
2 2
+ ADXCB
2 2
(9.25)
donde r = mx{p, q}. En particular, si C = D = I se recupera (9.17). a Ejercicio 9.4.14. Sean A, B, C, D Mn (C) tales que AD = DA, A D = DA , BC = CB 1 y B C = CB . Sean X Mn (C) y p, q [1, +) tales que p + 1 = 1. Entonces q 1 1 |A|p X |C|p + |D|q X |B|q p q
2
2 2
+ ADXC B
2 2
1 |A|p X X |B|q 2 r
2 2
+ AXB
2 2
(9.26)
que es la extensin natural de (9.17) a matrices cualesquiera. Extender las desigualdades o (9.22)-(9.24) de manera anloga. a
9.5
Observacin 9.5.1 (Caso numrico). . Dados p, q (1, +) tales que o e ms simple de la desigualdad numrica de Hlder se escribe a e o (|a|p + |b|p ) p (|c|q + |d|q ) q |ac + bd| , para todo cuarteto a, b, c, d C. Ms an, podemos escribir: a u (|a|p + |b|p ) p = max {|ac + bd| : |c|q + |d|q = 1} , que tiene que ver con la frase el dual de
p
1 1 1
1 q
= 1, la forma
(9.27)
(9.28)
es
Proposicin 9.5.2. Sean A, B Mn (C). Entonces se verica que o (A A + B B)1/2 = mx |C A + D B| : C, D Mn (C) y C C + D D I . a Demostracin. Dadas C, D Mn (C) matrices cualesquiera, tenemos que o A A + B B A C + B D C A + D B C C + D D = A C B D
(9.29)
A C B D
0.
176
Recordemos que la Proposicin 3.8.6 asegura que, dadas X Mn (C)+ e Y Mn (C), o X Y Y I 0 X Y Y 0 . (9.30)
Por lo tanto, si C C + D D I, tenemos que A A + B B |C A + D B|2 . Usando que f (t) = t1/2 es montona de operadores, llegamos a que o (A A + B B)1/2 |C A + D B| . Ms an, cuando A A + B B Gl (n)+ , si consideramos a u C = A(A A + B B)1/2 y D = B(A A + B B)1/2 , (9.31)
obtenemos una igualdad en la Eq. (9.31). Cuando A A + B B Gl (n)+ , observar que / S = ker(A A + B B) = ker(A A) ker(B B) = ker A ker B .
Sean A1 = A|S I|S , B1 = B|S I|S . Luego, A A1 + B1 B1 Gl (n)+ . Tomando 1 C = A1 (A A1 + B1 B1 )1/2 , D = B1 (A A1 + B1 B1 )1/2 , 1 1
una cuenta fcil mustra que tambin obtenemos una igualdad en la Eq. (9.31). a e Lema 9.5.3. Sea A, B Mn (C)+ , p (1, +) y [0, 1]. Entonces se tiene que (Ap + B p ) p 1 p A + (1 )1 p B . Demostracin. Cuando = 0, tenemos que Ap 0, con lo cual Ap + B p B p . Luego, como o 1/p f (t) = t es montona de operadores, sale que (Ap + B p )1/p B. Caso anlogo ocurre para o a = 1. Consideremos entonces 0 < < 1, y llamemos = 1 . Usando que f (t) = t1/p tambin es cncava de operadores, tenemos que e o (Ap + B p ) p =
1 1 p 1 1 1
1 p
1 p
1 p A + 1 p B .
Teorema 9.5.4. Sean A, B, C y D Mn (C), p, q [2, +) y r (1, +] que cumplen la ecuacin p + 1 = 1 1 . Para todo (0, 1), si llamamos = 1 , se tiene que o 1 q r |C|q + |D|q I = |A|p + |B|p
2 p
r C A + r D B
(9.32)
Demostracin. El caso r = (o sea, p = q = 2), fue visto en la Proposicin 9.5.2, con lo cual o o asumimos r < . Dado que (1/2 1/p) + (1/2 1/q) = 1/r, tenemos que: 1 p A A + 1 p B B r A C + r B D 2 1 1 1 2 r C A + r D B q C C + 1 q D D 2p A 2q C 1 1 1 1 2p B 2q D
1 1 1 1 2 2 1 1
2p A 2q C 1 1 1 1 2p B 2q D
M2n (C)+ .
177
De acuerdo al Lema 9.5.3, tenemos que 1 p A A + 1 p B B (|A|p + |B|p ) p con lo cual concluimos que
2 2 2 2
y
2
1 q C C + 1 q D D (|C|q + |D|q ) q ,
1 1
1 p A A + 1 p B B r A C + r B D 2 2 1 1 r C A + r D B 1 p C C + 1 p D D
M2n (C)+ .
Usando la Eq. (9.30) y el hecho de que |C |q + |D |q I, estamos hechos. Denicin 9.5.5. Dadas C, D Mn (C)+ , escribimos C D si C m Dm , para todo m N. o Esta relacin es un orden parcial denominado orden espectral. o Proposicin 9.5.6. Sean A, B Mn (C)+ . Entonces se verica: o 1. La funcin [1 , +) o p
Ap +B p 2
1 p
-supremo de A y B: = m n C Mn (C)+ : A C y B C .
Demostracin. Sean r, q [1 , +) tales que r < q. Si aplicamos el Lema 9.5.3 para los o q 1 nmeros = 2 y p = > 1, resulta que u r (A + B ) = (A ) + (B )
1
r q
q r
q r
r q
1 q
1 2
1 r q
(Ar + B r ) .
, llegamos a que
1 r
Ar + B r 2
Sea M = mx{1 (A), 1 (B)}. Para cualquier p [1, +) tenemos que a M p mx{1 (Ap ), 1 (B p )} = mx{ Ap a a
p p 1
sp
, Bp
sp }
Ap + B p 2
p 1
sp
y por lo tanto M I A +B p . En resumen, la funcin p A +B p es creciente y acotada o 2 2 superiormente. Aplicando el Ejercicio 3.9.16 vemos que debe existir el l mite AB = sup
p[1 ,+)
Ap + B p 2
1 p
= lim
Ap + B p 2
1 p
= lim (Ap + B p ) p .
p
178
(A B)m .
p
Anlogamente se muestra que (A B) B m . Esto vale para cualquier m N, y as a A, B A B. Sea ahora C Mn (C)+ tal que A, B C. Para cada par m, k N tenemos que Akm , B km C km , y usando que t k es MOP, resulta que (A B) = lim As A B ,
m
1
Akm +B km 2
1/k
C m . Luego
Ap + B p 2
m p
= lim
Akm + B km 2
1 k
Cm ,
para todo m N .
Corolario 9.5.7. Sean A, B, C, D Mn (C). Fijado p [2, ), tomemos el q (1, 2] tal que 1 se tenga la igualdad p + 1 = 1. Entonces q C
q
+ D
2 q
|A|p + |B|p
2
2 p
|CA + DB|2 .
2
(9.33)
C + D
|A| |B|
|CA + DB|2 .
Demostracin. Fijemos p [2, ). Supongamos en principio que C , D 1. En tal caso, o se tiene que |C | I = |C | I y lo mismo para D. Por la Proposicin 9.5.6, o |C |t + |D |t 2
1 t
|C | |D | I
(9.34)
Vamos a aplicar el Teorema 9.5.4. Para ello, tomemos t [2, +) y r (1, +] tales que 1 + 1 = 1 1 . Dados [0, 1] y = 1 , la Eq. (9.34) y el teorema citado aseguran que p t r |A|p + |B|p
2 p
2t
r CA + r DB
2
.
1 1
Haciendo t (con lo cual r q), tenemos que (|A|p + |B|p ) p q CA + q DB . Si ahora suponemos ms que antes: que C q + D q = 1, entonces podemos elegir = C q a 1 1 q y = D = 1 . Reemplazando C = q C y D = q D, queda que C = D = 1 (si alguna era nula, su prima tambin la hacemos nula). Por el caso anterior obtenemos que e C
q
+ D
= 1 = (|A|p + |B|p )
2/p
q C A + q D B
= |CA + DB|2 .
(9.35)
En el caso general, dadas C, D Mn (C) (alguna de las dos no nulas), consideramos E=( C con lo cual E
q q
+ D q)
1/q
F =( C
+ D q)
1/q
D,
+ F
2
+ D q) q
la Eq. (9.33) .
179
9.6
La tcnica alternativa e
En esta seccin repasaremos y mezclaremos una serie de deniciones y resultados de los o Cap tulos 4 y 7 que usaremos seguido en el resto de este Cap tulo. Primero enunciamos los relativos a las propiedades espectrales de los productos alternados de matrices (Seccin o 7.3): Teorema 9.6.1. Sea A Mn (C) con autovalores 1 (A), . . . , n (A). Sea k In . Entonces los autovalores de k A estn dados por a J (k A) =
i J
i (A) ,
J Qk,n ,
contados con multiplicidad. Corolario 9.6.2. Sea A Mn (C). Sea k In . Entonces los valores singulares de k A son s k A = sJ k A
JQk,n
=
i J
si (A)
JQk,n
contados con multiplicidad, y ordenados en forma decreciente. Adems, si ordenamos a los a autovalores 1 (A), . . . , n (A) de A con mdulos decrecientes, se tiene que o
k k
A =
i=1
|i (A)|
sp
= s1 A =
i=1
si (A) .
Ahora vienen los resultados que relacionan la mayorizacin logar o tmica con la usual (ver Seccin 4.4): Recordemos que, dados x, y Rn , escribimos x w y si o +
log
x i
i=1
i=1
yi
para todo
n
k In .
n
(9.36)
y si x
log
y y, adems, a
i=1
xi =
i=1
yi . y entonces, como en
log
el caso de la mayorizacin comn, se cumplen desigualdades invesas para las entradas mas o u pequeas de x e y. Es decir que n
n n
x i
i=k
i=k
yi
para todo
k In .
(9.37)
productos hasta n.
180
y, entonces xp
yp
para todo
p R+ .
w
y implica que xp
y p para todo p R .
Observacin 9.6.5. o 1. El caso ms usado de la Proposicin 9.6.4 es cuando p = 1. Es a o decir que, si x, y Rn , entonces x w y implica x w y. Esto ser sumamente util a +
log
cuando se lo aplique a desigualdades con valores singulares de matrices, usando tcnicas e de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si hubese quedado x y, deb cumplirse que x y . a
log
2. Por otra parte, la Proposicin 9.6.4 se puede generalizar, sin cambiar la prueba, si o remplazamos las funciones f (t) = tp por cualquier funcin f : R+ R tal que la o aplicacin t f (et ) resulte convexa (o convexa creciente). Notar que, en el caso o demostrado, se usaba esa propiedad para la funcin t (et )p = ept . o
9.7
Primeras aplicaciones
En esta seccin veremos tres desigualdades importantes que se prueban en forma directa o usando la tcnica de extrapolar una desigualdad conocida, pero aplicada a los productos e alternados, y luego deducir una mayorizacin v la Proposicin 9.6.4: o a o
Desigualdad de Weyl
Proposicin 9.7.1 (Mayorante de Weyl). Sea A Mn (C). Entonces, si (A) denota el o vector de autovalores de A, se tiene que 1. |(A)|
log
s(A).
w
s(A)p .
Demostracin. Veriquemos las desigualdades de la frmula (9.36) para los vectores |(A)| o o y s(A). Para k = 1, basta notar que (A) A sp . El caso k 1 se obtiene considerando la desigualdad anterior para los tensores alternados k (A). En efecto, por el Corolario 9.6.2, tenemos que
k k
|(A)| i
i=1
= ( A) A
sp
=
i=1
si (A) ,
para todo
k In .
La igualdad para k = n se deduce de que | det A| = (det A A)1/2 = det |A| . La segunda parte se deduce de la Proposicin 9.6.4. o
181
Desigualdad de B. Simon
La que sigue es una variante de la Proposicin 9.1.7 (desigualdad de Kittaneh 95): o Proposicin 9.7.2. Sean A, B Mn (C) tales que AB es normal. Entonces o |||AB||| |||BA||| para toda NUI ||| ||| en Mn (C). Demostracin. Como AB es normal, se tiene que AB o s1 (AB) = AB
sp sp
= (AB). Luego
sp
= (AB) = (BA) BA
= s1 (BA) .
s(AB)
log
s(BA) ,
i.e.
i=1
si (AB)
i=1 w
si (BA) ,
k In .
s(BA).
Desigualdad de Horn
Proposicin 9.7.3 (Teorema de Horn). Sean A, B Gl (n). Sea (AB) el vector de autoo valores de AB ordenado con mdulos decrecientes, i.e. |(AB)| = |(AB)| . Entonces o |(AB)|
log
s(AB)
log
i (AB)
i=1 i=1
i (A)i (B)
y
i=k
i (AB)
i=k
i (A)i (B) .
(9.38)
si (AB) = k AB
i=1
sp
k A k B
sp
k A
sp
k B
sp
=
i=1
si (A) si (B) .
Adems, como | det C| = det |C| para cualquier C Mn (C), se tiene que a
n n
si (AB) = det |AB| = | det AB| = | det A| | det B| = det |A| det |B| =
i=1 i=1
si (A) si (B) .
La Eq. (9.38) se deduce de lo anterior y de la Observacin 9.6.3, ya que podemos usar que o (AB) = (A1/2 BA1/2 ) R+n , (A) = s(A) y (B) = s(B). Ejercicio 9.7.4. Dadas A, B Gl (n)+ , probar que (A1/2 BA1/2 )2
log
9.8 La exponencial
182
9.8
La exponencial
Generalidades
Sea A Mn (C). Recordemos que la exponencial de A es la matriz e
A
= exp(A) =
Am . m! m=0
(9.39)
m=0
Am m!
m=0
A m = e m!
< .
Por medio de una prueba similar a la del Corolario 1.7.2 (usando el Teorema 1 de Schur 1.6.1), se puede ver que, si (A) = (1 (A) , . . . , n (A) ), entonces (eA ) = e(A) := (e1 (A) , . . . , en (A) ) . (9.40) En particular, esto dice que eA = e(A) y que eA Gl (n) para toda A Mn (C). Para hacer esto se usa que, al igual que con los polinomios, se tiene que eSAS
1
= SeA S 1 ,
Por ultimo, no es dif vericar con el mismo tipo de argumentos que cil eA = lim
m
I+
A m
(9.41)
Observacin 9.8.1. Sean A, B Mn (C). Por la teor general de series de potencias (con o a variables que conmutan, para usar el binomio de Newton), se puede ver que si AB = BA = eA+B = eA eB . Entre otras cosas, esto sirve para probar que (eA )1 = eA , porque eA eA = eAA = I. En forma similar puede verse que, si A H(n), entonces eA Gl (n)+ y (eA )1/2 = e 2 .
A
(9.42)
Ms an, cuando A H(n), se tiene que eA = f (A), donde f (t) = et , t R, en el sentido del a u clculo funcional para autoadjuntas visto en el Cap a tulo 6. Esto puede probarse diagonalizando a A o bien tomando l mite de polinomios en la frmula (9.39). Aplicando los resultados o conocidos para dicho clculo (en particular 6.1.3), se tienen las siguientes propiedades: Si a A H(n), entonces 1. eA Gl (n)+ y A = log eA . 2. (eA )r = erA para todo r R. 3. Si A > 0, entonces A = elog A . 4. Ms an, Ar = er log A para todo r R. a u
9.8 La exponencial
183
Frmula de Lie-Trotter o
Lamentablemente, cuando A y B no conmutan, la cosa se pone mucho ms brava, y es muy a A+B dicil encontrar las propiedades de e en funcin de las de A y B. La unica herramienta o que se tiene, y que se usa sistemticamente para este problema, es la famosa frmula de a o Lie-Trotter que mostraremos a continuacin. o Teorema 9.8.2. Dadas A y B Mn (C), se tiene la siguiente frmula: o eA+B = lim
m
em em
(9.43)
Demostracin. Dadas X, Y Mn (C), mediante una t o pica cuenta telescpica puede verse o que X m Y m =
m1 j=0 m1
X Y
=
j=0 m1
X m1j (X Y )Y j X m1j
j=0 m1
X Y
Yj M m1 ,
(9.44)
X Y
j=0
M m1j M j = m X Y
Ym = e m e m ,
A + B m
( A + B )
m Xm Ym e
, m N.
Luego del desarrollo en series de la funcin exponencial, obtenemos que Xm Ym = o A+B (A + B)k = 1+ + m mk k! k=2 1 = m2 =
A Ak 1+ + m k=2 mk k!
B Bk 1+ + m k=2 mk k!
k=2
(A + B)k A AB I + k2 k! m m
Bk mk2 k!
k=2
Ak mk2 k!
em
k=2
1 Cm (A, B) . m2
mN m m Xm Ym m Xm Ym e A + B
Si mostrramos que C(A, B) = sup Cm (A, B) < , entonces tendr a amos que C(A, B) e m
A + B
0.
m
184
Afortunadamente, las constantes Cm (A, B) se pueden acotar con las series de las normas. B B Aparecen varios sumandos, todos ellos elementales. Por ejemplo, e m e m e B y
Ak mk2 k!
k=2
A B
Ak mk2 k!
k=2
k=2
Ak e k!
m
em em
e 2m = lim
e 2m e m e 2m
(9.45)
que es mucho ms adecuada en caso de que A, B H(n), para que la cosa pase entre matrices a positivas. Ejercicios 9.8.3. 1. Si suponemos que A, B H(n), puede obtenerse la siguiente nueva frmula: o eA+B = lim e
tB 2
t0
etA e
tB 2
1 t .
Observar que e
tB 2
tA
tB
tB 2
tB 2
tA
tB 2
= e 2 etA e 2 , por lo que el caso t < 0 no crea t = 0. Adems, e 2 etA e 2 a problemas. tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de 1 < x log(1 + x). Despues seguir pasos similares a los de la prueba del Teorema 9.8.2. 2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que, dadas A1 , A2 , ... , Ak Mn (C), se tiene que
k
tB
tB
exp
i=1
Ai
= lim e m e m ... e m
m
A1
A2
Ak
(9.47)
9.9
185
Demostracin. Podemos asumir que 1 (AB) = 1, porque si 2 = 1 (AB), basta cambiar A, B o 1 por A y 1 A, dado que = 0 y la desigualdad a probar es homognea. Luego debemos e vericar que 1 (Ar B r ) 1. En efecto, 1 (AB) = 1 A1/2 BA1/2 = 1 = A1/2 BA1/2 I = B A1 .
Como r (0, 1), el Teorema 6.2.6 dice que f (x) = xr es montona de operadores. Luego o B r Ar como se asever. o Proposicin 9.9.2 (Cordes 87 [5]). Sean A, B Mn (C)+ . Entonces o Ar B r
sp
Ar/2 B r Ar/2 I
AB
r sp
(9.48)
= 1. En tal caso
= AB 2 A
sp
El caso general sale por homogeneidad. DadasA, B H(n), recordar que escribimos A B en lugar de (A) mayorizacin entre los autovalores de A y los de B. o Denicin 9.9.3. o 1. Sean A, B Mn (C)+ . Escribiremos A
log
B si (A)
log
(B). Es decir, si
i (A)
i=1 i=1
i (B)
para todo
k In . B.
(9.49)
B si det A = det B y A
log
Observar que, A
log
B log A
Teorema 9.9.4 (Araki 90 [21]). Sean A, B Mn (C)+ . Para todo r (0, 1) se tiene que (Ar/2 B r Ar/2 )1/r
log
A1/2 BA1/2
186
Demostracin. Fijemos un r (0, 1). Como o (Ar/2 B r Ar/2 ) = (Ar B r ) basta ver que
k k n n
j (A B )
j=1
r 1/r
j=1
j (AB) ,
k
k In
k
y
j=1
j (A B )
r 1/r
=
j=1
j (AB) .
Aplicando la Proposicin 9.9.1 a A y B, y usando la Proposicin 7.4.4 se obtiene o o 1 ((k A)r (k B)r ) = 1 (k Ar k B r ) 1 (k A k B) . Como (k A)(k B) = k (AB), podemos deducir que
k 1/r j (Ar B r ) j=1 k 1/r 1/r
1/r 1 (k (Ar B r ))
1 ( (AB)) =
j=1
j (AB) .
La igualdad en el caso k = n se obtiene tomando determinantes. Corolario 9.9.5. Sea ||| ||| una NUI en Mn (C). Dados A, B Mn (C)+ , se tiene que |||Ar B r Ar ||| |||(ABA)r ||| para todo r (0, 1) . Demostracin. Aplicando el Teorema 9.9.4 a las matrices A2 y B y la Proposicin 4.4.3, o o obtenemos
k k
sj (A B A )
j=1 r j=1
sj (ABA)r (k In ) = s(Ar B r Ar )
s( (ABA)r ) .
(9.50)
Se usa que si ( (ABA) ) = i ( (ABA)r ) = i (ABA)r = si (ABA)r , para todo i In . Observacin 9.9.6. En las Proposiciones 9.9.1 y 9.9.2, el Teorema 9.9.4 y el Corolario 9.9.5, o valen las desigualdades inversas si uno considera exponentes t 1. En efecto, basta aplicar lo conocido a las matrices At y B t , con el exponente r = t1 . En el caso del Corolario 9.9.5, se puede corregir el exponente externo en la Eq. (9.50) Proposicin 9.9.7. Dadas A, B Gl (n)+ , se cumple que o log A + log B log(A1/2 BA1/2 ) . (9.51)
Demostracin. Por la frmula de Lie-Trotter, en la versin dada por la frmula (9.46), o o o o elog A+log B = lim (Ar/2 B r Ar/2 )1/r
r0
r/2
B A
r/2 1/r
Corolario 2.3.8, obtenemos que (A1/2 BA1/2 ) = log A + log B log(A1/2 BA1/2 ) .
Ejercicio 9.9.8. Usando el Corolario 9.9.5 para las NUIs A p = (tr |A|p )1/p , mostrar la famosa desigualdad de Araki-Lieb-Thirring: Dadas matrices A, B Gl (n)+ , se tiene que tr (B 1/2 AB 1/2 )st tr (B t/2 At B t/2 )s , para todo par de nmeros s, t 1. u
187
9.10
Si z C, uno tiene que |ez | = eRe z = |eRe z |. Veamos qu pasa en matrices: e Proposicin 9.10.1. Sea ||| ||| una NUI en Mn (C). Para toda A Mn (C), se tiene que o |||eA ||| |||eRe A ||| . Demostracin. Usando que B m sp B m y que s1 (B)2 = B 2 = B B o sp sp que s1 (B m )2 s1 (B)2m = s1 ( (B )m B m ) s1 (B B)m , para todo m N y toda B Mn (C). Aplicando esto a k B, tenemos ms: a
k k sp
, obtenemos
si ( (B ) B )
i=1 i=1
si (B B)m
k
A
si ( eA eA )
i=1 i=1
si [e m e m ]m
m i=1
si eA
+A
para todo k In .
Tomando raices cuadradas, llegamos a que s(eA ) 4.4.3, tenemos nalmente que s(eA )
w
w
log
s(eRe A ).
Ejercicio 9.10.2. Encontrar A M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI. Recordemos que si C, D Mn (C)+ , entonces (CD) R+ y ms an, al vector de autovala u 1/2 1/2 n ores (CD) = (D CD ) R+ , se lo puede pensar ordenado en forma decreciente. En particular, se tiene que tr CD R+ . Lema 9.10.3. Dadas A, B Mn (C), se tiene que |(eA+B )|
w
(eRe A eRe B )
fk : Mn (C) R+
dada por
fk (X) =
i=1
|(X)| , i
para X Mn (C) .
Notar que todas estas fk cumplen que, para todo par X, Y Mn (C) y todo m N, fk (XY ) = fk (Y X) y fk (X 2m ) fk ([X X]m ) . (9.52)
188
= r X X
m sp
= (r [X X]m ) .
Por la Proposicin 9.6.4, deducimos que |(X 2m )| w ([X X]m ), o sea la desigualdad de o (9.52) para todo k In . La igualdad vale porque (XY ) = (Y X). Por lo tanto, fk (XY )2
m
m1
m1
donde la ultima igualdad vale porque [ Y X XY ]2 diere de [ X XY Y ]2 pasar el primer Y al nal. Repitiendo esto, se llega a que fk (XY )2
m
m1
tan slo en o
fk [ (X X)2 (Y Y )2 ]2
m2
fk (X X)2
m1
(Y Y )2
m1
Pongamos ahora X = exp 2A , Y = exp 2B y Mm = 2m . Queda m m fk (e Mm e Mm )Mm fk (e Mm e Mm ) 2 Mm (e Mm e Mm ) 2 Mm . Tomando l mite m , y usando Lie-Trotter (y que las fk son continuas), tenemos que fk (eA+B ) fk (e
A +A 2 A B A A 1 B B 1
B+B 2
) = fk (eRe A eRe B ) .
Como esto vale para todo k In , llegamos a que |(eA+B )| w (eRe A eRe B ). La otra desigualdad se prueba usando que la funcin f (X) = | tr X| tambin cumple las condiciones o e de (9.52) (sale usando que f (Y ) fn (Y ), pero coinciden si Y Mn (C)+ ), y haciendo el resto de la cuenta igual. Observacin 9.10.4. Si una funcin f : Mn (C) R es continua y cumple las condiciones o o f (XY ) = f (Y X) y |f (X 2m )| f ([XX ]m ) (9.53)
para todo m N y todo par X, Y Mn (C), decimos que f es de la clase T. La sutil diferencia con la Eq. (9.52) es que aca no pedimos que f sea positiva, pero no ponemos mdulo en el ultimo trmino de (9.53). Toda la cuenta del Lema 9.10.3 puede rehacerse para o e una tal funcin, con lo que se obtiene la desigualdad ms general: Si f es de la clase T, o a f (eA+B ) f (eRe A eRe B ) , para todo par A, B Mn (C). Proposicin 9.10.5. Sea ||| ||| una NUI en Mn (C). Dadas A, B H(n), se tiene que o ||| eA+B ||| ||| eA eB ||| . Demostracin. Por el Lema 9.10.3 y el hecho de que A, B H(n), tenemos que o s(eA+B ) = (eA+B ) = |(eA+B )|
w
(eA eB )
s(eA eB ) ,
189
Proposicin 9.10.6 (Desigualdad de Golden-Thompson). Si A, B H(n), entonces o tr eA+B tr eA eB . Demostracin. Es consecuencia directa del Lema 9.10.3. o Ejercicio 9.10.7. Usando la Proposicin 9.10.5, mostrar que o tr eA+B tr eB e2A eB
1/2
(9.54)
para A, B H(n) .
9.11
Desigualdad de Ando-Johnson-Bapat
Logaritmos
Proposicin 9.11.1. Sean A Gl (n)+ y B Gl (m)+ . Entonces se verica que o log(A B) = (log A) Im + In (log B) .
k h
i Pi y que B =
j=1 k h
j Qj . Luego
AB =
i=1 j=1
i j Pi Qj .
Notemos que (Pi Qj )(i,j) es un sisitema de proyectores para Cn Cm . Luego, si uv Cn Cm y abreviamos L = log(A B)(u v), se tiene que
k h
L =
i=1 j=1 k
=
i=1 k
log(i )
j=1
Pi (u) Qj (v) +
j=1 h
log(j )
i=1 h
Pi (u) Qj (v)
k
=
i=1 k
log(i ) Pi (u)
j=1
Qj (v)
h
+
j=1
log(j )
i=1
Pi (u)
Qj (v)
=
i=1
=
i=1
v+u
j=1
= [(log A) Im ] (u v) + [In (log B)] (u v) . La igualdad en el resto de los elementos de Cn Cm se obtiene por linealidad.
190
Corolario 9.11.2. Sean A, B Gl (n)+ . Entonces log(A B) (log A + log B) In . Demostracin. Consideremos la funcin : L(Hn Hn ) Mn (C) denida en la Proposicin o o o 8.1.4. Recordar que (T ) = TS (T L(Hn Hn ) ) para cierto subespacio S Hn Hn , y que (A B) = A B, para A, B Mn (C). Adems, por el Corolario 6.3.14, la funcin a o t log T es OP en (0, +). Luego, aplicando el Teorema 6.3.6 deducimos que (log X) = (log X)S log(XS ) = log (X) para todo X Gl(Hn Hn )+ .
Ahora bien, por la Proposicin 9.11.1, log A B = (log A) In + In (log B), as que o log(A B) = log (A B) log(A B) = (log A) In + In (log B) = (log A) In + In (log B) , como se armaba.
La desigualdad
Ahora daremos la prueba obtenida por T. Ando de la que fue llamada muchos aos conjetura n de Johnson-Bapat: Teorema 9.11.3. Sean A, B Gl (n)+ . Entonces
n n
i (A B)
i=k i=k
i (AB)
para todo
k In .
Demostracin. Por el Corolario 9.11.2 sabemos que o log(A B) (log A + log B) In . Por el Teorema de Weyl 2.3.5, para todo k In , tenemos que
n n n
log
i=k
i (A B)
=
i=k
i (log(A B) )
i=k
i ( (log A + log B) In ) .
log A + log B,
i ( (log A + log B) In )
i=k i=k
i (log A + log B) ,
k In .
191
i (log A + log B)
i=k i=k
i (log(A
BA
1/2
)) = log
i=k
i (AB)
k In .
i (A B)
i=k i=k
i (AB) ,
k In ,
como se quer demostrar. a Observacin 9.11.4. Este teorema mejora el resultado de Bapat-Sunder: o
n n
i (A B)
i=k i=k
i (A)i (B)
para todo
k In .
i (AB)
i=k i=k
i (A)i (B)
para todo
k In .
Tambin vericaremos la siguiente variante del Teorema 9.11.3: e Teorema 9.11.5. Sean A, B Gl (n)+ . Entonces
n n
i (A B)
i=k i=k
i (AB t )
para todo
k In .
Demostracin. Como log B t = (log B)t , tenemos que o (log B t ) I = (log B)t I = (log B) I. Por lo tanto, podemos reemplazar {log A+log B}I por {log A+log B t }I en la demostracin o anterior, con lo que queda demostrado el teorema. De los Teoremas 9.11.3 y 9.11.5 se deducen los clsicos teoremas de Fiedler que aseguran que, a + para A, B Gl (n) , A B n (AB)I y A B n (AB t )I
192
9.12
A#B = A1/2 (A1/2 BA1/2 )1/2 A1/2 . Proposicin 9.12.2. Sean A, B Gl (n)+ . Entonces A1/2 (A#B)B 1/2 U(n). o Demostracin. Sea T = A1/2 B 1/2 . Consideremos su descomposicin polar a derecha, dada o o por T = |T |U , con U U(n). Luego A1/2 (A#B)B 1/2 = A1/2 (A1/2 (A1/2 BA1/2 )1/2 A1/2 )B 1/2 = (A1/2 BA1/2 )1/2 A1/2 B 1/2 = (T T )1/2 T 1 = |T | T 1 = U U(n) , como quer amos demostrar. Lema 9.12.3. Sean A Gl (n)+ , B Mn (C)+ y C Mn (C). Entonces A C C B 0 B C A1 C . I X 0 I
Demostracin. Para abreviar llamemos X = A1 C. Entonces o clculo sencillo nos muestra que a I 0 X I A C C B I X 0 I =
es inversible. Un
A 0 . 0 B C A1 C
(9.55)
Entonces de aqu resulta claro el enunciado. Proposicin 9.12.4. Dados A, B Gl (n)+ , la media geomtrica A#B es la mayor matriz o e autoadjunta del siguiente conjunto: = C H(n) : A C 0 . C B
Demostracin. Observemos que como (A#B)A1 (A#B) = A1/2 (A1/2 BA1/2 )A1/2 = B, o entonces por el Lema 9.12.3, la matriz A A#B A#B B
193
es semidenida positiva. Luego, A#B . Para demostrar que es efectivamente el mximo a 1 tomemos C arbitrario. Entonces el Lema 9.12.3 nos dice que B CA C. Por lo tanto, (A1/2 CA1/2 )2 = A1/2 (CA1 C) A1/2 A1/2 BA1/2 y por el Teorema 6.2.6, tenemos A1/2 CA1/2 | A1/2 CA1/2 | (A1/2 BA1/2 )1/2 . Luego C A1/2 (A1/2 BA1/2 )1/2 A1/2 = A#B, lo cual demuestra que A#B es el mximo del conjunto . a Corolario 9.12.5. Sean A, B Gl (n)+ . Entonces A A#B A#B B 0 y B A#B A#B A 0.
Demostracin. Es inmediato a partir de la Proposicin 9.12.4. o o Observacin 9.12.6. Puede probarse que (A#B)2 o
log
i (A#B)2
i=k i=k
i (AB)
para todo
En consecuencia, el siguiente resultado mejora el Teorema 9.11.3. Teorema 9.12.7. Sean A, B Gl (n)+ . Entonces
n n
i (A B)
i=k i=k
i (A#B)2
para todo
k In .
Demostracin. Por la Proposicin 9.12.5 y el Teorema de mayorizacin de Schur 5.1.1 o o o A A#B A#B B B A#B A#B A = AB A#B A#B A#B A#B AB 0.
i (A B)
i=k i=k
i [(A#B) (A#B)]
para todo
k In .
i [(A#B) (A#B)]
i=k i=k
i (A#B)2
para todo
k In .
completanto la demostracin. o
9.13 Ejercicios
194
9.13
Ejercicios
1 Ap XC p Dq XB q r2
2 2
+ ADXCB
2 2
2 2
+ ADXC B
2 2
1 |A|p X X |B|q 2 r
2 2
+ AXB
2 2
que es la extensin natural de (9.17) a matrices cualesquiera. Extender las desigualdades o (9.22)-(9.24) de manera anloga. a 9.13.6. Dadas A, B Gl (n)+ , probar que (A1/2 BA1/2 )2
log
(AB 2 A).
A I+ m
(9.56)
9.13.8. Encontrar A M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI.
9.13 Ejercicios
195
9.13.9.
t0
etA e
tB 2
Observar que e
tB 2
tA
tB
tB 2
tB 2
tA
tB 2
t = 0. Adems, e 2 etA e 2 a = e 2 etA e 2 , por lo que el caso t < 0 no crea problemas. tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de 1 < x log(1 + x). Despues seguir pasos similares a los de la prueba del Teorema 9.8.2. 2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que, dadas A1 , A2 , ... , Ak Mn (C), se tiene que
k
tB
tB
exp
i=1
Ai
= lim e m e m ... e m
m
A1
A2
Ak
9.13.10 (Desigualdad de Araki-Lieb-Thirring). Si A, B Gl (n)+ , probar que tr (B 1/2 AB 1/2 )st tr (B t/2 At B t/2 )s , Sug: Usar el Corolario 9.9.5 para las NUIs A
p
Ejercicios nuevos
9.13.11. Sean A, B, C Mn (C). Demostrar: 1. eA+B = lim(erA/2 erB erA/2 )1/r
r0
A1/2 BA1/2
3. Nuevamente bajo el supuesto que A, B 0, se tiene que para toda norma unitariamente invariante ||| |||: |||Ar/2 B r Ar/2 |||1/r |||eA+B |||,
r0
en forma decreciente. 4. Si A, B > 0, entonces ||| log(A) + log(B)||| ||| log(A1/2 BA1/2 )||| para toda norma unitariamente invariante ||| |||. 5. (Golden-Thompson) Si A, B H(n), entonces tr(eA+B ) tr(eA eB ). 6. Dar un ejemplo que muestre que la desigualdad tr(eA+B+C ) tr(eA eB eC ) es falsa.
9.13 Ejercicios
196
Onda Cauchy-Schwarz
9.13.12. Sean A, B Mn (C). Probar que, para todo r (0, +), sr (AB)
log
sr (A)sr (B) .
1 q
(|x y|) (|x|p ) p (|y|q ) q . Sug: usando Hlder (de nmeros, en las coordenadas) mostrar que, para todo t > 0 se tiene o u (|x y|) Luego calcular el m nimo de esas cosas. 9.13.14. Sea N una NUI en Mn (C). 1. Sean p, q [1, +) tales que
1
tp (|x|p ) (|y|q ) + . p q tq
1 p
1 q
= 1. Mostrar que
1
1 q
1 r
, probar que
3. Deducir que N (|AB|1/2 ) N (A)1/2 N (B)1/2 y que N (AB) N (A A)1/2 N (B B)1/2 . 4. Otra mejora: Dadas A, B, X Mn (C) se tiene que N (AXB )2 N (A A X) N (X B B) . 5. Peor todav si r R , entonces debe valer que a: + N ( |AXB |r )2 N ( |A A X|r ) N ( |X B B|r ) . 6. Ahora deducir que, si s [0, 1], entonces se cumple que N (As XB 1s ) N (AX)s N (XB)1s y que N (As XB s ) N (X)1s N (AXB)s .
Observar que tomando X = I en la de la derecha, se obtiene una generalizacin de la deo sigualdad de Cordes (9.48) a todas las NUIs (porque I sp = 1).
10.1
Denicin 10.1.1. Sea A L(H). o 1. El Rango numrico de A es el conjunto e W (A) = { Ax, x : x H, x = 1 } . 2. Recordemos que el radio numrico de A se dene como e w(A) = mx || = mx{ | Ax, x | : x H, x = 1 } a a
W (A)
y que dene una norma en L(H) (si el cuerpo es C). 10.1.2. A continuacin enumeraremos una serie de propiedades elementales del rango y radio o numricos que se siguen fcilmente sus deniciones. Las pruebas que no estn escritas deben e a e considerarse como ejercicios. Sea A L(H). 1. Se cumplen las siguientes desigualdades: (A) w(A) A
sp
198
2. Tomando T =
0 0 , se ve que las desiguadades pueden ser estrictas. En efecto, es 2 0 claro que (T ) = 0 y T sp = 2. Por otra parte, como la funcin o f : {z C : |z| 1} R dada por f (z) = 2|z| (1 |z|2 )1/2
alcanza el mximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(T ) = 1. a 3. Vimos en el Corolario 2.1.4 que, si A es normal, entonces (A) = w(A) = A A + A A A 4. Recordemos que Re A = e Im A = . Se tiene que 2 2i Re A
sp sp
= w(Re A) = mx | Re Ax , x | w(A) , a
x =1 sp
2 w(A).
5. Dado B L(H) se cumple que W (A + B) W (A) + W (B). 6. Dado C, se tiene que W (A + I) = W (A) + y W ( A) = W (A). 7. Si U U(H), entonces W (U AU ) = W (A) y w(U AU ) = w(A). 8. W (A) es compacto (por serlo la cscara de la bola unidad de H). a Proposicin 10.1.3. Sea A L(H). Entonces o (A) W (A) . (10.1)
Demostracin. Si es autovalor de A, es claro que = Ax, x W (A) para cualquier o autovector unitario x asociado a .
10.2
El Teorema de Hausdor Teplitz dice que, para todo A L(H), se cumple que W (A) es o convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta probarlo para matrices en M2 (C) (esto lo veremos en la prueba del Teorema). Pero an entre u ellas, necesitamos dos reducciones especiales: Lema 10.2.1. Dada A M2 (C), existe U U(2) tal que, B = U AU = c a b c , con c= trA . 2
tr A I, podemos suponer que tr A = 0 y tratar de hacer 2 que la diagonal de B sea nula. Si (A) = {0}, esto es fcil (por el Teorema 1 de Schur 1.6.1). a Sin, (A) = {, } con = 0. Sean x1 y x2 autovectores unitarios asociados a y , o Demostracin. Cambiando A por A o
199
respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t [0, 2]. Observar que x(t) = 0, por que x1 y x2 son LI. Entonces, Ax(t), x(t) = + eit Ax1 , x2 + eit Ax2 , x1 = eit x1 , x2 eit x2 , x1 = 2i Im (eit x1 , x2 ) . Eligiendo t0 [0, 2] tal que eit0 x1 , x2 R, tenemos que Ax(t0 ), x(t0 ) = 0, con x(t0 ) = 0. Normalizando a x(t0 ), completando a una BON de C2 , y tomando U U(2) tal que tenga a esa BON en sus columnas, obtenemos B = U AU = donde B22 = 0 porque B11 = 0 = tr B. Lema 10.2.2. Dada B M2 (C) con diagonal nula, existen V U(2) y w C con |w| = 1 tales que, 0 a w V BV = , con a0 y b0. b 0 Demostracin. Si B = o tenemos que w V B1 V =
i
0 a b 0
con
a, b C ,
0 a , tomando V = b 0
u 0 0 1
0 wu a wu b 0
i
Si a = ei1 |a| y b = ei2 |b|, tomando u = e 2 (2 1 ) y w = e 2 (2 +1 ) , se obtiene que w V B1 V = como desebamos. a Teorema 10.2.3 (Hausdor-Teplitz). Sea A L(H). Entonces W (A) es convexo. o Demostracin. Sean , W (A) distintos, y sean x, y H unitarios tales que Ax, x = o y Ay, y = . Tomemos B0 = {v1 , v2 } una BON de S = Gen {x, y}. Consideremos la compresin AS L(S). La matriz de AS en la base B0 es B = ( Avj , vi )i,jI2 M2 (C). o Dado z = (z1 , z2 ) C2 , se tiene que w = z1 v1 + z2 v2 S , w = z
2
0 |a| |b| 0
Bz, z = Aw, w ,
por lo que , W (B) y, para probar que las combinaciones convexas de y estn en a W (A), basta vericar que estn en W (B). En otras parabras, alcanza con probar el teorema a en el caso de que A M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que A= 0 a b 0 , con a0 y b0,
200
puesto que W (C + I) = W (C) + y W (u V CV ) = u W (C) para cualquier C M2 (C), C, V U(2) y u C con |u| = 1. Obervar que los cambios inducidos por las reducciones anteriores (translaciones y rotaciones) no perturban el hecho de que W (A) sea convexo. Veremos que en este caso, W (A) = t (a + b) cos + i(a b) sen : t [0, 1/2] y [0, 2] , (10.2)
que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto convexa. En efecto, dado z C2 con z = 1, como Az, z = Aei z, ei z para todo R,
podemos suponer que z = (t, (1 t2 )1/2 ei ) para t [0, 1] y [0, 2]. En tal caso, cuentas elementales muestran que Az, z = t(1 t2 ) (a + b) cos + i(a b) sen . Observar que los nmeros t(1 t2 ) recorren el intervalo [0, 1/2] cuando t [0, 1]. Esto prueba u la frmula (10.2). o Corolario 10.2.4. Sea A L(H). 1. En general se cumple que conv [ (A) ] W (A). 2. Si A es normal, entonces conv [ (A) ] = W (A). Demostracin. La inclusin (A) W (A) ya fue vista en la Proposicin 10.1.3. Pero por o o o el Teorema 10.2.3, sabemos que esa incusn arrastra a la cpsula convexa. Si A es normal, o a sea {x1 , . . . , xn } una BON de H formada por autovectores de A asociados a sus autovalores 1 , . . . , n . Si x H tiene x = 1, entonces
n n n
Ax, x =
n
A
k=1
x, xk xk ,
k=1 2
x, xk xk
=
k=1
| x, xk |2 k conv [ (A) ] ,
porque
k=1
| x, xk |2 = x
Denicin 10.2.5. o
que es un espacio de Hilbert con el producto (x1 , y1 ) , (x2 , y2 ) = x1 , x2 + y1 , y2 . 2. Dados A L(H) y B L(K), se dene el operador A B L(H K) dado por A B(x, y) = (Ax, By), (x, y) H K .
201
4. En forma similar se denen sumas directas de muchos espacios de Hilbert y de muchos operadores en ellos. Corolario 10.2.6. Sean A L(H) y B L(K). Entonces W (A B) = conv [W (A) W (A) ] Idem con muchos bloques diagonales. Demostracin. La inclusin W (A) W (A) W (A B) se testea inmediatamente usando o o vectores con una coordenada nula. Por el Teorema 10.2.3, esto arrastra a la cpsula convexa a de W (A) W (A). Rec procamente, dados x H e y K no nulos tales que (x, y) 2 = x 2 + y 2 = 1, tenemos que A B(x, y), (x, y) = = Ax, x + By, y x x x 2 A , x x y y , y y y w(A B) = mx{w(A), w(B)} . a (10.3)
+ y
quien claramente pertenece a conv [W (A) W (A) ]. Corolario 10.2.7. Sea A Mn (C). Entonces existe U U(n) tal que, si B = U AU , luego tr A para todo i In . Bii = n Demostracin. Cambiando A por A o tr A I, lo que debemos probar es que, si tr A = 0, n entonces podemos conseguir U U(n) tal que la diagonal de U AU sea nula. Lo probaremos por induccin en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si o n > 2, aplicando el Corolario 10.2.4 obtenemos que 0=
tr A conv [ (A)] W (A) . n Luego existe un vector unitario x Cn tal que Ax, x = 0. Completando {x} a una BON de Cn que lo tenga como primer elemento, y tomando U1 U(n) la matriz con esa BON en sus columnas, obtenemos que
C = U1 AU1 =
0 D
1 , n1
porque C11 = Ax, x = 0. Como D Mn1 (C) cumple que tr D = 0, podemos aplicar la hiptesis inductiva y encontrar V U(n1) tal que la diagonal de V DV sea nula. Deniendo o U2 = 1 V U(n) y U = U1 U2 U(n), se ve que
U AU = U2 CU2 =
1 0 0 V
0 D
1 0 0 V
V V V DV 0
10.3 Caracterizaciones
202
10.3
Caracterizaciones
Observacin 10.3.1. Sea W C un conjunto convexo compacto, y sea z0 W . Entonces o / existe un unico w0 W tal que d(z0 , W ) = |z0 w0 | = d > 0 . El tal w0 existe (y es unico) por la teor usual de espacios de Hilbert, usando que W es a convexo y cerrado (para una cuenta ad hoc, ver el Ejercicio 10.5.2). Ms an, si x0 = z0 w0 , a u 2 entonces Re (x0 w0 ) + d = Re (x0 z0 ) y Re (x0 z) Re (x0 w0 ) para todo zW . (10.4)
Esto se deduce de que w0 es la proyeccin ortogonal de z0 sobre W , y de que el producto o 2 escalar en C pensado como R est dado por z , w = Re (w z). Observar que la recta a {z C : Re [x0 (z w0 )] = 0} es ortogonal a z0 w0 y pasa por w0 . Teorema 10.3.2. Sea A L(H). Entonces W (A) = = z C : |z | w(A I) z C : |z | A I
sp
C C .
Demostracin. Notemos W = W (A), X al conjunto de arriba e Y al conjunto de abajo. Es o claro, por las deniciones, que X Y . Usando que W (A) = W (A I), es fcil ver que a W X. En lo que sigue probaremos que Y W : Supongamos que z0 W , y sea w0 la / proyeccin ortogonal de z0 sobre W (como en la Observacin 10.3.1). o o Para facilitar las cuentas, rotaremos y transladaremos el problema para que z0 R+ , w0 = 0 y W {z C : Re z 0}. Para hacerlo, sean d = |z0 w0 | = d(z0 , W ) > 0 , y B = ei (A w0 I) L(H) ,
, C ,
entonces
YB = ei (Y w0 ) .
Por lo tanto, para ver que z0 Y , alcanza probar que d = ei (z0 w0 ) YB . Observar / / i que, como la funcin x e (x w0 ) preserva distancias, la proyeccin de d a WB es, ahora, o o ei (w0 w0 ) = 0. Adems, como d = d 0 > 0, si z WB , la Eq. (10.4) dice que a Re (z d ) = d Re z 0 = Re z 0 ,
= =
10.3 Caracterizaciones
203
a porque Bx, x WB . Es decir que B + mI sp ( B 2 + m2 )1/2 . Por otro lado, es fcil sp 2 2 1/2 ver que ( B sp + m ) m 0. Por lo tanto, debe existir m N tal que
m
B + mI
sp
m( B
2 sp
+ m2 )1/2 m < d .
< d + m = |d + m| ,
por lo que d YB y entonces z0 Y . Resumiendo, vimos que si z0 W , entonces z0 Y , o / / / / sea que Y W . A continuacin damos un adelanto del libro II. Se trata de una caracterizacin obtenida por o o T. Ando [17] del radio numrico, que es tan util como la caracetrizacin de la norma espectral e o dada en la Proposicin 3.7.6. Su prueba necesita bastantes desarrollos espec o cos que se trabajarn en el libro II, por lo que no creemos necesario reproducirlos aqu Sin embargo lo a . enunciamos ahora, en su versin matricial, porque es uno de los criterios bsicos para trabajar o a con rangos numricos. e Teorema 10.3.3 (Ando 1973). Sea A Mn (C). Son equivalentes: 1. w(A) 1. 2. Para todo [0, 2) se tiene que Re(ei A) I. 3. Existen C Mn (C) e Y Mn (C)+ tales que Y I , C
sp
I Y A/2
I + L A A I L
M2n (C)+ .
Demostracin. Si vale la condicin 2, como existen x Cn unitario y [0, 2) tales que o o w(A) = | Ax, x | = ei Ax, x = (ei A) x, x = Re (ei A) x, x I x, x = 1 , tenemos que 2 1. Por otro lado, la implicacin 1 2 es bien fcil. Siguiendo, tenemos que o a la equivalencia 3 4 no es otra cosa que el Teorema 3.8.6. Veamos que 4 5 : Supongamos que M1 M2n (C)+ ,, para cierto Y Mn (C)+ . Luego, si L = I 2Y H(n), se tiene que I + L = 2(I Y ) y I L = 2Y = I + L A A I L =2 I Y A/2 A /2 Y 0.
Ahora veamos que 5 2 : Dados x Cn y [0, 2), tomemos el vector y = ei x. Luego, si asumimos que L cumple la condicin 5, tendremos que o 2 x
2
x y
L A A L
x x , y y
= 2 Re(ei A) x, x .
(10.5)
204
10.4
Adms, las constantes 1 y 1/2 son ptimas para la desigualdad anterior. a o Demostracin. Tomemos partes real e imaginaria: A = Re A + i Im A. Luego o w(A) A Re A + Im A = w(Re A) + w(Im A) 2 w(A) , donde la ultima desigualdad se deduce de que W (Re A) = {Re z : z W (A)}, por lo que w(Re A) w(A), y lo mismo para Im A. La optimalidad de las constantes 1 y 1/2 se ve tomando las matrices E11 y 2E21 . Proposicin 10.4.2 (Marcus-Sandy 1985). Sea A Mn (C). Entonces o 1 n
n n
si (A) w(A)
i=1 i=1
si (A) = A
Adms, las constantes 1 y 1/n son ptimas para la desigualdad anterior. a o Demostracin. Tomemos la descomposicin polar A = U |A|, con U U(n). Conjugando o o con otra matriz unitaria (lo que no cambia ni w(A) ni A 1 ), podemos suponer que que U es diagonal. Observar que |V AV | = V |A|V , si V U(n). Pongamos U = diag (w1 , . . . wn ), n 1 si (A) es superado por alguno con |wi | = 1, i In . Veremos que, en este caso, el nmero u n i=1 de los mdulos de los elementos diagonales de A. En efecto, si notamos {e1 , . . . , en } a la base o cannica de Cn , y llamamos P = |A|, dado k In tenemos que o |Akk | = | Aek , ek | = | U P ek , ek | = | P ek , U ek | = |wk P ek , ek | = |Pkk | = Pkk , donde la ultima igualdad surge de que P Mn (C)+ . Por otra parte,
n n
Pkk = tr P = tr |A| =
k=1 i=1
1 si (A) = n
para algn k In . Para ver que 1 y 1/n son ptimas, tomar las matrices E11 e I. u o Denicin 10.4.3. Llamemos A = o 0 0 M2 (C) y V = 2 0 si n = 2m consideremos las matrices diagonales de bloques
m
0 1 1 0
U(2). Dado n N,
Cn = A A A =
k=1
2E2k,2k1 Mn (C)
205
Un = V V V =
k=1
Cn = A A I1 = En,n +
k=1 m
2E2k,2k1 Mn (C)
Un = V V I1 = En,n +
k=1
Como w(A) = w(I1 ) = 1, la Eq. (10.3) asegura que w(Cn ) = 1 para todo n N. Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [27] para calcular, para N una NUI ja en Mn (C), las mejores constantes m y M tales que m N (T ) w(T ) M N (T ) para todo T Mn (C) .
Proposicin 10.4.4 (Johnson-Li 1988). Sea N una NUI en Mn (C). Luego o N (Cn )1 N (T ) w(T ) N (E11 )1 N (T ) para toda T Mn (C) .
Adems, las constantes N (Cn )1 y N (E11 )1 son ptimas. a o Demostracin. Fijemos T Mn (C). Si T = 0, el resultado es claro. Si no, sea A = w(T )1 T , o que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2 se tiene que
n
1 s1 (A) 2
y
k=1
sk (A) n .
Observar que s(E11 ) = e1 y s(Cn ) = vn , donde m (2, . . . , 2, 0, . . . , 0) = 2ek k=1 vn = m (2, . . . , 2, 1, 0, . . . , 0) = 2ek + em+1
k=1
si
n = 2m (10.6)
si
n = 2m + 1 .
s(A)
N (E11 ) N (A) =
Invirtiendo y multiplicando por N (T ), se obtienen las desigualdades buscadas. Tomando T = Cn y T = E11 y observando que w(Cn ) = w(E11 ) = 1, podemos deducir que las constantes dadas son ptimas. o
206
Proposicin 10.4.5. Sea N es una NUI en Mn (C). Entonces o w(T ) N (T ) , para toda T Mn (C) = Demostracin. Observar que T o
sp
sp
= |T |
sp
= w(|T |) N (|T |) = N (T ).
El siguiente teorema es el contenido del paper de T. Ando [18]: Teorema 10.4.6 (Ando 2005). Si denimos la norma N0 (T ) = mx a se tiene que 1. N0 es una NUI. 2. N0 (T ) w(T ) para todo T Mn (C). 3. N0 es la mayor NUI en Mn (C) tal que N (T ) w(T ) para todo T Mn (C). Es decir, si N es una NUI en Mn (C), N (T ) w(T ) , T Mn (C) = N (T ) N0 (T ) , T Mn (C) . T sp , 2 T n
1
para
T Mn (C) ,
Demostracin. Los dos primeros items son claros de lo anterior. Fijemos T Mn (C). o Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir que T = (T ) = diag (s1 (T ), . . . , sn (T )). Ms an, supongamos que a u N0 (T ) = mx a s1 (T ) 1 , 2 n
n
si (T )
i=1
=1.
En este caso deber amos probar que N (T ) 1. Las desigualdades resultantes de la igualdad anterior implican que s(T ) w vn , donde vn es el vector denido en la Eq. (10.6). Tomemos Cn y Un las matrices de la Denicin 10.4.3. Notar que Un Cn = Bn , donde o Bn = diag (2, 0, 2, 0, . . . , 2, 0) o bien Bn = diag (2, 0, 2, 0, . . . , 2, 0, 1) .
Observar que s(B) = vn . Luego, como s(T ) w vn = s(Bn ) y N es una NUI, el Teorema de Ky Fan 5.3.8 nos dice que que N (T ) N (Bn ), con lo que bastar probar que N (Bn ) 1. a Por otra parte, en la Denicin 10.4.3 se ve que w(Cn ) = 1 para todo n N. Como U U(n) o y N es una NUI, tenemos que N (T ) N (Bn ) = N (Un Cn ) = N (Cn ) w(Cn ) = 1 = N0 (T ) . Observar que recin al nal usamos la hiptesis sobre N . e o
10.5 Ejercicios
207
10.5
Ejercicios
5. A
2 w(A).
6. Dado B L(H) se cumple que W (A + B) W (A) + W (B). 7. Dado C, se tiene que W (A + I) = W (A) + y W ( A) = W (A). 8. Si U U(H), entonces W (U AU ) = W (A) y w(U AU ) = w(A). 9. W (A) es compacto. 10.5.2. Sea W Cn un conjunto convexo compacto no vac y sea v0 Cn \ W . Entonces: o, 1. Existe un unico w0 W tal que 0 < d = v0 w0 = d(v0 , W ) := m v0 w . n
wW
Para mostrar la unicidad, se suguiere asumir que v0 = 0 y usar que, dados x, y Cn vale la igualdad del paralelogramo, que dice que x y 2 + x + y 2 = 2( x 2 + y 2 ). 2. Probar que el hiperplano H = w0 + {v0 w0 }R separa a W de v0 en el sentido de que Re v0 , v0 w0 > Re w0 , v0 w0 Re w, v0 w0 para todo wW .
Nota: Lo anterior vale en espacios de Hilbert generales, y alcamza con que W sea cerrado (no hace falta compacto). Sin embargo, proponemos este caso especial porque es lo que se usa para la Observacin 10.3.1. o
10.5 Ejercicios
208
Ejercicios nuevos
10.5.3. Sean 1 , . . . , n , 1 , . . . , n , C, todos de mdulo uno. Son equivalentes: o 1. Existen A , B U(n) tales que (A) = , (B) = y adems (BA). a 2. Existe un p conv [1 , . . . , n ] conv 1 , . . . , n . Sugerencia: Usar el ejercicio 1.10.21 10.5.4. Sea w (A) = mx | tr A B|, la norma dual del radio numrico en Mn (C). Denotamos a e
w(B)=1
por Bw = {A Mn (C) : w (A) 1} a su bola unidad. Probar que Bw = conv [{x x : x Cn y x = 1}] ,
o sea que los puntos extremales de Bw son los proyectores de rk uno. Sugerencia: Cuanto vale tr B x x ?
2. A > 0 , si Aij > 0 para todo par i In , j Im . 3. Las mismas notaciones (x 4. Denotaremos por MPn,m = {A Mn,m (R) : A 0} y MEPn,m = {A Mn,m (R) : A > 0} . 0 o x > 0) se usarn para vectores. a
para matrices cuadradas, abreviaremos MPn y MEPn . 5. |A| = (|aij |) iIn y analogamente |x| = (|x1 |, . . . , |xn |).
jIm
6. A B , si B A MPn,m . O sea que aij bij para todo i, j In . Anlogamente, a escribiremos A < B siempre que B A MEPn,m . 7. El vector (1, 1, . . . , 1) Rn ser denotado por medio de 1. a Advertencia: Hay overlaps de notaciones entre lo anterior y las que solemos usar para matrices denidas positivas. Esto es lamentable, pero necesario; porque buscar otras complicar a notablemente la exposicin. Las convenciones que usaremos de ahora en ms sern las siguo a a ientes: 1. Mantendremos la notacin A 0 (resp. B A) para decir que A Mn (C)+ (resp. o B A Mn (C)+ ). Observar que los s mbolos y son diferentes. 2. Al escribir A > 0 o B > A solamente aludiremos a los signos de las entradas. Para evitar confuciones, si A Mn (C) es denida positiva, no usaremos la notacin A > 0, o + + sin A Gl (n) (o que B A Gl (n) ). o
210
3. |A| slo se usar para los mdulos de las entradas. El viejo mdulo se escribir (A A)1/2 . o a o o a El objetivo de este cap tulo es la demostracin del Teorema de Perron, para matrices de o entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas.
11.1
Empezamos esta seccin con el objetivo nal de la misma: el teorema de Perron para matrices o de entradas estrictamente positivas. La idea es anunciar de entrada las propiedades principales de tales matrices y, adems, dar una orientacin estratgica a los numerosos resultados a o e parciales (aunque muchos de ellos son son interesantes de por s que iremos probando para ) llegar a una demostracin completa del teorema. o Teorema 11.1.1 (Teorema de Perron). Sea A MEPn , es decir que A > 0. Entonces se verican las siguientes propiedades: 1. (A) > 0 y (A) (A). 2. Existe un x Rn tal que x > 0 y Ax = (A)x. 3. Dado y Rn \ {0}, si y 0 y Ay = y, entonces = (A) e y > 0.
4. (A) es raz simple del polinomio caracter stico de A. 5. Si (A) y = (A), entonces || < (A). 6. Si (A) = 1, entonces Am L = xy T , donde x, y Rn son vectores tales que
m
x > 0 , y > 0 , x, y = 1 , Ax = x
AT y = y .
Antes de demostrar el Teorema de Perron, presentaremos varios resultados generales para matrices A MPn , su radio espectral y los autovectores correspondientes. En lo que sigue de la seccin, y salvo mencin expl o o cita al contrario, asumiremos que todas las matrices mencionadas con las letras A y B estarn en Mn (R), para algn n N. a u Proposicin 11.1.2. Sean A, B MPn tales que A o B. Entonces, (A) (B).
Demostracin. Como 0 A B, entonces, para todo n 1 se tiene que 0 An B n . Por lo o n 1/n tanto A 2 B n 1/n y, tomando l mite, se obtiene la desigualdad buscada . 2 Corolario 11.1.3. Sea A MEPn . Entonces se cunple que (A) > 0. Demostracin. Como A > 0, existe un > 0 tal que I o A. As (A) (I) = > 0.
Corolario 11.1.4. Sean A MPn , J In y A[J] = (aij )i,j J . Entonces (A[J]) (A).
211
Demostracin. Basta extender A[J] a MPn poniendo ceros en las entradas que le faltan, y o aplicar la Proposicin 11.1.2. o Observacin 11.1.5. Recordemos (ver Ejercicio 3.4.2) que, dada A Mn (C), o |||A||| = mx a
x
Ax
=1
= mx Fi (A) a
i In 1
= tr Fi (A).
A continuacin vienen tres Lemas que sirven para ubicar el radio espectral de una matriz o A MPn usando la Observacin anterior: o Lema 11.1.6. Sea A MPn . Supongamos que 1 Rn es un autovector de A. Entonces el autovalor asociado es |||A||| y adems (A) = |||A||| . a Demostracin. La desigualdad (A) |||A||| vale siempre, porque ||| ||| es matricial y o podemos aplicar la Proposicin 3.4.6. Por otro lado, si A1 = 1, entonces o Fi (A)
1
para todo i In .
Por la Observacin 11.1.5, podemos deducir que = |||A||| . Finalmente, el hecho de que o |||A||| (A) implica que |||A||| (A). Lema 11.1.7. Sea A MPn . Llamemos = mx tr Fi (A) = |||A||| a
i In
= m tr Fi (A) . n
i In
Entonces se verica que (A) . Demostracin. La desigualdad (A) es conocida (Proposicin 3.4.6), por lo tanto slo o o o probaremos que (A). Podemos suponer que > 0, porque sin todo es fcil. Denamos o a entonces la matriz B MPn cuyas las son: Fi (B) = Fi (A) tr Fi (A) Fi (A) para todo i In .
De este modo, tr Fi (B) = para todo i 1. En consecuencia, usando el Lema 11.1.6 y la Proposicin 11.1.2, = (B) (A), ya que, por su construccin, 0 B A. o o Lema 11.1.8. Sean A MPn y x > 0. Notemos y = Ax. Entonces se tiene que yi yi = m n (A) y = mx a (A) . i In xi i In xi Demostracin. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que o D1 AD = (x1 xj aij )ij In MPn . i Adems (D1 AD) = (A) (porque el espectro no cambia). Por otro lado, a
n
x1 i
j=1
aij xj =
(Ax)i yi = . xi xi
212
Teorema 11.1.9. Sea A MPn y jemos un vector x > 0. 1. Dados , R, se tiene que x Ax = (A) y Ax x = (A) .
2. Si x es un autovector de A (y es x > 0), entonces Ax = (A)x. Demostracin. La primera parte se deduce inmediatamente del Lema 11.1.8. Supongamos que o Ax = x. Como Ax 0, debe cumplirse que 0, en particular R. Luego se verican las hiptesis de la primera parte con = = . o Observacin 11.1.10. En las condiciones del Teorema 11.1.9, tambin vale que o e si A MPn y x>0, x < Ax = < (A) y Ax < x = (A) < .
En efecto, si en los Lemas 11.1.7 y 11.1.8 se toma estrictamente menor que los m nimos correspondientes 0 , se obtiene < 0 (A). Lo mismo para . Observacin 11.1.11. Sean A MEPn y x Rn \ {0}. Notar que, si x o que valer que Ax > 0. Este hecho se usar reiteradas veces. a 0, entonces tiene
Corolario 11.1.12. Sean A MEPn , x Rn \ {0} y C tales que x 0 y Ax = x. Entonces = (A) y x > 0. Otra manera de decirlo es que si un autovector de A es no negativo, en realidad deba ser positivo y corresponder al radio espectral. Demostracin. Por la Observacin 11.1.11 sabemos que Ax > 0, y por ende x > 0. Entonces o o se puede aplicar el Teorema 11.1.9. Proposicin 11.1.13. Sean A MEPn y (A) un autovalor de mdulo mximo, o sea o o a n que || = (A). Dado un autovector y C \ {0} para , es decir que Ay = y, entonces: |y| > 0 y A |y| = (A) |y| .
Demostracin. Llamemos x = |y|. Por la desigualdad triangular, se tiene que o (A)x = ||x = |y| = |Ay| A|y| = Ax.
Sea z = Ax (A)x 0. Queremos mostrar que z = 0. Supongamos que eso no pasa. Entonces, por la Observacin 11.1.11, tenemos que Az > 0. Si ahora llamamos o u = Ax , entonces Az = A(u (A)x) = Au (A)u > 0 .
Por lo tanto tenemos que u > 0 y Au > (A)u. Aplicando la Observacin 11.1.10, se obtiene o la contradictoria desigualdad (A) > (A). Dado que esta provino de suponer que z = 0, ahora sabemos que z = 0 y por ende Ax = (A)x. Notar que, como Ax > 0, esto implica que |y| = x > 0.
213
Corolario 11.1.14. Si A MEPn , entonces (A) (A) y existe un x Rn tal que x > 0 y Ax = (A)x .
Proposicin 11.1.15. Sean A MEPn y (A) tales que || = (A). Si y Cn \ {0} o cumple que Ay = y, entonces, existe [0, 2) tal que y = ei |y|, por lo que = (A). Demostracin. Por la Proposicin 11.1.13 sabenos que A|y| = (A)|y|. Adems o o a |Ay| = |y| = (A)|y| = A|y| = |Ay| . Mirando las primeras coordenadas, tenemos que
i In
A1j |yj | =
i In
igualdad en la desigualdad triangular, y todos los yj deben apuntar para el mismo lado. O sea que debe existir un [0, 2) tal que yj = ei |yj | para todo j In . Corolario 11.1.16. Si A MEPn , entonces (A) es el unico autovalor de mdulo mximo. o a Corolario 11.1.17. Sea A MEPn . Entonces dim ker(A (A)I) = 1. Demostracin. Sean x, y ker(A (A)I). Probaremos que son linealmente dependientes. o xi , y denamos Por la Proposicin 11.1.15 se puede suponer que x > 0 e y > 0. Sea = m o n i In yi z = x y. Como cada xi yi xi xii yi = 0, se tiene que z 0. y Dado que Az = (A)z, si sucesidese que z = 0, entonces se tendr que z > 0. Pero, si a xk tomamos un k In tal que = yk , entonces la coordenada k-sima de z deber ser nula. e a Este absurdo proviene de suponer que z = 0. Por lo tanto, z = 0 y x = y. El siguiente resultado, que describe el l mite de las potencias de una matriz A MPn que cumple ciertas hiptesis, ser prontamente aplicado para probar el item 6 del Teorema de o a Perron. Lo enunciaremos pidiendo lo esctrictamente necesario que debe cumplir A para que la tesis pueda probarse. Esto complica su formulacin, pero igual es conveniente para poder o aplicarlo luego a matrices primitivas, en las que todas las hiptesis que pedimos se verican. o Proposicin 11.1.18. Sea A MPn con (A) = 1. Supongamos que A cumple que: o 1. dim ker(A I) = 1. 2. 1 (A) es el unico autovalor de mdulo mximo. o a 3. Existen x, y Rn tales que x > 0 , y > 0 , x, y = 1 , Ax = x Entonces, se tiene que Am xy T .
m
AT y = y .
Demostracin. Llamemos L = xy T = (xi yj )i,j In . Este L es, en realidad, el proyector o espectral asociado al 1 (A). Esto no lo probaremos ahora, pero es util tenerlo en cuenta para entender las propiedades de L que veremos a continuacin: o
214
1. L2 = L. En efecto, L2 = xy T xy T = x x, y y T = xy T = L. 2. AL = LA = L. Esto se deduce de que Axy T = xy T = xy T A. 3. (A L)m = Am L, para todo m N. Para mostrarlo, razonemos por induccin sobre m. El caso m = 1 es trivial. Adems, o a (A L)m+1 = (A L)(A L)m = (A L)(Am L) =A AL LA + L = A m+1 =A L .
m+1 k m+1
(por la HI)
LL+L
4. (A L) \ {0} (A) {1}. En particular, se tiene que (A L) < 1. En efecto, sean C \ {0} y z Cn \ {0} tales que (A L)z = z. Entonces Lz = 1 1 L(z) = L(L A)z = 0 ,
por que en 1 y 2 vimos que L(L A) = 0. Luego Az = z y por lo tanto (A). Si tuviramos que = 1 = (A), entonces x Gen {z} (recordar que dim ker(A I) = 1), e lo que nos dir que (A L)x = x. Pero Ax = x y Lx = xy T x = x. En consecuencia a uno tendr que (A L)x = 0 = x, lo que no vale. a 5. Como el unico (A) con || = 1 es = 1, se tiene que (A L) < 1. Entonces el Corolario 3.4.9 sirve para armar que Am L = (A L)m 0.
m
4. (A) es ra simple del polinomio caracter z stico de A. 5. Si (A) y = (A), entonces || < (A). 6. Si (A) = 1, entonces Am L = xy T , donde x, y Rn son vectores tales que
m
x > 0 , y > 0 , x, y = 1 , Ax = x
AT y = y .
215
Demostracin. Los items 1 y 2 fueron vistos en los Corolarios 11.1.3 y 11.1.14. El item 3 se o prob en el Corolario 11.1.12. El item 5 es el Corolario 11.1.16. El item 6 se deduce de la o Proposicin 11.1.18. Observar que ya hemos visto (aqu se usa el Corolario 11.1.17) que si o A MEPn , entonces A cumple las tres condiciones que pide la Proposicin 11.1.18. o Slo falta vericar el item 4, que dice que (A) es ra simple de PA (x) = det(xI A) C[x]. o z Con las notaciones del resto del libro esto signica que, si tomamos el vector (A) Cn de autovalores de A (que cuenta las multiplicidades como raices de PA ) con un orden en el que los mdulos decrezcan, entonces 1 (A) = (A) pero |2 (A)| < (A) (ac se usa el item 5). o a Supongamos, sin perdida de generalidad, que (A) = 1. Apliqumosle a A el Teorema 1 e de Schur 1.6.1, considerando en (A) el orden mencionado. Luego tendremos U U(n) y T T S(n) tales que U AU = T y d (T ) = (A). Por otra parte, T m = U Am U U LU = M .
m
Observar que todos los T m T S(n), por lo que tambin M T S(n). Adems, se tiene que e a rk M = rk L = 1. Sin embargo, como T T S(n), sabemos que (T m )ii = (Tii )m = i (A)m para todo i In y todo m N .
Para cada i In tal que i (A) = 1, podemos deducir que Mii = 1. Al estar M T S(n), es fcil ver que su rk ser, por lo menos, el nmero de unos que tenga en la diagonal. Como a a u sabemos que rk M = 1, deducimos que tan solo 1 (A) = 1 y los dems tienen menor mdulo a o (porque sus potencias deben converger a cero), como se quer demostrar. a Denicin 11.1.19. Sea A MEPn . El unico vector x Rn tal que o Ax = (A)x , x > 0 y se llamar vector de Perron de A. a tr x = 1 ,
11.2
entonces Am = A o I, segn m sea impar o par. Adems, (A) = {1, 1}. En este caso el u a autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa si tomamos la matriz 1 0 . Es ms, todas las partes del Teorema (salvo una) pueden hacerse fallar tomando a B= 0 0 matrices diagonales de bloques adecuadas (Ejercicio). La que se salva es la siguiente: Proposicin 11.2.1. Sea A MPn . Entonces o
216
Demostracin. Sea E = 1 1T MEPn (todas las entradas de E son iguales a 1). Dado o > 0, tenemos que A = A + E MEPn . Por la Proposicin 11.1.2, si 0 < < , entonces o (A) (A ) (A ). Llamemos x > 0 al vector de Perron de cada A , normalizado para que tr x = 1. Como la bola de Rn es compacta, se puede tomar una sucesin decreciente m o 0 tal que, si llamamos Am = Am y xm = xm , entonces existen M R y x Rn tales que (Am )
m m
M (A)
xm x
m
0.
Observar que tr x = 1, por lo que x = 0. Adems, Am xm = (Am )xm M x y, como a m Am A, entonces Am xm Ax. Por lo tanto deducimos que Ax = M x, con M
m m
0 es un autovector.
Matrices primitivas
Denicin 11.2.2. Sea A MPn . Diremos que A es una matriz primitiva si existe un o m N tal que Am MEPn . Las matrices primitivas son casi tan buenas como las de MEPn . Veamos que cumplen el Teorema de Perron tutti, que enunciamos por tercera vez. Teorema 11.2.3. Sea A MPn una matriz primitiva. Entonces valen: 1. (A) > 0 y (A) (A). 2. Existe un x Rn tal que x > 0 y Ax = (A)x. 3. Dado y Rn \ {0}, si y 0 y Ay = y, entonces = (A) e y > 0.
4. (A) es raz simple del polinomio caracter stico de A. 5. Si (A) y = (A), entonces, || < (A). 6. Si (A) = 1, entonces Am L = xy T , donde x, y Rn son vectores tales que
m
x > 0 , y > 0 , x, y = 1 , Ax = x
AT y = y .
217
Demostracin. Sea m N tal que Am > 0. Por el Corolario 1.7.2, o (Am ) = {m : (A)}. Por el Teorema 11.1.1 aplicado a Am , concluimos que (A) = (Am )1/m > 0. Sea (A) tal que || = (A) y sea y Cn \ {0} tal que Ay = y. Entonces Am y = m y y ||m = (Am ) = m = (Am ) y Am y = (Am )y .
Por el Teorema 11.1.1 aplicado a Am , podemos deducir que algn x Gen {y} cumple que u x > 0, y por ello = (A) y Ax = (A)x. Adems, cada m (Am ) posee una multiplicidad en el polinomio caracter a stico de Am mayor o igual que la de en el de A (esto se ve fcil triangulando con el Teorema 1.6.1). Por lo a tanto (A) posee multiplicidad algebrica uno como autavalor de A. Razonamientos similares a permiten concluir que (A) es el unico autovalor de mdulo mximo (item 5), y tambin la o a e condicin 3. Finalmente, con los items anteriores ya demostrados, estamos en condiciones de o asegurar que A cumple las hiptesis de la Proposicin 11.1.18, lo que prueba el item 6. o o Observacin 11.2.4. Dada una matriz A MPn , para saber si es primitiva hace falta o calcular muchas potencias Am hasta que caiga en MEPn . Obviamente hace falta un teorema que diga hasta donde es necesario probar. Algo del tipo: Dado n N, existe un M (n) N (que uno deber poder calcular) tal que toda A MPn que sea primitiva debe cumpir que a m A > 0 para algn m M (n). Esta teor existe, y se calculan los M (n) ptimos. Pero las u a o cuentas son muy complicadas y no las desarrollaremos aqu . El lector interesado puede buscar data al respecto en el libro de Horn-Johnson [7]. Sin embargo, con una hiptesis razonable (si A MPn cumple que d (A) > 0), sale mucho ms facilmente o a m que la constante M (n) = n 1 sirve. Obsrvar que en tal caso, una vez que A > 0, eso sigue pasando para las potencias mayores (lo que no es cierto para todas las primitivas). Esperen algunos renglones y vern. a
Matrices irreducibles
Denicin 11.2.5. Sea A Mn (C). Decimos que: o 1. A es reducible si existe P UP (n), una matriz de permutacin, tal que o P AP 1 = B C 0 D k , nk
donde 1 k n 1 y B Mk (R). Otra manera de decirlo es que existe un J In tal que 1 |J| < n (o sea que es propio) que cumpla que A Gen {ej : j J} Gen {ej : j J} . (11.1)
218
2. Denotemos momentneamente por Vn = {(p, q) I2 : p = q}, al conjunto de pares de a n ndices distintos en In . 3. Decimos que un par (p, q) Vn se conecta por A (o que A conecta p con q), si existen p = i0 , i1 , . . . , im = q en In tales que aik1 ik = 0 para todo k Im . Observar que se puede suponer que todos los ik son distintos entre s porque si hubiera , repeticiones, una parte de la sucesin se podr borrar (los intermedios entre los dos o a repetidos), quedando otra sucesin ms corta que seguir conectando a p con q. Por lo o a a tanto, puede suponerse que m n 1. 4. A es fuertemente conexa (FC) si todo par (p, q) Vn se conecta por A. Lema 11.2.6. Sea A MPn . Dado un par (p, q) Vn , son equivalentes: 1. El par (p, q) se conecta por A. 2. Existe 1 m n 1 tal que la entrada (Am )p q > 0. Demostracin. Basta notar que, como mostrar una induccin adecuada, o a o
n n n
(Am )p q =
i1 =1 i2 =1
im1 =1
ap
i1
kIm2
y que todos estos trminos son no negativos. En caso de que alguno de esos sumandos no se e anule, les sacamos aquellos trminos que vivan en la diagonal de A, y nos queda una sucesin e o que conecta p con q. Recordar que si A conectaba a (p, q), entonces existe alguna sucesin de o no ms de n a ndices que los conecta. Ejemplo 11.2.7. Ahorita vamos a ver que irreducible es lo mismo que FC (se lo enunciar a pra matrices de MPn , pero obviamente eso es irrelevante). Veamos una serie de ejemplos donde se ve independientemente que pasa lo mismo: Sea A Mn (C) tal que Fi (A) = 0, para algn i In . Tomemos cualquier Sn tal que (i) = n, y P UP (n) su matriz asociada. u Por la Eq. (4.3), se tiene que Fn (P A) = 0. Como multiplicar del otro lado permuta slo sus o 1 ceros, tambin vale que Fn (P AP ) = 0. O sea que A es reducible. e Vemoslo desde otro punto de vista: Si Fi (A) = 0, entonces a i no se lo puede conectar con a ningn otro j In \ {i}, porque todos los aik son nulos. Luego A no es FC. Ya que estamos u dejamos un pequeo ejercicio: A Mn (C) es reducible si y slo si AT lo es. Por lo tanto, lo n o anterior vale tambin para columnas nulas. e Proposicin 11.2.8. Sea A MPn . Entonces son equivalentes: o 1. A es irreducible. 2. A es FC. 3. (I + A)n1 > 0.
219
4. I + A es primitiva. En particular se tiene que, si A es primitiva, entonces es irreducible y FC. Demostracin. 2 3: Por el Lema anterior, es claro que 3 implica 2, porque conectar por A o es lo mismo que conectar por I + A, dado que los elementos de la diagonal no se usan para las conexiones. Rec procamente, por el teorema del binomio de Newton, se tiene que (I + A)n1 es combinacin lineal, a coecientes positivos, de las potencias Ak , 0 k n 1. Luego, si o A es FC, el Lema 11.2.6 asegura que todas las entradas de (I + A)n1 (afuera de la diagonal) deben ser estrictamente positivas. Adems, (I + A)n1 I n1 = I. a 1 2: Si A no es FC, existe un par (p, q) Vn que no se conecta por A. Sean J1 = {i In \ {p} : A conecta al par (p, i) } {p} y J2 = In \ J1 .
Entonces p J1 y q J2 , por lo que ambos son no vac os. En particular, aij = 0 si i J1 y j J2 (sino el par (p, j) ser conectado por A, pasando por i). Si reordenamos In poniendo a primero a J2 y luego a J1 , encontraremos una matriz P UP (n) de permutacin tal que o P AP 1 = 3 4: Obvio. 4 1: Si A es reducible, sea P UP (n) tal que P AP 1 = P (I + A)m P 1 = (I + P AP 1 )m = 0 MEPn / B C . Entonces 0 D para todo m N . 0 J2 . J1
Por lo tanto ningna potencia (I + A)m MEPn , o sea que I + A no es primitiva. u Teorema 11.2.9 (Teorema de Perron-Frobenius). Sea A MPn , y asumamos que A es irreducible. Entonces se verica que 1. (A) > 0 y (A) (A). 2. Existe x > 0 tal que Ax = (A)x. 3. (A) es raz simple del polinomio caracter stico de A. Demostracin. Como A es ireducible, el Ejemplo 11.2.7 nos dice que A no puede tener ninguna o la nula. Usando el Lema 11.1.7, tenemos que (A) = m tr Fi (A) > 0 . n
iIn
Por otra parte, por la Proposicin 11.2.1, (A) (A) (para esto alcanza con el hecho de o que A MPn ). Adems, (I + A) = 1 + (A). Ms an, por el Teorema 1 de Schur 1.6.1, a a u se tiene que (I + A) = 1 + (A) (contando multiplicidades, y en algn orden). Por lo tanto u
220
(I + A) = 1 + (A) (porque el mximo est a la derecha y no en la tercera posicin). Como a a o I + A es primitiva, si denotamos por x al vector de Perron de I + A, entonces tenemos que x>0 y Ax = (I + A I) x = (1 + (A) ) x x = (A) x .
Por ultimo, la igualdad (I +A) = 1+(A) dice que cada i (A) = (A) produce un i (I +A) = 1 + (A). Como de stos hay uno solo, sale el item 3. e A continuacin presentamos dos resultados sobre matrices irreducibles de MPn que son muy o utiles, pero que quedaron medio aislados: Corolario 11.2.10. Sean A MPn irreducible y x Rn \ {0}. Si se tiene que x 0 y Ax (A)x = x > 0 y Ax = (A)x .
Demostracin. Como A es irreducible, tambin AT lo es (porque?). Por el Teorema de o e Perron-Frobenius existe un vector y > 0 tal que AT y = (A)y, o sea que y T A = (A)y T . Por otra parte, sabemos que Ax (A)x 0. Si sucediera que Ax (A)x = 0, entonces y T > 0 = 0 < y T (Ax (A)x) = y T Ax (A)y T x = (A)y T x (A)y T x = 0. Esta contradiccin nos convence de que Ax = (A)x. Usando lo anterior, el hecho de que o x > 0 puede deducirse ahora del Teorema de Perron-Frobenius. Proposicin 11.2.11. Sean A, B MPn tales que A es irreducible y B o asumimos que B = A, entonces (B) < (A). A. Si adems a
Demostracin. La Proposicin 11.2.1 nos dice que existe un x Rn \ {0} tal que x o o Bx = (B)x. Supongamos que (B) = (A). En tal caso, por el Corolario 11.2.10, x 0 y A B = Ax Bx = (B)x = (A)x = Ax = (A)x y
0 y
x>0.
Por lo tanto Ax = (A)x = (B)x = Bx, o sea que (A B)x = 0. Sin embargo, esto es imposible porque A = B, A B 0 y x > 0. La contradiccin provino de suponer que o (B) = (A). Luego (B) < (A). Observacin 11.2.12. Sea A MPn una matriz irreducible. En este caso, (A) no es, o necesariamente, el unico autovector de mdulo mximo. En efecto, tomando o a A= 0 1 1 0 , se tiene que A es irreducible porque I + A > 0, pero (A) = {1, 1} .
En general, puede verse que los otros autovalores de mdulo mximo en el (A) son los o a siguientes: 1 (A) , . . . , k1 (A), donde los i son las ra ces k-simas de la unidad, para e cierto k n. En el caso anterior, k era 2. El lector interesado puede buscar ms informacin a o al respecto en el libro de A. Benedek y R. Panzone [1], el de Horn y Johnson [7] o en los siguientes ejercicios.
221
Ejercicio 11.2.13. Sea A MPn . Probar que: 1. A es primitiva si y slo si A es irreducible y (A) es el unico autovector de mdulo o o mximo de A. a 2. Si A es irreducible y semidenida positiva (o sea que A es irreducible, A 0 y A entonces A es primitiva. Ejercicio 11.2.14. Sean B Mn (C) y A MPn una matriz irreducible. 1. Supongamos que |B| A, (A) = (B) y = ei (B) es un autovalor de B de mdulo o mximo. Entonces, existen nmeros reales 1 , . . . , n tales que a u B = ei D A D1 donde D = diag ei1 , . . . , ein . 2. Supongamos que (A) = 1 y sea S = {1 , . . . , k } = { (A) : || = 1}. (a) Pongamos que cada j = eij (A). Probar que (A) eij (A). (b) Concluir a partir del item anterior que S es un grupo abeliano. (c) Probar que S = Gk = {e algebraica igual a uno.
2ip k
0),
(d) Mostrar que si A es no singular y n es primo, entonces, (A) es el unico autovalor de mdulo mximo, o bien A posee n autovalores distintos. o a Ejemplo 11.2.15. Sea Jn Mn (R) el bloque de Jordan de tamao n n (con n 2). Es n decir que Jn e1 = 0 y Jn ek = ek1 , para 2 k n. Llamemos 0 1 0 0 .. .. .. 0 1 0 1 0 .. .. .. 0 0 1 0 1 .. .. .. 0 . . . . . . . . 0 0 1 . . . . T A = J + J = . . H(n) , .. .. . . . . 1 0 0 . . 0 .. .. .. 1 0 1 0 0 .. .. .. 0 1 0 1 0 .. .. .. 0 0 1 0 que acta en Rn por Ax = (x2 , x1 + x3 , x2 + x4 , . . . , xn2 + xn , xn1 ), x Rn . No es dif u cil n1 vericar que A es irreducible, ya sea mostrando que (I + A) > 0, o viendo que satisface la denicin de ser FC (con la diagonal de arriba si p < q y con la de abajo si q < p). Tambin o e puede probarse que A Gl (n) si y slo si n es par. Esta matriz es muy famosa y es, tal ves, o la primera matriz a la que se le calcularon todos los autovalores y autovectores. Esto lo hizo Lagrange en 1759, para resolver un sistema de ecuaciones diferenciales ordinarias asociado al problema de la cuerda que vibra. Sus autovalores son, en orden decreciente, k (A) = 2 cos k , n+1 1kn,
222
por lo que A = (A) = 2 cos n+1 . Notar que n (A) = 1 (A), luego A no es primitiva. Adems, si n + 1 = 2k (es decir, si n es impar), entonces k (A) = 2 cos /2 = 0, lo que prueba a lo antedicho. Los autovectores asociados son, respectivamente,
2k nk k , sen , . . . , sen , 1kn. n+1 n+1 n+1 n Notar que el unico con entradas positivas es x1 , porque n+1 no lleg an a . La vericacin o u o de lo anterior es tediosa pero elemental. Se basa en las frmulas del seno y coseno de sumas o y restas, y en que sen( t) = sen t y cos( t) = cos t. xk = sen A es el prototipo de matriz tridiagonal o de Jacobi. En realidad cumple que I +A es totalmente positiva, lo que justica (ms bien digamos que sugiri) las propiedades de sus autovalores y a o autovectores, como se ver en el Cap a tulo 13.
Veamos que Ax1 = 1 (A)x1 , lo que nos dir que (A) = 2 cos n+1 y que x1 es el vector de a Perron-Frobenius de A. En efecto, se tienen dos casos: para las entradas 1 y n: 2 A(x1 )1 = sen n+1 = 2 cos n+1 sen n+1
n n A(x1 )n = sen (n1) = cos n+1 sen n+1 cos n+1 sen n+1 n+1 n = 2 cos n+1 sen n+1 .
Para las entradas 2 k n 1 se tiene que A(x1 )k = (x1 )k+1 + (x1 )k1 . Pero
k k (x1 )k+1 = sen (k+1) = cos n+1 sen n+1 + cos n+1 sen n+1 n+1 k k (x1 )k1 = sen (k1) = cos n+1 sen n+1 cos n+1 sen n+1 . n+1 Sumando se obtiene la frmula buscada. Los nmeros cm = 2 cos m para m 3, que apareo u cecn como normas de las matrices anteriores, son muy importantes en varias ramas de la matemtica. Por ejemplo, aparecen en la teor del a a ndice de V. Jones. Tienen la siguiente particularidad: Sea N (Z) R el conjuntos de normas espectrales de matrices de cualquier tamao (incluso rectangulares) con entradas en Z. Entonces n : m 3}. N (Z) (0, 2) = { 2 cos m Notar que realizamos todos estos valores con las matrices cuadradas anteriores. Sin embargo, se los puede realizar con matrices ms pequeas. En efecto, si n = 2k, sea B Mk (Z) dada a n por B = Ik + Jk . Entonces la matriz
B=
0 B BT 0
H(n)
diere de la matriz A del principio slo en una reordenacin de la base cannica (poniendo o o o los pares primero y los impares al nal). Es decir que existe una matriz de permutacin o 1 P UP (n) tal que P AP = B. Por lo tanto B = s1 (B) = 1 (B) = B = A = cn+1 .
11.3 Ejercicios
223
Por eso era que nj+1 (A) = j (A) = sj (B), para todo j Ik (ver Proposicin 3.7.5). Algo o similar puede hacecrse si n = 2k + 1, tomando B = (B, ek ) Mk, k+1 (Z).
11.3
Ejercicios
entonces Am = A o I, segn m sea impar o par. Adems, (A) = {1, 1}. En este caso u a el autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa para la matriz 1 0 A = . Es ms, todas las partes del Teorema (salvo una) pueden hacerse fallar a 0 0 tomando matrices diagonales de bloques adecuadas 11.3.2. Sea A MPn . Probar que: 1. A es primitiva si y slo si A es irreducible y (A) es el unico autovector de mdulo o o mximo de A. a 2. Si A es irreducible y semidenida positiva (o sea que A es irreducible, A 0 y A entonces A es primitiva. 11.3.3. Sean B Mn (C) y A MPn una matriz irreducible. 1. Supongamos que |B| A, (A) = (B) y = ei (B) es un autovalor de B de mdulo o mximo. Entonces, existen nmeros reales 1 , . . . , n tales que a u B = ei D A D1 donde D = diag ei1 , . . . , ein . 2. Supongamos que (A) = 1 y sea S = {1 , . . . , k } = { (A) : || = 1}. (a) Pongamos que cada j = eij (A). Probar que (A) eij (A). (b) Concluir a partir del item anterior que S es un grupo abeliano. (c) Probar que S = Gk = {e algebraica igual a uno.
2ip k
0),
(d) Mostrar que si A es no singular y n es primo, entonces, (A) es el unico autovalor de mdulo mximo, o bien A posee n autovalores distintos. o a 11.3.4. Completar las pruebas de lo enunciado en la Observacin 11.2.15. o
11.3 Ejercicios
224
Ejercicios nuevos
11.3.5. Sean A Mn (R) y x Rn . Probar que: 1. Si A > 0 y x 2. Si A 0, pero x = 0, entonces Ax > 0.
3. Si A > 0 y es inversible, entonces A1 MPn . / 4. Si A 0 y es inversible, entonces A1 nula por columna. 0 A tiene exactamente una entrada no
11.3.6. Si A MPn posee un autovalor positivo, probar que A es similar a una matriz de MPn tal que la traza se sus las es constante. Cual es esa constante?. 11.3.7. Sea A MPn . Demostrar que (A) = mx m a n
x>0 iIn
1 xi
aij xj = m mx n a
j=1 x>0 iIn
1 xi
aij xj .
j=1
= (A)
para cualquier i In .
11.3.9. Sea A Mn (R) tal que las entradas fuera de la diagonal de A son no negativas1 . Mostrar que A posee un autovalor real r(A) tal que r(A) Re() para todo (A). 11.3.10. Sean Sn y P UP (n) MPn su matriz asociada. Decir que debe cumplir para que P sea irreducible. Se recomienda mirar la Eq. (11.1). De paso, calcular (P ). 11.3.11. Probar que si A es una matriz doble estocstica reducible, entonces existe una a permutacin P UP (n) tal que o
1 P AP =
A1 0 . 0 A2
Recordemos las notaciones asociadas a submatrices vistas en Cap tulos anteriores: 1. Sea n N y k In . Notamos por Qk,n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk,n = = (1 , 2 , , k ) Ik : 1 1 < 2 < < k n . n Otra manera de verlo es Qk,n = J In : |J| = k , si pensamos a los conjuntos J ordenados en forma creciente. Luego |Qk,n | = n . k 2. Dado Qk,n , denotaremos por = In \ Qnk ,n a su complemento (ordenado convenientemente). 3. Sean A Mn,m (C), Qk,n y Qr,m . Entonces denotaremos por A[|] a la submatriz de k r de A dada por A[|] = Ai j
(i,j)Ik Ir
Mk, r (C) .
Llamaremos A(|) = A[ | ] Mnk , mr (C) . Anlogamente se denen a A[|) = A[| ] Mk , mr (C) y A(|] = A[ |] Mnk , r (C) .
4. Cuando = , A[|] se abreviar como A[] y A(|) = A(). Si = In (resp. a = Im ), notaremos A[|] = A[|] (resp. A[|] = A[|]). 5. Dadas A Mn,r (C) y B Mr,m (C) , sea k m n{n, r, m}. Luego, para cada par Qk,n , Qk,m se tiene la frmula de Cauchy Binnet para AB: o det (AB)[|] =
Qk,r
(12.1)
226
Luego, por la multilinealidad de la funcin Hk (x1 , . . . , xk ) x1 xk (ver 7.2.1, o n item 3 y Denicin 7.3.4), y por la Eq. (7.18), el conjunto o Ek,n = { k! e : Qk,n } es una base ortonormal de k Hn , y se la llama base cannica. Por lo tanto, tenemos o n k que dim Hn = |Qk,n | = k .
El complemento de Schur
Denicin 12.1.1. Sea A Mn (C), k In y , Qk,n . o 1. Supongamos que A[|] es inversible. En tal caso denimos el complemento de Schur de A[|] en A, como la matriz A/[|] = A(|) A(|] A[|]1 A[|) Mnk (C) , indexada por y . 2. Si = , escribiremos A/ en lugar de A/[|]. Observacin 12.1.2. Sean A Mn (C)+ y Qk,n . Si A[] Gl (k)+ y consideramos el o subespacio S = Gen {ej : j }, entonces el Corolario 3.8.9 dice que / A/ 0 0 0 S = S A() A(|] A[]1 A(|] 0 0 0 S = (A, S) . S (12.2)
1. Llamaremos tr =
i=1
i .
2. Llamaremos sgn() al signo de la permutacin Sn dada por (i ) = i para i Ik , o y (j ) = k + j para j Ink . Es decir que pone a los buenos al principio y a los malos al nal, preservando sus rdenes. Por lo tanto, o
k
sgn() =
i=1
(1)i i = (1)r ,
con
r = tr
k(k + 1) . 2
(12.3)
227
donde (a1 , . . . , ar ) denota al r-ciclo asociado. Esto se deduce de que el primer ciclo (que consta de 1 1 trasposiciones) manda 1 al lugar 1. El segundo (que consta de 2 2 trasposiciones) manda 2 al lugar 2 (observar que (1, 2, . . . , 1 ) no movi a 2 ) y deja o a 1 en el lugar 1. Se sigue as hasta mandar k al lugar k . Lo dems (los valores a que toma en ) queda armado para producir la permutacin , porque se mantuvo o su orden interno, y van a donde deben ir. Por ejemplo, los ndices 1, . . . , 1 1 estn a en (si 1 > 1) y se corren un lugar a la derecha por el primer ciclo. Luego, los lugares 2, . . . , 2 1 estn ocupados por ms elementos de y se vuelven a corren con a a el segundo ciclo (manteniendo su orden original). Luego de aplicar los k ciclos, quedan todos los de ordenaditos y al nal. 3. Sea T UP (n), la matriz de permutacin asociada a , dada por o T ei = ei T ek+j = ej si si i = 1, . . . , k j = 1, . . . n k . (12.4)
Tenemos entonces que det T = sgn( ) = sgn(). El siguiente resultado generaliza la Proposicin 3.8.7 y el Corolario 3.8.9 a matrices y bloques o cualesquiera (siempre que sean cuadrados). Teorema 12.1.4. Sean A Mn (C), k In y , Qk,n . Se tiene que A[|] Gl (k) = det A = sgn() sgn() det A[|] det A/[|] . Si tambin A Gl (n), entonces A/[|] Gl (n k) y e
1
(12.5)
A/[|]
= A1 (|) .
(12.6)
Demostracin. Empecemos con el caso particular = = Ik . En este caso, se puede aplicar o una argumento igual al de la prueba de la Proposicin 3.8.7, que mostraremos brevemente: o Un clculo elemental prueba que A admite la factorizacin a o A= In [] 0 A(|]A[]1 In () A[] 0 0 A/ In [] A[]1 A[|) 0 In () . (12.7)
A partir de esto podemos deducir sin problemas la Eq. (12.5), porque los factores de la derecha y de la izquierda en el lado derecho de Eq. (12.7) tienen determinante 1, mientras que el factor central tiene determinante igual a det A[] det(A/). Tambin, Eq. (12.6) es consequencia e de la Eq. (12.7), tomando inversas de ambos lados. Para probar el caso general, consideremos las matrices T , T denidas en Eq. (12.4). Llame1 mos B = T AT . Usando la Eq. (12.4) vemos que, como matrices de sus tamaos, n B[Ik ] = A[|] , B(Ik ) = A(|) , B(Ik |Ik ] = A(|] y B[Ik |Ik ) = A[|) . (12.8)
228
Mostraremos la primera igualdad de la Eq. (12.8), ya que las dems se muestran de manera a anloga: dados i, j Ik , tenemos que a
1 1 B[Ik ]ij = (T AT )[Ik ]ij = T AT ej , ei = AT ej , T ei
= Aej , ei = Ai j = A[|]ij . Observar que las igualdades de (12.8) aseguran que B/[Ik ] = A/[|] . Luego sgn() sgn() det A = det B = det B[Ik |Ik ] det B/[Ik |Ik ] = det A[|] det A/[|] , ya que det T = sgn(). Finalmente, la Eq. (12.6) resulta de la relacin: o
1 A1 (|) = (T A1 T )(Ik ) = B 1 (Ik ) = B/[Ik ] 1
= A/[|]
En el siguiente enunciado veremos que toda matriz A Mn (C) puede ser aproximada tanto como se quiera por matrices tales que todas sus submatrices cuadradas son inversibles. Esto ser usado para obtener varias identidades de determinantes a partir del Teorema 12.1.4. a Lema 12.1.5. Dada A Mn (C) y > 0, existe B Mn (C) tal que 1. A B < , donde es una norma en Mn (C).
n 2
k
. Consider-
emos la funcin : Mn (C) CM que asigna a cada B Mn (C) la lista de los determinantes o de todas sus submatrices cuadradas, en algn orden prejado. Notar que es una funcin u o continua. Llamemos = 1 a C M : ai = 0 para todo i IM .
Para probar el Lema, basta ver que es denso en Mn (C). Llamemos, para cada i IM , i = 1 a C M : ai = 0 .
M
es denso en Mn (C), porque Gl (k) es denso en Mk (C) para todo k N. Por ejemplo, si (A)1 = det A, entonces 1 = Gl (n). El resultado se sigue de que una interseccin nita de o abiertos densos es densa. En efecto, si U y V son abiertos densos y Z es abierto, entonces Z U es un abierto no vac Entonces (Z U ) V = Z (U V ) = para todo abierto Z. o. Por lo tanto U V es denso. Por induccin, quien dice 2, dice M . o
229
12.2
Teorema 12.2.1 (Identidad de Jacobi). Sea A Gl (n). Entonces det A1 [|] = sgn() sgn() para todo par , Qk,n . (12.9)
Demostracin. Se sigue de las ecuaciones (12.6) y (12.5), aplicadas a y : o det A1 = sgn() sgn() det A1 [|] det A1 /[|] = det A1 [|] = =
sgn() sgn() sgn() sgn() (det A1 /[|])1 = det A(|) , det A det A
lo que culmina la prueba. Observacin 12.2.2. Cuando k = 1, la Eq. (12.9) induce la identidad: o (A1 )ij = (1)i+j conocida como la regla de Cramer. 12.2.3. Sean Jn = diag (1, 1, 1, 1, . . . , (1)n1 ) U(n), y , Qk,n . Luego det Jn [|] = sgn()(1)
k(k1) 2
i, j In ,
(12.10)
donde , = 1 o 0 de acuerdo a si = o = . En efecto, si = , en Jn [|] hay una columna de ceros, y por lo tanto su determinante es cero. Cuando = tenemos que, si p denota al nmero de elementos pares de , entonces u
k
p
i=1
(i 1) = tr k
(mdulo 2) . o
= sgn()(1)
k(k1) 2
lo que culmina la prueba. Si A Gl (n), suele notarse A# = Jn A1 Jn a la llamada inversin o de A. La siguiente igualdad se sigue de la Eq. (12.9), usando (12.1) (Cauchy-Binnet): det(Jn A1 Jn )[|] = det A(|) det A para , Qk,n , (12.11)
230
12.2.4. La siguiente igualdad es vlida para toda A Mn (R): dados , Qk,n , a sgn() det A[|] det A(|) = , sgn() det A .
Qk,n
(12.12)
De hecho, cuando A es inversible, por Eq. (12.9), el lado izquierdo de la Eq. (12.12) da sgn() det A
Qk,n
por la frmula de Cauchy Binnet (12.1). El caso no inversible se deduce por continuidad. o Observar que, tomando k = 1, y jando cualquier r In como = , nos queda el algoritmo usual propuesto en el Ejercicio 7.5.11 (y usando n veces) desarrollando por la la r: det A =
iIn
(12.13)
El desarrollo por columnas sale aplicando esto a AT . 12.2.5. Dados , Qk,n y, adems, , Ql,n tales que , , sean a = = (1 , 2 , . . . , k+l ) y = = (1 , 2 , . . . , k+l ) Qk+l,n .
sgn
= sgn() .
(12.14)
Con estas notaciones, se tiene la siguiente versin local del Teorema 12.1.4: o det A[|] det (A/[|])[| ] = sgn sgn det A[ | ] (12.15)
En efecto, consideremos la matriz B = (ai j )i,jIk+l Mk+l (R). Entonces vemos que Eq. (12.15) coincide con Eq. (12.5) para B, , en lugar de A, , , respectivamente. De hecho, como B = A[|] = A[ | ], entonces B[|] = A[|] y, por otra parte, B/[|] = B(|) B(|] B[|]1 B[|) = A(|)[| ] A(|] A[|]1 A[|)[| ] = (A/[|])[| ] . Una consecuencia inmediata es la siguiente caracterizacin de las entradas de un complemento o de Schur: Dados , Qk,n , se tiene {A/[|] }( , ) = sgn
i j
(12.16)
231
Corolario 12.2.6. Sea A Mn (R) y sea r In tal que Arr = 0. Entonces, para todo Qk,n tal que r , se tiene que / (A/[r])[] = A[{r} ]/[r] . Todas esas letras signican que las submatrices principales de A/[r] slo dependen de las o entradas correspondientes de A (y no de las dems). a Demostracin. Dados i, j , la frmula (12.16) asegura que o o (A/[r])[]
ij
(A/[r]
ij
r det A[{i, r}|{j, r}] r sgn = sgn {i, r} {j, r} Arr = por lo ambas matrices coinciden. 12.2.7 (Identidad de Sylvester). Dados A Mn (R) y , Qk,n , se cumple que det det A[ {i }| {j }]
i,jInk
A[{r} ]/[r]
ij
(12.17)
Para probarlo, tomemos los nmeros u i = sgn {i } y j = sgn , {j } para todo i, j Ink .
Por la Eq. (12.16), vemos que el lado izquierdo de la Eq. (12.17) es igual a det det A[|] (A/[|])ij i j = det A[|]nk det diag(1 , . . . , nk ) A/[|] diag(1 , . . . , nk ) =
nk
det A[|]
nk1
sgn {i }
nk
sgn
i=1
. {j }
La frmula (12.17) se sigue ahora de la Eq. (12.5) y del siguiente resultado: o Lema 12.2.8. Sea Qk,n . Entonces
nk
sgn
i=1
{i }
= sgn() .
(12.18)
232
Demostracin. Recordemos la denicin de los signos de y de { } , para cada entrada o o i i Ink . En ambos casos, es calcular el signo de la permutacin que manda a los buenos o al principio y los malos al nal. En otras palabras, estn determinados por la cantidad de a trasposiciones necesarias para efectuar tales ordenamientos. Pero miremos el siguiente proceso: empezamos por el ultimo elemento de y lo corremos hasta el nal (si no estaba all Al ). penltimo, lo corremos hasta justo despues de k . Y seguimos as con todos los de hasta u llegar al primero. El nmero de trasposiciones en cada paso es justo el que determina el u correspondiente sgn { } , porque los j que tiene arriba quedaron pegados entre s al haber , i sacado antes los de mayores que i . Pero al nal de todo mandamos prolijamente a todo hasta el nal, por lo que la suma total da el sgn().
Observacin 12.2.9. La prueba anterior es un poco charlada, pero cranme que ustedes lo o e preferir as antes que tener que leer una cuenta expl an , cita. Igual daremos una versin guiada o de esa cuenta en los ejercicios. Como aval de la prueba anterior, se ver all que la suma de a los exponentes de la productoria de (12.18) da igual (y no slo congruente) al exponente de o 1 en sgn(), segn las Eqs (12.3) y (12.14). u
12.3
Recordemos que, si A Mn (C), k In y , Qk,n satisfacen que A[|] es inversible, el complemento de Schur A[|] en A es la matriz A/[|] = A(|) A(|] A[|]1 A[|) Mnk (C) , indexada por y . Llamemos C = Gen {ej : j } y C = Gen {ek : k }. Representemos Cn = C C , poniendo que un vector Cn x = x +x . Anlogamente Cn = C C . a Observar que A[|] opera desde C hacia C , lo que denotaremos A[|] : C C . Por lo tanto A[|]1 : C C . Los otros cachos de A operan en forma coherente, por ejemplo A[|) : C C y as Con estas notaciones, podemos pensar que A/[|] : C C . . Proposicin 12.3.1. Sea A Mn (C) y supongamos que A[|] es inversible para ciertos o , Qk,n . Denamos P (A, , ) Mn (C) dado por P (A, , ) x = x A[|]1 A[|) x ,
para x = x + x Cn . Entonces, si abreviamos P (A, , ) = P , se tiene que 1. P 2 = P . 2. ker P = Gen {ej : j } = C . 3. (AP )(|) = A/[|] y las dems coordenadas de AP son nulas. a Demostracin. Observar que P x = P x y que A[|]1 A[|) x C para todo x Cn . o Por ello es claro que P 2 = P y que ker P = C , porque los sumandos que denen a P no intereren entre s por lo que nunca se anula en C \ {0}. ,
233
De lo anterior, deducimos que si x = x C , entonces AP x = 0. Esto dice que (AP )[|] y (AP )(|] son matrices nulas, porque son las partes de AP que actan en C y van a lugares u que no intereren entre s Por lo tanto, para cualquier x Cn , se tiene que . AP x = AP x = A(|) + A[|) x A(|] + A[|] A[|]1 A[|) x = A(|) A(|]A[|]1 A[|) x = A/[|] x C . Esto muestra que (AP )[|) 0 y que (AP )(|) = A/[|]. Corolario 12.3.2. Sean A Mn (C) y , Qk,n tales que A[|] es inversible. 1. Para todo x C existe un x C tal que A/[|] x = A(x + x ) . 2. Sea Q Mn (C) tal que Q2 = Q , ker Q = C Entonces se tiene que Q = P (A, , ). Demostracin. Sea P = P (A, , ) la proyeccin de la Proposicin 12.3.1. Luego o o o A/[|] x = AP x = A x A A[|]1 A[|) x . y R(A Q) C . (12.19)
Luego basta tomar x = A , A[|]1 A[|) x . Si me dan ahora un Q que cumple (12.19), entonces Q2 = Q y ker Q = C . Luego, como en el Ejercicio 3.9.19, se puede ver que Qx = Qx = x + Q[, )x , para todo x = x + x Cn .
El hecho de que R(AQ) C indica que (AQ)[|) = 0. De lo anterior, uno deduce que 0 = (AQ)[|) = A[|) + A[|]Q[, ) = A[|]Q[, ) = A[|) . Como A[|] es inversible, tenemos que Q[, ) = A[|]1 A[|), o sea que Q = P . El siguiente teorema es un resultado anlogo a la Proposicin 3.8.5. a o Teorema 12.3.3. Sea A Mn (C) y supongamos que A[|] es inversible para ciertos , Qk,n . Sean , Qr,n , tales que y . Entonces 1. (A/[|])[| ] Gl (r) si y slo si A[ | ] Gl (k + r). o 2. En este caso se cumple la siguiente igualdad de matrices: A/[|] /[| ] = A/[ | ] . (12.20)
234
Demostracin. El item 1 se deduce en forma inmediata de la Eq. (12.15). Por la Proposicin o o 12.3.1, tenemos tres proyectores: P (A, , ), P (A/[|], , ) y P (A, , ) tales que A/[|] = A P (A, , ) , A/[ | ] = A P (A, , ) y (12.21)
salvo los ceros. Ahora bien, ker P (A, , ) = C , mientras que A/[|] opera slo en C o por lo que, si pensamos a P (A/[|], , ) Mn (C) con ceros fuera de , se tiene que ker P (A/[|], , ) = C . En particular, como C C , se tiene que P (A/[|], , ) I P (A, , ) = 0 = P (A/[|], , )P (A, , ) = P (A/[|], , ) y la matriz Q = P (A, , ) P (A/[|], , ) Mn (C) cumple que Q2 = Q , ker Q = C y R(A Q) C() , (12.22)
donde igualdad del medio es un ligero ejercicio, y la ultima inclusin surge de que, como dice o la Eq. (12.21), se tiene que A/[|] /[| ] = AQ. Ahora, la Eq. (12.22) asegura, v el a Corolario 12.3.2, que Q = P (A, , ), por lo que A/[|] /[| ] = AQ = A/[ | ] . Observacin 12.3.4. Otra forma de probar la frmula (12.20), con tcnicas ms parecidas a o o e a las del resto de este Cap tulo, ser calculando las coordenadas como determinantes por medio a de las ecuaciones (12.15) y (12.16). En efecto, sean i ( ) y j ( ) , llamemos = {i} y = {j} y obsevemos que, en el lado izquierdo de (12.20) tenemos (A/[|])/[| ]
i,j
= sgn
sgn
= = sgn
det A[ | ] , det A[ | ]
sgn
sgn
sgn
sgn
= sgn
sgn
det A[ | ] . det A[ | ]
Por lo tanto, ambas matrices tienen todas sus coordenadas iguales, salvo los signos. Para ver que ellos coniciden, bastar vericar que, para todo i ( ) y todo j ( ) , a = sgn
sgn
(12.23)
Esto sale usando la Eq. (12.14) y un sinnmero de cuentas que, con gran alegr le dejamos u a, al lector interesado como ejercicio.
12.4 Ejercicios
235
12.4
Ejercicios
1. Para cada i Ink , sea i Qk,k+1 , denido como en 12.2.5 para y {i }. i k(k+1) Recordemos que en la Eq. (12.14) se vi que sgn { } = sgn( i ) = (1)tr 2 , o i donde i Sk+1 manda i al nal de {i }. El tema es ver en qu lugar de entre las e entradas de que ubicado el i . Pongamos, por conveniencia, que 0 = 0 y k+1 = . En tal caso, mostrar que tr i = (k + 2)(k + 1) j , 2
i
j1 < i < j .
3. Contemos cuantos hay de cada tipo: probar que |{i Ink : i < 1 }| = 1 1 , |{i Ink : k < i }| = n k |{i Ink : j1 < i < j }| = j j1 1 4. Ahora s calcular el exponente de la productoria: ,
nk
cuando 2 j k .
i=1
k(k + 1) tr 2
i
=
j=1 k
(k j + 1)(j j1 1) + 0 (n k )
k
=
j=1
j
j=1
(k j + 1) = tr
k(k + 1) . 2
5. Usando la Eq. (12.3), concluir la prueba de la frmula (12.18). o 12.4.3. Dar una prueba de la frmula (12.20) basandose en el camino delineado en la Obo servacin 12.3.4. En otras palabras, probar la Eq. (12.23). Se sugieren dos caminos. El o primero es encontrar permutaciones que tengan esos signos y que hagan lo mismo, como en la prueba del Lema 12.2.8. El segundo es contar todo a lo bestia, y mostrar que son congruentes mdulo 2. En ambos casos, se puede reducir el trabajo a probar dos identidades ms cortas o a y similares, a saber: Dados Qk,n , Qr,n y = {i}, todos disjuntos, sgn sgn sgn = sgn ,
y lo mismo para , y . Por ejemplo, se puede mandar al nal, despus mandar a e al ultimo lugar, y despus volver a mezclar a con . e
12.4 Ejercicios
236
Ejercicios nuevos
Notacin: Sea A Mm,n (C) tal que m > n y rk(A) = n. o 1. Dado I Im con |I| = r y dado b Cm , denotaremos por bI al vector de C r que se obtiene dejando slo las coordenadas de b que pertenecen a I. o 2. J(A) := {I Im : |I| = n y det A[I] = 0}. Observar que rk(A) = n = J(A) = . 12.4.4 (Ben Tal - Teboulle). Dada A Mm,n (C) tal que m > n y rk(A) = n, sea c Cn la solucin del problema de cuadrados m o nimos
xCn
m Ax b n
para un b Cm jo .
Si para cada I J(A) denotamos cI = A[I]1 bI , probar que c pertenece a la cpsula convexa a de los cI . Se suguiere probar que c es la unica solucin de la denomina ecuacin normal o o A Ax = A b. Luego, usar la regla de Cramer y la frmula de Cauchy-Binet. o
13.1
En esta seccin introducimos las nociones de regularidad de signo y positividad total. o Denicin 13.1.1. o
2. Dado R con || = 1, notaremos a la sucesin de signatura = (i )iN . o 3. Si es otra sucesin de signatura, llamaremos = (i i )iN . o Denicin 13.1.2. Sean A Mn,m (R) y una sucesin de signatura. Sea r = m o o n{n, m}. 1. Decimos que A es de signo regular con signatura , y abreviaremos diciendo que A es -RS si, en la base cannica Ek,n = { k! e : Qk,n }de k Hn , se tiene que o k k A 0 para todo k Ir , (13.1)
o, por la Eq. (7.19), en forma de determinantes, k det A[|] 0 para Qk,n , Qk,m k Ir , (13.3)
2. A se dice estrictamente de signo regular con signatura (A es -ERS) si, en la Eq. (13.1) (o, equivalentemente, en la Eq. (13.2) o la Eq. (13.3)), reemplazamos por >.
238
3. Decimos que A es totalmente positiva (y abreviaremos TP) si es -RS respecto de la sucesin 1, es decir, si o k A 0, k Ir , (13.4) o equivalentemente si a 1 a 2 a k es decir, si det A[|] 0 para Qk,n , Qk,m k Ir . (13.6) 4. A se dice estrictamente totalmente positiva (ETP) si ecuaciones (13.4), (13.5) o (13.6). es reemplazado por > en las 0, para Qk,m k Ir , (13.5)
Para testear la regularidad de signo de A se requiere chequear los signos de un nmero muy u grande de determinantes. Pero si el rango de A es conocido, en particular si A es inversible, el nmero necesario de determinantes a chequear puede ser considerablemente reducido. La u prueba de este resultado, que es bastante complicada, se posterga a un Apndice al nal e del Cap tulo. Esto se debe a que su aplicacin es clave en el desarrollo de la teor y la o a construccin de ejemplos, pero estas aplicaciones son de un grado mucho menor de dicultad. o Una ves apreciado el efecto devastador del siguiente Teorema, es probable que el lector afronte con mayor entusiasmo la dif lectura de su demostracin. cil o Denicin 13.1.3. Sea n N, k In y Qk,n . La dispersin de es el nmero o o u d() = k 1 (k 1) =
i Ik1
i+1 i 1 ,
con la convencin de que d() = 0 para los Q1,n . Observar que d() = 0 si y slo si las o o entradas de son consecutivas, i.e. i+1 = i + 1 para todo i Ik1 . Teorema 13.1.4. Sea A Mn,m (R) con rk A = r, y sea una sucesin de signatura. o 1. Para que A sea -RS, es suciente que las Eqs. (13.2) o (13.3) se veriquen en los casos en que d() m r. 2. En particular, si las Eqs. (13.5) o (13.6) son vlidas en esos casos, A es TP. a Ahora pasemos a los criterios para la regularidad de signo estricta. El nmero de determinantes u se reduce an ms. La prueba de este criterio tambin se dar en el Apndice. u a e a e Teorema 13.1.5. Sean A Mn,m (R) y una sucesin de signatura. o 1. Para que A sea -ERS es suciente que, para todo k Im n(n,m) , k det A[|] > 0 para Qk,n , Qk,m tales que d() = d() = 0 .
239
2. En particular A es ETP si det A[|] > 0 para Qk,n , Qk,m tales que d() = d() = 0 .
Ejemplo 13.1.6 (Vandermonde). Sea t = (t1 , . . . , tn ) Rn . Se llama matriz de Vandermonde de t a V (t) Mn (R) dada por V (t)ij = tj1 . O sea que i 1 t1 . . . tn1 1 1 t2 . . . tn1 2 V (t) = . . det V (t) = (tj ti ) . (13.7) . . Es conocido que . . ... . . . . i<j 1 tn . . . tn1 n La prueba es un ejercicio tradicional de induccin (ver Ejercicio 7.5.12). Supongamos que o 0 < t1 < < tn . Entonces V (t) es ETP. En efecto, observar en principio que V (t) Gl (n). Luego, para probar que V (t) es ETP, el Teorema 13.1.5 nos dice que basta ver que det V (t)[ | ] > 0 para los pares , Qk,n , tales que d() = d() = 0. Si = (r + 1, r + 2, . . . , r + k) y llamamos t = (t1 , . . . , tk ), entonces se ve fcilmente que a
k
det V (t)[ | ] =
i=1
tr i det V (t ) > 0 .
El argumento clave es que, gracias a que d() = 0, la submatriz V (t)[ | ] tiene en sus las, potencias consecutivas de los ti , por lo que, dividiendo a cada la por V (t)[ | ]i,1 = tr i , se obtiene la matriz V (t ) que es tambien una matriz de Vandermonde de una k-upla ordenada. La positividad del determinante en este caso se deduce de la frmula (13.7). Observar que la o ETPcidad se mantendr si uno inventara matrices de Vandermonde rectangulares (donde no a coincidan necesariamente el nmero de potencias y de nmeros ti ) pero siempre pidiendo que u u el vector t tenga entradas estrictamente crecientes. Corolario 13.1.7. Una matriz A Gl (n) triangular inferior es TP si det A[|1, 2, . . . , k] 0 para cada k In y cada Qk,n . Demostracin. Sea A triangular inferior. Como el rk A = n, de acuerdo al Teorema 13.1.4, o basta mostrar que detA[|] 0, para , Qk,n , con d() = 0. Si 1 < 1 , entonces det A[|] = 0 por ser A triangular inferior. Si 1 1 , sea = {1, 2, . . . , 1 1}. Por ser A triangular inferior, es claro que A[ |] 0. Entonces, por hiptesis, o 0 det A[ |1, 2, . . . , k ] = det A[ | ]
1 1
240
La prueba del Teorema 13.1.5, combinada con el Corolario 13.1.7, genera el siguiente criterio alternativo: Corolario 13.1.8. Sea A Mn (R) triangular inferior. Entonces es TP si se verica que det A[|1, 2, . . . , k] > 0 para cada k In y cada Qk,n , con d() = 0. Demostracin. Ejercicio (hace falta ver la prueba del Teorema 13.1.5). o Denicin 13.1.9. Una matriz A Mn (C) es llamada una matriz de Jacobi (o tridiagonal ) o si aij = 0 siempre que |i j| > 1. Teorema 13.1.10. Sea A Mn (R) una matriz de Jacobi. Supongamos que 1. A 0.
2. Para todo k In y Qk,n tal que d() = 0, se tiene que det A[] 0. Entonces A es TP y, para cualquier t = (t1 , t2 , . . . , tn ) R+n ,
n
det A + diag ( t )
det A +
i=1
ti .
(13.8)
Demostracin. Por induccin en n. La armacin es trivial para n = 1. Supongmos que el o o o Teorema es vlido para n 1 en lugar de n. Consideremos primero el caso en que det A > 0. a Por el Teorema 13.1.4, tenemos que chequear det A[|] 0 , para , Qk,n con d() = 0.
Para k = n, esto es la hiptesis. Para k n 1, usaremos la hiptesis inductiva, que asegura o o que las matrices A(1) y A(n) son TP. Supongamos que 1 . Si 1 , entonces A[|] / / es submatriz de A(1) y det A[|] 0. Si 1 , entonces la primera la de A[|] es (a1,1 , 0, . . . , 0). Luego det A[|] = a1,1 det A {2 , . . . , k }|{2 , . . . , k } 0 , porque la ultima matriz tambin vive dentro de A(1). El anlisis es similar si 1 , porque e a en tal caso, como d() = 0, debe vericarse que n , y puede usarse que A(n) es TP. Por / lo anterior, deducimos que A es TP en este caso (i.e., det A > 0). Supongamos ahora que a11 > 0 (es fcil ver que este caso es suciente). Veamos que, en tal a caso, A/{1} cumple las hiptesis del Teorema. En efecto, es fcil ver que A/{1} diere de o a A(1) slo en la entrada 2, 2 (es decir la 1,1 si la numerramos de corrido). Por lo tanto, dado o a {2, . . . , n} con d() = 0, si 2 entonces det (A/{1}[]) = det (A(1)[]) 0. Si 2 , / por la Eq. (12.15) se tiene que det (A/{1}[]) = det (A/{1}[2, 3, . . . , k]) = det A[1, 2, . . . , k] 0. a11
241
det A/{1} +
i=2
ti .
0, se tiene que
ti = det A +
i=1
ti .
Resta ver que A es TP. Para ello basta observar que, para todo > 0, la matriz A + I tiene det(A + I) n > 0 y cumple las hiptesis del Teorema (para ambas cosas se usa la o frmula (13.8), que fue probada para A, y vale para los los A[] con d() = 0 por la hiptesis o o inductiva). Luego A+I es TP por el argumento del principio. Como estas matrices convergen a A, ella tambin debe ser TP. e Corolario 13.1.11. Sea A Mn (R) de Jacobi y TP. Entonces, dado t Rn , se tiene que + A + diag (t) es tambin TP. e Demostracin. Se sigue del Teorema 13.1.10, aplicado a las submatrices principales, que o A + diag (t) es una matriz de Jacobi positiva con menores principales no negativos. Corolario 13.1.12. Sea A Mn (R) de Jacobi tal que A I + A es TP. Demostracin. Ejercicio. o Conclu mos esta seccin con un teorema de aproximacin de una matriz TP con otras ETPs. o o Teorema 13.1.13. Toda matriz -RS puede ser aproximadada arbitrariamente cerca por matrices -ERS con la misma signatura. En particular, toda matriz TP puede ser aproximada arbitrariamente cerca por matrices estrictamente TPs. Demostracin. Sea A Mn,m una matriz -RS. Podemos asumir que n = m, considerando o 0 [A, 0] o [ A ] si es necesario. Como veremos en la Seccin 8, existe una sucesin {Gp } de matrices o o n-cuadradas ETPs tales que Gp In . Ahora procedamos por induccin hacia atrs en o a
p
k = rk A. Notemos que la Eq. (7.17) implica i i (Gp AGp ) > 0 si i rk A y i (Gp AGp ) = 0 si i > rk A . (13.9)
Esto se deduce de que, dadas matrices X, Y, Z Mn (R) tales que X > 0, Z > 0 pero 0 = Y 0, entonces XY Z > 0. Cuando rk A = n, la armacin se sigue inmediatamente o de la Eq. (13.9). Asumamos que la armacin es cierta para todas las matrices regulares de o
242
signo de rango k + 1. Si rk A = k, tomemos un p para el que B := Gp AGp est sucientemente a cerca de A. De acuerdo a las ecuaciones (13.9) y (7.19), B tiene la propiedad i det B[|] > 0 Sea = m n
1ik
para
, Qi,n i Ik .
(13.10)
donde
det B[] = 1 .
Fijemos 0 < t < y consideremos la matriz C = B + tk k+1 E11 . Dados , Qr,n , desarrollando por la primera columna, se tiene que det C[|] = det B[|] + tk k+1 det B[ \ {1}| \ {1}] y det C[|] = det B[|] si 1 ,
en otro caso .
Para ver que C es -RS se consideran tres casos: submatrices de tamaos r k (ah se usa n que t < y el sumando extra no puede cambiar signos), r > k + 1 (ah da todo cero porque rkB = rkA = k) o r = k + 1. Por ejemplo, tomando , Qk+1,n tales que 1 , se ve que k+1 det C[|] > 0, porque det B[|] = 0 pero k det B[ \ {1}| \ {1}] > 0, por la Eq. (13.10). En particular, esto muestra que rk C = k + 1. Para t chicos, C est sucientemente a cerca de B, y por lo tanto de A. Ahora, por hiptesis inductiva C puede ser aproximada o arbitrariamente cerca por matrices estrictamente regulares de signo con signatura . Esto completa la induccin. o
13.2
Esta seccin est dedicada a mtodos cannicos de produccin de matrices TP nuevas a partir o a e o o de otras dadas. Es claro que si A es de -RS, tambin lo es su adjunta A = AT . e Teorema 13.2.1. Si A Mn,m (R) es A -RS y B Mm,l (R) es B -RS, entonces: 1. El producto AB es -RS, con = A B . 2. En este caso, AB se convierte en -ERS si (a) A es A -ERS y rk B = l, o si (b) rk A = n y B es B -ERS. 3. Si A y B son ETP, tambien lo es AB. Demostracin. Los o tems 1 y 3 son consecuencia inmediata de las ecuaciones (7.17) o (12.1) (Cauchy-Binnet). El tem 2 se deduce de los siguientes hechos: * Si C > 0 y D 0 no tiene columnas nulas (y se puede multiplicar), entonces CD > 0.
243
* Si rk B = l, las columnas de B son LI. Luego para todo k l y todo Qk,l , se tiene que rk B[|] = k, por lo que debe existir un Qk,m tal que det A[|] = 0. La suma de dos matrices TPs no es en general TP. Por lo tanto, es poco comn que una u matriz A Mn (R) genere un semigrupo TP de un parmetro. Esto signicar que etA sea a a TP para todo t > 0. La excepcin la dan las matrices de Jacobi TP: o Teorema 13.2.2. Sea A Mn (R). Son equivalentes: 1. etA es TP para todo t > 0. 2. A = I + B para algn R y una matriz B Mn (R) que es de Jacobi y TP. u Demostracin. Supongamos primero que A es de la forma mencionada. Entonces, como o e
tA
=e e
t tB
=e
lim
tB I+ p
por la Eq. (9.41), la positividad total de etA resulta del Teorema 13.2.1, ya que B es una t matriz de Jacobi y es TP, as que I + p B sigue siendo TP por el Corolario 13.1.11. Supongamos rec procamente que etA es TP para todo t > 0. Por el Corolario 13.1.12, basta mostrar que A es una matriz real de Jacobi con elementos no negativos fuera de la diagonal. tk Ak , es fcil ver que a Usando el desarrollo en serie etA = k!
kN
A = lim
t0
etA I t
o equivalentemente que
lim
t0
I + tA etA =0. t
(13.11)
Como etA 0, esto muestra que todas las entradas no diagonales de A son no negativas. Veamos que aij = 0 si |i j| > 1. Por ejemplo, si i + 1 < j, entonces det etA [i, i + 1|i + 1, j] 0 lo que, v la Eq. (13.11), implica que a 0 lim det
t0
para todo
t>0,
I + tA i, i + 1|i + 1, j = lim {tai,i+1 ai+1,j (1 + tai+1,i+1 )aij } = aij . t0 t 0 para algn R. Para u
El caso j + 1 < i es anlogo. Luego A es de Jacobi y I + A a encontrar una B que sea TP, basta usar el Corolario 13.1.12.
Teorema 13.2.3. Sea A Mn,m (R) -RS. Sean Qk,n y Qk,m . Entonces, 1. A[|] es -RS. 2. Si n = m, d() = 0 y A() Gl (n k), entonces A/ es -RS, donde la sucesin de o signos = (nk nk+i )iIk .
244
3. Si n = m y A es inversible, entonces A# = Jn A1 Jn es J -RS, donde J = (n ni )iN , con la convencin de que j = 1 si j 0. o 4. En particular, si A es TP, tambin lo sern A[|], A/ y Jn A1 Jn . e a Adems, los mismos resultados valen reemplazando regular de signo por estrictamente a regular de signo (o TP por ETP) en todos los casos. Demostracin. Fijemos , Qp,n tales que , . o 1. Es trivial, ya que p det A[|][| ] = p det A[| ] 0 (resp. > 0) .
2. Supongamos ahora que . Se sigue de la la Eq. (12.15) que det A/ [| ] = sgn det A[ | ] sgn . det A[ ]
Notar que det A[ | ] tiene signo nk+p y detA() tiene signo nk . Pero como d() = 0, se ve fcilmente que sgn( / ) = sgn( / ) (ambos dependen slo de a o cuantos elementos de estn despus del bloque ). a e 3. Observar que n det A > 0 y, por la Eq. (12.11), tenemos que det Jn A1 Jn [|] = det A(|) , det A
donde nk det A(|) = nk det A[ | ] 0 (resp > 0). Las ultimas armaciones se deducen de lo anterior. En lo que sigue, se usar varias veces el Corolario 12.2.6, cuya frmula repasaremos para a o comodidad del lector: Sea A Mn (R) y sea r In tal que Arr = 0. Entonces, para todo Qk,n tal que r , se tiene que / (A/[r])[] = A[{r} ]/[r] . (13.12)
Proposicin 13.2.4 (Pinching). Sea B Mm (R) una matriz TP. Entonces o det B det B[Ik ] det B(Ik ) para todo k Im1 . (13.13)
Demostracin. Probaremos la Eq. (13.13) por induccin en m. Para m = 2, tenemos que o o b12 0 y b21 0 = det B = b11 b22 b12 b21 b11 b22 .
245
Asumamos que la armacin es cierta para todos los casos de orden menor que m. Asumamos o que k > 1 y que b11 > 0. Por la Eq. (12.5) se tiene que det B[Ik ] det B(Ik ) = b11 det B[Ik ]/{1} det B(Ik ) = b11 det B/{1}[2, . . . , k] det B(Ik ) , donde la ultima igualdad se deduce de la Eq. (13.12), que dec que a B/{1}[] = B[{1} ]/{1} para todo tal que 1 / . Como la matriz B[1, k+1, k+2, . . . , m] es de orden menor que m y es TP, la hiptesis inductiva o nos asegura que b11 det B(Ik ) det B[1, k + 1, k + 2, . . . , m] = b11 det B[1, k + 1, k + 2, . . . m]/{1} = b11 det B/{1}(Ik ) , Usando nuevamente la hiptesis inductiva en la matriz B/{1} que es de orden m 1, y es TP o por el Teorema 13.2.3, obtenemos det B[Ik ] det B(Ik ) = b11 det B/{1}[2, . . . , k] b11 det B/{1}[2, . . . , k] det B(Ik ) det B/{1}(Ik )
b11 det B/{1}[2, . . . , m] = b11 det B/{1} = det B . Si k = 1, asumiendo ahora que bmm > 0, tenemos que det B = bmm det(B/{m}) bmm det(B/{m}[1]) det(B/{m}[2, . . . , m 1]) b1m bm1 b11 por ser B 0. Adems, por la Eq. (13.12), a Ahora, det(B/{m}[1]) = b11 bmm tenemos que B/{m}[2, . . . , m 1] = B[2, . . . , m]/{m} = B(1)/{m} . As , det B b11 bmm det B(1)/{m} = b11 det B(1) = det B[1] det B(1) . Los casos en que b11 = 0 o bmm = 0 se pueden anlizar a mano (mostrando que en tal caso 1 det B = 0 por tener una la o columna nula) o bien cambiando b11 por b11 + n (con lo que B sigue siendo TP) y tomando l mite. Corolario 13.2.5. Si A Gl (n) es TP, entonces det A[] > 0 para cada k In y cada Qk,n . (13.14) En particular, en este caso siempre existen los complementos de Schur A/[]. Demostracin. Por induccin en n. El caso n = 1 es trivial. Asumamos que la armacin vale o o o para n 1. Por la Proposicin 13.2.4, tenemos que 0 < det A a11 det A(1). Luego A(1) es o TP e inversible y a11 > 0. Si 1 > 1, entonces In \ {1} y la desigualdad det A[] > 0 se sigue de la hiptesis inductiva aplicada a A(1). Si 1 = 1, la Eq. (13.12) aplicada a \ {1} o con r = 1, muestra que det A[] = a11 det A[]/{1} = a11 det A/{1}[ \ {1}] . Entonces la desigualdad detA[] > 0 se deduce de la hiptesis inductiva aplicada a A/{1}, o que es inversible por el Teorema 12.1.4 y es TP por el Teorema 13.2.3.
13.3 Factorizaciones LU y UL
246
13.3
Factorizaciones LU y UL
Una factorizacin A = BC es llamada una LU -factorizacin (resp, U L-factorizacin) si B o o o (resp. C) es triangular inferior y C (resp. B) es triangular superior. Teorema 13.3.1. Sea A Mn,m (R) TP con n m. Entonces A admite una LU -factoriza cin A = AL AU y una U L-factorizacin A = AL AU , donde las matrices triangulares AL o o Mn (R), AU Mm (R) y AU , AL Mn,m (R) son todas TPs. Para demostrar el Teorema necesitamos dos largos Lemas tcnicos: Para ellos necesitaremos e n una notacin nueva: Dados x1 , . . . , xm R , denotaremos por X = [x1 , . . . , xm ] Mnm (R) o a la matriz cuyas columnas estn dadas por Ci (X) = xi , para todo i Im . a Lema 13.3.2. Sea A = (aij )i,jIn = [a1 , . . . , an ] Mn (R) una matriz TP. Si a1k = 0, entonces tambin es TP la matriz B = [b1 , . . . , bn ] Mn (R) denida por e b i = ai si i Ik y b i = ai a1i ak , a1k si i In \ Ik .
Demostracin. Por el Teorema 13.1.13 podemos asumir que detA > 0. Como obviamente o det A = det B, de acuerdo al Teorema 13.1.4 basta mostrar que bi bi+1 bj 0 para 1 i j n, (13.15)
i.e., la positividad para los tales que d() = 0. Si j k o i k j, entonces bi bi+1 bj = ai ai+1 aj , y la Eq. (13.15) es vlida porque A es TP. Si k < i, consideremos la matriz a C = [ak , ak+1 , . . . , an , 0, . . . , 0] Mn (R) , que es TP, por serlo A. Se ve fcilmente de la denicin de C/{1} que a o M = [bk+1 , bk+2 , . . . , bn , 0, . . . , 0] = 0 C/{1} Mn, n1 (R) .
En efecto, observar que todas las primeras coordenadas de los bj (j In \ Ik ) son nulas, por lo que la primera la va bien. Si j Ink e i In1 , entonces (C/{1})ij = ci+1 , j+1 ci+1 , 1 c1 , j+1 = ai+1 , c11
k+j
a1 , k+j ai+1 , a1 , k
= bk+j
i+1
= Mi+1 , j .
En los dems casos, debe ser (C/{1})ij = 0 (y la otra tambin). Ahora la ecuacin (13.15) se a e o deduce de la positividad total de C/{1} y de M , garantizada por el Teorema 13.2.3 Lema 13.3.3. Sea A Mn (R) una matriz TP. Entonces existen C y S Mn (R), ambas TP, tales que C[1, 1) 0 (i.e., F1 (C) = c11 e1 ), S es triangular superior y A = CS.
13.3 Factorizaciones LU y UL
247
Demostracin. Para cada j In1 , consederemos la matriz o Tj := [e1 , e2 , . . . , ej1 , 0, ej , ej+1 , . . . , en1 ] = Ij1 0 0 Nnj+1 Mn (R) ,
donde Nnj+1 Mnj+1 (R) es el bloque de Jordan con los unos arriba (Jacobi nos rob la J). o Observar que T1 = Nn el bloque de Jordan tutti. Cada Tj es una matriz de Jacobi positiva y triangular superior. Luego las Tj son TP por el Teorema 13.1.10. Estas matrices nos permitirn correr hacia la izquierda las columnas no nulas de A. Si a a1 = a2 = . . . = ak1 = 0 pero ak = 0, entonces
k1 A = [ak , ak+1 , . . . , an , 0, . . . , 0] T1 ,
y la matriz A1 = [ak , ak+1 , . . . , an , 0, . . . , 0] es TP. Si seguimos sin columnas nulas hasta ak+p y ak+p+r es la primera columna no nula de las que quedan, como antes obtenemos que
r1 [ak+p+1 , . . . , an , 0, . . . , 0] = [ak+p+r , . . . , an , 0, . . . , 0] T1
Es decir,
r1 k1 A = [ak , . . . , ak+p , ak+p+r , . . . , an , 0, . . . , 0] Tp+2 T1 . r1 k1 Observar que todo queda TP, y Tp+2 T1 es triangular superior. Aplicando entonces este procedimiento nitas veces, obtenemos que A = BT , donde T triangular superior y TP y B = [b1 , b2 , . . . , bn ] es una matriz TP tal que bi = 0 implica que bj = 0, para j > i . Si B[1|1) = 0, tomemos el mayor i para el cual b1i = 0. Armamos que b1,i1 = 0. En efecto, si b1,i1 = 0, para todo j In , tendr amos
det B[1, j|i 1, i] = b1i1 bji b1i bji1 = b1i bji1 0 , lo que implicar que todos los bj,i1 = 0, o sea bi1 = 0, lo que contradice que bi = 0. Entonces a B admite una factorizacin B = DU1 , donde o D := [b1 , . . . , bi1 , bi U1 := [e1 , . . . , ei1 , b1,i b1,i1 b1,i b1,i1 bi1 , bi+1 , . . . , bn ] y
ei1 + ei , ei+1 , . . . , en ] .
Notemos que ahora D1i = 0. Por otro lado, U1 es una matriz de Jacobi positiva, triangular superior, y por lo tanto TP por el Teorema 13.1.10. La positividad total de D se sigue del Lema 13.3.2, porque, como b1,j = 0 si j > i, entonces bj = bj b1,j bi1 , b1,i1 para j = i + 1, i + 2, . . . , n .
13.3 Factorizaciones LU y UL
248
Repitiendo este procedimiento, llegamos a una factorizaciin B = CUp Up1 U1 , donde cada o Ui es triangular superior y TP mientras que C es una matriz TP tal que C[1|1) = 0, como se buscaba. Ahora basta tomar S = Up Up1 U1 T que es como se ped a. Demostracin del Teorema 13.3.1: Considerando la matriz [A, 0] Mn (R), podemos o connar la prueba al caso n = m. Adems, usando conversiones, basta tratar slo la factora o izacin LU . Cuando n = 1, es trivial. Asumamos que la armacin es cierta para n 1 en o o lugar de n. Para conseguir hacer el paso inductivo, alcanzar con probar que existen R, F y a S Mn (R), todas TP, con S es triangular superior, R es triangular inferior y F = f11 0 0 F (1) , tales que A = RF S ,
porque en tal caso se factoriza F (1) por hiptesis inductiva, y se agrandan las matrices trio angulares (y TP) de Mn1 (R) obtenidas, ponindoles (f11 )1/2 en el lugar 1, 1. Recordar que e producto de triangulares es triangular, y lo mismo con TPs (por el Teorema 13.2.1). Pero por el Lema 13.3.3, existen S como antes y C Mn (R) tal que C es TP, C[1|1) 0 y A = CS. Y por el mismo Lema, existen R como arriba y F Mn (R) tal que F es TP, F (1|1] 0 y C T = F T RT . Observar que multiplicar por una triangular superior a derecha, solo cambia a la primera columna multiplicndola por un escalar, asi que F hereda lo bueno a que ten C (ceros en la primera la) pero gana ceros en la primera columna, quedando como a quer amos. Corolario 13.3.4. Toda A Gl (n) triangular superior (inferior) y TP es producto de un cierto nmero de matrices de Jacobi triangulares superiores (inferiores) y TPs. u Demostracin. Por induccin en n. El caso n = 1 es trivial. Asumamos que la armacin o o o es cierta para n 1, y sea A Gl (n) triangular superior (inferior) y TP. Por el Lema 13.3.3 (y su prueba), tenemos una factorizacin A = DS con S un producto de matrices de Jacobi o triangulares superiores, todas ellas TP, y D tambin TP, con D[1, 1) 0. Pero como A es e triangular superior, tambin se da que D(1, 1] 0. Luego e D= d11 0 0 D(1)
y D(1) Gl (n 1) es totalmente positva y triangular superior. Por hiptesis inductiva o 1 W2 Ws para algunas matrices de Jacobi TPs y triangulares superiores tenemos D(1) = W Wi Gl (n 1), i Is . Sean Wi = d11 0
1/2
0 i W
i Is .
Entonces A = W1 W2 Ws S es una factorizacin como la buscada. o Denicin 13.3.5. Adems de la relacin de orden usual A o a o
t k k
introduzcamos una ms fuerte: Diremos que A B si A B para todo k N. En otras a palabras, si det A[|] det B[|] para todo k In y , Qk,n . (13.16)
13.3 Factorizaciones LU y UL
249
En esta notacin, A o
Observacin 13.3.6. Es claro que la relacin A o o quier par , Qk,n , pero no que A B A=
t t t
2 1 1 1
t
Tampoco A
B/{1} o que Jn B 1 Jn
Jn A1 Jn .
Teorema 13.3.7. Si A Mn (R) es TP, y = Ik o = {k, k + 1, . . . , n}, entonces, si A() es inversible, se cumple que
t
A[]
A/ .
(13.17)
Demostracin. Prueba para el caso = Ik : Fijemos , Ql,n tales que y . o Deber amos probar que det A[] [| ] det A/ [| ]. Observar que la Eq. (12.15) nos dice que A[ | ] , det A/ [| ] = det A() porque los dos signos que intervienen en la Eq. (12.15) son iguales en este caso, por ser quien es. Por lo tanto, bastar probar que a det A[ | ] det A[] [| ] det A() = det A[| ] det A() . Consideremos A[ | ] Mnk+l (R) con su numeracin de corrido en Ink+l . Como o , = Ik , entonces A[| ] = A[ | ] [1, . . . , l] y A() = A[ | ] [l + 1, . . . , n k + l] ,
y el resultado se deduce de la Proposicin 13.2.4. o Las factorizaciones LU y U L en el Teorema 13.3.1 dan lugar a otras desigualdades. Teorema 13.3.8. Si A Mn (R) es TP, y = Ik o = In \ Ik , entonces, si A() es inversible, A[] A/
t
(13.18)
Demostracin. Prueba para el caso = In \ Ik = {k + 1, k + 2, . . . , n}: Sea A = AL AU o una factorizacin LU con AL y AU TP, garantizada por el Teorema 13.3.1. Entonces, por las o propiedades de AL y AU , se tiene que A() = AL ()AU () (por lo que ambas submatrices son inversibles), A(|] = AL ()AU (|] y A[|) = AL [|)AU (). Por lo tanto, A[] A/ = A[|)A()1 A(|] = AL [|)AU ()(AL ()AU ())1 AL ()AU (|] = AL [|)AU (|].
Como AL [|) y AU (|] son TPs, tambin lo es su producto AL [|)AU (|]. La prueba e para el caso = Ik se hace usando una factoriacin U L. o
250
13.4
Matrices oscilatorias
Una matriz A Mn (R) se dice oscilatoria (abreviaremos OSC) si es TP y una cierta potencia Ap es ETP. Las OSC juegan el rol de las primitivas en el Cap tulo 11. En esta seccin o presentaremos un criterio simple para que una matriz TP sea OSC. Observemos que una matriz OSC es inversible, y su adjunta es tambin OSC. por lo tanto, por el Corolario 13.2.5, e si A Mn (R) es OSC, entonces se tiene que det A[] > 0 para todo Qk,n . Teorema 13.4.1. Sea A Mn (R) una matriz OSC. Entonces 1. A# = Jn A1 Jn es OSC. 2. A[] y A/ son OSCs para cada Qk,n tal que d() = 0. Demostracin. Supongamos que A es TP y Ap es ETP. o 1. El Teorema 13.2.3 asegura que Jn A1 Jn es TP y que (Jn A1 Jn )p = Jn (Ap )1 Jn es ETP. As Jn A1 Jn es OSC. , 2. Probemos primero que A[] es OSC para el caso = In1 . Sea B = A[In1 ] = A(n). Tomemos , Qk,n1 , y sean = {n} y = {n}. Por la frmula de Cauchyo Binnet (12.1), el hecho de que det Ap [|] > 0 implica que existe una sucesin o
p p (i) i=0
(p)
= , y
i=1
Llamemos (i) Qk,n1 a la k-upla obtenida eliminando la ultima componente de (i) . Como A[ (i1) | (i) ] es TP con determinante positivo, por la Eq. (13.13) se tiene que det B[ (i1) | (i) ] > 0 , para todo i Ip .
det B [| ]
i=1
lo que prueba que B p es ETP. El caso A[2, 3, . . . , n] se trata de manera anloga. El resto a de los casos ( Qk,n con k < n 1 y d() = 0) ahora se pueden probar por induccin o en n, dado que In1 o In \ {1}. Veamos que A/ es OSC: Observar que Jn A1 Jn [] = Jk A1 []Jk , dado que d() = 0 (puede aparecer un Jk , pero se cancela). Por los casos anteriores, sabemos que Jn A1 Jn es OSC = = Jk A1 []Jk = Jn A1 Jn [] es OSC (A1 [])1 es OSC .
251
Lo siguiente da un criterio para la oscilatoriedad. Teorema 13.4.2. Sea A = (aij )i,j In Mn (R) una matriz TP. Entonces A es OSC A Gl (n) , ai, i+1 > 0 y ai+1, i > 0 , para todo i In1 . (13.19)
Demostracin. Supongamos que A es OSC. Por el Teorema 13.4.1, o B := A[i, i + 1] = ai, i ai, i+1 ai+1, i ai+1, i+1
debe ser OSC. Luego B p > 0 para algn p. Pero esto es posible slo cuando ai,i+1 > 0 y u o ai+1,i > 0, ya que si alguno de los dos se anulara, entonces B y todas sus potencias ser an triangulares. La otra implicacin ser probada como consecuencia de un resultado ms general, o a a hacia el n de la seccin. o Corolario 13.4.3. Sean A, B Mn (R), ambas TP. Si A es OSC y B es inversible, entonces AB y BA son OSC. Demostracin. Observar que A Gl (n), por se OSC. Luego AB y BA Gl (n). Adems, o a como B es inversible y TP, entonces bii > 0 para todo i In (Corolario 13.2.5). Por lo tanto AB y BA satisfacen la condicin (13.19), ya que o
n
(AB)i, i+1 =
j=1
para todo
i In1 .
La prueba para (AB)i+1 , i y las entradas correspondientes de BA es anloga. a El siguiente teorema presenta una extensin de la condicin (13.19) para matrices OSCs. o o Proposicin 13.4.4. Supongamos que A Gl (n) y es TP. Si A satisface la Eq. (13.19), o entonces det A[|] > 0 para cada par , Qk,n tal que |i i | 1 y mx {i , i } < m {i+1 , i+1 } a n para todo i Ik , (13.20)
donde usamos la convencin k+1 = k+1 = n + 1. o Demostracin. Haremos la prueba por induccin en k. El caso k = 1 se sigue del Corolario o o 13.2.5 (si = ) y la suposicin (13.19). Fijemos k > 1, y supongamos que la armacin o o es cierta para cada par en Qk1,n que satisface las hiptesis. Tomemos un par , Qk,n o que cumpla la Eq. (13.20). Si d() = d() = 0, entoces la Eq. (13.20) impica que = . Luego det A[|] = det A[|] > 0, nuevamente por el Corolario 13.2.5. Ahora, asumiendo que d() > 0, sea B = A[|] = [b1 , b2 , . . . bk ], donde cada bi R Rk . Supongamos = que det B = 0. En principio, por la hiptesis inductiva, sabemos que o det B[1 , . . . , k1 |1 , . . . , k1 ] > 0 y det B[2 , . . . , k |2 , . . . , k ] > 0 .
252
Entonces el hecho de que det B = 0 garantiza que bk Gen {bi : i Ik1 }, y adems a
k1
b k =
i=1
i bi
(13.22)
(sin {bi : i Ik \ {1} } ser LD). Sustituyamos bk en la Eq. (13.21) para obetener o a (1)k2 1 b1 b2 bk1 0. (13.23)
Como d() > 0, el conjunto ordenado := {j : 1 < j < k } es no vac Mostremos / o. que, para cada j , la -proyeccin bj de Cj (A) cumple que bj Gen b1 , b2 , . . . , bk1 . o Es decir que bj b1 b2 . . . bk1 = 0 (13.24) Para esto, tomemos i tal que i < j < i+1 . Entonces, como A[| {j}] es TP, b1 . . . bi bj bi+1 . . . bk1 0 y b2 . . . bi bj bi+1 . . . bk 0. (13.25)
Ahora sustituyamos la expresin (13.22) para bk en la Eq. (13.25) para obtener o (1)k1 1 b1 . . . bi bj bi+1 . . . bk1 0. (13.26)
es claro que las ecuaciones (13.21) y (13.23) versus (13.25) y (13.26) son consistentes slo si o la igualdad se da en la Eq. (13.26). Pero como 1 = 0, solo queda que la Eq. (13.24) sea vlida. El argumento muestra que rk A[| ] = k 1. Si lo que pasaba era que d() > 0, a consideremos el conjunto ordenado := {i : 1 < i < k }. El argumento anterior, / aplicado a los vectores las (o a AT ), dice que rkA[ | ] = k 1. Por ultimo, se sigue de la Eq. (13.20) y de que d() > 0 o d() > 0, que existe algn Qk,n u tal que d() = 0, , y . Pero, como rkA[ | ] = k 1, se debe cumplir que det A[] = 0, lo que contradice al Corolario 13.2.5. Esto completa la prueba en todos los casos. La ida del Teorema 13.4.2 se ver como consecuencia del siguiente resultado ms general. a a Teorema 13.4.5. Sean A1 , . . . , Ap Mn (R), inversibles y TPs, con p n 1. Si cada Ai satisface la Eq. (13.19), entonces el producto A1 A2 Ap es ETP. Demostracin. Por el Teorema 13.1.5 basta mostrar que o det(A1 A2 Ap )[|] > 0 para , Qk,n tales que d() = d() = 0 .
Asumamos que 1 1 y sea (0) = . Denamos (l) Qk,n , para l Ip1 , como i = m n
(l)
i , i + mx {l + i k, 0} a
i Ik .
253
Es fcil ver que (p) = y que cada par (l1) , (l) satisface la Eq. (13.20). Usando la a Proposicin 13.4.4, podemos deducir que det Al [ (l1) | (l) ] > 0, para todo l Ip . Por lo o tanto, se sigue de la Eq. (12.1) (Cahuchy-Binnet) y la positividad total que
p
det(A1 A2 Ap )[|]
l=1
lo que prueba el Teorema. Corolario 13.4.6. Sea A Mn (R). 1. Si A es OSC, entonces An1 es ETP. 2. Si A es -RS, es inversible y cumple que aii = 0 para i In y ai , i+1 ai+1 , i > 0 , para i In1 ,
entonces A2(n1) es ETP. Demostracin. o 1. Se sigue inmediatamente del Teorema 13.4.5. 2. A2 es TP por ser A -RS. Por la hiptesis se tiene que (A2 )i , i+1 > 0 y (A2 )i+1 , i > 0 o para todo i In1 . Entonces satisface la Eq. (13.19), y podemos usar la parte 1.
13.5
Variacin de signos o
Esta seccin est dedicada a caracterizaciones de la regularidad de signo de una matriz en o a trminos de algunas propiedades de disminucin de variacin del operador lineal que sta e o o e induce. Denicin 13.5.1. Sea x Rn . Dada una sucesin de signatura , decimos que o o 1. es una sucesin de signo de x si para todo i In se cumple que i xi = |xi |. o 2. En tal caso, el nmero de cambios de signo de x asociado a , denotado por C(), es el u nmero de u ndices i In1 tales que i i+1 < 0. Es decir que 1 C() = 2
n1
(1 i i+1 ) .
i=1
254
3. La mxima variacin de signos V+ (x) (resp. m a o nima variacin de signos V (x) ) es el o mximo (resp. m a nimo) de los valores C(), cuando recorre todas las sucesiones de signo de x. Vemos que 0 V (x) V+ (x) n 1 para todo x Rn .
Si ninguna componente de x se anula, x tiene una unica sucesin de signo, y por lo tanto o V (x) = V+ (x). Este valor comn es llamado la variacin de signo exacta y denotado u o por V (x). Observacin 13.5.2. Sea x Rn . o 1. Ojo que x puede tener variacin de signo exacta, aunque tenga coordenadas nulas. Por o ejemplo si x = (1, 0, 1), entonces V (x) = V+ (x) = 1. 2. Pero si x tiene variacin de signo exacta, es fcil ver que o a (a) x1 = 0 = xn . (b) Si xi = 0, entonces x11 xi+1 < 0. (c) En particular, x no puede tener dos coordenadas nulas seguidas. 3. Si Qk,n y x es la -proyeccin de x a R , entonces o V (x ) V (x) y V+ (x ) V+ (x) .
En efecto, si es una sucesin de signo de x, entonces lo ser para x (y todas se o a consiguen as Pero es fcil ver que C( ) C(). ). a Proposicin 13.5.3. Sean a1 , a2 , . . . , am Rn , linealmente independientes, con n > m. o Entonces son equivalentes: (1) V+ (b) m 1, para todo b Gen {a1 , a2 , . . . , am } \ {0}. (2) a = a1 a2 am es estrictamente denido (como vector), i. e. a > 0. Demostracin. Sea A = [a1 , a2 , . . . , am ] Mn,m (R). Es claro que la condicin a > 0 equivale a o o que det A[|] > 0 para todo Qm,n . Para ver la suciencia, supongamos que a > 0 y que existe b Gen {a1 , a2 , . . . , am } \ {0} tal que V+ (b) m. Es fcil ver que existe Qm+1,n a tal que la -proyeccin de b tiene variacin mxima m. Como det A[|] > 0 para todo o o a Qm,n , en particular aquellos , deducimos que las -proyecciones ai de ai para i Im tambin cumplen a1 a2 am > 0 y que b Gen {a1 , . . . , am }. Por lo tanto, e considerando la -proyeccin si es necesario, podemos suponer que o n=m+1 y que (1)i1 bi 0 , para todo i In .
Como los e = e1 ei1 ei+1 en , i In forman una base completa ortogonal (i) de m Rn , tenemos que
n
a1 am =
i=1
i e , (i)
donde
i =
255
para todo i In .
n
bi ei , tenemos que
0 = b a1 a2 am =
i=1
(1)i1 i bi
e1 e2 en ,
porque ei e = ij (1)i1 e1 e2 en . Pero las condiciones (ya vericadas) i > 0 y (j) (1)i1 bi 0, i In implican entonces que bi = 0, i In , o sea b = 0, una contradiccin. o Esto completa la prueba de la suciencia. Probemos ahora la necesidad. Como vimos al principio, bastar vericar que a det A[|] det A[|] > 0 para todo par , Qm,n .
Fijados y , podemos unirlos por una sucesin = (0) , (1) , . . . , (k) = en Qm,n que o verica la siguiente propiedad: para cada i Ik existe (i) Qm+1,n tal que (i1) (i) y (i) (i) .
Observar que la desigualdad det A[|] det A[|] > 0 se sigue de las desigualdades det A[ (i1) ] det A[ (i) |] > 0 , dado que
k
1ik,
(13.27)
Considerando, en el caso i-simo de la Eq. (13.27), la proyeccin sobre (i) , podemos asumir e o nuevamente que n = m + 1, ya que estamos trabajando en dos subconjuntos de (i) y, sobre todo, porque la hiptesis V+ (b) m 1, para todo b Gen {a1 , a2 , . . . , am } \ {0} se preserva o al proyectar sobre (i) , por la Observacin 13.5.2. Ahora, como antes, o
n
a1 a2 am =
i=1
i e (i)
con
i = det A({i}|] .
Si i = 0 para algn i, entonces ei Gen {a1 , a2 , . . . , am }. Pero en tal caso tendr u amos que V+ (ei ) = n 1 = m, lo que contradice la condicin (1). Adems, si no todos los j tienen el o a mismo signo, entonces l l+1 < 0 para algn l. Entonces, si b = l+1 el + l el+1 , tenemos como u antes que b a1 a2 am = (1)li l+1 l + (1)l l l+1 e1 e2 . . . en = 0 ,
por lo que b Gen {a1 , a2 , . . . , am }. Pero como l l+1 < 0, tenemos V+ (b) = n 1 = m, lo que tambin contradice la condicin (1). Luego todos los signos de i son iguales, es decir, se e o cumple (2).
256
Demostracin. Cuando recorre todas las sucesiones de signo de x, Jn recorre todas las o sucesiones de signo de Jn x. Observar que 1 C() + C(Jn ) = 2 1 = 2 = lo que muestra la Eq. (13.28). Teorema 13.5.5. Sea M un subespacio de Rn tal que 0 < dim M < n. Entonces, las siguientes dos condiciones son equivalentes: (1) V+ (x) dim M 1 para todo x M \ {0}. (2) V (y) dim M para todo y M \ {0}. Demostracin. Tomemos bases completas ortonormales o {a1 , a2 , . . . , am } para M, y {am+1 , am+2 , . . . , an } para M . 1 2
n1
1 (1 i i+1 ) + 2 i=1
n1
n1
(1 i i+1 ) + (1 + i i+1 ) = n 1 ,
i=1
Si A = [a1 , a2 , . . . , an ], entonces A es unitaria y podemos asumir que detA = 1. Por la Proposicin 13.5.3 (y su prueba), la condicin (1) es equivalente a que detA[|Im ] sea no nulo y tenga o o el mismo signo para todo Qm,n . Como A U(n) y det A = 1, det(Jn AJn )(|Im ) = det(Jn (A )1 Jn )(|Im ) = det A [Im |] = det A[|Im ] , por la Eq. (12.11). Luego det(Jn AJn )[ |m + 1, . . . , n] es no nulo y tiene el mismo signo para todo Qnm,n . Llamemos bi = Jn AJn ei = (1)i Jn ai , para i > m. La condicin o anterior es equivalente a que bm+1 bm+2 bn > 0 (o bien < 0). Por lo tanto, tambin e Jn am+1 Jn am+2 Jn am es estrictamente denida. Entonces, nuevamente por la Proposicin 13.5.3, obtenemos que V+ (Jn y) n m 1 para todo y M \ {0}. Aplicando el Lema o 13.5.4, deducimos la condicin (2). La implicacin (2) (1) se prueba igual. o o Una versin local del Teorema 13.5.5 da la siguiente caracterizacin de la regularidad de signo o o estricta en trminos de una propiedad de disminucin de variacin. e o o
257
Teorema 13.5.6. Sea A Mn,m (R), con n m. Entonces A es -ERS si y slo si el o m n operador lineal A : R R disminuye la variacin de signos, en el sentido de que o V+ (Ax) V (x) para todo x Rm \ {0} (13.29)
Demostracin. Supongamos que A = [a1 , a2 , . . . , am ] es -ERS. Tomemos x Rm \ {0}, y o llamemos k = V (x). Entonces existen , Qk+1,m tales que i i < i+1 para todo i Ik y k < k+1 k+1 ,
que describen los signos de x de la siguiente manera: 1 = m n{j In : xj = 0} y k+1 = mx{j In : xj = 0}. a Las componentes de x tienen signo constante (no nulo en los bordes) para todo j entre i y i . xj = 0 si i < j < i+1 para algn i. u Para cada i Ik , hay un cambio de signo entre xi y la siguinete entrada no nula de x, que es xi+1 . Si, para cada i Ik+1 , llamamos
k+1 n
bi =
i ji
x j aj
Ax =
i=1
bi ,
ya que
Ax =
i=1
x i ai ,
y xj = 0 para aquellos j que no aparecen en algn bi . Ahora la regularidad estricta de signo de u A implica que, si vamos eligiendo k + 1-tuplas (j1 , . . . , jk+1 ) tales que i ji i , i Ik+1 , tenemos que k+1 aj1 aj2 ajk+1 > 0 .
k+1
dado que es una suma de vectores tales que todas sus coordenadas tienen signo . Entonces el Lema 13.5.3 dice que
k+1
V+ (Ax) = V+
i=1
bi
k = V (x) ,
lo que prueba la Eq. (13.29). Supongamos rec procamente que A = [a1 , a2 , . . . , am ] satisface la condicin (13.29). Sean o Qk,m y x Rm tales que x =
k
258
Ax =
i=1
V+ (Ax ) V (x ) k 1. Esto dice que V+ (y) k 1 para todo y Gen {a1 , . . . , ak } \ {0} .
Entonces se sigue del Lema 13.5.3 que a1 a2 ak es estrictamente denida. Por lo tanto, A ser -ERS si el signo a1 a2 ak depende slo de k. Para k = m esto es a o trivial. Fijemos 1 k m 1 y tomemos , Qk,m . Como en la prueba del Lema 13.5.3, existe una sucesin = (0) , (p) , . . . , (r) = en Qk,n que verica la siguiente propiedad: o para cada i Ir , existe (i) Qk+1,n tal que (i1) (i) y (i) (i) .
Por lo tanto, basta probar que, para cada Qk+1,m e i Ik+1 , se cumple que a1 ai1 ai+1 ak+1 y a1 ai ai+2 ak+1
tienen el mismo signo. Mediante un argumento de continuidad esto ser establecido si a a1 ai1 {(1 t)ai + tai+1 } ai+2 ak+1 es estrictamente denido para cada 0 < t < 1. Y esto se deduce del Lema 13.5.3, v la Eq. a k (13.29), porque, si x R \ {0}, entonces
i1 k+1
V
j=1
xj1 ej
k1 ,
puesto que los signos de las coordenadas i y i+1 son iguales. Lema 13.5.7. Sea x Rn . Si una sucesin xp x, entonces o
p
(13.30)
Demostracin. Si llamamos J = {i In : xi = 0}, debe existir algn p0 N tal que o u |(xp )j xj | < m n{|xi | : i J } para todo jJ y p p0 .
Entonces, sgn(xp )j = sgn(xj ) para j J. Luego, si p p0 , toda sucesin de signo p para o xp es tambin una sucesin de signo para x, porque los signos (de x y xp ) coinciden en J, e o mientras que en los i J no hay problemas, porque xi = 0. Resumiendo, para todo p p0 / debe cumplirse que V (x) V (xp ) para p p0 (porque x tiene ms sucesiones de signo que a xp ). O sea que V (x) lim inf p V (xp ). La otra desigualdad se prueba igual. La regularidad de signo est caracterizada por una propiedad de variacin de signo ms dbil. a o a e Corolario 13.5.8. Sea A Mn,m (R) con rkA = m. Entonces A es -RS si y slo si o V (Ax) V (x) para todo x Rm \ {0} . (13.31)
259
Demostracin. Como veremos en la Seccin 7, existe una sucesin (Gp )pN en Gl (n) de mao o o trices ETPs , tales que Gp In . Supongamos primero que A es -RS. Como rkA = m, el
p
el Teorema 13.5.6 garantiza que V+ (Gp Ax) V (x) Luego, por la Eq. (13.30), tenemos que V (Ax) lim inf V+ (Gp0 Ax) V (x) ,
p
para todo
x Rm \ {0} .
lo que muestra la Eq. (13.31). Supongamos ahora que la Eq. (13.31) es vlida. Por el Teorema a 13.5.6, aplicado a Gp , como A es inyectiva, V+ (Gp (Ax) ) V (Ax) V (x) para todo pN y x Rm \ {0} ,
El Teorema 13.5.6 (al reves) muestra que Gp A debe ser -ERS para todo p N. Tomando l mite, vemos que A debe ser -RS. Usando la relacin de dualidad (13.28), podemos hablar de algunas propiedades de aumento o de signo. Corolario 13.5.9. Sea A Mn,m (R) con rkA = m. Entonces Jn AJm es ERS (respectivamente, RS) si y slo si o n m + V+ (x) V (Ax) para todo x Rm \ {0}. Cuando n = m, la regularidad de signo admite varias caracterizaciones equivalentes. Teorema 13.5.10. Sea A Gl (n). Entonces las siguientes condiciones son equivalentes: 1. A es regular de signo. 2. V+ (Ax) V+ (x) para todo x Rn \ {0}. 3. V (Ax) V+ (x) para todo x Rn \ {0}. 4. V (Ax) V (x) para todo x Rn \ {0}. Demostracin. o 1 2: Si A es regular de signo (e inversible), tambin lo es Jn A1 Jn por el Teorema 13.2.3. e Entonces 13.5.10 se sigue del Corolario 13.5.9, reemplazando x por Ax y A por A1 (en nuestro caso, n m = 0). ( resp. V+ (Ax) ) ,
260
2 3: Trivial. 3 4: Uusaremos la sucesin Gp que aparece en la prueba del Corolario 13.5.8. El mismo o argumento de la prueba de 1 2, muestra que, V+ (Gp Ax) V (x) para todo
p
pN
x Rn \ {0} ,
porque Gp A es ERS. Luego, como Gp A x Ax, el Lema 13.5.7 nos da que V (Ax) lim inf V (Gp Ax) lim inf V+ (Gp Ax) V (x) , x Rn \ {0} . 4 1: Se sigue del Corolario 13.5.8.
13.6
Totalmente Perron-Frobenius
En esta seccin estudiaremos propiedades espectrales de las matrices regulares de signo o o totalmente positivas. La herramienta clave para esto son los resultados de Perron y Frobenius para matrices positivas. Recordemos la parte ms elemental del teorema de Perron-Frobenius: a Observacin 13.6.1. Sea A Mn (R) tal que A o 0.
1. Llamaremos 1 (A), . . . , n (A) a sus autovalores, ordenados de forma que |1 (A)| |2 (A)| |n (A)| . 2. El mayor autovalor de A es real y no negativo, i.e., (A) = 1 (A) 0, y hay un autovector positivo u1 0 correspondiente a 1 (A). 3. Si A > 0, entonces 1 (A) > |2 (A)| para cierto u1 > 0. Teorema 13.6.2. Sea A Mn (R) una matriz -ERS. Entonces todos los autovalores de A son reales y distintos. Ms an, a u m m (A) > |m+1 (A)| , m1 para todo m In , (13.32) y ker(A 1 (A)I) = Gen {u1 } ,
donde usamos la convencin 0 = 1 y n+1 (A) = 0. Adems, los correspondientes autovectores o a n u1 , u2 , . . . , un pueden ser elegidos en R , y de modo tal que u1 u2 u m > 0 (como vector) , para todo m In . (13.33)
261
Demostracin. La prueba se har por induccin en m. El caso m = 1 es consecuencia de la o a o Observacin 13.6.1 porque 1 A > 0 por hiptesis. Supongamos que el resultado es cierto para o o 1 i m 1. Como m m A > 0, la Observacin 13.6.1 dice que o
m
0 < (m A) = 1 (m A) = m
i=1
i (A) .
i Por la hiptesis inductiva, que en particular nos dice que i1 i (A) = |i (A)| > 0, para o i < m, y del hecho de que (m m A) es el unico autovalor de m m A de mdulo mximo, o a deducimos que m m
m
i=1
i (A) =
i=1
m i i (A) = m (A) i1 m1
m1
m1
|i (A)| .
Luego la Eq. (13.32) se cumple para m. Ahora, como m (A) es real, um puede ser elegido real. Por lo tanto tenemos que u1 u2 um es autovector no nulo de m m A correspodiente a 1 (m m A), y tiene coordenadas reales. Entonces, por la Observacin 13.6.1, tomando o = 1 o bien = 1, tenemos que u1 u2 u2 um > 0. Ahora, reemplazando a um por um en caso de que sea necesario, obtenemos la Eq. (13.33) para todo m In . Los autovectores reales {u1 , u2 , . . . , un } conseguidos en el Teorema 13.6.2 posee propiedades oscilatorias interesantes. Para sus formulaciones, necesitamos algunas deniciones. Denicin 13.6.3. Sea x Rn . o 1. Notaremos por x(t) : [1, n] Rn a la funcin linear a trozos o x(t) = (k + 1 t)xk + (t k)xk+1 si k tk+1 , k In1 . (13.34)
Observar que x(t) es continua, lineal a trozos, y que x(j) = xj para todo j In . 2. Los nodos de x(t) son las ra de la ecuacin x(t) = 0, ordenados de manera creciente ces o (si son nitos, i.e., si no hay dos coordenadas nulas consecutivas de x). 3. Diremos que dos sucesiones ordenadas 1 < 2 < < k y < 2 < k+1 estn a entrelazadas si se cumple que k < k < k+1 , para todo k Ik .
Teorema 13.6.4. Sea A Mn (R) una matriz -ERS. Sean u1 , . . . , un sus autovectores reales, correspondientes a los autovalores k (A), k In (ordenados con mdulos decrecientes). o Entonces 1. La variacin de signo de cada uk es exacta. Ms an, o a u V (uk ) = k 1 , para todo k In . (13.35)
262
2. Adems, los nodos de uk (t) y los de uk+1 (t) estn entrelazados. a a Demostracin. Fijemos k In . Por el Teorema 13.6.2 podemos asumir que u1 u2 uk > o 0. Luego, por el Lema 13.5.3, sabemos que V+ (uk ) k 1. Consideremos Jn A1 Jn , la cual es nuevamente ERS por el Teorema 13.2.3. Como Jn uk es un autovector de Jn A1 Jn correspondiente a 1/k (A) = nk+1 (Jn A1 Jn ), el argumento anterior da que V+ (Jn uk ) n k. Por la Eq. (13.28), deducimos que V uk = n 1 V+ (Jn uk ) k 1 V+ (uk ) , lo que prueba el item 1. Para probar el item 2, necesitamos varios pasos previos: Clamor 1: Para todo k In1 y todo (, ) R2 \ {0}, se cumple que V+ (uk + uk+1 ) 1 V (uk + uk+1 ) . (13.36)
En efecto, como u1 uk uk+1 > 0 (o < 0), la Proposicin 13.5.3 garantiza que, si o llamamos z = uk + uk+1 , entonces V+ (z) (k + 1) 1 = k. Aplicando el mismo argumento a Jn un , . . . , Jn uk+1 , Jn uk , que son los primeros n k + 1 autovectores de las matriz ERS Jn A1 Jn , obtenemos, v la Eq. (13.28), que a V+ (Jn z) n k = V (z) k 1 V+ (z) 1 , lo que termina de mostrar la Eq. (13.36). Sean x(t) = uk (t) e y(t) = uk+1 (t). Por la Eq. (13.35) y la Observacin 13.5.2, si un nodo o de e x(t) o de y(t) es entero, la coordenada correspondiente de uk o uk+1 es nula, no es ni la primera ni la ultima, y las dos adyacentes son no nulas y de signos opuestos. Por lo tanto, x(t) tiene k 1 nodos e y(t) tiene k nodos. Clamor 2: Sean (, ) R2 \ {0} y j In \ {1, n}. Si x(j) + y(j) = 0, entonces x(j 1) + y(j 1) x(j + 1) + y(j + 1) < 0. (13.37)
En efecto, como en la Observacin 13.5.2, si z Rn cumple que V+ (z) 1 V (z), entonces o zj = 0 implica que j = 1, j = n, o zj1 zj+1 < 0. Luego basta aplicar lo anterior y la Eq. (13.36) al vector z = uk + uk+1 . Ahora vamos a por el item 2: Sean t1 < t2 < < tk los nodos de y(t). Entonces bastar a probar que, para todo l Ik1 , hay al menos un nodo de x(t) en el intervalo abierto (tl , tl+1 ). Clamor 3: Supongamos que x(t) > 0 para todo t (tl , tl+1 ). Entonces x(tl ) = 0 = x(tl+1 ) y, por ende, 0 < = m n{x(t) , t [tl , tl+1 ] } .
Supongamos, por ejemplo, que x(tl ) = 0. Tomemos i N tal que i 1 < tl < i (o bien j 1 y j + 1 si tl = j es entero). Como x(t) es lineal en [i 1, i], tenemos que x(i 1)x(i) < 0 (resp. x(j 1)x(j + 1) < 0, en este caso por la ecuacin (13.37) ). Tomando o = y(i) x(i) resp. = y(j + 1) x(j + 1) ,
263
se tiene que x(t)+y(t) se anula en el intervalo [i1, i], ya que x(i)+y(i) = x(tl )+y(tl ) = 0, y es una funcin lineal en [i 1, i] (resp. se anula en [j, j + 1] por las mismas razones). Pero o esto contradice la Eq. (13.37). Recta nal: Por la denicin de nodos, y(t) es denido, supongamos que 0, en el intervalo o [tl , tl+1 ]. Sea el m nimo de los > 0 para los cuales z (t) = x(t) y(t) tiene un nodo s [tl , tl+1 ]. Observar que s = tl porque y(tl ) = 0 = x(tl ). Por lo mismo s = tl+1 . Ahora, por la minimalidad de , tenemos que z (t) 0 en [tl , tl+1 ]. Pero como z (t) = (uk uk+1 )(t) es lineal en los intervalos [j, j + 1], j In1 , esto es posible slo cuando s N, o cuando z (t) o se anula en todo el intervalo [j, j + 1] que contiene a s. Pero cada una de estas psibilidades produce una contradiccin con la Eq. (13.37), en el primer caso porque z (t) no cambia de o signo, en el otro porque z (t) tiene dos ceros enteros consecutivos. Si A Mn (R) es estrictamente regular de signo, su adjunta A es tambin estrictamente e regular de signo. Por el Teorema 13.6.2, los autovectores reales {v1 , v2 , . . . , vn } de A pueden ser elegidos de forma tal que v1 v2 vk > 0 , para todo k In .
Las propiedades (13.33) y (13.38) de los autovectores de A y A caracterizan en algn sentido u la regularidad de signo estricta. Teorema 13.6.5. Si A Mn (R) es inversible, tiene n autovalores reales de distinto mdulo, o y los autovectores reales uk de A y vk de A , correspondientes a k (A) = k (A ), son elegidos de forma tal que satisfagan las ecuaciones u1 u2 u k > 0 y v1 v2 vk > 0, para todo k In , (13.38)
entonces alguna potencia de A es estrictamente regular de signo. Demostracin. Notemos k = k (A), para k In . Sean o U = [u1 , u2 , . . . , un ] y V = [v1 , v2 , . . . , vn ] .
Es fcil ver que ui , vj = 0 para i = j. Esto dice que V U es diagonal. Sea Cn tal que a diag ()1 = V U = U 1 = diag () V . (13.40)
Se tiene que > 0 (es decir que sus entradas son positivas), ya que para todo k In ,
k
1 . i
264
Por las ecuaciones (12.1) (Cauchy-Binnet), (13.39) y (13.40), y varias reducciones elementales, podemos ver que, para todo p N y para todo par , Qk,n ,
k p
det U [|]
i=1 p k
det U 1 [|]
=
Qk,n k
det U [|]
i=1 p k
i=1
det V [|]
=
i=1
i +
Qk,n
i=1
+ det V [|].
det U [|]
i=1 = Ik
i
i=1
|i | >
i=1 i=1
| |
para todo
Qk,n \ Ik ,
V [|Ik ] > 0
para todo
kN
, Qk,n .
Entonces para un p sucientemente grande, det Ap [|] es no nulo y tiene el mismo signo que i
i=1
Ahora compararemos los autovalores de A con los de A[], para un adecuado. El siguiente Teorema generaliza un hecho que sab amos para A H(n) y Qn1,n (entrelace de Cauchy) y que hab amos mencionado para tambin para Qk,n (ver Teorema 2.4.2). e Teorema 13.6.6. Sea A Mn (R) una matriz ETP. Dados k N y Qk,n con componentes consecutivas (i.e., tal que d() = 0), se tiene que, para todo j Ik , j (A) > j (A[]) > n+jk (A) y j (A) > j (A/ ) > n+jk (A) . (13.42) (13.41)
Demostracin. El caso que concentra la diculatad es cuando k = n1, donde = In1 o bien o = In \ {1}. Supongamos que = In1 , y llamemos B = A[]. Observar que (A) consta de las n raices distintas del polinomio caracter stico PA (t) = det(tI A). Anlogamente (B) a consta de las n1 raices distintas del polinomio caracter stico PB (t) = det(tI B). Llamemos
265
i = i (A), i In y notemos At = tIn A y Bt = tIn B, t R. Para mostrar la Eq. (13.41) para este , basta ver que PB (i )PB (i+1 ) < 0 , para todo i In1 . (13.43)
Consideremos los vectores xt , con parmetro real t, denidos por a xt := (1)n+i det At [|i)
iIn
Entonces la Regla de Cramer (12.10) muestra que, para todo t (A), se tiene la igualdad / 1 xt = dA (t)At en . Luego, At xt = PA (t)en para esos t, pero por continuidad, At x t = 0 si t (A) = Axj = j xj , para j In . (13.44)
La n-sima componente xt (n) de xt coincide con PB (t), mientras que la primera componente e xt (1) admite la representacin o
n
xt (1) =
j=2
tnj
Qj,n
(13.45)
y viendo que subdeterminantes le correponden a cada potencia de t. Clamor: Se cumple que xt (1) > 0 para todo t > 0. En efecto, como A es TP, la Eq. (13.45) muestra que xt (1) es un polinomio en t con coecientes no negativos. Luego bastar mostrar que existe un > 0 tal que x (1) = 0 (as ya sabr a amos que algn coeciente no se anula). Para ello usaremos que, como PB (t) tiene slo n 1 raices, u o existe j In tal que xj (n) = PB (j ) = 0. Por la Eq. (13.44), xj es un autovector vector no nulo (porque xj (n) = 0) de A, que es ETP. Luego, por el Teorema 13.6.4, xj tiene variacin o exacta, por lo que su primer componente xj (1) = 0. Aplicando el Clamor a los otros i , junto con la Eq. (13.44), concluimos que xi es el i-simo e autovector de A con xi (1) > 0, para todo i In . Luego se sigue del Teorema 13.6.4 que la nsima componente tiene signo (1)i1 . Esto establece la Eq. (13.43), porque xi (n) = PB (i ), e i In . Para = {2, 3, . . . , n}, tomamos nuevamente B = A[] y ahora yt = (1)1+i det At [|i)
iIn
266
En este caso tenemos At yt = PA (t)e1 , lo que tambin implica que Ayj = j yj . Aqu e , yt (1) coincide con PB (t), mientras que la ultima admite un representacin como la anterior. o Entonces la primera tiene signo (1)i1 y obtenemos as la Eq. (13.41) para este . El caso k < n 1 se probar por induccin descendente. Supongamos que la Eq. (13.41) a o es cierta para cierto k > 1 y tomemos Qk1,n con d() = 0. Supongamos que = {i, i + 1, . . . , i + k 2} con i + k 1 n. Llamemos = {i + k 1}. Aplicando el caso anterior a la matriz ETP A[] Mk (R), obtenemos que j (A[]) > j (A[]) > j+1 (A[]) , Por otro lado, la hiptesis inductiva asegura que o j (A) > j (A[]) > n+jk (A) , para todo j Ik . para todo j Ik1 .
Combinando estas desigualdades, se obtien la Eq. (13.41) para el caso k 1, lo que completa la induccin. Resta ver el caso en que i + k 2 = n, i. e. = {i, i + 1, . . . , n}, que se obtiene o de manera anloga, aplicando el segundo argumento a la matriz A[ {i 1}]. Veamos ahora a la Eq. (13.42): Sabemos que Jn A1 Jn es tambin ETP por el Teorema 13.2.3. Adems, e a 1 1 por el Teorema 12.1.4, se ve fcilmente que (Jn A Jn )[] = J (A/ ) J . Observemos que a (Jn A1 Jn ) = (A)1 . Luego, 1 = nj+1 (Jn A1 Jn ) j (A) y 1 = kj+1 ((Jn A1 Jn )[]) . j (A/ )
Aplicando la Eq. (13.41) a Jn A1 Jn , tenemos que j (Jn A1 Jn ) > j (Jn A1 Jn []) > n+jk (Jn A1 Jn ) . Luego j (A) = nj+1 (Jn A1 Jn )1 > kj+1 (Jn A1 Jn [])1 = j (A/ ) > j (Jn A1 Jn )1 = n+jk (A) , lo que completa la prueba. Con la ayuda del Teorema de aproximacin 13.1.13, algunos de los resulatdos anteriores pueden o ser genarlizados al caso en que A es regular de signo o TP. Corolario 13.6.7. Si A Mn (R) es regular de signo con signatura , entonces todos sus autovalores son reales, y k k (A) > 0 , k1 para todo k = 1, 2, . . . , rkA .
Si A es TP, entonces para cada k In y cada Qk,n tal que d() = 0, se tiene que j (A) j (A[]) n+jk (A) , para todo j In .
267
Dado x = (xi ) Rn , denotemos por x a su reordenacin decreciente: o x x x 1 2 n y x = x(i) i para alguna Sn . (13.46)
Teorema 13.6.8. Sea A Mn (R) una matriz TP. Entonces diag (A) (A) .
Demostracin. Dada una matriz L Mm (R), llamemos (L) = diag (L) , a su diagonal o reordenada. Probaremos el teorema por induccin en n. El caso n = 1, es trivial. Asumamos o que el teorema es cierto en Mn1 (R). Como tr (A) = tr A = tr diag (A), y i (A) = (A), i i In , basta mostrar que
k k
i (A)
i=1 i=1
i (A)
para
k In1 .
(13.47)
Sean p, q In tales que A11 = p (A) y Ann = q (A). Tomando la conversin de A en o caso de que sea necesario, podemos asumir que p > q. Sea B = A(n) y C = A(1). Como B, C Mn1 (R) son ambas TP, la hiptesis inductiva determina que o k k n1 i (B) i=1 n1
i (B)
i=1
y
i=k
i (C)
i=k
i (C) ,
k In1 .
(13.48)
Observar que i (B) = i (A) para 1 i p (aca se usa que p > q). Por el Corolario 13.6.7, i (A) i (B), para i In1 . Luego, las desigualdades de (13.48) implican la Eq. (13.47) para los casos 1 k p. Veamos ahora que n n
i (A)
i=k+1 i=k+1
i (A) ,
para
k>p.
(13.49)
En efecto, como i (A) = i (C) si p + 1 i n, y i1 (C) i (A), para todo i In1 (por el Corolario 13.6.7 ), observamos que la Eq. (13.48) implica (13.49), y por ende tambin la e Eq. (13.47) para estos valores de k.
13.7
Algunos ejemplos
En esta seccin presentamos algunos ejemplos de matrices TPs y la caracterizacin de estas o o matrices. 13.7.1. [Ncleos totalmente positivos] La mayor parte de las matrices TPs no triviales surgen u de la restriccin de ncleos totalmente positivos a conjuntos nitos adecuados. Daremos o u a continuacin algunas frmulas de produccin de ncleos totalmente positivos: Sean , o o o u conjuntos totalmente ordenados (en general, subconjuntos de R o Z).
268
1. Una funcin a valores reales K(s, t) para s , t es un n cleo totalmente o u positivo (TP) si la matriz [K(si , tj )]i,jIn es TP para todo n N y toda eleccin o s 1 < s 2 < . . . < sn en y t1 < t2 < . . . < tn en .
La positividad total estricta de un ncleo se dene anlogamente. u a 2. Si K(s, t) es TP y f (s), g(t) son funciones positivas en y respectivamente, entonces el ncleo f (s)K(s, t)g(t) es TP. u 3. Si K(s, t) es TP y (s) es un operador montonamente creciente de un conjunto totalo mente ordenado 1 a , y (t) es un operador montonamente creciente de un conjunto o totalmente ordenado 1 a , entonces K((s), (t)) es un ncleo TP en 1 1 . u 4. Si dos ncleos L(s, t) y M (s, t) son TPs y d() es una medida en , entonces el ncleo u u K(u, v) :=
T
para u, v ,
(13.50)
es TP en , si la integral existe. Esto es slo una modicacin del Teorema 13.2.1. o o Pasemos ahora a la construccin de ejemplos concretos o 1. El ncleo L(k, t) = tk , denido en en N0 R+ es TP. Esto es una consecuencia de la u positividad total de las matrices de Vandermonde, vista en el Ejemplo 13.1.6. 2. Dados k In y Rn+1 , el ncleo K(s, t) = u +
n k=0
k sk tk es TP en R+ R+ . En efecto,
a K(s, t) se lo puede realizar como una composicin del tipo (13.50), con dos copias del o ncleo L del item anterior (con la medida en N0 dada por los k ). u 3. Para cualquier > 0 el ncleo K(s, t) = exp(st) es TP en R+ R+ , ya que es un u l mite de ncleos del item anterior (con k = k /k! ). u 4. El ncleo K(s, t) = exp[(s t)2 ] es ETP en R+ R+ , porque u exp (s t)2 = exp(s2 ) exp(2st) exp(t2 ) , 5. Por lo tanto, para todo n N y todo p R , la matriz + Gp = exp p (i j)2
i,j In
Mn (R)
269
6. Para cada 0 < < 1 y 0 = p R, consideremos el promedio pesado en R+ R+ M,p := {sp + (1 )tp }1/p . (13.51)
Entonces M,p (s, t) o 1/M,p (s, t) es TP de acuerdo a si p < 0 o p > 0. Esto se sigue de la observacin de que para cualquier > 0 o 1 1 = (s + t) ()
0
eus eut
du , |u|1
(13.52)
donde () es la funcin gamma, y el ncleo exp(us) es TP en R+ R+ . o u 7. El ncleo K(s, t) = m u n{s, t} es TP en R+ R+ , porque K(s, t) = lim M,p (s, t)
p
8. Si f (t), g(t) son funciones positivas en R+ tales que h(t) = entonces el ncleo u K(s, t) = f m n{s, t} g mx{s, t} a
es TP en R+ R+ . En efecto, es fcil ver que se la puede reescribir como a K(s, t) = m n{h(s), h(t)} g m n{s, t} g mx{s, t} a = g(s) m n{h(s), h(t)} g(t) . 9. Dado > 0, poniendo g(t) = exp(t) y f (t) = exp(t) (con lo que nos queda h(t) = exp(2t), que es creciente), obtenemos que el ncleo del item 8, u K(s , t) = exp m n{s, t} mx{s, t} = exp ( |s t| ) a es TP en R+ R+ .
10. Sean {bi }iIn y {ci }iIn dos sucesiones en R . Entones la matriz + Mn (R) bm n(i,j) cmx(i,j) a
i ,j In
es TP
b2 bn b1 . c1 c2 cn
Esto se sigue inmediatamente del item 8, ya que podemos considerar las funciones f (t) = bi , si i 1 t < i y g(t) = ci , si i 1 t < i .
270
13.7.2 (Matriz de Hurwitz). Un conocido teorema de A. Hurwitz dice que un polinomio p(z) = d0 z n + d1 z n1 + . . . + dn a coecientes reales (d0 > 0) tiene todos sus ceros en semiplano abierto Re z < 0 si y slo si la matriz o d1 d3 d5 d7 d9 0 d0 d2 d4 d6 d8 0 0 d1 d3 d5 d7 0 Hp = d2ji i,j In = 0 d d d d 0 Mn (R) , (13.54) 0 2 4 6 . . . . . . . . . . . . . . . . . . 0 0 0 0 0 dn donde ponemos que dk = 0 para k < 0 o k > n, tiene menores principales positivos: det Hp [1, 2, . . . , k] > 0 , para todo k In . (13.55)
Un tal polinomio p(z) es llamado un polinomio de Hurwitz y la matriz H es la matriz de Hurwitz asociada a l. e Mostraremos, por induccin en n, que en tal caso la matriz de Hurwitz es TP. Observar que o d1 > 0 para cualquier n, por la Eq. (13.55). Luego el caso n = 1 es trivial. Supongamos que es cierto para n 1. Tomemos una Hp Mn (R) para un buen polinomio p. Llamemos G = H/{1} Mn1 (R), indexada en {2, 3, . . . , n}. La Eq. (12.15) nos asegura que d1 det H/{1}[{2, . . . , k}] = det Hp [Ik ] > 0 para todo k In \ {1} . (13.56)
d0 Sean gj = Fj (G) Rn1 , para j = 2, 3, . . . , n. Llamemos c = d1 . Entonces las matriz T Mn1 (R), indexada en {2, 3, . . . , n}, cuyas las fj = Fj (T ) estn denidos por a
f2 = g2 , f2j1 = g2j1 ,
(13.57)
tambin tiene menores principales positivos. Haciendo la cuenta vemos que T es una matriz e de la forma (13.54) con n 1 en lugar de n, y dj en lugar de dj , donde d2j = d2j+1 y d2j1 = d2j c d2j+1 , para j = 0, 1, 2, . . . (13.58)
Por la hiptesis inductiva, tenemos que T es TP, por lo que tambin lo es o e T := 0 0 0 T Mn (R) .
Haciendo algunas cuentas, podemos deducir de la Eq. (13.58) que Hp [1, 2, . . . , n 2] = Hp (n 1, n) = c S + (In Jn ) S T S (n 1, n), 2 (13.59)
donde S = [0, e1 , e2 , . . . , en1 ]. Las matrices S y S son TPs, y lo es la matriz triangular c superior S + 2 (In Jn ). Ahora la positividad total de Hp sale de la Eq. (13.59) por los Teoremas 13.2.1 y 13.1.4.
271
13.7.3 (Matrices de Toeplitz). Para una sucesin (bi-)innita {an : < n < }, la o
an z n , su funcin o
1+ 1
1
n z
,
n z
(1 n z)
1
(n + n + n + n ) < .
1
Cuando an = 0 para n < 0, la matriz de Toeplitz es TP si y slo si su funcin generadora es o o de la forma (1 + n z) z 1 f (z) = Ce , (1 n z)
1
hechos, basadas fuertemente en la teor de funciones anal a ticas estn ms all del alcance de a a a este trabajo. Cuando es aplicada a un polinomio la caracterizacin anterior implica que el o polinomio p(z) = d0 z n + d1 z n1 + . . . + dn (d0 > 0) tiene todos sus ceros en eje real no negativo si y slo si la matriz innita (dn+ji )i,jN es TP, donde dk = 0 para k < 0 o k > n. Notemos o que la matriz de Hurwitz Hp introducida antes es una submatriz de T , ms precisamente a Hp = T [n + 1, n + 2, . . . , 2n|2, 4, . . . , 2n]. 13.7.4 (Funcin de frecuencia de Plya). Una funcin f (t) en (, ) es llamada una funcin o o o o de frecuencia de Plya si el ncleo K(s, t) := f (st) es TP. La siguiente caracterizacin se debe o u o a Schoenberg (1953), f (t) es una funcin de frecuencia de Plya si y slo si su transformada o o o biltera de Laplace existe en una tira abierta que contenga al eje imaginario y tiene la forma a
st
f (s)ds = C exp(t + t)
1
13.8
Las pruebas de los criterios de positividad total se basan en intrincados clculos de detera minantes que permiten usar un argumento inductivo. Para ello usaremos fuertemente los
272
resultados de la seccin 2 del Cap o tulo 12. Recordemos, dado que las usaremos bastante, algunas ecuaciones de all : Dados , Qk,n y, adems, , Ql,n tales que , , sean a = = (1 , 2 , . . . , k+l ) y = = (1 , 2 , . . . , k+l ) Qk+l,n .
sgn
= sgn() .
(13.60)
Repasemos la Eq. (12.15): Sea A Mn (R). Dados , Qk,n y adems, , Ql,n tales a que , , entonce se tiene que det A[|] det (A/[|])[| ] = sgn sgn det A[ | ] (13.61)
Una consecuencia inmediata es la siguiente caracterizacin de las entradas de un complemento o de Schur, vista como (12.16): Dados , Qk,n , se tiene {A/[|] }( , ) = sgn
i j
(13.62)
La siguiente igualdad, vista en (12.12), es vlida para toda A Mn (R): Dado Qk,n , a sgn() det A[|] det A(|) = sgn() det A .
Qk,n
(13.63)
Identidad de Sylvester (Eq. (12.17) ): Dados A Mn (R) y , Qk,n , se cumple que det det A[ {i }| {j }]
i,jInk
(13.64)
Necesitamos adems el siguiente resultado espec a co: Lema 13.8.1. Sea A Mn (R). Dados Qn1,n y Qn2,n tales que , se tiene det A[|1, n) det A[|q) = det A[|1, q) det A[|n) + det A[|q, n) det A[|1) , para todo 1 < q < n. Notar que asumimos que n 3. Demostracin. Fijemos p y sean = \ {p} y = {1, q, n} . Adems sean {m} = \ . o a Dividiendo ambos lados de la Eq. (13.65) por det A[|]2 tenemos que el lado izquierdo de la (eventual) igualdad queda det A[ {p}| {q}] det A[ {p, m}| {1, n}] = det A[|]2 (13.65)
273
y el derecho, det A[ {p}| {n}] det A[ {p, m}| {1, q}] det A[|]2 det A[ {p}| {1}] det A[ {p, m}| {q, n}] = det A[|]2 + .
Llamemos B = A/[|] . Notar que, por las ecuaciones (13.61) y (13.62), se tiene que
= sgn {p} sgn {q} sgn {p,m} sgn {1,n} Bp,q det
B[p, m|1, n]
Sacando como factor a sgn {p} sgn {p,m} , se ve que la Eq. (13.65) es equivalente a la siguiente relacin: sgn {q} sgn {1,n} Bp,q det B[p, m|1, n] = o sgn {n} sgn {1,q} Bp,n det B[p, m|1, q] + sgn {1} sgn {q,n} Bq,1 det B[p, m|q, n] .
Por otra parte, usando la Eq. (13.60), una cuidadosa cuenta muestra que
sgn {q} sgn {1,n} = sgn {n} sgn {1,q} = sgn {1} sgn {q,n} .
(13.66)
y que
sgn {n} = 1 .
Luego las igualdades de (13.66) surgen de que sgn {1,q} = sgn {1} sgn {q} . Usando ahora la Eq. (13.66), nos queda que la Eq. (13.65) es equivalente a la relacin: o
Bp,q det B[p, m|1, n] = Bp,n det B[p, m|1, q] + Bp,1 det B[p, m|q, n] , que se verica fcilmente para cualquier matrix B (notar que son determinantes de matrices a de 2 2). Sean A Mn,m (R) y una sucesin de signatura. Sea r = m o n{n, m}. Recordemos las deniciones: A es -RS (resp. -ERS) si k det A[|] 0 (resp. > 0) para todo k Ir , Qk,n , Qk,m . (13.67)
Recordemos el enunciado del Teorema 13.1.4: Teorema 13.1.4 Sea A Mn,m (R) con rk A = r, y sea una sucesin de signatura. o 1. Para que A sea -RS es suciente que, para todo k Im n{n,m} y Qk,n , k det A[|] 0 para Qk,m tal que d() m r . (13.68)
274
2. En particular, A es TP si det A[|] 0 en esos casos. Demostracin. Observar que cualquier con d() = 0 cumple que d() m 2. Eso hace o innecesario estudiar los casos en que r 2, en particular si n 2 o m 2. Asumamos entonces que n , m 3. Probaremos la la Eq. (13.67) por induccin en k, asumiendo que A o cumple la condicin (13.68). Cuando k = 1, la Eq. (13.67) es cierta porque d() = 0 para o cualquier Q1,m . Supongamos que se cumple la Eq. (13.67) para todos los j < k pero no para k. Luego deben existir un Qk,m y un Qk,n tales que k det A[|] < 0 , y que d() es el m nimo para los que cumplen tal cosa. En particular tenemos que l = d() > m r . Armamos el tal cumple que para todo p tal que 1 < p < k , debe pasar que / ap a2 ak1 = 0 . (13.71) (13.70) (13.69)
En el caso k = 2 esto ser que ap = 0. Observar que si (13.71) fuera cierta, tendr a amos que dim Gen {aj : 1 j k } k, y estamos considerando k + l columnas. Por lo tanto r = rk A m l, lo que contradir la Eq. (13.70). Esta contradiccin mostrar que la Eq. a o a (13.67) es vlida para d() = k. a As que vamos a por la frmula (13.71): Para esto jemos un p como antes, y llamemos o = {2 , 3 , . . . , k1 }. Una reformulacin de (13.71) es decir que para todo tal p vale que el o rk(A[| {p}] ) k 2. Dado Qk1,n , con , el Lema 13.8.1 nos dice que det A[| {p}] det A[| {1 , k }] = det A[| {k }] det A[| {1 , p}] + det A[| {1 }] det A[| {p, k }] (13.72)
Como {1 , k } = , d( {1 , p}) l 1 y d( {p, k }) l 1, se sigue de la Eq. (13.69), la hiptesis inductiva y la propiedad minimal de l que la identidad arriba mencionada o slo puede ser vlida cuando o a det A[| {p}] = 0 , para todo Qk1,n , , (13.73)
pues el lado derecho de la igualdad (13.72) tiene signo k1 k (o 0) y en el izquierdo hay, por hiptesis, un factor cumple que k det A[|] < 0 y el otro k1 det A[| {p}] 0. Por otro o lado, si k 3, al calcular det A[|] = 0 v la Eq. (13.63), vemos que existe un Qk2 ,n a tal que y det A[| ] = 0. Luego, para probar que rkA[| {p}] k 2, ser suciente a mostrar que todo vector la de A[| {p}] es una combinacin lineal de los vectores la con o ndices en , o equivalentemente que det A[ {q}| {p}] = 0 , para todo q In \ . (13.74)
En el caso k = 2 el tal = (al igual que ), pero es claro que (13.74) equivale a que ap = 0, y el resto de la cuenta funciona. Cuando q , (13.74) se deduce de la Eq. (13.73), ya que
275
{q} Qk1,n y est dentro de . Fijemos ahora un q . Sean = {1 , 2 , 3 } = a / ( \ ) {q}, y = {1 , p, k }. Consideremos la matriz B M3 (R) dada por bij = det A[ {i }| {j }] , para i , j I3 .
Entonces por hiptesis inductiva todos los bij tienen el mismo signo k1 y, por la Identidad o de Sylvester (13.64), todos los subdeterminantes de matrices 2 2 de B[|1) y B[|3) tienen el mismo signo k2 k . Por otro lado, la Eq. (13.73) implica que bi,2 = 0 siempre que i = q. Luego la Eq. (13.74) equivale a que C2 (B) = b2 = 0. Si q = 1 , tendr amos det A[ {q}| {1 }] det A[ {q}| {p}] det A[ {q}| {k }] 0 det A[ {2 }| {k }] , B = det A[ {2 }| {1 }] det A[ {3 }| {1 }] 0 det A[ {3 }| {k }] con todas las entradas del mismo signo. Si b2 = 0, las condiciones anteriores slo son consiso tentes cuando b2,1 = b3,1 = 0 o bien b2,3 = b3,3 = 0. Esto es as porque los de la izquierda producen determinantes (de 2 2) de un signo y los de la derecha del signo contrario, cosa solo permitida si del lado malo (el signo que no concuerda con k2 k ) son ambos cero. En el caso de que q = 3 pasa lo mismo (b1,1 = b2,1 = 0 o bien b1,3 = b2,3 = 0). Aplicando nuevamente la Eq. (13.64) tendr amos que, si \ = {a1 a2 }, entonces det det A[ {a1 }| {1 }] det A[ {a1 }| {k }] det A[ {a2 }| {1 }] det A[ {a2 }| {k }] = det A[|] det A[| ] (13.75)
es nulo, mientras que det A[| ] = 0. Llegamos a que det A[|] = 0, lo que no vale. Supongamos ahora que q = 2 . Queda det A[ {1 }| {1 }] 0 det A[ {1 }| {k }] B = det A[ {q}| {1 }] det A[ {q}| {p}] det A[ {q}| {k }] , det A[ {3 }| {1 }] 0 det A[ {3 }| {k }] Ahora debe pasar que, si b22 = 0, entonces b1,1 = b3,3 = 0 o bien b1,3 = b3,1 = 0. Esto sale porque det B[1, 2|1, 2] y det B[1, 2|2, 3] deben tener signo k2 k , pero deber ser opuestos, an porque todos los bij tienen el mismo signo. Si por ejemplo el malo es el de la derecha, debe pasar que b1,3 = 0. Y la misma idea obligar a que b3,1 = 0, por lo que B tendr una diagonal a a con tres tipos del mismo signo. Pero en tal caso, la matriz de (13.75), que es B[1, 3|1, 3], ser a diagonal y su determinante tendr signo k2 k , por lo que el de det A[|] ser k . Minga. a a En el caso opuesto (b1,1 = b3,3 = 0), un razonamiento semejante lleva a la misma conclusn o absurda. As b2 = 0, lo que establece la validez de la Eq. (13.71). Ya hab amos visto que ello muestra que la Eq. (13.67) es vlida para d() = k, lo que completa la induccin. a o Recordemos el enunciado del Teorema 13.1.5: Teorema 13.1.5 Sean A Mn,m (R) y una sucesin de signatura. o 1. Para que A sea -ERS es suciente que, para todo k Im n(n,m) , k det A[|] > 0 para Qk,n , Qk,m tales que d() = d() = 0 .
13.9 Ejercicios
276
2. En particular, A es ETP si det A[|] > 0 es esos casos. Demostracin. Probemos las desigualdades o k det A[|] > 0 para Qk,n , Qk,m , k Im n(n,m) , (13.76)
por induccin en k. Cuando k = 1, esto es trivial porque d() = d() = 0 para Q1,n y o Q1,m . Asumamos que la Eq. (13.76) es cierta con k 1 en lugar de k. Primero jemos un Qk,n con d() = 0, y probemos la Eq. (13.76) para este por induccin en l = d(). o Cuando l = 0, esto se sigue de la hiptesis del teorema. Supongamos que k det A[|] > 0 o siempre que Qk,m y d() l 1. Sea Qk,m con d() = l. Entonces existe p tal que 1 < p < k , d( {1 , p}) l 1 y d( {p , k }) l 1 ,
donde = {2 , . . . , k1 }. Se sigue de la Eq. (13.65), como en la Eq. (13.72) de la prueba del Teorema 13.1.4, det A[| {p}] det A[| {1 , k }] = det A[| {k }] det A[| {1 , p}] + det A[| {1 }] det A[| {p, k }] para cualquier Qk1 ,n tal que . Usando las dos hiptesis inductivas vemos que o el lado de la derecha es no nulo con signo k1 k , mientras que det A[| {p}] en el lado izquierdo es no nulo con signo k1 . Por lo tanto la igualdad es consistente slo cuando o k det A[|] > 0. Esto prueba la Eq. (13.76) para los Qk,n con d() = 0. Luego jamos cualquier Qk,m y hacemos una induccin similar sobre l = d(), dado que el caso d() = 0 o es lo que probamos antes. Hay que usar la Eq. (13.65) para las, que se deduce de la usual tomando traspuestas de las matrices involucradas. As podemos concluir que la Eq. (13.76) es cierta en general.
13.9
Ejercicios
para cada k In y cada Qk,n
13.9.1. Sea A Mn (R) triangular inferior. Entonces es TP si se verica que det A[|1, 2, . . . , k] > 0 con d() = 0 .
13.9.3. Sea A Mn (R) la matriz del Ejemplo 11.2.15. Porbar que, si R, entonces I + A es TP 1.
Cotejar las propiedades de sus autovalores y autovectores con los resultados desarrollados en las secciones 13.5 y 13.6. 13.9.4. Probar detalladamente el Teorema 13.2.1 que dec a: Sean A Mn,m (R) y B Mm,l (R). Probar que entonces
13.9 Ejercicios
277
1. Si A es A -RS y B es B -RS, el producto AB es -RS, con = A B . 2. En este caso, AB se convierte en -ERS si (a) A es A -ERS y rk B = l, o si (b) rk A = n y B es B -ERS. 3. Si A y B son ETP, tambien lo es AB. 13.9.5. Si dos ncleos L, M : son TPs y d() es una medida positiva en , entonces u K(u, v) :=
T
(13.77)
Se sugiere replantearlo para que se pueda deducir del Teorema 13.2.1, en principio para medidas concentradas en nitos tomos. a 13.9.6. Vericar la veracidad de los otros 4 + 10 items del apartado 13.7.1, donde se muestran los ms interesantes ejemplos de matrices TP. a
Bibliograf a
Libros
[1] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe Tcnico e interno No.86, INMABB, Bah Blanca, 2003. a [2] G. Golub y C. F. Van Loan, Matrix computations (Third edition) Johns Hopkins Studies in the Mathematical Sciences, Johns Hopkins University Press, Baltimore, MD, 1996. [3] R. Bhatia; Matrix Analysis, Springer, New York, 1997. [4] R. Bhatia; Positive Denite Matrices, Princeton Series in Applied Mathematics, Princeton University Press, 2006. [5] O. Cordes, Spectral theory of linear dierential operators and comparison algebras, London Mathematical Society Lecture Note Series, 76. Cambridge University Press, Cambridge, 1987 [6] K. Homan y R. Kunze, Linear algebra, Prentice-Hall Mathematics Series, Prentice-Hall, Inc., Englewood Clis, N.J. 1961. [7] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge, 1985. [8] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press, Cambridge, 1991. [9] T. Kato, Perturbation theory for linear operators, Reprint of the 1980 edition, Classics in Mathematics, Springer-Verlag, Berlin, 1995. [10] P. D. Lax, Linear Algebra, Springer Verlag, Berl 1998. n, [11] L. Mirsky, An introduction to Linear Algebra, Clarendon Press, Oxford, 1963. [12] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989. [13] R. Bellman, Introduction to Matrix Analysis, 2a Ed., McGraw-Hill, New York, 1970.
BIBLIOGRAF IA
279
[14] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation, Springer-Verlag, Berl 1974. n, [15] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Applications, Academic Press, New York, 1979. [16] B. Simon, Trace ideals and their applications, London Mathematical Society Lecture Note Series, 35, Cambridge University Press, Cambridge-New York, 1979.
Papers
[17] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math (Szeged) 34 (1973), 11-15. [18] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Algebra and its Applications, In Press, Corrected Proof, Available online 22 April 2005. [19] T. Ando; Matrix Young inequalities, Operator theory in function spaces and Banach lattices, 3338, Oper. Theory Adv. Appl., 75, Birkhuser, Basel, 1995. a [20] T. Ando, Totally positive matrices, Linear Algebra Appl. 90 (1987), 165-219. [21] H. Araki On an inequality of Lieb and Thirring, Lett. Math. Phys. 19 (1990), no. 2, 167-170. [22] R. Bhatia y C. Davis, More matrix forms of the arithmetic-geometric mean inequality, SIAM J. Matrix Anal. Appl. 14 (1993), no. 1, 132136. [23] J. L. Dalecki S. G. Kre Formulas of dierentiation according to a parameter , n, of functions of Hermitian operators, (Russian) Doklady Akad. Nauk SSSR (N.S.) 76, (1951). 1316. [24] J. L. Dalecki S. G. Kre Integration and dierentiation of functions of , n, Hermitian operators and applications to the theory of perturbations, (Russian) Vorone. Gos. Univ. Trudy Sem. Funkcional. Anal. 1956 (1956), no. 1, 81105. z [25] M. C. Gonzlez; Relaciones de Mayorizacin para el Producto de Hadamard, Tesis a o de licenciatura, Depto. Mat. FCEA-UNC, Neuqun, 2003. e [26] O. Hirzallah and F, Kittaneh, Matrix Young inequalities for the Hilbert-Schmidt norm, Linear Algebra Appl. 308 (2000), 77-84. [27] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the numerical radius, Linear and Multilinear Algebra 23 (1988) 183-191. [28] Chi-Kwong Li; R. Mathias The Lidskii-Mirsky-Wielandt theorem - additive and multiplicative versions, Numer. Math. 81 (1999), no. 3, 377413.
BIBLIOGRAF IA
280
[29] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix completions, J. Funct. Anal. 85 (1989), 151-178. [30] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math. (Szeged) 56 (1992), 147-163.
Indice alfabtico e
adjunto, 4 autovalor, 6 base ortonormal, 4 adaptada, 26 cpsula convexa, 93 a complemento de Schur, 54, ver shorted , 226 completacin, 153 o compresin, 118 o conjunto ortogonal, 3 clculo funcional, 106 a derivada, ver diferencial direccional, 110 parcial, 110 descomposicin o polar, 39 valores singulares, 39 desigualdad Ando-Johnson-Bapat, 190 Araki, 185 aritmtico-geomtrica, 157, 167 e e Aronszajn, 31, 34 Cauchy-Schwarz para matrices, 195 Corach-Porta-Recht, 165 Cordes, 185 Fisher, 159 Golden-Thompson, 189 Hadamard, 157, 161 Hirzallah-Kittaneh, 171 Horn, 181 Hlder para matrices, 175 o Kittaneh, 164
Oppenheim, 158 Simon, 180 Thompson, 165 Weyl (mayorante de Weyl), 180 Young, 167, 168 determinante, 1, 134, 137, 144, 157, 224, 228 diagonales de una matriz, 74 diferencial, 110 dispersin, 238 o espacio de Hilbert, 3 espectro, 6 frmula o Cauchy-Binnet, 138 Daleki y Kre 112 i n, del radio espectral, 46 Lie-Trotter, 182 minimax, 29 factorizacin o Cholewsky, 39 LU, 23, 245 QR, 17, 18, 23, 158 UL, 23, 245 funcional, 151 adjunta, 151 autoadjunta, 151 positiva, 151 funcin o convexa, 71 convexa de operadores, 117 cncava de operadores, 117 o diferencial, ver diferencial gauge simtrica, 88 e
INDICE ALFABETICO
282
montona de operadores, 112 o g-inversa reexiva, 60 identidad de Jacobi, 228 de Sylvester, 231, 272 k-potencia exterior, 135 k-tensor alternado, 132 k-tensor elemental, 133 k-tensor simtrico elemental, 145 e matrices similares, 7 unitariamente equivalentes, 8 matriz anti-hermitiana, 4 con entradas positivas, 65 de Jacobi (tridiagonal), 240 de permutacin, 66 o de signo estrictamente regular, 237 de signo regular, 237 denida positiva, 4 diagonal dominante, 36 doblemente estocstica, 65 a esencialmente no-negativas, 224 estrictamente totalmente positiva, 238 estrictamente triangular inferior, 9 estrictamente triangular superior, 9 fuertemente conexa, 218 hermitiana, 4, 27 identidad, 0 incompleta, 153 inversible, 1 normal, 4, 25 primitiva, 216 reducible, 217 semidenida positiva, 4 totalmente positiva, 238 traspuesta, 0 triangular inferior, 9 triangular superior, 9 unitaria, 4 mayorizacin, 64 o
conjunta, 104 dbil (submayorizacin), 64 e o de matrices, 91 medias de operadores, 192 menor, ver submatriz mdulo de una matriz, 39 o mdulo m o nimo reducido, 60 ncleo, 3 u norma, 3 dual, 104 espectral, 7 Frobenius, 7 Ky-Fan, 43 matricial, 44 unitariamente invariante, 44, 87 unitariamente invariante dbil, 100 e ncleos totalmente positivos, 267 u operador anti-hermitiano, 4 de multiplicacin, 149 o denido positivo, 4 hermitiano, 4 normal, 4 semidenido positivo, 4 unitario, 4 orden espectral: , 177 estrella * , 63 mayorizacin dbil: w , 64 o e mayorizacin: o , 64 por entradas: , 65, 69, 209 usual: , 37 parte real de una matriz, 163 permanente, 145 pinching, 91, 94, 95, 100, 244 polarizacin, 5 o polinomio caracter stico, 1 primera diferencias dividida, 110 producto alternado, 133 de Hadamard, 48, 147 de Kronecker, 129, 130
INDICE ALFABETICO
283
simtrico, 144 e simetrizado, 164 pseudoinversa, 60 de Moore-Penrose, 60 radio espectral, 7 radio numrico, 7, 94, 197 e raiz cuadrada de una matriz, 39 rango numrico, 197 e regla de Cramer, 229 shorted, 54 signo de una permutacin, 226 o sistema de proyectores, 47, 92 subespacio ortogonal, 3 submatriz, 31 principal, 31 submayorizacin, 65 o sucesin de signatura, 237 o supramayorizacin, 65 o Teorema 1 de Schur: 2 de Schur: 3 de Schur: 4 de Schur: A = U T U , 13 A B Mn (C)+ , 48 d (A) (A), 80 KA = mx Aii , 150 a
iIn
Parrot, 59 Perron, 210 Perron-Frobenius, 219 Schur-Horn, 83 Weyl: j (A) + 1 (B) j (A + B), 30 Weyl: (A + B) (A) + (B), 82 traza, 1 valores singulares, 39 Vandermonde, 144, 239, 268 variacin de signos, 253 o vector de Perrn, 215 o ortogonal, 3 ortonormal, 3 unitario, 3
5 de Schur: per A det A, 146 Ando, (radio numrico), 203 e Birkho (extremales de DS (n) ), 75 Courant-Fischer (minimax), 29 entrelace de Cauchy, 31 Fan-Homan, 163 Haagerup, 156 Hahn Banach, 153, 161 Hall (de los casamientos), 74 Hamilton-Cayley, 16 Hausdor Teplitz, 198 o Johnson-Li, 205 Knig-Frobenius, 75 o Ky Fan Re (A) (Re A), 163 Ky Fan (Caracterizacin de NUIs), 89 o Lwner, 114 o Lidskii, 95 Marcus-Sandy, 204
Notaciones y abreviaturas
Se enumeran las principales notaciones y abreviaturas del libro, por orden de aparicin: o
Cap tulo 1
In = {1, 2, . . . , n}. R+ = {x R : x 0} y R = {x R : x > 0}. + Mn (C) = Cnn y Mn,m (C) = Cnm Mn (R) = Rnn y Mn,m (R) = Rnm Gl (n) = {A Mn (C) : A es inversible } PA (x) = det(xI A) C[x] es el polinomio caracter stico de A Mn (C). tr A =
n
Ci (A) = (a1i , a2i , . . . , ani ) Cn es la i-sima columna de A Mn,m (C). e Fj (A) = (aj1 , aj2 , . . . , ajm ) Cn es la j-sima la de A Mn,m (C). e d (A) = (A11 , . . . , Ann ) Cn , la diagonal de A Mn (C). Q P a1 0 0 T. . U .. . U Mn (C) , para a Cn . diag (a) = diag (a1 , . . . , an ) = T . . . S R. Em =
(m) {e1
i=1
1 = 1n = En = 1n
0 0 an (m) , . . . , em } es la base cannica de Cm . o n (n) n ek = (1, . . . , 1) C . k=1 1n Mn (C)+ , la matriz de puros unos. y R(A) = A(Cm ) = Im(A) Cn , para A Mn,m (C).
rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }, para A Mn,m (C). xk yk , = x, x x, y Cn .
1/2 k=1
x = x
n k=1
1/2
|xk |2
para x Cn .
L(H, K) es el espacio de operadores lineales de H en K (dos espcios de Hilbert). BON : base ortonormal. A = AT Mm,n (C) la adjunta de A Mn,m (C) . H(n) = {A Mn (C) : A = A }, matrices autoadjuntas. U (n) = {U Mn (C) : U U = I}, matrices unitarias. N (n) = {N Mn (C) : N N = N N }, matrices normales. Mn (C)+ = {A Mn (C) : A 0} H(n), semidenidas positivas. Gl (n)+ = {A Mn (C) : A > 0} = Gl (n) Mn (C)+ , denidas positivas.
NOTACIONES Y ABREVIATURAS
285
(A) = { C : ker(A I) = {0} }, el espectro de A Mn (C). (A) = (1 (A), . . . , n (A) ) los n autovalores (con multiplicidad) de A Mn (C). w(A) = mx{ | Ax, x | : x Cn , a A A
sp 2
2
i,j=1
T S(n) = { T Mn (C) : Tij = 0 para i j} las triangulares superiores. A[I|J] = AIJ = (Arl )rI Mk, m (C) , para A Mn (C), I, J In con |J| = k, |K| = m.
lJ
A[I|J) = A[I|In \ J] y A(I|J] = A[In \ I|J]. Ar = A({r}) = {aij }i=r=j Mn1 (C) , para A Mn (C) y r In . QR es la factorizacin A = QR con Q U(n) y R T S(n) tal que Rjj 0, para todo j In . o x y = xy = (xi yj ) iIn Mn,m (C), para x Cn e y Cm .
jIm
Sn = { : In In biyectiva } , el n-grupo simetrico. LA y RB : Mn (C) Mn (C) dadas por LA (X) = AX y RB (X) = XB , para X Mn (C).
Cap tulo 2
(A) Rn es el vector creciente de autovalores de A H(n). (A) Rn es el vector decreciente de autovalores de A H(n). m (A) = 1 (A) = n (A) = m (A) n n y mx (A) = n (A) = 1 (A) = mx (A) . a a
Cap tulo 3
B C B x , x C x , x para todo x unitario en Cn (con B, C H(n) ). M1 = {x M : x = 1} para un subespacio M Cn . PS Mn (C) es la proyeccin ortogonal sobre un subespacio S Cn . o AS = PS APS
S
A[k] = A[Ik ] = {aij }i,jIk Mk (C) y A(k) = A(Ik ) = {aij }i,j>k Mnk (C) , ambos para A Mn (C) y k In . A1/2 Mn (C)+ es la raiz cuadrada de A Mn (C)+ . |A| = (A A)1/2 , el mdulo de A Mn (C). o si (A) = i (|A|) = i (A A)1/2 , los valores singulares de A Mn (C), para i In . s(A) = (s1 (A), . . . , sn (A) ) = (|A|) Rn y + (A) = diag (s(A) ) Mn (C)+ , para A Mn (C). A = U |A| = |A |U es una descomposicin polar de A Mn (C) si U U(n). o A = W (A)V es una descomposicin en valores singulares de A Mn (C) si W, V U(n). o A+ = A A
p |A|+A y 2 n i=1 k i=1
A =
|A|A
2 1/p
si (A)p
(k)
|||A|||N = mx N (Ax) la norma matricial inducida en Mn (C) por una norma N en Cn . a A B = aij bij
N (x)=1
iIn jIm
NOTACIONES Y ABREVIATURAS
286
4 A=
(A)
Ax : x ker A
Cap tulo 4
x y x los reordenados de x Rn en forma decreciente y creciente. tr x = x, 1 = x x A x
n
xi , para x Cn .
w
y si y R mayoriza a x Rn .
w
j=1 n
y (resp. x
y) si y Rn submayoriza (supramayoriza) a x Rn .
B si Aij Bij para todo par i In , j Im , con A, B Mn,m (R). y si xi yi para todo i In , con x, y Rn . 0 , tr Fi (A) = 1 y tr Ci (A) = 1 para todo i In }.
|x| = (|x1 |, . . . , |xn |), para x Rn . DS (n) = {A Mn (C) : A x = (x(1) , . . . , x(n) ), para Sn y x Cn . P U(n) la matriz de permutacin dada por P x = x , para Sn y x Cn . o UP (n) = {P : Sn } U (n). I denota un intervalo en R. f (x) = (f (x1 ), . . . , f (xn ) ) Rn , para una funcin f : I R, y un vector x In . o x
log
y log-mayorizacin (con productos), para x, y R+ n (x, y > 0). o y log-mayorizacin dbil, para x, y Rn . o e +
x
log
Cap tulo 5
Pk (n) = {P H(n) : P 2 = P y rk(P ) = k}, los proyectores ortogonales de rango k, para k In . Uk (n) = {U Mn,k (C) : U U = Ik }, el espacio de isometr de Ck en Cn . as NUI : norma unitariamente invariante. gN : Cn R+ dada por gN (x) = N (diag (x) ) para N una NUI en Mn (C) y x Cn . fgs : funcin gauge simtrica. o e A B si (A)
r
CP (A) = P AP + (I P )A(I P ) el pinching de A Mn (C) por P Pk (n). CP (A) = Pi APi el pinching de A por el sistema de proyectores P = {P1 , . . . , Pr } H(n). k bk : m N, bk C, Rm y
o
i=1
conv [C] =
n m
k=1
U (A) = {U AU : U U(n)} = {B H(n) : (B) = (A)}, la rbita unitaria de A H(n). o NDUI : norma dbilmente unitariamente invariante. e
NOTACIONES Y ABREVIATURAS
287
Cap tulo 6
HI (n) = A H(n) : (A) I eA = exp(A) = f g
I, Am m!
, la exponencial de A Mn (C).
f [1] (x, y) es la primera diferencia dividida de una funcin f : I R de clase C 1 . o Dgx0 Mmn (C) es la derivada o diferencial de g : U Rn Rm (U abierto) en x0 U . f (t) = f (t) es la composicin de una curva y el clculo funcional por f . o a MOP : funcin montona de operadores. o o OP : funcin convexa de operadores. o OP : funcin cncava de operadores. o o
Cap tulo 7
Hn = Cn con su producto interno. Hn Hk = { funcionales F : Hn Hk C bilineales } el producto tensorial. x y = xy T Hn Hk es el tensor elemental, dado por x y(u, v) = u, x v, y , u Hn , v Hk . En,k = {ei
(n)
ej
(k)
A B(x y) = Ax By , x Hn , y Hk , con A L(Hn ) y B L(Hk ). P Q a11 B . . . a1n B T . .. . U . . U Mnk (C), el producto de Kroneker de A L(Hn ) y B L(Hk ). AB =T . . . S R
xk xk
an1 B
...
ann B
k
x1 xk (u1 , , uk ) = U(
1 k!
(n) P
xk
Hm
xk
i=1
xk
Hn ) dado
xk
k Hn = Pn = k
Hn
Sk
Hn sobre k Hn .
Sk
x1 xk = Pn (x1 . . . xk ) = k
Sk
k A L(k Hn , k Hm ) dado por k A (x1 xk ) = Ax1 Axk , k-potencia alternada de A. Qk,n = = (1 , 2 , , k ) Ik : 1 1 < 2 < < k n n = In \ Qnk,n , el complemento de un Qk,n . e = e = e1 e2 ek k Hn , para Qk,n . Ek,n = { k! e : Qk,n }, la BON de k Hn . det A = per A =
{J In : |J| = k}.
sgn()
n
Sn
j=1
aj,(j) C , la permanente de A.
P T T T =T T R
Sn j=1
1 1 . . . 1
t1 t2 . . . tn
V (t) =
tj1 i
i,jIn
NOTACIONES Y ABREVIATURAS
288
Cap tulo 8
C(A) = mx Ci (A) a
i Im N (B)=1
2
y F (A) = mx Fi (A) a
i In
para A Mn (C). dada por B (A) = A, B = tr(AB ), con B Mn (C). para todo (i, j) J , para J In In . /
SJ = C Mn (C) : cij = 0
J In In cumple (P) si (i, j) J = (j, i) J y tambin (i, i) J para todo i In . e P Q A ... A T . . . U . . U Mkn (C), para A Mn (C). A(k) = Ek A = T . . . S R . A ... A
Cap tulo 9
Re A = C
A+A 2
H(n) e Im A =
AA 2i
, para A Mn (C).
A B = lim Ap + B p
p
= m n
C Mn (C)+ : A
C y B
, para A, B Mn (C)+ .
f : Mn (C) R es clase T si es continua, f (XY ) = f (Y X) y |f (X 2m )| f ([XX ]m ), m, X, Y . A# B = A1/2 (A1/2 BA1/2 ) A1/2 , para [0, 1], A, B Mn (C)+ . A#B = A# 1 B = A1/2 (A1/2 BA1/2 )1/2 A1/2 .
2
Cap tulo 10
W (A) = { Ax, x : x Cn , x = 1 } es el rango numrico de A Mn (C). e
Cap tulo 11
MPn,m = {A Mn,m (R) : A Vn = {(p, q) I2 : p = q}. n FC : matriz fuertemente convexa. 0}, matrices de entradas positivas. MEPn,m = {A Mn,m (R) : A > 0}, matrices de entradas estrictamente positivas.
Cap tulo 12
A/[|] = A(|) A(|] A[|]1 A[|) Mnk (C), el complemento de Schur de A Mn (C). sgn() =
k
i=1
k(k+1) 2
, para un Qk,n .
U(n).
Cap tulo 13
= (i )iN {1, 1}N es una sucesin de signatura. o Si es otra sucesin de signatura, llamaremos = (i i )iN . o
NOTACIONES Y ABREVIATURAS
289
A es -RS si es de signo regular con signatura . A es -ERS si es estrictamente de signo regular con signatura . A es TP si es totalmente positiva, o sea que A es -RS respecto de la sucesin 1. o A es ETP si es estrictamente totalmente positiva, o sea que A es -ERS respecto de la sucesin 1. o d() = k 1 (k 1) =
i Ik1
LU -factorizacin: A = LU con L triangular inferior y U triangular superior. o U L-factorizacin: A = U L con L triangular inferior y U triangular superior. o [x1 , . . . , xm ] = X Mnm (C) si Ci (X) = xi Cn para cada i Im .
t
B si k A
A es OSC si es TP y una cierta potencia Ap es ETP. V+ (x) la mxima variacin de signos de x Rn . a o V (x) m la nima variaci de signos de x Rn . on Gp = Hp = d2ji
exp p (i j)2
i,j In
i,j In
Mn (R).