Algebra Lineal VFC
Algebra Lineal VFC
Algebra Lineal VFC
METROPOLITANA
Dr. José Antonio De los Reyes
Heredia
Rector General
Esta obra es una de las ganadoras de la “Convocatoria para libros de texto como
apoyo en la impartición de los programas de estudios”, 2023. Fue evaluada para su
publicación por el Consejo Editorial de la UAM Unidad Cuajimalpa, con base en los
dictámenes solicitados a pares académicos mediante un esquema que preserva el
anonimato mutuo. Estos dictámenes resultaron favorables.
Diseño de portada: Aldo Juárez Herrera
www.cua.uam.mx
ISBN: 978-607-28-3141-4
ISBN: 978-607-28-3020-2 (Colección)
Se prohíbe la reproducción total o parcial de esta obra, sea cual fuere el medio, elec-
trónico o mecánico, sin el consentimiento por escrito de los titulares de los derechos.
UNIVERSIDAD AUTÓNOMA METROPOLITANA
UNIDAD CUAJIMALPA
Álgebra Lineal,
con Ejercicios en Python,
Aplicaciones y Notas Históricas.
1
Índice general
1. Espacios vectoriales 15
1.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1. Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.2. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.4. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Unicidad del neutro aditivo . . . . . . . . . . . . . . . . . . . . 18
1.4. Unicidad del inverso aditivo . . . . . . . . . . . . . . . . . . . . 19
1.5. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 21
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2. Subespacios vectoriales 24
2.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1. Ejemplos de subespacios vectoriales . . . . . . . . . . . . 25
2.2. Intersección de espacios vectoriales . . . . . . . . . . . . . . . . 26
2.3. Suma de subespacios vectoriales . . . . . . . . . . . . . . . . . . 26
2.4. Espacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . 28
2.6. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.7. Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3. Producto de matrices y sus propiedades 33
3.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Convención de Einstein . . . . . . . . . . . . . . . . . . . . . . . 34
3.3. Matriz identidad . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4. Inversa de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.5. Transpuesta de matrices . . . . . . . . . . . . . . . . . . . . . . 40
3.5.1. Transpuesta de un producto de matrices . . . . . . . . . 41
2
3.5.2. Inversa de la matriz transpuesta . . . . . . . . . . . . . . 42
3.6. Traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 43
3.7. Matriz diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.8. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 49
3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4. Determinante de una matriz 52
4.1. Inversa de una matriz de 2 × 2 . . . . . . . . . . . . . . . . . . . 52
4.2. Tensor de Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3. Propiedades del tensor de Levi-Civita . . . . . . . . . . . . . . . 57
4.3.1. Intercambio de dos índices . . . . . . . . . . . . . . . . . 57
4.3.2. Índices iguales . . . . . . . . . . . . . . . . . . . . . . . 58
4.3.3. Suma de permutaciones . . . . . . . . . . . . . . . . . . 58
4.4. Denición general del determinante . . . . . . . . . . . . . . . . 59
4.5. Propiedades del determinante . . . . . . . . . . . . . . . . . . . 60
4.5.1. Suma de dos renglones . . . . . . . . . . . . . . . . . . . 60
4.5.2. Escalar por un renglón . . . . . . . . . . . . . . . . . . . 62
4.5.3. Escalar por una matriz . . . . . . . . . . . . . . . . . . 63
4.5.4. Combinación lineal en un regón . . . . . . . . . . . . . . 64
4.5.5. Renglones como vectores . . . . . . . . . . . . . . . . . . 66
4.5.6. Renglones linealmente dependientes . . . . . . . . . . . . 68
4.6. Versión alternativa del determinante . . . . . . . . . . . . . . . 71
4.7. Determinante de la transpuesta de una matriz . . . . . . . . . . 74
4.7.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.8. Determinante de un producto de matrices . . . . . . . . . . . . 76
4.8.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.9. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 80
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5. Matriz adjunta e inversa de una matriz 82
5.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2. Matriz de 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.3. Matriz de 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.4. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 87
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6. Sistema de ecuaciones lineales de n × n, método de Cramer 89
6.1. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.2. Caso 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.3. Caso 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4. Ejemplo concreto . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3
6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7. Sistema de ecuaciones lineales de n × n, método de Gauss-
Jordan 94
7.1. Ecuación de una variable . . . . . . . . . . . . . . . . . . . . . . 94
7.2. Sistemas ecuaciones lineales de 2 × 2 . . . . . . . . . . . . . . . 95
7.2.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.3. Sistemas ecuaciones lineales de 3 × 3 . . . . . . . . . . . . . . . 97
7.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.5. Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . 101
7.6. Ejercicios con Python . . . . . . . . . . . . . . . . . . . . . . . . 103
7.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8. Método de Gauss-Jordan usando matrices 105
8.1. Caso 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.2.1. Sistema 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . 107
8.2.2. Sistema 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . 108
8.3. Notación de matriz similar . . . . . . . . . . . . . . . . . . . . . 110
8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
9. Método de Gauss-Jordan y la inversa de una matriz 112
9.1. Caso 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
9.2. Ejemplo de 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 114
9.3. Ejemplo de 4 × 4 . . . . . . . . . . . . . . . . . . . . . . . . . . 115
9.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
10.Sistemas de ecuaciones lineales de n × m 119
10.1. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
10.2. Propiedades de las soluciones . . . . . . . . . . . . . . . . . . . 124
10.3. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 126
10.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
10.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
11.Matriz de cambio de base 129
11.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
11.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
4
12.Transformaciones lineales 134
12.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
12.2. Transformaciones lineales en Rn . . . . . . . . . . . . . . . . . . 135
12.3. Transformaciones entre funciones . . . . . . . . . . . . . . . . . 137
12.3.1. Derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
12.3.2. Producto por una función ja . . . . . . . . . . . . . . . 137
12.3.3. Transformadas integrales . . . . . . . . . . . . . . . . . 138
12.4. Núcleo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
12.4.1. Núcleo y funciones inyectivas . . . . . . . . . . . . . . . 140
12.4.2. Núcleo e independencia lineal . . . . . . . . . . . . . . . 141
12.5. Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
12.5.1. Imagen como subespacio del contradominio . . . . . . . . 142
12.5.2. Imagen y subespacios en el dominio . . . . . . . . . . . . 143
12.6. Imagen inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.6.1. Imagen inversa como subespacio vectorial del dominio . . 144
12.6.2. Imagen inversa e independecia lineal . . . . . . . . . . . 145
12.7. Teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . 146
12.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
13.Combinación lineal y composición de transformaciones linea-
les 151
13.1. Combinación lineal . . . . . . . . . . . . . . . . . . . . . . . . . 151
13.2. Composición de funciones lineales . . . . . . . . . . . . . . . . . 152
13.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
13.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
14.Matriz asociada a una transformación lineal 154
14.1. Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
14.3. Matriz asociada a composición de funciones lineales . . . . . . . 156
14.4. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
14.5. Cambio de base y matriz asociada . . . . . . . . . . . . . . . . . 161
14.6. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
14.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
15.Producto escalar 165
15.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.2. Ejemplos de producto escalar . . . . . . . . . . . . . . . . . . . 166
15.2.1. Producto escalar en Cn . . . . . . . . . . . . . . . . . . . 166
15.2.2. Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 169
15.2.3. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
5
15.2.4. Sucesiones . . . . . . . . . . . . . . . . . . . . . . . . . . 172
15.3. Vectores ortogonales . . . . . . . . . . . . . . . . . . . . . . . . 172
15.4. Vectores normales o unitarios . . . . . . . . . . . . . . . . . . . 174
15.5. Ortonormalidad e independencia lineal . . . . . . . . . . . . . . 176
15.6. Ejemplos de conjuntos de vectores ortonormales . . . . . . . . . 178
15.6.1. Exponencial compleja . . . . . . . . . . . . . . . . . . . . 178
15.6.2. Funciones trigonométricas . . . . . . . . . . . . . . . . . 179
15.6.3. Matrices de Dirac . . . . . . . . . . . . . . . . . . . . . . 182
15.7. Teorema de Pitágoras . . . . . . . . . . . . . . . . . . . . . . . . 183
15.7.1. Desigualdad de Bessel . . . . . . . . . . . . . . . . . . . 185
15.7.2. Desigualdad de Schwarz . . . . . . . . . . . . . . . . . . 186
15.7.3. Desigualdad del triángulo . . . . . . . . . . . . . . . . . 187
15.7.4. Igualdad del paralelogramo . . . . . . . . . . . . . . . . . 187
15.8. Espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . 188
15.8.1. Espacios métricos . . . . . . . . . . . . . . . . . . . . . . 189
15.9. Polinomios trigonométricos . . . . . . . . . . . . . . . . . . . . . 191
15.10.Espacios completos . . . . . . . . . . . . . . . . . . . . . . . . . 194
15.11.Proceso de ornormalización de Gram-Schmidt . . . . . . . . . . 196
15.11.1.Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
15.12.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
16.Valores y vectores propios 205
16.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
16.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
16.3. Vectores propios e independencia lineal . . . . . . . . . . . . . . 207
16.4. Matriz diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
16.5. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 212
16.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
17.Matrices similares 214
17.1. Relación de equivalencia . . . . . . . . . . . . . . . . . . . . . . 214
17.2. Equivalencia entre matrices . . . . . . . . . . . . . . . . . . . . 216
17.3. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
17.4. Polinomios y funciones . . . . . . . . . . . . . . . . . . . . . . . 219
17.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
18.Exponencial de una matriz 223
18.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
18.2. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
18.3. Matrices de rotación . . . . . . . . . . . . . . . . . . . . . . . . 226
18.4. Matrices de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . 229
6
18.5. Exponencial de una matriz diagonal . . . . . . . . . . . . . . . . 231
18.6. Exponencial de matrices similares . . . . . . . . . . . . . . . . . 233
18.6.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
18.7. Inversa de exponencial de una matriz . . . . . . . . . . . . . . . 236
18.8. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 237
18.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
19.Sistema de ecuaciones diferenciales lineales de primer orden
con coecientes constantes 238
19.1. Sistema de ecuaciones diferenciales . . . . . . . . . . . . . . . 238
19.1.1. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 240
19.2. Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
19.3. Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
19.4. Sistema de osciladores acoplados . . . . . . . . . . . . . . . . . . 245
19.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
20.Relación entre el determinante y la traza de una matriz 250
20.1. Relación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
20.2. Determinante de la exponencial de una matriz . . . . . . . . . . 251
20.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
21.Operador adjunto 253
21.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
21.1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
21.1.2. Derivada . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
21.1.3. Derivada con peso . . . . . . . . . . . . . . . . . . . . . 255
21.1.4. Propiedades del operador adjunto . . . . . . . . . . . . . 256
21.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
22.Operadores hermíticos 258
22.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
22.2. Valores propios de operadores hermíticos . . . . . . . . . . . . . 259
22.3. Ortogonalidad de vectores propios de matrices hermíticas . . . . 260
22.4. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
22.5. Ejemplo con matriz simétrica . . . . . . . . . . . . . . . . . . . 262
22.5.1. Parámetros libres . . . . . . . . . . . . . . . . . . . . . 263
22.6. Matrices de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . 265
22.7. Matrices de Gell-Mann . . . . . . . . . . . . . . . . . . . . . . 267
22.8. Operadores con valores propios positivos . . . . . . . . . . . . . 270
22.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
7
23.Matrices antihermíticas 273
23.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
23.2. Ejemplo, las matrices de Dirac . . . . . . . . . . . . . . . . . . . 274
23.3. Espectro de operadores antihermíticos . . . . . . . . . . . . . . 274
23.3.1. Parámetros libres . . . . . . . . . . . . . . . . . . . . . 276
23.3.2. Descomposición en operadores hermíticos y antihermíticos277
23.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
24.Matrices ortogonales 279
24.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
24.2. Grupo ortogonal O(n) y grupo SO(n) . . . . . . . . . . . . . . 280
24.3. Determinantes de una matriz ortogonal . . . . . . . . . . . . . . 282
24.4. Parámetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
24.5. Matriz antisimétrica y matrices ortogonales . . . . . . . . . . . . 285
24.5.1. Matrices de SO(2) . . . . . . . . . . . . . . . . . . . . . 286
24.5.2. Matrices ortogonales de SO(3) . . . . . . . . . . . . . . . 286
24.6. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
24.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
25.Matrices unitarias 290
25.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290
25.2. Grupos unitarios U (n) y SU (n) . . . . . . . . . . . . . . . . . . 290
25.3. Parámetros libres . . . . . . . . . . . . . . . . . . . . . . . . . . 292
25.4. Matrices hermíticas y matrices unitarias . . . . . . . . . . . . . 294
25.5. U (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
25.6. Matrices de U (2) y SU (2) . . . . . . . . . . . . . . . . . . . . . 295
25.7. SU (3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
25.8. Matrices antihermíticas y matrices unitarias . . . . . . . . . . . 298
25.9. Matrices unitarias y mecánica cuántica . . . . . . . . . . . . . . 298
25.10.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
26.Integrales Gaussianas 300
26.1. Integrales Gaussianas . . . . . . . . . . . . . . . . . . . . . . . 300
26.1.1. Caso general 2d . . . . . . . . . . . . . . . . . . . . . . . 302
26.2. Integrales Gaussianas 2 . . . . . . . . . . . . . . . . . . . . . . . 304
26.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
27.Transformada discreta de Fourier y la matriz de Fourier 308
27.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
27.2. Matriz de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 310
27.3. La inversa de la matriz de Fourier . . . . . . . . . . . . . . . . . 311
8
27.4. Denición alterna . . . . . . . . . . . . . . . . . . . . . . . . . . 315
27.5. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 315
28.Polinomio característico 317
28.1. Denición y propiedades . . . . . . . . . . . . . . . . . . . . . . 317
28.2. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . 320
28.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
29.Espacios invariantes y bloques de Jordan 324
29.1. Espacio invariantes . . . . . . . . . . . . . . . . . . . . . . . . . 324
29.2. Valores propios repetidos . . . . . . . . . . . . . . . . . . . . . . 329
29.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
29.4. Operaciones con Python . . . . . . . . . . . . . . . . . . . . . . 340
29.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
30.Espacio dual 342
30.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
30.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
30.2.1. Caso Cn . . . . . . . . . . . . . . . . . . . . . . . . . . 342
30.2.2. Caso (Mn×n (C))∗ . . . . . . . . . . . . . . . . . . . . . 343
30.3. Producto escalar y espacio dual . . . . . . . . . . . . . . . . . . 344
30.3.1. Ejemplo R3 . . . . . . . . . . . . . . . . . . . . . . . . 344
30.3.2. Ejemplo Mnn (C) . . . . . . . . . . . . . . . . . . . . . 345
30.3.3. Ejemplo en el espacio de las funciones . . . . . . . . . . 345
30.4. Base del espacio dual V ∗ . . . . . . . . . . . . . . . . . . . . . . 345
30.5. Cambio de base en el espacio dual . . . . . . . . . . . . . . . . . 349
30.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
30.6.1. Ejemplo en R3 . . . . . . . . . . . . . . . . . . . . . . . 350
30.6.2. Ejemplo en el espacio de las matrices M2×2 (R) . . . . . 352
30.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
31.Funciones bilineales 354
31.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
31.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
31.2.1. Ejemplo en C × C . . . . . . . . . . . . . . . . . . . . . 355
31.2.2. Ejemplo en Rm × Rn . . . . . . . . . . . . . . . . . . . . 356
31.2.3. Ejemplo con matrices . . . . . . . . . . . . . . . . . . . . 357
31.2.4. Ejemplo con funciones . . . . . . . . . . . . . . . . . . . 357
31.3. Funciones bilineales actuando en una base . . . . . . . . . . . . 358
31.3.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
31.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
9
32.Formas bilineales 363
32.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
32.1.1. Ejemplo en Cn × Cm . . . . . . . . . . . . . . . . . . . . 363
32.1.2. Ejemplo con matrices . . . . . . . . . . . . . . . . . . . . 364
32.1.3. Ejemplo con funciones . . . . . . . . . . . . . . . . . . . 364
32.2. Matriz asociada . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
32.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.3.1. Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.3.2. Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 368
32.4. Espacio dual y formas bilineales . . . . . . . . . . . . . . . . . . 368
32.5. Base de las Formas Bilineales . . . . . . . . . . . . . . . . . . . 369
32.5.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
32.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
33.Formas cuadráticas 375
33.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
33.2. Matriz asociada . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
33.3. Transformaciones invariantes . . . . . . . . . . . . . . . . . . . . 377
33.4. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
33.5. Pseudodistancia . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
33.6. Espacio de anti de Sitter . . . . . . . . . . . . . . . . . . . . . . 385
34.Funciones multilineales y tensores 387
34.1. Denición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
34.2. Funciones multilineales actuando en una base . . . . . . . . . . 388
34.3. Formas multilineales . . . . . . . . . . . . . . . . . . . . . . . . 390
34.4. Base de las formas bilineales . . . . . . . . . . . . . . . . . . . . 391
34.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
35.Funciones alternantes, producto exterior y derivada exterior 396
35.1. Funciones bilineales alternantes . . . . . . . . . . . . . . . . . . 396
35.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
35.3. Función alternante actuando en una base . . . . . . . . . . . . 398
35.4. Dimensión de funciones bilineales alternantes . . . . . . . . . . . 400
35.4.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
35.4.2. Caso de dimensión 2 . . . . . . . . . . . . . . . . . . . . 401
35.4.3. Caso de dimensión 3 . . . . . . . . . . . . . . . . . . . . 402
35.5. Producto exterior . . . . . . . . . . . . . . . . . . . . . . . . . . 403
35.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
35.6.1. Caso de dimensión 2 . . . . . . . . . . . . . . . . . . . . 404
35.6.2. Caso de dimensión 3 . . . . . . . . . . . . . . . . . . . . 405
10
35.7. Funciones multilineales alternantes . . . . . . . . . . . . . . . . 406
35.8. Caso de dimensión 3 . . . . . . . . . . . . . . . . . . . . . . . . 409
35.9. Caso de dimensión n . . . . . . . . . . . . . . . . . . . . . . . . 412
35.10.Derivada exterior . . . . . . . . . . . . . . . . . . . . . . . . . . 414
35.11.Caso n = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
36.Producto tensorial 419
36.1. Producto tensorial de dos espacios vectoriales . . . . . . . . . . 419
36.2. Caso de R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
36.2.1. Producto de Kronecker . . . . . . . . . . . . . . . . . . . 424
36.2.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 428
36.3. Producto de polinomios con el método Maya . . . . . . . . . . . 436
36.3.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
36.4. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
36.5. Tensor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444
37.Compuertas clásicas y cuánticas 448
37.1. Compuerta NOT . . . . . . . . . . . . . . . . . . . . . . . . . . 448
37.2. Compuerta OR . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
37.3. Compuerta AND . . . . . . . . . . . . . . . . . . . . . . . . . . 451
37.4. Compuerta NAND . . . . . . . . . . . . . . . . . . . . . . . . . 452
37.5. Compuertas paralelas . . . . . . . . . . . . . . . . . . . . . . . . 453
37.6. Leyes de De Morgan . . . . . . . . . . . . . . . . . . . . . . . . 456
37.7. Notación binomial y bits . . . . . . . . . . . . . . . . . . . . . . 458
37.8. Qubits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
37.9. Compuertas cuánticas . . . . . . . . . . . . . . . . . . . . . . . 461
37.10.Compuertas con control o controladas . . . . . . . . . . . . . . . 462
37.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464
38.Transformada cuántica de Fourier 465
38.1. Expansión binaria . . . . . . . . . . . . . . . . . . . . . . . . . . 465
38.1.1. Notación binaria fraccionaria . . . . . . . . . . . . . . . 467
38.2. Estados con notación binaria . . . . . . . . . . . . . . . . . . . . 468
38.3. Transformada cuántica de Fourier . . . . . . . . . . . . . . . . . 470
38.3.1. Un qubit . . . . . . . . . . . . . . . . . . . . . . . . . . . 472
38.3.2. Dos qubits . . . . . . . . . . . . . . . . . . . . . . . . . . 473
38.3.3. Tres qubits . . . . . . . . . . . . . . . . . . . . . . . . . 476
38.4. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484
38.5. La inversa de la matriz de Fourier . . . . . . . . . . . . . . . . . 485
11
Dedicatoria
Antes de la llegada de los españoles al territorio que hoy llamamos México,
existían diversas culturas que desarrollaron áreas de las matemáticas como la
geometría, el álgebra, la teoría de números, etc. Mucho de ese desarrollo se
perdió durante la conquista y el período colonial. En la historia de México,
los pueblos indígenas han sido carne de cañón de diferentes luchas como la
independencia, la intervención norteamericana, la intervención francesa y la
revolución. Si México es independiente de las potencias extrajeras es en gran
medida gracias a que los pueblos indígenas metieron las manos al fuego por la
libertad de este país. No obstante, en la actualidad los indígenas son la clase
más discriminada de México. Así, desde hace varios siglos la gran preocupa-
ción de los indígenas se centra en sobrevivir y evitar su desaparición, más que
regresar su mirada al desarollo de las ciencias y las matemáticas.
12
Prólogo
La humanidad ha estado interesada en los temas que aborda el álgebra
lineal desde tiempos lejanos. Por ejemplo, uno de los problemas fundamentales
de esta disciplina es resolver sistemas de ecuaciones lineales y, notablemen-
te, desde hace más de dos mil años los babilonios sabían resolver sistemas de
dos ecuaciones lineales con dos incógnitas. De hecho, el llamado método de
Gauss-Jordan que se usa para resolver sistemas de m ecuaciones lineales con
n incógnitas ya era conocido por los chinos al menos 200 años antes de la era
de cristiana.
13
El material de este libro ha sido utilizado en cursos de Álgebra Lineal I y
II para estudiantes de las carreras de Matemáticas Aplicadas e Ingeniería en
Computación de la Universidad Autónoma Metropolitana-Unidad Cuajimal-
pa. Normalmente los alumnos muestran más interés en las aplicaciones. No
obstante, en el texto se buscó fundamentar los resultados más importantes del
álgebra lineal para que los alumnos obtengan bases sólidas y al mismo tiem-
po sean capaces de aplicar los conocimientos adquiridos. Además, se trató de
incluir una nota histórica sobre las personas que realizaron aportaciones a los
temas estudiados en cada capítulo. Con la idea de no saturar a los estudiantes
con muchos temas en pocos capítulos, el texto se divide en varios capítulos con
pocos temas.
El autor es originario del pueblo Hñahñu del Valle del Mezquital del Estado
de Hidalgo. Los antepasadso de este pueblo habitaron el territorio de México
varios milenios antes de la era cristiana. En español, al pueblo Hñahñu se le
llama Otomí, que es una variante de la palabra náhuatl otómitl, que signica
quien camina con echas o echador de pájaros. Es doctor en Física por la
Universidad Nacional Autónoma de México y Profesor de Tiempo Completo
de la Universidad Autónoma Metropolitana Unidad Cuajimalpa. Ha realizado
investigación en temas como Altas Energías, Biofísica y Finanzas Cuánticas.
Sobre estos temas ha publicado diversos artículos en revistas internacionales.
Ha sio miembro del Sistema Nacional de Investigadores con Nivel II de México.
14
Capítulo 1
Espacios vectoriales
En este capítulo daremos la denición de espacio vectorial y veremos algu-
nas de sus implicaciones.
1.1. Denición
Un espacio vectorial se dene con un conjunto V, un campo K y dos
operaciones
+ : V × V → V,
µ : K × V → V.
15
aquí e representa el neutro multiplicativo de K.
1.2. Ejemplos
Ahora, veremos algunos ejemplos de espacios vectoriales. El lector puede
vericar que los siguientes espacios cumplen las reglas de espacios vectoriales.
1.2.1. Cn
Supongamos que C es el conjunto de los números complejos. Un ejemplo
de espacio vectorial son los arreglos de la forma
Cn = {(c1 , c2 , · · · , cn ), ci ∈ C}.
Si se tienen dos vectores de Cn ,
(c1 , c2 , · · · , cn ), (d1 , d2 , · · · , dn )
la suma se dene como
(c1 + d1 , c2 + d2 , · · · , cn + dn ).
Mientras que si λ es un número complejo, el producto por un escalar se dene
como
λ(c1 , c2 , · · · , cn ) = (λc1 , λc2 , · · · , λcn ).
1.2.2. Sucesiones
Una generalización de Cn es tomar el límite n → ∞, que nos da el espacio
de sucesiones
{an }∞
n=0 , an ∈ C.
Así, si se tienen dos sucesiones
{an }∞
n=0 , {bn }∞
n=0 , an , bn ∈ C
la suma se dene como
{an + bn }∞
n=0 .
16
1.2.3. Matrices
Otra generalización de Cn es el espacio de matrices Mnm de entradas com-
plejas
M11 M12 · · · M1m
M21 M22 · · · M2m
M = .. .. . . .. , Mij ∈ C, i = 1, · · · , n, j = 1, · · · , m.
. . . .
Mn1 Mn2 · · · Mnm
1.2.4. Funciones
Otro ejemplo de espacio vectorial es el espacio de funciones f : [a, b] → C,
donde a, b ∈ R, a < b. Supongamos que tenemos dos funciones
f : [a, b] → C, g : [a, b] → C,
17
la suma se dene como
f + g : [a, b] → C,
λf : [a, b] → C,
Así, como
0′ + 0 = 0 + 0′ ,
concluimos que
0′ = 0.
Este resultado nos indica que en cualquier espacio vectorial solo existe un ele-
mento con las propiedades del neutro aditivo, es decir el neutro aditivo es único.
18
Otro resultado interesante sobre el neutro aditivo de un espacio vectorial
es que para todo v ∈ V se cumple
0 · v = 0. (1.11)
En efecto, note que para todo v ∈ V se cumple
v+0·v = 1·v+0·v
= (1 + 0) · v
= 1·v
= v,
esto es
v + 0 · v = v. (1.12)
Ahora, sumando en cada término de la expresión (1.12) el inverso aditivo −v
se encuentra
(−v) + v + 0 · v = v + (−v)
de donde
0 + 0 · v = 0,
esto es
0 · v = 0.
Supongamos que existe otros elemento v ′ ∈ V que tiene las mismas propiedades
que −v , es decir, que para todo v ∈ V, se cumple
v + v ′ = 0. (1.14)
19
Ahora, si en esta ecuación sumamos de ambos lados el vector −v se llega a
v + v ′ + (−v) = (−v) + 0,
es decir,
−v = v ′ .
Por lo tanto, en cualquier espacio vectorial un vector tiene un único inverso
aditivo.
−1 · v = −v. (1.15)
esto es
v + (−1) · v = 0.
Como el inverso aditivo es único, al igualdad (1.15) es correcta.
20
Wey los retomó en su libro Space, time, matter, que es una introducción a la
relatividad general de Einsten.
21
Además, si tenemos los vectores
a = (−1, 9, 5, 2), b = (1, 3, −1, 7)
22
1 import numpy as np
2 a = np . array ([[1 ,0 ,6 ,9] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,5 ,6 , -1]
3 ])
4 b = np . array ([[ -1 ,3 ,4 ,7] , [ -2 ,2 ,1 ,5] ,[1 , -2 ,3 ,1] ,[2 ,2 ,1 , -2]
5 ])
6 np . subtract (b , a )
Listing 1.4: Suma de matrices
que da el resultado
array([[-2,3,-2,-2],
[-1,-1,-5,1],
[-2,-1,-3,-2],
[1,-3,-5,-1]])
1.6. Ejercicios
1.- Dé un ejemplo de espacio vectoria en la vida real.
2.- Muestre que con la suma usual y el producto de un escalar por una
función, el conjunto de los polinomios con coeentes complejos de grado n
{P (x) = a0 + a1 z + · · · + an z n , ai ∈ R, i = 0, 1, 2, · · · , n}
es un espacio vectorial.
3.- Con la suma usual y el producto de un escalar por una sucesión, muestre
detalladamente que el conjunto suscesiones complejas convergentes forma un
espacio vectorial.
4.- Muestre que con la suma usual y el producto de un escalar por una se-
rie, que el conjunto de las series complejas convergentes es un espacio vectorial.
5.- Con la suma usual y el producto de un escalar por una función, muestre
que el conjunto de funciones {F (x)} que cumplen
Z ∞
|F (x)|2 dx < ∞
−∞
es un espacio vectorial.
23
Capítulo 2
Subespacios vectoriales
En este capítulo daremos la denición de subespacio vectorial, sus implica-
ciones, conceptos relacionados y algunos ejemplos.
2.1. Denición
Sea (V, K, +, ·) espacio vectorial sobre el campo K. Si V1 es subconjunto
de V y (V1 , K, +, ·) es espacio vectorial sobre K se dice que V1 es subespacio
vectorial de V.
Para probar esta armación, note que la condición (2.2) indica que la suma
de vectores en V1 es cerrada en V1 y la condición (2.3) indica que el producto
de vectores con escalares de K es cerrada en V1 . Además, debido a que V1 ⊂ V
y V es espacio vectorial, de manera automática se cumplen las condiciones
(1.1)-(1.5) y (1.8). Ahora, debido a que V1 satisface la condición (2.1), también
satisface la condición (1.6). Adicionalmente, sabemos que para cualquier v ∈ V
se cumple
−1 · v = −v,
en particular si v ∈ V1 . Así, como V1 satisface la condición (2.3), si v ∈ V1
entonces −v ∈ V1 y se cumple la condición (1.7).
24
Por lo tanto, si V es espacio vectorial y V1 es un subconjunto de V que
satisface las condiciones (2.1)-(2.3), entonces V1 es espacio vectorial y en con-
secuencia subespacio vectorial de V.
es decir
α1 v1 + α2 v2 ∈ V2 .
Así, las condiciones (2.1)-(2.3) implican la condición (2.4). Por lo tanto la con-
dición (2.4) es equivalente a las condiciones (2.1)-(2.3).
25
el conjunto de las funciones pares, es decir que cumplen
f (−x) = f (x),
es un subespacio vectorial.
entonces
α1 v1 + α2 v2 ∈ V1 ∩ V2 .
Por lo tanto, si V1 , V2 son subespacios vectoriales de V , entonces V1 ∩ V2 es
subespacio vectorial de V.
V1 + V2 = {v ∈ V |∃v1 ∈ V1 , ∃v2 ∈ V2 , v = v1 + v2 }.
26
El conjunto V1 + V2 es subespacio vectorial de V. En efecto, si u1 , u2 son ele-
mentos de V1 + V2 entonces existen v1 , v1′ en V1 y v2 , v2′ en V2 de tal forma
que
u1 = v1 + v2 y u2 = v1′ + v2′ .
Entonces, si α1 , α2 son escalares de K, se obtiene
α1 u1 + α2 u2 = α1 (v1 + v2 ) + α2 (v1′ + v2′ )
= (α1 v1 + α2 v1′ ) + (α1 v2 + α2 v2′ ).
Además como V1 y V2 son subespacios vectoriales tenemos que
v1′′ = α1 v1 + α2 v1′ ∈ V1 , y v2′′ = α1 v2 + α2 v2′ ∈ V2 .
Así, existe v1′′ ∈ V1 y v2′′ ∈ V2 de tal forma que
α1 u1 + α2 u2 = v1′′ + v2′′ .
Por lo tanto,
α1 u1 + α2 u2 ∈ V1 + V2
y V1 + V2 es un subespacio vectorial de V
Cuando
V1 + V2 = V
y para cada
v ∈ V, ∃!v1 ∈ V1 , y ∃!v2 ∈ V2
de tal forma que
v = v1 + v2
dice que V es la suma directa de V1 y V2 y se escribe
V = V1 ⊕ V2 .
S = {v1 , v2 , · · · , vn } ⊂ V.
27
Sea ⟨S⟩ el conjunto todas las combinaciones lineales de los elementos de S, es
decir
⟨S⟩ = {α1 v1 + α2 v2 + · · · + αn vn }
con
α1 , α2 , · · · , αn ∈ K.
α1 , α2 , · · · , αn ∈ K, β1 , β2 , · · · , βn ∈ K
tal que
v = α1 v1 + α2 v2 + · · · + αn vn ,
w = β1 v1 + β2 v2 + · · · + βn vn .
Por lo tanto
αv + βw = α(α1 v1 + α2 v2 + · · · + αn vn ) + β(β1 v1 + β2 v2 + · · · + βn vn )
= (αα1 + ββ1 )v1 + (αα2 + ββ2 )v2 + · · · + (ααn + ββn )vn ,
α1 , α2 , · · · , αn ∈ K
28
y
α1 v1 + α2 v2 + · · · + αn vn = 0
implica
α1 = α2 = · · · = αn = 0.
α1 v1 + α2 v2 + · · · + αn vn = 0. (2.6)
29
de donde
1
v1 = − (α2 v2 + · · · + αn vn ).
α1
Si v1 se puede escribir como combinación de los vectores
v2 , · · · , vn , (2.7)
se dice que v1 depende linealmente de los vectores (2.7).
{v1 , v2 , · · · , vn } ⊂ V (2.8)
30
vectorial V, entonces existe un vector vr+1 en V que no puede ser generado por
los vectores del conjunto (2.9), entonces el conjunto
{v1 , v2 , · · · , vr , vr+1 } (2.10)
es linealmente independiente. Si el conjunto (2.10) no genera a todo el espacio
vectorial V, entonces existe un vector vr+2 en V que no puede ser generado por
dicho conjunto, así el conjunto
{v1 , v2 , · · · , vr , vr+1 , vr+2 }
es linealmente independiente. Si este nuevo conjunto de vectores no genera
al espacio vectorial V podemos seguir con el mismo procedimiento, el cual es
nito si la dimensión de V es nita.
2.8. Ejercicios
1.- En el espacio vectorial de la funciones de la forma
f : [a, b] → R,
mostrar que el conjunto de las funciones impares, es decir, que cumplen
f (−x) = −f (x),
forman un subespacio vectorial.
31
4.- Determinar si el conjunto de polinomios es linealmente dependientes o
independiente
{P0 = 2x, P1 = x2 + 4x, P2 = x2 }.
5.- Determinar si los siguientes vectores son linealmente dependientes o
independientes
(1, 1, 0, 1), (1, −1, 1, 1), (2, 2, 1, 2), (0, 1, 0, 0).
9.- Obtener una base para los polinomios de coecientes reales de grado 4.
32
Capítulo 3
Producto de matrices y sus
propiedades
En este capítulo veremos algunas operaciones con matrices como el pro-
ducto, la inversa y la traza.
3.1. Denición
Supongamos que A es una matriz de n × m y B es una matriz de m × l,
ambas matrices con entradas complejas,
A11 A12 · · · A1m B11 B12 · · · B1l
A21 A22 · · · A2m B21 B22 · · · B2l
A= .. .. . . .. , B= .. .. . . .. ,
. . . . . . . .
An1 An2 · · · Anm Bm1 Bn2 · · · Bml
con
Aij , Bkr ∈ C, i = 1, 2, · · · , n, k, j = 1, 2, · · · , m, r = 1, 2, · · · , l.
33
Entonces denimos el producto de matrices como
A11 A12 · · · A1m B11 B12 · · · B1l
A21 A22 · · · A2m B21 B22 · · · B2l
AB = .
. .
. . . .
. .
. .
. . . .
.
. . . . . . . .
An1 An2 · · · Anm Bm1 Bn2 · · · Bml
A11 B11 + A12 B21 + · · · + A1m Bm1 · · · A11 B1l + A12 B2l + · · · + A1m Bml
A21 B11 + A22 B21 + · · · + A2m Bm1 · · · A21 B1l + A22 B2l + · · · + A2m Bml
= .. . . ..
. . .
An1 B11 + An2 B21 + · · · + Anm Bm1 · · · An1 B1l + An2 B2l + · · · + Anm Bml
Pm Pm
k=1 A 1k B k1 · · · k=1 A 1k Bkl
Pm A2k Bk1 · · · Pm A2k Bkl
k=1 k=1
= .. . . ..
Pm . . Pm .
k=1 Ank Bk1 · · · k=1 Ank Bkl
A1k Bk1 · · · A1k Bkl
A2k Bk1 · · · A2k Bkl
= .
. . . .
. , k = 1, 2, · · · , m.
. . .
Ank Bk1 · · · Ank Bkl
Por lo tanto
m
(3.1)
X
(AB)ir = Aik Bkr , i = 1, 2, · · · , n, r = 1, 2, · · · , l.
k=1
n
X
V iW i
i=1
34
es común escribir
n
X
V iW i = V iW i = V 1W 1 + V 2W 2 + · · · + V nW n.
i=1
En componentes se tiene
m
(3.2)
X
(AB)ir = Aik Bkr = Aik Bkr , i = 1, 2, · · · , n, r = 1, 2, · · · , l.
k=1
35
Albert Einstein (1879-1955) fue un físico alemán de origen judío. En su ado-
lecencia asistió a una escuela progresista basada en la losofía pedagógica de
Pestalozzi, en donde aprendió a ser autodidácta y a cuestionar todo tipo de
autoridad y conocimiento. Su estadía en dicha escuela fue una de las épocas
más felices de su vida. Si bien Einstein tenía una habilidad especial para las
matemáticas, como pensador universal también se interesó por la música, lite-
ratura, losofía, política, antropología, geología, etc. Se introdujo por su propia
cuenta en los trabajos de Boltzman, Hertz, Lorentz, Kant, Darwin entre otros.
A pesar de tener un amplio conocimiento de la física de su época, cuando ter-
minó sus estudios universitarios era poco conocido y solo logró conseguir un
empleo en unas ocinas de patentes. En esas ocinas empezó a resolver varios
problemas importantes de la física y en 1905 publicó cinco artículos que cam-
biaron para siempre la física y nuestra percepción de la naturaleza. En uno de
esos artículos dio los fundamentos de lo que hoy conocemos como Relatividad
Especial, la cual cambió nuestro concepto de espacio-tiempo. En otro de los
artículos explicó el movimiento Browiniano, en donde fundamenta el concepto
de mólecula de Boltzman y cambió nuestro concepto de lo microscópico. En
otro de los trabajos explicó el efecto fotoeléctrico. En el aspecto teórico, este
último artículo dio un impulso importante a una naciente Mecánica Cuántica
y desde el punto de vista tecnológico permitió el desarollo de las celdas solares.
1905 es recordado como uno de los años más importantes de la física moder-
na. Después de esos cinco artículos logró encontrar un trabajo de profesor y
empredió un largo viaje intelectual en solitario para formular la llamada Re-
latividad General en 1915, la cual nos permite entender el origen de universo,
las ondas gravitacionales, los hoyos negros, etc. Por ser judío, tuvo que dejar la
Alemania de Hitler para emigrar a Estados Unidos, en donde nalmente murió
un 18 de Abril de 1955. Después de I. Newton, quizá Einstein sea el físico más
relevante de la historia.
36
se le llama matriz identidad.
es decir
AI = IA = A.
1 si i = j,
δij = i, j = 1, 2, · · · , n.
0 ̸ j,
si i =
δ11 δ12 δ13 1 0 0
δij = δ21 δ22 δ23 = 0 1 0 = I.
δ31 δ32 δ33 0 0 1
37
producto de una matriz A por la matriz identidad I se escribe de la forma
A11 A12 · · · A1n δ11 δ12 · · · δ1n
A21 A22 · · · A2n δ21 δ22 · · · δ2n
AI = .. .. . . .. .. .. . . ..
. . . . . . . .
An1 An2 · · · Ann δn1 δn2 · · · δnn
A1k δk1 · · · A1k δkn
A2k δk1 · · · A2k δkn
= .. . . .. (k = 1, 2, · · · , n)
. . .
Ank δk1 · · · Ank δkn
A11 A12 · · · A1n
A21 A22 · · · A2n
= .. .. . . .. .
. . . .
An1 An2 · · · Ann
38
Leopold Kronecker (1823-1891) fue un matemático alemán que aportó re-
sultados relevantes en áreas como teoría de números, álgebra y lógica. Descen-
diente de comerciantes y banqueros judíos, su educación inicial la tomó en su
casa con profesores particulares. Posteriormente asistió al Gymnasium de Lieg-
nitz, en donde se interesó por diferentes disciplinas como la losofía, química,
astronomía y las matemáticas. En 1845 realizó su trabajo doctoral en teoría
de números bajo la supervisión de Peter Gustav Dirichlet, en la Universidad
de Berlín. Después de terminar su doctorado, se dedicó a manejar los negocios
de su familia y tomó a las matemáticas solo como un pasatiempo. Debido a
su talento, recibió ofertas para trabajar como profesor universitario, pero las
rechazó. Durante más de 30 años no fue propiamente un profesor universitario,
pero escribió artículos notables. Por ejemplo, realizó extenciones de algunos re-
sultados de Évariste Galois en la teoría de ecuaciones usando teoría de grupos.
Además, sostenía grandes debates sobre los fundamentos de las matemáticas
con personajes como Cantor, Bolzano, Weierstrass y Dedekind. En 1883 acep-
tó una plaza de profesor en la Universidad de Berlín. Como profesor dirigió
la tesis doctoral de varios alumnos y continuó su debate con respecto al los
fundamentos de las matemáticas. Él defendía las demostraciones constructivas
en un número nitos de pasos. Con respecto a ese debate, es recordado por su
frase Dios hizo los números enteros; el resto es obra del hombre. La muerte de
su mujer fue un duro golpe para él y murió pocos meses después que ella.
AA−1 = A−1 A = I.
39
La inversa de una matriz es única. En efecto, supongamos que existe otra
matriz A′ tal que
A′ A = I.
Entonces, multiplicamos a esta ecuación por la derecha por A−1 obtenemos
A′ AA−1 = A−1 ,
A11 A12 · · · A1m
A21 A22 · · · A2m
A= .. .. . . .. .
. . . .
An1 An2 · · · Anm
por lo que
ATij = Aji . (3.3)
40
Por ejemplo, consideremos la matriz
2 0 1
M = 3 4 −9 ,
5 −3 8
entonces su transpuesta es
2 3 5
MT = 0 4 −3 .
1 −9 8
(AB)T = B T AT . (3.4)
por lo que
(AB)Tij = B T AT
ij
,
41
cuyas transpuestas son
3 1 2 −1 7 −3
M1T = 0 4 3 , M2T = 3 4 2 ,
−1 −5 6 2 −1 5
de donde
0 7 1 0 42 1
M1 M2 = 42 9 −27 , M2T M1T = 7 9 30 ,
1 30 31 1 −27 31
así
0 42 1
(M1 M2 )T = M2T M1T = 7 9 30 .
1 −27 31
−1
(3.5)
T
AT = A−1 .
entonces
I = IT
T
= AA−1
= (A−1 )T AT ,
así
(A−1 )T AT = I,
42
de donde
−1
AT = (A−1 )T
Esta igualdad es equivalente a la expresión (3.5).
n
X
T r(M ) = M11 + M22 + · · · + Mnn = Mii = Mii .
i
43
Por ejemplo, consideremos la matriz
2 0 −1
M = 5 6 −3 ,
2 3 9
así
T r(M ) = 2 + 6 + 9 = 17.
T r M T =T r (M ) ,
44
En efecto,
n
X
T
MT
Tr M = ii
i=1
Xn
= Mii
i=1
= T r (M ) ,
Xn
T r(M + N ) = (M + N )ii
i=1
n
X
= (Mii + Nii )
i=1
n
X n
X
= Mii + Nii
i=1 i=1
= T r(M ) + T r(N ),
Xn
T r (M N ) = (M N )ii
i=1
n X
X n
= Mij Nji
i=1 j=1
Xn X n
= Nji Mij
i=1 j=1
n n
!
X X
= Nji Mij
j=1 i=1
Xn
= (N M )jj
j=1
= T r(N M ).
45
cuya matriz transpuesta es
2 4 0
MT = 3 3 1 ,
4 2 0
de donde
T r M T = 6.
T r(M ) = 6,
de donde
3 6 0
M +N = 2 3 4 ,
1 3 −8
por lo que
T (M + N ) = −2,
T r(M ) + T r(N ) = 3 − 5 = −2,
por lo que
T (M + N ) = T r(M ) + T r(N ) = −2.
46
que implican
−5 4 0
AB = −3 3 0 ,
7 4 4
1 8 3
BA = −1 1 1 ,
4 8 0
de donde
T r (AB) = T r(BA) = 2.
Note que usando la delta de Kronecker, las componentes de una matriz diagonal
se pueden escribir como
Aij = ai δij , i, j = 1, 2 · · · , n.
47
Además, si ai ̸= 0 (i = 1, 2, · · · , n), la inversa es
a−1
1 0 ··· 0
0 a−1 · · · 0
2
A−1 = .
.. . .
.. . . .. .
.
0 0 · · · a−1
n
Más adelante, veremos que cierto tipo de matrices se pueden relacionar con
matrices diagonales y que en esas matrices se pueden simplicar muchas ope-
raciones.
48
3.8. Operaciones con Python
Supongamos que tenemos las matrices
1 0 6 1 2 3 4 −1
−1 3 6 4 0 1 −2 3
A=
3 −1 6 3 B=
−5 3
4 8
1 0 6 −1 1 −9 3 8
entonces para hacer el producto de ellas se puede emplear el siguiente código
en Python
1 import numpy as np
2 a = np . array ([[1 ,0 ,6 ,1] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,0 ,6 , -1]
3 ])
4 b = np . array ([[2 ,3 ,4 , -1] ,[0 ,1 , -2 ,3] ,[ -5 ,3 ,4 ,8] ,[1 , -9 ,3 ,8]])
5 np . dot (a , b )
Listing 3.1: Producto de dos matrices
que da el resultado
array([[-27,12,31,55],
[-28,-18,26,90],
[-21,-1,47,66],
[-29,30,25,39]])
Además, si para la matriz
1 7 8 9
−1 3 6 5
A=
2 1 0 −3
−1 2 1 8
queremos sacar la transpuesta podemos emplear el código en Python
1 import numpy as np
2 A = np . array ([[1 ,7 ,8 ,9] ,[ -1 ,3 ,6 ,5] ,[2 ,1 ,0 , -3] ,[ -1 ,2 ,1 ,8]
3 ])
4 np . transpose ( A )
Listing 3.2: Transpuesta de una matriz
el cual da el resultado
array([[1,-1,2,-1],
[7,3,1,2],
[8,6,0,1],
[9,5,-3,8]])
49
Ahora, supongamos que queremos sacar la traza de la matriz
1 0 6 9
−1 3 6 4
A=
3 −1 6 3
1 5 6 −1
se tiene el código en Python
1 import numpy as np
2 from numpy . linalg import eig
3 A = np . array ([[1 ,0 ,6 ,9] , [ -1 ,3 ,6 ,4] ,[3 , -1 ,6 ,3] ,[1 ,5 ,6 , -1]
4 ])
5 np . trace ( A )
Listing 3.3: Traza de una matriz
que da como resultado
9
3.9. Ejercicios
1.- Obtener el producto de las matrices
1 −2 4 −11 2 8
A = 3 3 5 , B= 3 −4 5 .
1 2 7 6 −3 1
2.- Para las matrices
− 33 8 7
1 2 1 10 5
− 10
A = 4 5 6 , A−1 = 9
5
− 35 1
5
,
7
3 2 9 10
− 25 3
10
50
5.- Considere las matrices
3 −1 0 1 −3 7
A = 1 −3 5 , B = 2 −4 3 .
3 2 4 1 −6 2
a) Obtener AT B T .
b) Obtener T r(AB).
c) Obtener T r(BA).
e) Obtener T r (AB)T .
51
Capítulo 4
Determinante de una matriz
En este capítulo daremos la denición determinante de una matriz y alguna
de sus implicaciones. Gauss nombró a esta operación determinante porque
determina varias propiedades de una matrix, en particular si una matriz tiene
inversa.
52
Resolver este problema implica encontrar los valores e, f, g, h que cumplen
ae + bg = 1, (4.1)
af + bh = 0, (4.2)
ce + dg = 0, (4.3)
cf + dh = 1. (4.4)
De la ecuación (4.3) se obtiene
dg
e=− , (4.5)
c
usando este resultado en la ecuación (4.1), encontramos
c
g=− ,
ad − bc
además ocupando este último resultado en la expresión (4.5), llegamos a
d
e= .
ad − bc
Mientras que, de la ecuación (4.2) se obtiene
bh
f =− , (4.6)
a
sustituyendo este resultado en la ecuación (4.4) encontramos
a
h=
ad − bc
y considerando este resultado en (4.6), se obtiene
b
f =− .
ad − bc
En resumen, tenemos los valores
d
e = ,
ad − bc
b
f = − ,
ad − bc
c
g = − ,
ad − bc
a
h = ,
ad − bc
53
que implican la matriz
−1 1 d −b
M = .
ad − bc −c a
ad − bc ̸= 0, (4.7)
ϵij , i, j = 1, 2 (4.9)
ϵ12 =1,
ϵij = − ϵij .
54
Observe que esta propiedades implican
ϵ12 = − 1,
ϵ11 =ϵ22 = 0.
ϵijk , ij, k = 1, 2, 3
55
totalmente antisimétrica que satisface
ϵ123 = 1.
En general se tiene
ϵiij = −ϵiij = 0, ϵijj = −ϵjij = 0, ϵiji = −ϵiij = 0, ϵiii = 0,
es decir, cada que vez que dos índices se repiten la cantidad ϵijk es cero. Además,
usando de nuevo que ϵijk es una cantidad antisimétrica, se encuentra
ϵ123 = 1, ϵ132 = −1, ϵ213 = 1, ϵ231 = −1, ϵ312 = 1, ϵ321 = −1.
56
En general deniremos
ϵi1 i2 ···in ij , j = 1, 2, · · · n
ϵ123···n = 1,
57
de Levi-Civita es totalmente antisimétrico, al intercambiar dos de sus índices
tendremos un signo menos, esto es,
ϵi1 i2 ···ip ···iq ···in = (−1)2k−1 ϵi1 i2 ···iq ···iq ···in = −ϵi1 i2 ···iq ···ip ···in ,
de donde
ϵi1 i2 ···ip ···iq ···in = −ϵi1 i2 ···iq ···ip ···in . (4.11)
por lo que
ϵi1 i2 ···ip ···ip ···in = 0.
58
Tullio Levi-Civita (1873-1941) fue un matemático italiano que realizó di-
versas contribuciones a las matemáticas y física. Realizó sus estudios en la
Universidad de Padua y a partir de 1918 fue profesor de la Universidad de
Roma. Desarrolló lo que hoy se conoce como cálculo tensorial, que es la base
para la geometría diferencial. También realizó aportaciones en el problema de
los tres cuerpos de la mecánica celeste y en la hidrodinámica. Los trabajos de
Levi-Civita fueron fundamentales para el desarrollo de la Relatividad General
de Einstein. De hecho, Albert Einstein mantuvo una fructífera correspondencia
con él. Debido a sus orígenes judíos, fue despedido de su trabajo en 1938, lo
cual lo hizo caer depresión. No obstante, luchó para que varios matemáticos
italianos pudieran escapar de la Italia fascista de Mussolini.
tenemos
det A = ϵi1 i2 i3 A1i1 A2i2 · · · A3in .
59
Considerando las propiedades del tensor de Levi-Civita, encontramos
det A = ϵ1i2 i3 A11 A2i2 Ai3n + ϵ2i2 i3 A12 A2i2 Ai3n + ϵ3i2 i3 A13 A2i2 Ai3n
= A11 (ϵ1i2 i3 A2i2 Ai3n ) + A12 (ϵ2i2 i3 A2i2 Ai3n ) + A13 (ϵ3i2 i3 A13 A2i2 Ai3n )
= A11 (ϵ123 A22 A33 + ϵ132 A23 A32 )
+A12 (ϵ213 A21 A33 + ϵ231 A23 A31 )
+A13 (ϵ312 A21 A32 + ϵ321 A22 A31 )
= A11 (A22 A33 − A23 A32 ) − A12 (A21 A33 − A23 A31 ) + A13 (A21 A32 − A22 A31 ).
esto es
det A = A11 (A22 A33 − A23 A32 ) − A12 (A21 A33 − A23 A31 ) + A13 (A21 A32 − A22 A31 ).
60
Probaremos que se cumple la igualdad
además,
det A = ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 (A1pip + A2pip )A(p+1)ip+1 · · · Anin
= ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 (A1pip A(p+1)ip+1 · · · Anin + A2pip A(p+1)ip+1 · · · Anin )
= ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 A1pip A(p+1)ip+1 · · · Anin +
+ϵi1 i2 ···in A1i1 A2i2 · · · A(p−1)ip−1 A2pip A(p+1)ip+1 · · · Anin
= det A1 + det A2 ,
esto es,
det A = det A1 + det A2 ,
61
4.5.2. Escalar por un renglón
Ahora, supongamos que A y A′ son dos matrices de n×n donde los renglones
de la matriz A′ es son iguales a los de A, salvo el renglón p de A′ que es múltiplo
de renglón de p de A. Es decir, las matrices A y A′ tienen la forma
A11 · · ·
A1n
A11 · · · A1n
.. ..
.. ..
. .
. . A(p−1)1 · · ·
A(p−1)n
′
A = Ap1 · · · Apn , A = λAp1 · · · λApn ,
.. .. A(p+1)1 · · · A(p+1)n
. .
.. ..
. .
An1 · · · Ann
An1 · · · Ann
Note que este último resultado implica que si A tiene un renglón igual a
cero, entonces el determinante de A es cero.
62
se puede observar que el primer reglón de esta matriz es multiplo de 3, esto es
′ 3·2 3·1
A = .
1 2
Además se cumple
det A′ = 9,
det A = 3,
Para probar este resultado denamos la matriz A′ = λA, observe que esta
denición implica A′ij = λAij . Por lo cual
det(λA) = det(A′ )
= ϵi1 i2 ···in A′1i1 A′2i2 · · · A′nin
= ϵi1 i2 ···in (λA1i1 )(λA2i2 ) · · · (λAnin )
= λn ϵi1 i2 ···in A1i1 A2i2 · · · Anin
= λn det A,
esto es
det(λA) = λn det A,
63
Por ejemplo consideremos la matriz
21 3
A= ,
12 9
que se puede escribir como
7 1
A=3 .
4 3
De donde podemos ver que se cumple
21 3
det A = det = 153,
12 9
7 1
det = 17,
4 3
por lo cual
2 7 1
det A = 3 det = 32 · 17 = 153.
4 3
64
Note que de esta matriz se pueden obtener las siguientes l matrices
A11 · · ·
A1n
.. ..
. .
A(p−1)1 · · · A(p−1)n
A1 = A1p1 · · · A1pn ,
A(p+1)1 · · · A(p+1)n
.. ..
. .
An1 · · · Ann
A11 · · ·
A1n
.. ..
. .
(p−1)1 · · ·
A A(p−1)n
A2 = A2p1 · · · A2pn ,
A(p+1)1 · · · A(p+1)n
.. ..
. .
An1 · · · Ann
..
.
A11 · · ·
A1n
.. ..
. .
A(p−1)1 · · · A(p−1)n
Al = Alp1 · · · Alpn .
A(p+1)1 · · · A(p+1)n
.. ..
. .
An1 · · · Ann
Estas matrices satisfacen
65
4.5.5. Renglones como vectores
Supongamos que tenemos la siguiente matriz de n×n de entradas complejas
A11 · · · A1n
.. . . ..
A= . . . , Aij ∈ C, i, j = 1, · · · n,
An1 · · · Ann
con los renglones de esta matriz se pueden formar los siguientes n vectores
R1 = (A11 , A12 , · · · , A1n ),
R2 = (A21 , A22 , · · · , A2n ),
R3 = (A31 , A32 , · · · , A3n ),
..
.
Rn = (An1 , An2 , · · · , Ann ),
det A′ = − det A.
66
Por lo que, usando las propiedades del tensor de Levi-Civita (4.11), se obtiene
det A′ = ϵi1 i2 ···in A′1i1 A′2i2 · · · A′nin
= ϵi1 i2 ···ip−1 ip ip+1 ···iq−1 iq iq+1 ···in
A′1i1 A′2i2 · · · A′(p−1)ip−1 A′pip A′(p+1)ip+1 · · · A′(q−1)iq−1 A′qiq A′(q+1)iq+1 · · · A′nin
= ϵi1 i2 ···ip−1 ip ip+1 ···iq−1 iq iq+1 ···in
A1i1 A2i2 · · · A(p−1)ip−1 Aqip A(p+1)ip+1 · · · A(q−1)iq−1 Apiq A(q+1)iq+1 · · · Anin
= (−)ϵi1 i2 ···ip−1 iq ip+1 ···iq−1 ip iq+1 ···in
A1i1 A2i2 · · · A(p−1)ip−1 Apiq A(p+1)ip+1 · · · A(q−1)iq−1 Aqip A(q+1)iq+1 · · · Anin
= − det A,
que es lo que queríamos demostrar.
Observe que este último resultado implica que si A tiene dos renglones
iguales, entonces su determinante es cero.
67
4.5.6. Renglones linealmente dependientes
Sea la matriz A de la forma
A11 · · · A1n
.. . . ..
A= . . . , Aij ∈ C, i, j = 1, · · · n,
An1 · · · Ann
68
n
X
Ap1 = λk Ak1 = λ1 A11 + · · · + λp−1 A(p−1)1 + λp+1 A(p+1)1 + · · · + λn An1 ,
k=1,k̸=p
Xn
Ap2 = λk Ak2 = λ1 A12 + · · · + λp−1 A(p−1)2 + λp+1 A(p+1)2 + · · · + λn An2 ,
k=1,k̸=p
..
.
n
X
Apn = λk Akn = λ1 A1n + · · · + λp−1 A(p−1)n + λp+1 A(p+1)n + · · · + λn Ann .
k=1,k̸=p
También, note que todas estas matrices tienen dos renglones iguales y por lo
tanto su determinante es igual a cero. Además, usado el resultado (4.14), se
69
obtiene
n
X
det A = λk det Ak = 0.
k=1,k̸=p
det A = 0. (4.16)
det A ̸= 0, (4.17)
70
4.6. Versión alternativa del determinante
Ahora veremos una versión alternativa del determinante que nos permitirá
obtener resultados de una forma más directa y clara.
Adicionalmente, deniendo
i′1 = i2 , i′2 = i1 , i′j = ij , j > 2,
se encuentra
a = −ϵi′1 i′2 ···i′n A1i′1 A2i′2 A3i′3 · · · Ani′n
= − det A,
esto es
det A = −a = −ϵi1 i2 i3 ···in A2i1 A1i2 A3i3 · · · Anin ,
o sea
det A = −ϵi1 i2 i3 ···in A2i1 A1i2 A3i3 · · · Anin . (4.19)
Además, considerando que se cumple
ϵ213···n = −ϵ123···n = −1
71
El resultado (4.20) se consiguió permutando dos índices del tensor de Levi-
Civita y cambiando de lugar dos términos del producto de los coecientes Aij .
Ahora, deniendo
i′1 = ik1 , i′2 = ik2 , · · · , i′n = ikn ,
72
tenemos
b = (−1)P ϵi′1 i′2 ···i′n A1i′1 A2i′2 · · · Ani′n
= (−1)P det A,
esto es
b = (−)P det A.
de donde
det A = (−)P ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in .
por lo cual
det A = ϵσ(1)σ(2)···σ(n) ϵi1 i2 ···in Aσ(1)i1 Aσ(2)i2 · · · Aσ(n)in . (4.26)
Ahora, por cada permutación tenemos una expresión de la forma (4.26), en-
tonces como existen n! permutaciones, se encuentra
ϵi1 i2 ···in ϵj1 j2 ···jn Ai1 j1 Ai2 j2 · · · Aii jn = n! det A
es decir,
1
det A = ϵi i ···i ϵj j ···j Ai j Ai j · · · Aii jn . (4.27)
n! 1 2 n 1 2 n 1 1 2 2
Esta versión del determinante es muy útil para realizar diversas demostracio-
nes.
73
4.7. Determinante de la transpuesta de una ma-
triz
Supongamos que si A es una matriz de n×n, entonces se cumple la igualdad
Para probar esta armación, observe que usando la ecuación (4.27), tenemos
1
det AT = ϵi i ···i ϵj j ···j (A)Ti1 j1 (A)Ti2 j2 · · · (A)Tin jn
n! 1 2 n 1 2 n
1
= ϵi i ···i ϵj j ···j Aj i Aj i · · · Ajn in
n! 1 2 n 1 2 n 1 1 2 2
1
= ϵj j ···j ϵi i ···i Aj i Aj i · · · Ajn in ,
n! 1 2 n 1 2 n 1 1 2 2
esto es,
1
det AT = ϵj j ···j ϵi i ···i Aj i Aj i · · · Ajn in .
n! 1 2 n 1 2 n 1 1 2 2
Ahora, deniendo
i′k = jk , jk′ = ik
tenemos
1
det AT = ϵj j ···j ϵi i ···i Aj i Aj i · · · Ajn in
n! 1 2 n 1 2 n 1 1 2 2
1
= ϵi′ i′ ···i′ ϵj ′ j ′ ···j ′ Ai′ j ′ Ai′ j ′ · · · Ai′n jn′ ,
n! 1 2 n 1 2 n 1 1 2 2
= det A,
de donde
det AT = det A.
74
se obtiene
det AT = det(−A) = (−)n det A = det A.
es decir
det A = (−)n det A.
Por lo que si n es impar y A es una matriz antisimétrica se encuentra
det A = 0.
4.7.1. Ejemplos
Consideremos la matriz
1 −1 2
A = 3 −1 4 ,
2 1 −2
en este caso el determinate es
det A = −6.
Además se puede observar que la transpuesta de A es
1 3 2
AT = −1 −1 1 ,
2 4 −2
que tiene el determinante
det AT = −6.
Por lo que se cumple
det A = det AT = −6.
También se puede observar que la siguiente matriz de 3 × 3
0 3 −2
M = −3 0 4 ,
2 −4 0
es antisimétrica y se cumple
det M = 0.
75
4.8. Determinante de un producto de matrices
Supongamos que A y B son matrices de n × n, probaremos que se cumple
que supondremos que tiene paridad P . Por lo que las expresiones (4.30) y
(4.31) dieren en un término de la forma (−1)P . Entonces
ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn = ϵi1 i2 ···in ATk1 i1 ATk2 i2 · · · ATkn in
= (−)P det AT
= (−)P det A.
76
esto es
ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn = (−)P det A. (4.33)
De la misma forma se cumple
ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn = (−)P det B. (4.34)
Considerando los resultados (4.33) y (4.34), si los índices k1 , k2 , · · · , kn están
jos, se encuentra
ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn = det A det B.
Así, debido a que existen n! permutaciones, si los índices k1 , k2 , · · · , kn no están
jos y se suman, tenemos
(ϵi1 i2 ···in Ai1 k1 Ai2 k2 · · · Ain kn ) (ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn ) = n! det A det B.
Usando este resultado en la ecuación (4.30) llegamos a
1
det(AB) = (ϵi i ···i Ai k Ai k · · · Ain kn ) (ϵj1 j2 ···jn Bk1 j1 Bk2 j2 · · · Bkn jn ) .
n! 1 2 n 1 1 2 2
1
= n! det A det B = det A det B.
n!
es decir
det(AB) = det A det B.
Por lo tanto la expresión (4.29) es correcta.
En especial si
A−1 A = I,
entonces
1 = det I = det A−1 A = det A−1 det (A) .
1
det A−1 =
.
det A
77
4.8.1. Ejemplos
Como un ejemplo consideremos las matrices
2 −3 2 −2 1 5
A = 1 −1 0 , B = 3 0 1 ,
2 4 −2 6 1 1
cuyo producto es
−1 −4 9
AB = −5 1 4 .
−4 0 12
79
4.9. Operaciones con Python
Si queremos calcular el determinante de una matriz de la forma
1 7 8 9
−1 3 6 5
A=
2 1 0 −3
−1 2 1 8
4.10. Ejercicios
1.- Considere las matrices
1 −12 7
A = 3 −11 4
2 1 −5
a) Obtener det A.
b) Obtener AT y det AT .
c) Obtener det(7A).
a) Obtener AB.
80
b) Obtener det A y det B
d) Obtener det(BA).
81
Capítulo 5
Matriz adjunta e inversa de una
matriz
En este capítulo veremos la denición de matriz adjunta. Esta denición
es importante porque nos ayuda a obtener la matriz inversa de una matriz.
5.1. Denición
Hemos mostrado que el determinante de una matriz A se puede escribir
como
1
det A = ϵi i ···i ϵj j ···j Ai j Ai j · · · Ain jn .
n! 1 2 n 1 2 n 1 1 2 2
note que en esta expresión el índice r es jo, mientras que el índice i se suma.
Además, factorizando el término Ari llegamos a
1
det A = Ari ϵri2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn +
n!
+ϵi1 ri3 ···in ϵj1 ij3 ···jn Ai1 j1 Ai3 j3 · · · Ain jn +
+ · · · + ϵi1 i2 ···in−1 r ϵj1 ij3 ···jn−1 i Ai1 j1 Ai2 j2 · · · Ain−1 jn−1 ,
82
ahora pasado al inicio de cada tensor de Levi-Civita los índices r, i obtenemos
n
det A = Ari ϵki2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn
n!
1
= Ari ϵki2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn .
(n − 1)!
esto es
1
det A = Ari ϵki2 ···in ϵij2 ···jn Ai2 j2 · · · Ain jn . (5.1)
(n − 1)!
A la matriz
1
(AdjA)ri = ϵri ···i ϵij ···j Ai j · · · Ain jn . (5.2)
(n − 1)! 2 n 2 n 2 2
Como este resultado es válido para cualquier número r, entonces las compo-
nentes de la diagonal de la matriz A (AdjA)T son todas iguales al determinante
de A, det A.
83
Debido a que el reglón r ya está considerado en la denición de la matriz
adjunta (5.2), la ecuación (5.5) representa al determinante de una matriz con
dos renglones que se repiten, entonces se debe cumplir que
A(AdjA)T
rs
= 0, r ̸= s.
Por lo tanto,
A(AdjA)T
rs
= det Aδrs ,
es decir,
A(AdjA)T = (det A)I. (5.6)
de donde
(AdjA)T
A = I.
det A
De este resultado se puede deducir que si
det A ̸= 0,
1
A−1 = (AdjA)T .
det A
Por lo tanto, una matriz A tiene inversa siempre y cuando sus renglones (y
por lo tanto sus columnas) sean linealmente independientes.
5.2. Matriz de 2 × 2
Como un ejemplo veamos la matriz de 2 × 2
A11 A12
A= ,
A21 A22
podemos ver que en este caso la matriz adjunta (5.2) es
84
De donde se obtiene
(Adj)11 = ϵ1i ϵ1j Aij = ϵ12 ϵ12 A22 = A22 ,
(Adj)12 = ϵ1i ϵ2j Aij = ϵ12 ϵ21 A21 = −A21 ,
(Adj)21 = ϵ2i ϵ1j Aij = ϵ21 ϵ12 A12 = A12 ,
(Adj)22 = ϵ2i ϵ2j Aij = ϵ21 ϵ21 A11 = A11 ,
así tenemos la matriz
A22 −A21
Adj(A) = ,
−A12 A11
por lo que la matriz inversa es
−1 1 1 A22 −A12
A = Adj(A)T = .
det A A11 A22 − A12 A21 −A21 A11
5.3. Matriz de 3 × 3
Como otro ejemplo veamos la matriz de 3 × 3
A11 A12 A13
A = A21 A22 A23 .
A31 A32 A33
Podemos ver que en este caso la matriz adjunta (5.2) es
1
(Adj)ab = ϵai i ϵbj j Ai j Ai j , a, b = 1, 2, 3,
2! 1 2 1 2 1 1 2 2
De donde se obtiene
1
(Adj)11 = ϵ1i i ϵ1j j Ai j Ai j
2 12 12 11 22
1
= (ϵ123 ϵ1j1 j3 A2j1 A3j3 + ϵ132 ϵ1j1 j2 A3j1 A2j2 )
2
1
= ϵ1j j (A2j1 A3j3 − A3j1 A2j2 )
2 13
1 1
= ϵ123 (A22 A33 − A32 A23 ) + ϵ132 (A23 A32 − A33 A22 )
2 2
= (A22 A33 − A32 A23 )
A22 A23 A22 A23
= det = ,
A32 A33 A32 A33
85
esto es
A22 A23 A22 A23
(Adj)11 = (A22 A33 − A32 A23 ) = det = .
A32 A33 A32 A33
Por lo tanto,
A22 A23 A21 A23 A21 A22
+ A32 − +
A33 A31 A33 A31 A32
A12 A13 A11 A13 A11 A12
− A32
Adj(A) = + − .
A33 A31 A33 A31 A32
A12 A13 A11 A13 A11 A12
+ − +
A22 A23 A21 A23 A21 A22
86
Así,
1
A−1 = Adj(A)T
det A
T
A22 A23 A21 A23 A21 A22
+ A32 − +
A33 A31 A33 A31 A32
1 − A12 A13 A11 A13 A11 A12
= + −
det A
A32 A33 A31 A33 A31 A32
A12 A13 A11 A13 A11 A12
+ − +
A22 A23 A21 A23 A21 A22
A22 A23 A12 A13 A12 A13
+ A32 − +
A33 A32 A33 A22 A23
1 − A21 A23 A11 A13 A11 A13
= + − .
det A
A31 A33 A31 A33 A21 A23
A21 A22 A11 A12 A11 A12
+ − +
A31 A32 A31 A32 A21 A22
87
array([[0.31428571,-0.57142857,-0.07142857,0.32857143],
[0.25714286,-0.28571429,-0.28571429,0.31428571],
[-0.22857143,0.30952381,0.22619048,-0.14047619],
[0.22857143,-0.14285714,-0.14285714,0.05714286]])
5.5. Ejercicios
1.- Considere la matriz
1 2 5
A=4 5 6 .
7 8 9
88
Capítulo 6
Sistema de ecuaciones lineales de
n × n, método de Cramer
89
el sistema de ecuaciones (6.1)-(6.3) se puede escribir como
AX = K.
X = A−1 K. (6.4)
6.2. Caso 2 × 2
Supongamos que tenemos el siguiente sistema de ecuaciones
A11 x1 + A12 x2 = k1 ,
A21 x1 + A22 x2 = k2 ,
90
En este caso la matriz inversa es
−1 1 A22 −A12
A = ,
A11 A22 − A12 A21 −A21 A11
Así tenemos la solución
x1 1 A22 −A12 k1
= ,
x2 A11 A22 − A12 A21 −A21 A11 k2
de donde se obtienen los valores
A22 k1 − A12 k2
x1 = ,
A11 A22 − A12 A21
−A21 k1 + A11 k2
x2 = .
A11 A22 − A12 A21
6.3. Caso 3 × 3
Supongamos que tenemos el siguiente sistema de ecuaciones
A11 x1 + A12 x2 + A13 x3 = k1 ,
A21 x1 + A22 x2 + A23 x3 = k2 ,
A31 x1 + A32 x2 + A33 x3 = k3 .
Por lo que, usando la matriz y los vectores
A11 A12 A13 x1 k1
A = A21 A22 A23 , X = x2 , K = k2 ,
A31 A32 A33 x3 k3
este sistema de ecuaciones se puede escribir como
AX = K.
Si det A ̸= 0, la matriz A es invertible y se cumple
X = A−1 K.
esta ecuación tiene la forma concreta
A22 A23 A12 A13 A12 A13
+ A32 − +
A33 A32 A33 A22 A23
x1 k1
1 − A21
A23 A11 A13 A11 A13
x2 = + − k2 ,
det A A31 A33 A31 A33 A21 A23
x3 k3
A21 A22 A11 A12 A11 A12
+ − +
A31 A32 A31 A32 A21 A22
91
es decir
1 A22 A23 A12 A13 A12 A13
x1 = k − k + k ,
det A A32 A33 1 A32 A33 2 A22 A23 3
1 A21 A23 A11 A13 A11 A13
x2 = − k + k − k ,
det A A31 A33 1 A31 A33 2 A21 A23 3
1 A21 A22 A11 A12 A11 A12
x3 = k − k + k .
det A A31 A32 1 A31 A32 2 A21 A22 3
A este método de solución de sistemas ecuaciones lineales se le llama método
de Cramer.
92
por lo que la matriz A tiene inversa y el sistema de ecuaciones tiene solución.
Además,
1 3 2 0 2 0 2
x = − 4+ 3 ,
6 3 2 3 3 3 2
1 1 2 1 2 1 2
y = − + 4− 3 ,
6 0 2 0 2 1 2
1 1 3 1 0 1 0
z = − 4+ 3 ,
6 0 3 0 3 1 3
6.5. Ejercicios
1.- Usando el método de Cramer, resolver el sistema de ecuaciones lineales
x + 2y + 3z = 9,
4x + 5y + 6z = −5,
7x + 8y − z = 3.
93
Capítulo 7
Sistema de ecuaciones lineales de
n × n, método de Gauss-Jordan
ax + b = 0, (7.1)
94
es decir
b
x=− .
a
ax + by =c, (7.3)
dx + ey =f, (7.4)
En este caso, podemos ocupar que sabemos resolver una ecuación lineal de
una incógnita. En efecto, multipliquemos por d a la ecuación (7.3) y por a a
la ecuación (7.4), así obtenemos
dax + dby = dc,
adx + aey = af,
es decir,
(db − ae)y = dc − af.
95
Observe que la ecuación (7.6) es una ecuación lineal de una incóngnita, de
hecho tenemos
ax + by = c,
dc − af af − dc
y = = ,
db − ae ae − db
esto es
ax + by = c, (7.7)
af − dc
y = . (7.8)
ae − db
Ahora al multiplicar por b a la ecuación (7.8) y restar el resultado a la ecuación
(7.7) obtenemos el sistema
af − dc
ax + by − by = c − b ,
ae − db
af − dc
y = ,
ae − db
que se puede escribir de la forma
ce − f b
ax = a ,
ae − db
af − dc
y = .
ae − db
Por lo tanto, la solución al sistema de ecuaciones que estamos estudiando es
ce − bf
x= , (7.9)
ae − db
af − dc
y= . (7.10)
ae − db
7.2.1. Ejemplo
Consideremos el sistemas de ecuaciones
2x + 3y = 6,
4x − 5y = 2.
96
Entonces, multiplicando por 2 a la primera ecuación y restándola a la segunda
ecuación, llegamos a
2x + 3y = 6,
−11y = −10.
a1 x + a2 y + a3 z =a4 , (7.11)
b1 x + b2 y + b3 z =b4 , (7.12)
c1 x + c2 y + c3 z =c4 . (7.13)
97
Primero multiplicamos a la ecuación (7.13) por b1 y a la ecuación (7.12) por
c1 , posteriormente restamos el resultado de estas dos operaciones y colocamos
el resultado en el lugar de la tercera ecuación. Por lo que se obtienen el sistema
a1 x + a2 y + a3 z = a4 ,
b 1 x + b2 y + b3 z = b4 ,
(c1 b1 − b1 c1 )x + (c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ),
esto es
a1 x + a2 y + a3 z = a4 , (7.14)
b 1 x + b2 y + b3 z = b4 , (7.15)
(c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ). (7.16)
Ahora, multiplicamos por a1 a la ecuación (7.15) y por b1 a la ecuación (7.14),
posteriomente restamos el resultado de estas dos operaciones y colocamos el
resultado en el lugar de la segunda ecuación. Así se obtienen el sistema
a1 x + a2 y + a3 z = a4 ,
(b1 a1 − a1 b1 )x + (b2 a1 − b1 a2 )y + (b3 a1 − b1 a3 )z = (b4 a1 − b1 a4 ),
(c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ),
de donde
a1 x + a2 y + a3 z = a4 , (7.17)
(b2 a1 − b1 a2 )y + (b3 a1 − b1 a3 )z = (b4 a1 − b1 a4 ), (7.18)
(c2 b1 − c1 b2 )y + (c3 b1 − c1 b3 )z = (c4 b1 − c1 b4 ). (7.19)
Note, que deniendo las constantes
b̃2 = (b2 a1 − b1 a2 ), b̃3 = (b3 a1 − b1 a3 ), b̃4 = (b4 a1 − b1 a4 ),
c̃2 = (c2 b1 − c1 b2 ), c̃3 = (c3 b1 − c1 b3 ), c̃4 = (c4 b1 − c1 b4 ),
98
Así, usando el método desarrollado anteriormente, llegamos a
a1 x + a2 y + a3 z = a4 , (7.23)
b̃4 c̃3 − b̃3 c̃4
y = B4 = , (7.24)
b̃2 c̃3 − c̃2 b̃3
b̃2 c̃4 − c̃2 b̃4
z = C4 = . (7.25)
b̃2 c̃3 − c̃2 b̃3
Adicionalmente, multiplicando la ecuación (7.24) por −a2 y sumando el resul-
tado a la ecuación (7.23), se obtiene el sistema
a1 x + a3 z = a4 − B4 a2 , (7.26)
y = B4 , (7.27)
z = C4 . (7.28)
Además, multiplicando la ecuación (7.28) por −a3 y sumando el resultado a la
ecuación (7.26), se obtiene el sistema
a1 x = a4 − B4 a2 − C4 a3 ,
y = B4 ,
z = C4 .
a4 − B4 a2 − C4 a3
x =A4 , A4 = ,
a1
y =B4 ,
z =C4 .
7.4. Ejemplos
Consideremos el siguiente sistema de ecuaciones
3x − 5y + 6z = 9, (7.29)
5x − y + 2z = 2, (7.30)
x − 2y + z = −1. (7.31)
99
Para resolver este sistema ecuaciones primero pasamos la tercera ecuación al
inicio y obtenemos
x − 2y + z = −1,
3x − 5y + 6z = 9,
5x − y + 2z = 2.
que implica
x − 2y + z = −1,
y + 3z = 12,
101
z = .
30
Adicionalmente, de este nuevo sistema multiplicamos por −3 a la tercera ecua-
ción y la sumamos a la segunda ecuación, el resultado de este procedimiento
lo ponemos en la segunda ecuación y llegamos a
x − 2y + z = −1,
19
y = ,
10
101
z = .
30
100
Además, en el último sistema que hemos obtenido, restando la tercera ecuación
a la primera y colocando el resultado de este procedimiento en la primera
ecuación obtenemos
131
x − 2y = − ,
30
19
y = ,
10
101
z = .
30
Finamente, multiplicando la segunda ecuación por −2 y sumándola a la pri-
mera ecuación llegamos a
17
x = − ,
30
19
y = ,
10
101
z = ,
30
que es la solución del sistema de ecuaciones (7.29)-(7.31).
1.- Podemos cambiar de lugar las ecuaciones o variables. Note que al hacer
esto no cambia en nada al sistema.
Todas estas operaciones se realizan con el objetivo de dejar una sola varia-
ble en cada renglón.
101
Wilhelm Jordan (1842-1899) fue un ingeniero alemán. Realizó sus estudios
en el Instituto Politécnico de Stuttgart. Sus libros de Geodesia son considerados
clásicos en su área. Especialmente su libro Handbuch der Vermessungskunde
ha sido usado como texto en diferentes partes del mundo, aún después de más
de un siglo de haber sido escrito. En dicha obra, Jordan introduce lo que hoy
se conoce como método de Gauss-Jordan para resolver sistemas de ecuacio-
nes lineales. Además de la ingeniería, tenía pasión por los viajes y un espíritu
aventurero que lo llevó a realizar expediciones a África. Terminó su vida como
profesor en la Universidad Técnica de Hannover.
102
Cabe hacer notar que el método de Gauss-Jordan se le atribuye a Carl
Friedrich Gauss y Wilhelm Jordan. Sin embargo, este método se puede ver en
los libros del matemático chino Jiuzhang Suanshu, los cuales se escribieron 150
años antes de Cristo.
donde la matriz
1 −2 6 9
−1 3 6 4
3 −1 6 3
x 5 6 −1
103
7.7. Ejercicios
1.- Usando el método de Gauss-Jordan, resolver el sistema de ecuaciones
lineales
−x + y + 4z = 8,
x + 5y + 2z = −5,
3x + y − 5z = −7.
104
Capítulo 8
Método de Gauss-Jordan usando
matrices
En este capítulo veremos el método de Gauss-Jornan usando matrices.
8.1. Caso 2 × 2
En el método de Gauss-Jornan para resolver sistemas de ecuaciones lineales
las incógnitas no juegan un papel relevante, por lo que es posible olvidarlas
mientras se resuelve el sistema. Para mostrar este hecho, recordemos un sistema
de ecuaciones de 2 × 2 tiene la forma
ax + by =c,
dx + ey =f,
y su solución es
ce − bf
x = ,
ae − db
af − dc
y = .
ae − db
Ahora, este sistema de ecuaciones se puede escribir de la forma
a b x c
= . (8.1)
d e y f
105
Además, usando esta notación su solución se puede escribir como
ce−bf
1 0 x
= ae−db
af −dc . (8.2)
0 1 y ae−db
a b
d e
a la matriz identidad
1 0
.
0 1
Ahora, note que para tener todas las constantes importantes del sistema de
ecuaciones en una matriz podemos proponer la llamada Matriz extendida
a b c
, (8.3)
d e f
que es una representación del sistema de ecuaciones (8.1). Con esta represen-
tación la solución del sistema de ecuaciones (8.2) se puede escribir como
ce−bf
1 0 ae−db
af −dc , (8.4)
0 1 ae−db
106
1.- Intercambiar renglones o columnas.
8.2. Ejemplos
8.2.1. Sistema 2 × 2
Consideremos el siguiente sistema
2x − y = 6, (8.5)
3x + 5y = 7. (8.6)
En este caso, la matriz extendida es
2 −1 6
.
3 5 7
107
Además, de esta última matriz extendida, al multiplicar por el segundo rengón
por 131 se encuentra la matriz
2 −1 6
4 .
0 1 − 13
Adicionalmente, colocando en el primer renglón la suma de los dos renglones
de esta última matriz extendida se llega a
74
2 0 13 .
0 1 − 14
8.2.2. Sistema 3 × 3
Consideremos el sistema de ecuaciones
2y + 4z = 2, (8.7)
2x + 4y + 2z = 3, (8.8)
3x + 3y + z = 1. (8.9)
En este caso, tenemos la matriz extendida
0 2 4 2
2 4 2 3 ,
3 3 1 1
Al intercambiar el primer renglón por el segundo renglón encontramos la matriz
extendida
2 4 2 3
0 2 4 2 ,
3 3 1 1
108
además, multiplicando por 1
2
al primer renglón de esta matriz, se llega a
3
1 2 1 2
0 1 2 1 .
3 3 1 1
Por lo que multiplicando por −3 al primer renglón y sumando el resultado al
tercer renglón de esta nueva matriz extendida se encuentra
3
1 2 1 2
0 1 2 1 .
0 −3 −2 − 72
Ahora, multiplicando por 3 al segundo renglón y sumando el resultado al tercer
renglón de esta última matriz extendida se obtiene
3
1 2 1 2
0 1 2 1 ,
0 0 4 − 12
así multiplicando por 1
4
al tercer renglón de esta nueva matriz extendida tene-
mos
3
1 2 1 2
0 1 2 1 .
0 0 1 − 18
Además, si en la última matriz extendida multiplicamos por −2 al tercer ren-
glón y sumamos el resultado al segundo renglón se llega a
3
1 2 1 2
0 1 0 5 .
4
0 0 1 − 81
Para continuar con el procedimiento, al primer renglón de la nueva matriz
extendida le restamos su tercer renglón y se obtiene
13
1 2 0 8
0 1 0 5 .
4
0 0 1 − 81
Finalmente, si en la última matriz extendida multiplicamos por −2 al segundo
renglón y sumamos el resultado al primer renglón llegamos a
− 78
1 0 0
0 1 0 5 .
4
0 0 1 − 81
109
Así, la solución al sistema de ecuaciones (8.7)-(8.9) es
7
x = − ,
8
5
y = ,
4
1
z = − .
8
110
Por lo que la solución al sistema de ecuaciones (8.10)-(8.12) es
18
x =
8
15
y = ,
8
35
z = − .
8
8.4. Ejercicios
1.- Usando el método desarrollado en este capítulo, resolver el sistema de
ecuaciones lineales
x + 2y + 3z = −2,
2x + y + 2 = −1,
−2x + y − z = 8.
111
Capítulo 9
Método de Gauss-Jordan y la
inversa de una matriz
En este capítulo veremos que usando el método de Gauss-Jordan es posible
obtener la matriz inversa de una matriz.
9.1. Caso 2 × 2
Sabemos que cualquier sistema de ecuaciones de 2 × 2 se puede escribir de
la forma
ax + by =c,
dx + ey =f,
M X = X0 , (9.1)
con
a b x c
M= , X= , X0 = .
d e y f
112
Así, si existe la matriz inversa de M, es posible resolver un sistema de 2 ecua-
ciones lineales con 2 incógnitas. Claramente este resultado se puede generalizar
a un sistema de n ecuaciones con n variables indeterminadas. Por lo que pode-
mos armar que al resolver un sistema de n ecuaciones lineales con n incógnitas
con el método de Gauss-Jordan, de forma indirecta estamos obteniendo la in-
versa de una matriz.
a b
M= , (9.2)
c d
de donde
a b 1 0 a b 1 0
∼ ∼
c d 0 1 0 da − bc −c a
cb ab
a b 1 0 a 0 1 + da−bc − da−bc
∼ c a ∼ c a ∼
0 1 − da−bc da−bc 0 1 − da−bc da−bc
da ab d b
a 0 da−bc
− da−bc 1 0 da−bc
− da−bc
∼ c a ∼ c a ,
0 1 − da−bc da−bc
0 1 − da−bc da−bc
esto es
d b
a b 1 0 1 0 da−bc
− da−bc
∼ c a .
c d 0 1 0 1 − da−bc da−bc
113
Note que del lado derecho de esta última matriz extendida se obtiene la matriz
1 d −b
= A−1 ,
da − bc −c a
9.2. Ejemplo de 3 × 3
Consideremos la matriz
1 0 5
M = 2 1 6 . (9.3)
3 4 0
En este caso tenemos la matriz aumentada
1 0 5 1 0 0
2 1 6 0 1 0 ,
3 4 0 0 0 1
además usando el método de Gauss-Jordan tenemos
1 0 5 1 0 0 1 0 5 1 0 0
2 1 6 0 1 0 ∼ 0 1 −4 −2 1 0
3 4 0 0 0 1 0 4 −15 −3 0 1
1 0 5 1 0 1 0 5 1 0 0
∼ 0 1 −4 −2 1 0 ∼ 0 1 0 18 −15 4
0 0 1 5 −4 1 0 0 1 5 −4 1
1 0 0 −24 20 −5
∼ 0 1 0 18 −15 4 .
0 0 1 5 −4 1
Observe que la matriz
−24 20 −5
18 −15 4
5 −4 1
es la inversa de la matriz M denida en (9.3).
114
9.3. Ejemplo de 4 × 4
Consideremos la matriz
3 0 2 −1
1 2 0 −2
A= , (9.4)
4 0 6 −3
5 0 2 0
115
Así, usando el método de Gauss-Jordan tenemos
3 0 2 −1 1 0 0 0
1
2 0 −2 0 1 0 0
4 0 6 −3 0 0 1 0
5 0 2 0 0 0 0 1
3 0 2 −1 1 0 0 0
0 −6 2 5 1 −3 0 0
∼
0 0 −10 5 4 0 −3 0
0 0 4 −5 5 0 0 −3
3 0 2 −1 1 0 0 0
0 −6 2 5 1 −3 0 0
∼
0 0 −10 5 4 0 −3 0
0 0 0 −30 66 0 −12 −30
3 0 2 −1 1 0 0 0
0 −6 2 5 1 −3 0 0
∼
0 0 −10 5 4 0 −3 0
0 0 0 1 − 11
5
0 2
5
1
3 0 2 −1 1 0 0 0
0 −6 2 5 1 −3 0 0
∼
0 0 −10 0 15 0 −5 −5
0 0 0 1 − 11
5
0 2
5
1
3 0 2 −1 1 0 0 0
0 −6 2 5 1 −3 0 0
∼
0 0 1 0 − 32 0 21 21
0 0 0 1 − 11
5
0 25 1
3 0 2 −1 1 0 0 0
0 −6 2 0 12 −3 −2 −5
∼
0 0 1 0 − 32 0 1
2
1
2
0 0 0 1 − 11
5
0 2
5
1
116
además,
3 0 2 −1 1 0 0 0
0 −6 2 0 12 −3 −2 −5
∼
0 0 1 0 − 32 0 1
2
1
2
11 2
0 0 0 1 −5 0 5
1
3 0 2 −1 1 0 0 0
0 −6 0 0 15 −3 −3 −6
∼
0 0 1 0 − 32 0 1
2
1
2
0 0 0 1 − 115
0 2
5
1
3 0 2 −1 1 0 0 0
0 1 0 0 − 52 12 12 1
∼
0 0 1 0 − 23 0 12 21
0 0 0 1 − 115
0 25 1
− 65 0 52 1
3 0 2 0
0 1 0 0 − 25 21 12 1
∼
0 0 1 0 − 23 0 21 21
0 0 0 1 − 11
5
0 25 1
9 3
3 0 0 0 5
0 − 5
0
0 1 0 0 − 25 21 1
1
∼
2
0 0 1 0 − 23 0 1
2
1
2
0 0 0 1 − 11
5
0 2
5
1
3
0 − 15 0
1 0 0 0 5
0 1 0 0 − 25 21 1
1
∼ 3
2
1 1 .
0 0 1 0 −2 0 2 2
0 0 0 1 − 11
5
0 2
5
1
117
9.4. Ejercicios
1.- Usando el método de Gauss-Jordan, obtener la inversa de la matriz
1 −4 1
2 1 1 .
0 2 3
118
Capítulo 10
Sistemas de ecuaciones lineales de
n×m
119
y para resolver el sistema de ecuaciones podemos ocupar el método de Gauss-
Jordan.
En este caso podemos pasar los términos que tengan las incógnitas
xl+1 , xl+2 , · · · , xn
120
al lado derecho del sistema de ecuaciones, de donde se obtiene
121
A este sistema lo trataremos como un sistema de dos ecuaciones con dos in-
cógnitas y puede ser asociado a la matriz extendida
3 1 1+z
,
0 1 4 − 5z
aplicando de nuevo el método de Gauss-Jordan se obtiene
3 1 1+z
0 1 4 − 5z
3 0 −3 + 6z
∼
0 1 4 − 5z
1 0 −1 + 2z
∼ .
0 1 4 − 5z
122
al pasar los términos que tienen w al lado derecho de cada ecuación obtenemos
x + 2y + 3z = 1 − w,
4x + 5y + 6z = 3 + w,
7x + 2y + 9z = 2 + 2w,
se obtiene la solución
x −11 4 1 1−w
y = 1 −2 4 −2 3 + w ,
12
z 9 −4 1 2 + 2w
es decir
x 3 17
y = 1 6 + w 2 ,
12 12
z −1 −11
w 0 12
Note que tenemos un número innito de soluciones pues w puede tomar cual-
quier valor.
123
10.2. Propiedades de las soluciones
Hemos visto cómo resolver un sistema de m ecuaciones lineales con n in-
cógnitas. Vale la pena analizar diferentes propiedades de las soluciones.
A11 A12 · · · A1n x1 J1
A21 A22 · · · A2n x2 J2
A= .. .. . . .. , X = .. , J = .. ,
. . . . . .
Am1 Am2 · · · Amn xn Jm
AX = J. (10.6)
λ1 X1 + λ2 X2
124
cumple que
A (λ1 X1 + λ2 X2 ) = Aλ1 X1 + Aλ2 X2 = λ1 AX1 + λ2 AX2 = 0 + 0 = 0,
es decir,
A (λ1 X1 + λ2 X2 ) = 0.
Así, cualquier combinación lineal de las soluciones del sistema homogéneo
(10.7) también es solución de dicho sistema homogéneo. Así, el conjunto de
las soluciones del sistema homogéneo (10.7) forman un espacio vectorial.
AXp = J,
también supongamos que XH1 , XH2 , · · · , XHs es la base del espacio vectorial
que satisface el sistema de ecuaciones homogéneo (10.7),
AXHi = 0, i = 1, 2, · · · , s,
entonces el vector
X = λi XHi + Xp , λi ∈ R (10.8)
en otras palabras
AX = J.
125
10.3. Rango de una matriz
Antes de continuar deniremos como rango r de la matriz A como el número
de renglones linealmente independientes que se obtienen después aplicar el
método de Gauss-Jordan a la matriz A. Nótese que el rango de la matriz A
también nos da el número de ecuaciones linealmente independientes del sistema
de ecuaciones (10.3)-(10.5). Por lo tanto, si tenemos n incógnitas y el rango
del matriz A es r, el número de incógnitas libres es
n−r
10.4. Ejemplos
Consideremos el sistema de ecuaciones
x + 2y − z + 3w + 2u = 1, (10.9)
−2x + 4y + 2z + 2w − u = 3, (10.10)
x + 2y + 3z + w + u = −2, (10.11)
al pasar los términos que tienen w y u al lado derecho de cada ecuación obte-
nemos
x + 2y − z = 1 − 3w − 2u,
−2x + 4y + 2z = 3 − 2w + u,
x + 2y + 3z = −2 − w − u,
126
de donde
x 2 −2 2 1 − 3w − 2u
y = 1 2 1 0 3 − 2w + u ,
8
z −2 0 2 −2 − w − u
es decir,
x −8 −4 −8
y = 1 5 + w −8 + u −3 .
8 8 8
z −6 4 2
127
10.5. Ejercicios
1.- Resolver el sistema de ecuaciones
5x − y + 2z + w = 7,
2x + y + 4z − 2w = 1,
x − 3y − 6z + 5w = 0.
128
Capítulo 11
Matriz de cambio de base
En este capítulo veremos la llamada matriz de cambio de base.
11.1. Denición
Sea V un espacio vectorial de dimensión n sobre el campo K y
{v1 , v2 , · · · , vn } (11.1)
129
observe que esta igualdad se puede escribir como
v1′ β11 β12 · · · β1n v1
v ′ β21 β22 · · · β2n v2
2
.. = .. .. . . .. .. .
. . . . . .
vn′ βn1 βn2 · · · βnn vn
es decir
vi = (β ′ β)ik vk . (11.5)
Ahora, debido a que
vi = δik vk ,
por lo que
(δik − (β ′ β)ik ) vk = 0. (11.6)
Como el conjunto de vectores vk forman una base de V, son linealmente inde-
pendientes. Por lo que la ecuación (11.6) implica la igualdad
δik − (β ′ β)ik = 0
de donde
δik = (β ′ β)ik
130
lo que es lo mismo
β ′ β = I.
tales que
v = λi vi (11.7)
Es decir,
λi βij′ − λ′j vj′ = 0. (11.9)
Además, como los vectores vj′ forman una base, son linealmente independientes
y la ecuación (11.9) implica la igualdad
λi βij′ − λ′j = 0,
131
de donde se encuentra la expresión
λ′j = λi βij′ = βji
′T
λi . (11.10)
A la matriz
N ′ = β ′T ,
de donde
λj = Nji λ′i ,
por lo que
λ1 N11 N12 · · · N1n λ′1
λ2 N21 N22 · · · N2n λ′
2
.. = .. .. . . .. .. .
. . . . . .
λn Nn1 Nn2 · · · Nnn λ′n
11.2. Ejemplo
Como un ejemplo consideremos la base canónica
{v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 1, 0)}
y la base
{v1′ = (1, 0, 0), v2′ = (1, 1, 0), v3′ = (1, 1, 1)}
132
es decir
v1′ = 1v1 + 0v2 + 0v3 ,
v2′ = 1v1 + 1v2 + 0v3 ,
v3′ = 1v1 + 1v2 + 1v3 ,
de donde
1 0 0
β= 1 1 0
1 1 1
y la matriz asociada al cambio de base es
1 1 1
N = (β)T = 0 1 1 .
0 0 1
Note que también se cumple
1 0 0 1 −1 0
−1 T
β −1 N −1 = β
= −1 1 0 , = 0 1 −1 ,
0 −1 1 0 0 1
las cuales se obtienen al hacer el cambio de base inverso.
11.3. Ejercicios
1.- Considere las bases
{v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1)}
y
{v1′ = (1, 2, 0), v2′ = (−2, 1, 0), v3′ = (0, 0, 1)} ,
obtener la matriz de cambio de base entre ellas.
133
Capítulo 12
Transformaciones lineales
En este capítulo veremos la denición de transformación lineal y algunas
implicaciones importantes de dicha denición.
12.1. Denición
Sean dos espacios vectoriales (V, K, +, ·) y (W, K, +, ·) sobre el mismo cam-
po K. Se dice que la función
T : V −→ W
134
que es la propiedad (12.1). Ahora, si tomamos λ1 = λ, v1 = v y λ2 = 0, la
ecuación (12.3) toma la forma
T (λv) = λT (v),
tal que
T (v) = λv, v ∈ V,
esto es
T (αv1 + βv2 ) = αT (v1 ) + βT (v2 ).
135
Para los espacios vectoriales R2 y R2 , la función
T (x, y) = (x + 3y, −2x + 5y) (12.4)
es lineal. En efecto, si λ1 , λ2 ∈ R se cumple
T (λ1 (x1 , y1 ) + λ2 (x2 , y2 )) = T (λ1 x1 + λ2 x2 , λ1 y1 + λ2 y2 )
= (λ1 x1 + λ2 x2 + 3(λ1 y1 + λ2 y2 ), −2(λ1 x1 + λ2 x2 ) + 5(λ1 y1 + λ2 y2 ))
= (λ1 (x1 + 3y1 ) + λ2 (x2 + 3y2 ), λ1 (−2x1 + 5y1 ) + λ2 (−2x2 + 5y2 ))
= (λ1 (x1 + 3y1 ), λ1 (−2x1 + 5y1 )) + (λ2 (x2 + 3y2 ), λ2 (−2x2 + 5y2 ))
= λ1 (x1 + 3y1 , −2x1 + 5y1 ) + λ2 (x2 + 3y2 , −2x2 + 5y2 )
= λ1 T (x1 , y1 ) + λ2 T (x1 , y1 ),
por lo cual
T (λ1 (x1 , y1 ) + λ2 (x2 , y2 )) = λ1 T (x1 , y1 ) + λ2 T (x1 , y1 ).
se tiene
α11 α12 · · · α1m x1 α1k xk
α21 α22 · · · α2m x2 α2k xk
.. .. . . .. .. = .. .
. . . . . .
αn1 αn2 · · · αnm xm αnk xk
136
Por lo que la transformación lineal (12.5) se puede asociar con una matriz. En
particular, la transformación lineal (12.4) se puede asociar con la matriz
1 3
,
−2 5
y se cumple
1 3 x x + 3y
= .
−2 5 y −2x + 5y
∂
T =
∂x
tenemos
∂
T (αf1 (x) + βf2 (x)) = (αf1 (x) + βf2 (x))
∂x
∂ ∂
= α f1 (x) + β f2 (x)
∂x ∂x
= αT (f1 (x)) + βT (f2 (x)) .
T (v) = f (x)v,
137
12.3.3. Transformadas integrales
Dada una función g(k, x) integrable se puede denir una transformación
lineal entre funciones integrales. Si f (x) es una función integrable denimos
Z b
f˜(k) = T (f (x)) = dxg(k, x)f (x). (12.6)
a
Para cada función, g(k, x), bien portada (derivable y suave) se puede denir
una transformada integral.
12.4. Núcleo
Sean dos espacios vectoriales (V, K, +, ·) y (W, K, +, ·) sobre el mismo cam-
po K y
T : V −→ W
una función lineal.
138
Por lo que si T es una función lineal, se cumple
T (0) = T (0v) = 0T (v) = 0,
o lo que es lo mismo
T (0) = 0.
Así, si T es una función lineal, T manda el cero de V al cero de W.
139
12.4.1. Núcleo y funciones inyectivas
El conjunto Ker(T ) contiene información de la función T. Por ejemplo,
un resultado interesante es que si el núcleo de T solo contiene al vector cero,
entonces T es una función invectiva. Para probar esta armación supongamos
que
Ker(T ) = {0} .
Ahora si
v1 , v2 ∈ V
y se cumplen
T (v1 ) = T (v2 ),
entonces
0 = T (v1 ) − T (v2 ).
por lo que
v1 − v2 ∈ Ker(T ) = {0} ,
en consecuencia
v1 − v2 = 0,
es decir
v1 = v2 .
140
12.4.2. Núcleo e independencia lineal
Otro resultado interesantes es que si el conjunto de vectores de V
v1 , v2 , · · · , vn
es decir
T (α1 v1 + α2 v2 + · · · + αn vn ) = 0,
lo que implica
α1 v1 + α2 v2 + · · · + αn vn ∈ Ker(T ) = {0}.
Por lo que
α1 v1 + α2 v2 + · · · + αn vn = 0
141
12.5. Imagen
Sean dos espacios vectoriales (V, K, +, ·) y (W, K, +, ·) sobre el mismo cam-
po K y
T : V −→ W
una función lineal. Denimos la imagen de T como el subconjunto de los
vectores w en W tales que existe al menos un vector v en V que cumple
T (v) = w,
es decir,
T (V ) = Im(T ) = {w ∈ W | ∃v ∈ V, T (v) = w} .
142
12.5.2. Imagen y subespacios en el dominio
Ahora supongamos que A es un subconjunto de V, entonces deniremos
T (A) = {w ∈ W | ∃v ∈ A, T (v) = w} .
w1 , w2 ∈ T (A),
entonces existe
v1 , v2 ∈ A
tal que
T (v1 ) = w1 , T (v2 ) = w2 .
Ahora, sea α1 , α2 ∈ K, con estos escalares podemos formar el vector
w = α1 w1 + α2 w2 ∈ W,
de donde
α1 w1 + α2 w2 ∈ T (A).
143
12.6. Imagen inversa
Ahora supongamos que B es un subconjunto de W, entonces deniremos el
conjunto
T −1 (B) = {v ∈ V | ∃w ∈ B, T (v) = w} .
entonces existe
w1 , w2 ∈ B
tal que
T (v1 ) = w1 , T (v2 ) = w2 .
Ahora, sea α1 , α2 ∈ K, con estos escalares podemos formar la combinación
lineal
v = α1 v1 + α2 v2 .
Considerando que T es un función lineal tenemos
T (v) = T (α1 v1 + α2 v2 )
= α1 T (v1 ) + α2 T (v2 )
= α1 w 1 + α2 w 2 ,
144
Así hemos probado que si v1 , v2 ∈ T −1 (B) y α1 , α2 ∈ K, entonces α1 v1 +α2 v2 ∈
T −1 (B). Lo cual dice que si B es subespacio vectorial de W, T −1 (B) es un
subespacio vectorial de V.
en K tales que
α1 v1 + α2 v2 + · · · + αl vl = 0.
es decir
α1 w1 + α2 w2 + · · · + αl wl = 0.
145
Por lo tanto si α1 v1 + α2 v2 + · · · + αl vl = 0, entonces α1 = α2 = · · · = αl = 0.
Es decir, el conjunto de vectores (12.8) es linealmente independiente.
Observe que si
T (vj ) = 0, j = r + 1, r + 2, · · · , n
entonces
vj ∈ Ker(T )
146
y como los vectores (12.10) forman una base del conjunto Ker(T ), entonces
existen r escalares α1 , α2 , · · · , αr tales que
vj = α1 v1 + α2 v2 + · · · + αr vr .
Esta última ecuación contradice el hecho de que los vectores (12.12) sean li-
nealmente independientes, y por lo tanto, que sean base de V. Entonce, deben
existir n − r vectores no nulos en W de tal forma que
T (vr+1 ) = wr+1 , T (vr+2 ) = wr+2 , · · · , T (vn ) = wn . (12.13)
Estos vectores son linealmente independientes. En efecto, supongamos que exis-
ten n − r escalares
λr+1 , λr+2 , · · · , λn
de tal forma que
λr+1 wr+1 + λr+2 wr+2 + · · · + λn wn = 0,
es decir,
λr+1 T (vr+1 ) + λr+2 T (vr+2 ) + · · · + λn T (vn ) = 0.
Por lo que
T (λr+1 vr+1 + λr+2 vr+2 + · · · + λn vn ) = 0,
así,
λr+1 vr+1 + λr+2 vr+2 + · · · + λn vn ∈ Ker(T ).
Considerando que el conjunto de vectores (12.10) es una base del conjunto
Ker(T ), existen r escalares µ1 , µ2 , · · · , µr tales que
o sea
λr+1 vr+1 + λr+2 vr+2 + · · · + λn vn − µ1 v1 − µ2 v2 − · · · − µr vr = 0.
Esta expresión es una combinación lineal nula de los vectores (12.12), los cuales
son una base de V, por lo tanto
λr+1 = λr+2 = · · · = λn = µ1 = µ2 = · · · = µr = 0.
147
Ahora, supongamos que w ∈ Im(T ), entonces existe al menos un vector
v ∈ V de tal forma que
T (v) = w.
Además, debido a que el conjunto de vectores (12.12) son una base de V, existen
n escalares ζ1 , ζ2 , · · · ζn tales que
v = ζ1 v1 + ζ2 + · · · ζr vr + ζr+1 vr+1 + · · · + ζn vn .
Así, hemos mostrado que cualquier vector del conjunto Im(T ) se puede escri-
bir como combinación lineal de los n − r vectores (12.13), por lo que dichos
vectores son generadores del Im(T ).
148
Giuseppe Peano (1858-1932) fue un matemático italiano que realizó contri-
buciones relevantes en los fundamentos de las matemáticas y la lógica. Fue
hijo de dos granjeros del Piamonte italiano. De niño tenía que caminar cinco
kilómetros al día para asistir a la escuela. Realizó sus estudios doctorales ba-
jo la dirección de Enrico D' Ovidio, en la Universidad de Turín. Se interesó
en construir un lenguaje universal escrito para las matemáticas que todos los
matemáticos de Mundo pudieran entender y usar. En este sentido, inventó su
propia notación que la actualidad se sigue usando en la lógica. También se
interesó en dar fundamentos sólidos a las matemáticas, por lo que incursionó
en la lógica y en la teoría de conjuntos. En estos temas sus trabajos inuyeron
a importantes lósofos como Bertrand Russell. Por estas razones es conside-
rado uno de los padres de la Lógica Matemática. Siendo muy joven inició el
proyecto llamado Formulario, una obra en la cual buscó tener todas las demos-
traciones y fórmulas matemáticas conocidas hasta su tiempo. Debido a que no
le gustaba la calidad de las impresiones de los libros de matemáticas, fundó
su propia imprenta. También realizó contribuciones al cálculo y a la geome-
tría. Por ejemplo, construyó la llamada curva de Peano, que tiene propiedades
fractales. Peano estaba interesado en la enseñanza de las matemáticas por lo
que escribió diversos libros que inuyeron a estudiantes italianos de todos los
niveles educativos. Murió de un ataque al corazón en 1932.
12.8. Ejercicios
1.- Suponiendo que g(x) es una función continua, determinar si la siguiente
transformación es lineal
∂2
T [f (x)] = + g(x) f (x).
∂x2
2.- Suponiendo que g(x) es una función continua, determinar si la siguiente
transformación es lineal
∂ 2 f (x)
T [f (x)] = + g(x) (f (x))2 .
∂x2
3.- Determinar si la siguiente transformación es lineal
T [f (x)] = ln (f (x)) .
4.- Determinar si la siguiente transformación es lineal
F (x, y) = (2x − y, x + 4y).
149
5.- Determinar si la siguiente transformación es lineal
F (x, y) = (2x − y, x2 + 4y).
150
Capítulo 13
Combinación lineal y composición
de transformaciones lineales
En este capítulo mostraremos que al hacer combinaciones lineales de trans-
formaciones lineales o composición de ellas se obtiene otra transformación li-
neal.
de la forma
T = aT1 + bT2 .
151
Note que esta nueva transformación cumple
T (αv1 + βv2 ) = (aT1 + bT2 ) (αv1 + βv2 )
= aT1 (αv1 + βv2 ) + bT2 (αv1 + βv2 )
= a (αT1 (v1 ) + βT1 (v2 )) + b (αT2 (v1 ) + βT2 (v2 ))
= α (aT1 (v1 ) + bT2 (v1 )) + β (aT1 (v2 ) + bT2 (v2 ))
= α (aT1 + bT2 ) (v1 ) + β (aT1 + bT2 ) (v2 )
= αT (v1 ) + βT (v2 ) .
Así, cualquier combinación lineal de dos operadores lineales nos da otro ope-
rador lineal.
F = F2 ◦ F1 : V1 −→ V3 ,
Probaremos que F es una función lineal. Para realizar esta prueba supongamos
que v1 , v2 ∈ V1 y α, β ∈ K, de donde
F (αv1 + βv2 ) = (F1 ◦ F2 ) (αv1 + βv2 )
= F1 (F2 (αv1 + βv2 ))
= F1 (αF2 (v1 ) + βF2 (v2 ))
= αF1 (F2 (v1 )) + βF1 (F2 (v2 ))
= α (F1 ◦ F2 ) (v1 ) + β (F1 ◦ F2 ) (v2 )
= αF (v1 ) + βF (v2 ) ,
esto es
F (αv1 + βv2 ) = αF (v1 ) + βF (v2 ) .
Por lo tanto, la composición de dos funciones lineales también da como resul-
tado otro operador lineal.
152
13.3. Ejemplos
Por ejemplo, sabemos que los operadores
∂ ∂ ∂
, ,
∂x ∂y ∂z
son lineales, entonces también lo son
∂2 ∂2 ∂2
, , .
∂x2 ∂y 2 ∂z 2
Esto implica que el operador Laplaciano
∂2 ∂2 ∂2
∇2 = + +
∂x2 ∂y 2 ∂z 2
es lineal. Recordemos que cualquier función V (x, y, z) que cumpla el papel de
operador, es lineal. Entonces el operador Hamiltoniano
ℏ2 2
H=− ∇ + V (x, y, z)
2m
es lineal. Esto se debe a que es combinación lineal de opeadores lineales. Ade-
más las variables
x, y, z
como operadores son lineales. Entonces los operadores
∂ ∂ ∂ ∂ ∂ ∂
Lx = −i y −z , Ly = −i z −x , Lz = −i x −y ,
∂z ∂y ∂x ∂z ∂y ∂x
son lineales, puesto que son combinaciones lineales de productos de operadores
lineales. Por la misma razón, el operador
L2 = L2x + L2y + L2z
es lineal.
13.4. Ejercicios
1.- Sin c es una constante, con los siguientes operadores lineales del espacio-
tiempo
x, y, z, ct,
∂ ∂ ∂ ∂
, , ,
∂x ∂y ∂z ∂ct
obtener todos los operadores lineales que se pueden obtener hasta una potencia
2.
153
Capítulo 14
Matriz asociada a una
transformación lineal
En este capítulo mostraremos que las transformaciones lineales que actúan
en espacios vectoriales de dimesión nita tienen asociada una matriz y veremos
algunas propiedades de dicha matriz.
14.1. Matriz
Sea V un espacio vectorial de dimensión n sobre el campo K y sea W un
espacio vectorial de dimensión m sobre el mismo campo y
T : V −→ W
154
Ahora, como T (vi ) ∈ W, i = 1, 2, · · · , n, existen nm escalares en K tales que
155
14.2. Ejemplo
Por ejemplo, consideremos la transformación lineal
T (x, y, z) = (3x − y + 5z, 5x − 6y + 7z, x − 7y + 8z), (14.5)
ocupando la base canónica
(1, 0, 0), (0, 1, 0) (0, 0, 1) (14.6)
se encuentra
T (1, 0, 0) = (3, 5, 1) = 3(1, 0, 0) + 5(0, 1, 0) + 1(0, 0, 1)
T (0, 1, 0) = (−1, −6, −7) = −1(1, 0, 0) − 6(0, 1, 0) − 7(0, 0, 1),
T (0, 0, 1) = (5, 7, 8) = 5(1, 0, 0) + 7(0, 1, 0) + 8(0, 0, 1),
de donde se obtiene
3 5 1
α = −1 −6 −7 ,
5 7 8
Note que
3 −1 5 x 3x − y + 5
M = αT = 5 −6 7 y = 5x − 6y + 7z ,
1 −7 8 z x − 7y + 8z
156
Sean V, W1 , W2 espacios vectoriales de dimensión nita sobre un campo K
y
T1 : V −→ W1 ,
T2 : W1 −→ W2
es base de V, que
{w1 , w2 , · · · , wm1 }
es base de W1 y
{w1′ , w2′ , · · · , wm
′
2
}
es base de W2 . Además, supongamos que con dichas bases M1 es la matriz
asociada a T1 y M2 es la matriz asociada a T2 . Entonces, la matriz asociada a
la composición de las funciones lineales
T = (T2 ◦ T1 ) : V −→ W2
es el producto de matrices
M = M2 M1 .
Para demostrar esta armación, recordemos que debido a que los conjuntos
{vi }(i = 1, 2, · · · , n), {wj }(j = 1, 2, · · · , m1 ), {wk′ }(k = 1, 2, · · · , m2 ) son bases
de V, W1 , W2 , respectivamente, entonces si v ∈ V existen n números λi tales
que
v = λi vi ;
157
como T (v) = (T2 ◦ T1 )(v) ∈ W2 existen nm2 números λ̃k tales que
T (v) = λ̃k wk′ . (14.7)
Por lo tanto,
T (v) = (T2 ◦ T1 )(v)
= T2 (T1 (v))
= T2 (T1 (λi vi ))
= T2 (λi T1 (vi ))
= T2 (λi αij wj )
= λi αij T2 (wj )
′
= λi αij αjk wk′
= λi (αα′ )ik wk′ ,
es decir
T (v) = λi (αα′ )ik wk′ .
que implica
λi (αα′ )ik wk′ − λ̃k wk′ = (λi (αα′ )ik − λ̃k )wk′ = 0,
esto es
(λi (αα′ )ik − λ̃k )wk′ = 0.
de donde
λ̃k = λi (αα′ )ik = (αα′ )Tki λi ,
así obtenemos
λ̃k = (αα′ )Tki λi .
158
Por lo tanto, la matriz asociada a T es
M = (αα′ )T
= α′T αT
= M2 M1 ,
esto es,
M = M2 M1 ,
14.4. Ejemplo
Por ejemplo, consideremos las transformaciones lineal
T1 (x, y, z) = (x − y + z, x + y − z, 2x + y + z),
T2 (x, y, z) = (−x + 2y + z, −x − y + z, −x + y + z),
por lo que
T (x, y, z) = (T2 ◦ T1 ) (x, y, z) = (3x + 4y − 2z, x + z, 2x + 4y − z).
se obtienen
T1 (1, 0, 0) = (1, 1, 2) = 1(1, 0, 1) + 1(0, 1, 0) + 2(0, 0, 1),
T1 (0, 1, 0) = (−1, 1, 1) = −1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1),
T1 (0, 0, 1) = (1, −1, 1) = 1(1, 0, 0) − 1(0, 1, 0) + 1(0, 0, 1),
159
También utilizando la base canónica se llega a
T2 (1, 0, 0) = (−1, −1, −1) = −1(1, 0, 0) − 1(0, 1, 0) − 1(0, 0, 1),
T2 (0, 1, 0) = (2, −1, 1) = 2(1, 0, 0) − 1(0, 1, 0) + 1(0, 0, 1),
T2 (0, 0, 1) = (1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1),
de donde
−1 −1 −1
α2 = 2 −1 1 ,
1 1 1
de donde
3 0 2
α= 4 1 3 ,
−2 1 −1
160
14.5. Cambio de base y matriz asociada
Sea V un espacio vectorial de dimensión nita y
T : V −→ V
M ′ = N −1 M N.
Para mostrar esta armación, primero recordemos que debido a que {vi } y
{vi′ } son bases de V y N es la matriz de cambio de base se tiene
vi′ = NijT vj , j = 1, 2, · · · , n.
Por lo tanto
T (vi′ ) = T NijT vj
= NijT T (vj )
T
= NijT Mjk vk
= (M N )Tik vk ,
además
T (vi′ ) = Mij′T vj′
= Mij′T Njk
T
vk
T
= (N M ′ )ik vk ,
161
de donde
T
(M N )Tik vk = (N M ′ )ik vk ,
es decir
(M N )Tik − (N M ′ )Tik vk = 0.
que implica
(M N )T = (N M ′ )T .
así obtenemos
M ′ = N −1 M N,
14.6. Ejemplo
Por ejemplo, consideremos la transformación lineal
T (x, y, z) = (2x + y + z, −x − y + 3z, 2x − y + 3z),
se obtienen
T (1, 0, 0) = (2, −1, 2) = 2(1, 0, 0) − 1(0, 1, 0) + 2(0, 0, 1),
T (0, 1, 0) = (1, −1, −1) = 1(1, 0, 0) − 1(0, 1, 0) − 1(0, 0, 1),
T (0, 0, 1) = (1, 3, 3) = 1(1, 0, 0) + 3(0, 1, 0) + 3(0, 0, 1),
162
por lo que se encuentra
2 −1 2
α = 1 −1 −1 ,
1 3 3
entonces la matriz asociada con esta base es
2 1 1
M = αT = −1 −1 3 .
2 −1 3
Mientras que con la base
(1, 1, 0), (1, −1, 0), (1, 1, 1)
se encuentra
1 5
T (1, 1, 0) = (3, −2, 1) = − (1, 1, 0) + (1, −1, 0) + 1(1, 1, 1)
2 2
5 1
T (1, −1, 0) = (1, 0, 3) = − (1, 1, 0) + (1, −1, 0) + 3(1, 1, 1),
2 2
3 3
T (1, 1, 1) = (4, 1, 4) = − (1, 1, 0) + (1, −1, 0) + 4(1, 1, 1),
2 2
que implica la matriz
− 12 5
2
1
α′ = − 52 1
2
3 ,
− 32 3
2
4
de donde la matriz asociada con esta base es
−1 −5 −3
1
M ′ = αT = 5 1 3 .
2
2 6 8
Además podemos ver que
(1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1),
(1, −1, 0) = 1(1, 0, 0) − 1(0, 1, 0) + 0(0, 0, 1),
(1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1),
que induce la matriz
1 1 0
β = 1 −1 0 ,
1 1 1
163
así la matriz de cambio de base y su inversa son
1 1 1 1 1 −2
1
N = β T = 1 −1 1 , N −1 = 1 −1 0 .
2
0 0 1 0 0 2
14.7. Ejercicios
1.- Con la base canónica, obtener la matriz asociada a la transformación
lineal
T (x, y, z) = (2x + 3y − z, x + y + z, x − 2y + 3z).
2.- Suponiendo que se usa la base canónica, encontrar la transformación
lineal está asociada a la matriz
3 0 1
M = 4 −1 1 .
1 2 1
164
Capítulo 15
Producto escalar
En este capítulo veremos la denición de producto escalar en un espacio
vectorial. Además veremos ejemplos de espacios vectoriales con producto es-
calar.
15.1. Denición
Una operación importante entre vectores es el producto escalar. Este
producto manda dos vectores a un número complejo
⟨|⟩ : V × V → C
165
Existen diferentes implicaciones de estos axiomas. Por ejemplo, para cual-
quier vector v se cumple
⟨v|0⟩ = 0.
Esta igualdad es correcta, pues considerando que los número complejos cum-
plen que
(z1 z2 )∗ = z1∗ z2∗ , (z ∗ )∗ = z
y los axiomas (15.3)-(15.4) se encuentra
⟨λv1 |v2 ⟩ = (⟨λv2 |v1 ⟩)∗
= (λ ⟨v2 |v1 ⟩)∗
= λ∗ (⟨v2 |v1 ⟩)∗
∗
= λ∗ ((⟨v1 |v2 ⟩)∗ )
= λ∗ ⟨v1 |v2 ⟩ .
Antes de ver otras propiedades del producto escalar, veremos algunos ejem-
plos de ellos.
166
el producto escalar se dene como
n
X
⟨v|w⟩ = v1∗ w1 + v2∗ w2 + ··· + vn∗ wn = vi∗ wi .
i=1
Note que a los vectores v y w se les puede asignar las matrices columna
v1 w1
v2 w2
v = .. , w = .. ,
. .
vn wn
por lo que
w1
w2
v ∗T w = v1∗ v2∗ ··· vn ..
∗
.
wn
=v1∗ w1 + v2∗ w2 + · · · + vn∗ wn
Xn
= vi∗ wi
i=1
= ⟨v|w⟩ ,
⟨v|w⟩ = v ∗T w.
además si
|v1 |2 + |v2 |2 + · · · + |vn |2 = 0,
167
entonces
v1 = 0, v2 = 0, · · · , vn = 0,
por lo que
v = (0, 0, · · · , 0).
Así esta dención de producto escalar cumple el axioma (15.1).
en este caso podemos concluir este producto escalar cumple el axioma (15.3).
es decir,
⟨w|v⟩ = ⟨v|w⟩∗
168
15.2.2. Funciones
Si q(x) es una función real, continua y positiva en el intervalo (a, b), para
el espacio vectorial de las funciones continuas, {f }, que va del intervalo [a, b]
a los complejos, tales que
Z b
dxq(x)f ∗ (x)f (x) < ∞,
a
Z b
⟨f |g⟩ = dxq(x)f ∗ (x)g(x). (15.5)
a
169
Los axiomas restantes también se cumplen, para probar esta armación su-
pongamos que λ es un número complejo, entonces
Z b
⟨f |g⟩ = dxq(x)f ∗ (x)λg(x)
a
Z b
= λ dxq(x)f ∗ (x)g(x) = λ ⟨f |g⟩ ,
a
además
Z b ∗
∗ ∗
⟨f |g⟩ = dxq(x)f (x)g(x)
a
Z b
= dxq(x) (f ∗ (x))∗ g ∗ (x)
a
Z b
= dxq(x)f (x)g ∗ (x)
a
Z b
= dxq(x)g ∗ (x)f (x)
a
= ⟨g|f ⟩ .
15.2.3. Matrices
Supongamos que M y N pertenecen al espacio vectorial de las matrices
de entradas complejas de n × n, deniremos el producto escalar entre estas
matrices como
⟨M |N ⟩ = T r M ∗T N . (15.6)
170
El primer axioma se cumple, pues
⟨M |M ⟩ = T r M ∗T M
Xn
M ∗T M ii
=
i=i
n X
X n
M ∗T
= ik
Mki
i=1 k=1
n X
X n
∗
= Mki Mki
i=1 k=1
Xn X n
= |Mik |2 ≥ 0,
i=1 k=1
esto es
n X
X n
⟨M |M ⟩ = |Mik |2 ≥ 0.
i=1 k=1
= T r M ∗T N1 + M ∗T N2
= T r M ∗T N1 + T r M ∗T N2
= ⟨M |N1 ⟩ + ⟨M |N2 ⟩ .
Xn
M ∗T λN ii
=
i=i
n
X
M ∗T N
= λ ii
i=i
= λT r M ∗T N
= λ ⟨M |N ⟩ .
171
Adicionalmente, se encuentra
⟨M |N ⟩ = T r M ∗T N
T
= T r M ∗T N
= T r NT M∗
∗ ∗
T r NT M∗
=
∗
= T r N ∗T M
= (⟨N |M ⟩)∗ .
Por lo tanto, (15.6) es un producto escalar para el espacio vectorial de las ma-
trices de n × n.
15.2.4. Sucesiones
P Si tenemos dosPsucesiones s1 = {an }∞
n=0 y s2 = {bn }n=0 donde an , bn ∈ C y
∞
Observe que éste es una generalización del producto escalar entre vectores.
172
Se dice que los vectores v1 y v2 son ortogonales si
⟨v1 |v2 ⟩ = 0.
173
son ortogonales, pues
⟨M1 |M2 ⟩ = T r M1T M2
T !
1 1 1 −1
= Tr
0 −1 1 0
1 0 1 −1
= Tr
1 −1 1 0
1 −1
= Tr
0 −1
= 1 − 1 = 0.
⟨v|v⟩ = 1.
174
es normal, pues
Z 1
r r
3 3
⟨f (x)|f (x)⟩ = x· x
−1 2 2
Z 1
3
= x2
2 −1
1
3
3x
= = 1.
2 3
−1
Además, la matriz
1 2 1
M=√ ,
6 0 1
cumple que
⟨M |M ⟩ = T r M T M
T !
1 2 1 1 2 1
= Tr √ √
6 0 1 6 0 1
1 2 0 2 1
= Tr
6 1 1 0 1
1 4 2
= Tr
6 2 2
4+2
= = 1.
6
Así, M es una matriz normal.
175
el cual es unitario. En efecto, se satisface
v v
⟨u|u⟩ = ⟨ p |p ⟩
⟨v|v⟩ ⟨v|v⟩
!2
1
= p ⟨v|v⟩
⟨v|v⟩
1
= ⟨v|v⟩ = 1,
⟨v|v⟩
es decir
⟨u|u⟩ = 1,
por lo que u es un vector unitario.
es ortonormal si
implica bi = 0.
176
son un conjunto de escalares tales que
n
X
0= ai vi .
i=1
Entonces, como los vectores del conjunto {vi }ni=1 son ortonormales, si el vector
vj es un vector de ese conjunto se encuentra que
* n
+
X
0 = ⟨vj |0⟩ = vj ai v i
i=1
n
X
= ⟨vj |ai vi ⟩
i=1
Xn
= ai ⟨vj |vi ⟩
i=1
Xn
= ai δij = aj ,
i=1
se cumple
n
X
⟨v|v⟩ = |ai |2 .
i=1
177
En efecto,
Xn n
X
⟨v|v⟩ = ⟨ ai vi aj v j ⟩
i=1 j=1
n
XX n
= ⟨ai vi |aj vj ⟩
i=1 j=1
Xn X n
= a∗i aj ⟨vi |vj ⟩
i=1 j=1
Xn X n
= a∗i aj δij
i=1 j=1
Xn
= |ai |2 ,
i=1
einφ
{Φn (φ)} = √ , n∈Z (15.7)
2π
178
De hecho
Z 2π
⟨Φn (φ)|Φm (φ)⟩ = dφ (Φn (φ))∗ Φm (φ)
0
Z 2π
1
= dφei(m−n)φ .
2π 0
Si m = n, es claro que
Z 2π Z 2π
1 i(n−n)φ 1
dφe = dφ = 1.
2π 0 2π 0
Adicionalmente, si n ̸= m se tiene
Z 2π 2π
1 i(m−n)φ 1 1
dφe = ei(m−n)φ
2π 0 2π i(n − m) 0
1 1
(−1)2(m−n) − 1 = 0.
=
2π i(m − n)
Por lo tanto,
⟨Φn (φ)|Φm (φ)⟩ = δmn , (15.8)
1 cos nx sin nx
{ψ(x)} = √ , √ , √ , n∈N (15.9)
2π π π
179
Para mostrar esta armación ocuparemos las identidades
1
cos(α) cos(β) = [cos(α − β) + cos(α + β)] , (15.11)
2
1
sin(α) sin(β) = [cos(α − β) − cos(α + β)] , (15.12)
2
1
sin(α) cos(β) = [sin(α + β) + sin(α − β)] . (15.13)
2
180
Para el caso en que n ̸= m, usando de nuevo las identidades (15.11)-(15.13) se
encuentra
Z π
cos nx cos mx cos nx cos mx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx cos mx cos nx
π −π
Z π
1
= dx cos(n − m)x + cos(n + m)x
2π −π
Z π
1
= dx cos lx + cos kx = 0,
2π −π
Z π
sin nx sin mx sin nx sin mx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx sin mx sin nx
π −π
Z π
1
= dx cos(n − m)x − cos(n + m)x
2π −π
Z π
1
= dx cos lx − cos kx = 0.
2π −π
Además, se cumplen
Z π
cos nx cos nx cos nx cos nx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx cos nx cos nx
π −π
Z π
1
= dx cos(n − n)x + cos(2n)x
2π −π
Z π Z π
1 1
= dx + dx cos(2n)x = 1,
2π −π 2π −π
Z π
sin nx sin nx sin nx sin nx
⟨ √ √ ⟩ = dx √ √
π π −π π π
Z π
1
= dx sin nx sin nx
π −π
Z π
1
= dx cos(n − n)x − cos(2n)x
2π −π
Z π Z π
1 1
= dx − dx cos(2n)x = 1.
2π −π 2π −π
181
En resumen tenemos
sin mx sin nx
√ √ =δnm , (15.14)
π π
cos mx cos nx
√ √ =δnm , (15.15)
π π
1 1
√ √ =1, (15.16)
2π 2π
sin mx cos nx
√ √ =0, (15.17)
π π
1 cos nx
√ √ =0, (15.18)
2π π
1 sin nx
√ √ =0. (15.19)
2π π
que se usan en mecánica cuántica relativista. Se puede mostrar que las matrices
de Dirac cumplen
⟨I|γ µ ⟩ = T r (γ µ ) = 0,
µ ∗T ν
⟨γ |γ ⟩ = T r (γ ) γ = 4δ µν .
µ ν
182
Así, el conjunto de matrices
1 1 µ
I, γ , µ = 0, 1, 2, 3,
2 2
v
w2
w1
Para demostrar esta armación primero notemos que se pueden formar los
vectores n X
w1 = ⟨vi |v⟩ vi
i=1
y
n
X
w2 = v − ⟨vj |v⟩ vj ,
j=1
183
los cuales satisfacen
v = w1 + w2 .
es decir
⟨w1 |w2 ⟩ = 0
184
Adicionalmente, considerando que w1 y w2 son vectores ortonormales, se puede
observar que
⟨v v⟩ = w1 + w2 w1 + w2
= w1 w1 + w1 w2 + w2 w1 + w2 w2
n
* n
! n
!+
X X X
⟨v|v⟩ = | ⟨vi |v⟩ |2 + v− ⟨vi |v⟩ vi v− ⟨vi |v⟩ vi .
i=1 i=1 i=1
185
Una de sus contribuciones más relevantes en matemáticas son funciones que
llevan su nombrel y que tienen aplicaciones en astronomía, electrodinámica,
nanzas, etc. Además, la desigualdad que tiene su nombre es fundamental en
análisis matemático y análisis funcional. Fue hijo de una sirvienta alemana.
Por problemas económicos, de adolescente dejó la escuela para trabajar. En
sus trabajos adquirió diferentes habilidades matemáticas. Primero trabajó con
un comerciante, después en una compañía naval y posteriormente fue contra-
tado en un observatorio en donde mostró su gran potencial para la astronomía
y las matemáticas. No tenía una eduación universitaria, pero recibió un grado
de Doctor honorario por parte de la Universidad de Göttingen, por recomenda-
ción de Gauss. Como profesor realizó contribuciones relevantes para reformar
la educación universitaria de su época.
que implica
(15.21)
p p
|⟨w|v⟩| ≤ ⟨w|w⟩ ⟨v|v⟩.
186
de Karl Weierstrass en la Universidad de Berlín. Sus trabajos inuenciaron
a Emile Picard para mostrar la existencia de soluciones de ecuaciones dife-
renciales ordinarias. Fue profesor de la Universidad de Berlín y miembro de
la Academia de Ciencias de Berlín. Como profesor inuyó a varias generacio-
nes de matemáticos. Fue director de 20 tesis doctorales y entre sus estudiantes
se encuentran matemáticos importantes como L. Fejér, P. Koebe y E. Zermelo.
es decir,
p p 2
⟨v + w|v + w⟩ ≤ ⟨w|w⟩ + ⟨v|v⟩
187
es decir,
I) ||v|| ≥ 0,
II) ||v|| = 0, ⇐⇒ v = 0,
III) ||αv|| = |α|||v||, α ∈ C,
IV ) ||v + w|| ≤ ||v|| + ||w||.
188
es decir,
||v + w|| ≤ ||w|| + ||v||.
y la desigualdad de Schwarz es
|⟨w|v⟩| ≤ ||w|| ||v||.
A) d(x, y) ≥ 0,
B) d(x, y) = 0, ⇐⇒ x = y,
C) d(x, y) = d(y, x),
D) d(x, z) ≤ d(x, y) + d(y, z).
189
Si V es un espacio normado, entonces se tiene un espacio métrico con la
distancia denida por
es decir v1 = v2 .
También se cumple,
d(v1 , v2 ) = ||v1 − v2 ||
= ||(−)(v2 − v1 )||
= |(−)| ||v2 − v1 ||
= ||v2 − v1 ||
= d(v2 , v1 ),
190
15.9. Polinomios trigonométricos
Supongamos que {ψn (x)}∞ n=0 es un conjunto de funciones ortonormales en
el intervalo [a, b], es decir
Z b
⟨ψn |ψm ⟩ = dxq(x)ψn∗ (x)ψm (x) = δnm ,
a
aquí q(x) es una función de peso positiva en el intervalo (a, b). Con este con-
junto de funciones podemos hacer las combinaciones lineales
n
X
Tn (x) = bi ψi (x),
i=1
Sea F (x) una función del intervalo (a, b) a los reales tal que
Z b
2
⟨F |F ⟩ = ||F || = dxq(x)|F (x)|2 < ∞,
a
Ahora veremos que tanto se puede aproximar la función F (x) con polinomios
de la forma Tn (x). El sentido de la distancia en este espacio está dada por la
norma de la funciones. Así, el problema es encontrar los polinomios tales que
Z b
2
d (F, Tn ) = ||F − Tn || = 2
dxq(x)|F (x) − Tn (x)|2 (15.24)
a
191
es mínimo. Basicamente se trata de encontrar los coecientes bi que hacen
mínimo (15.24). Podemos iniciar notando que
d2 (F, Tn ) = ||F − Tn ||2 = ⟨F − Tn |F − Tn ⟩
= ⟨F |F ⟩ − ⟨F |Tn ⟩ − ⟨Tn |F ⟩ + ⟨Tn |Tn ⟩
= ||F ||2 + ||Tn ||2 − ⟨F |Tn ⟩ − ⟨Tn |F ⟩
* n
+ * n +
X X
= ||F ||2 + ||Tn ||2 − F bi ψ i − bi ψ i F
i=1 i=1
n
X Xn
∗
= ||F ||2 + ||Tn ||2 − bi F ψi − bi ψ i F ,
i=1 i=1
Además, como
|bi − ai |2 = (bi − ai )(bi − ai )∗
= |bi |2 + |ai |2 − (bi a∗i + b∗i ai ),
se tiene
|bi − ai |2 − |ai |2 = |bi |2 − (bi a∗i + b∗i ai ),
de donde,
n
X n
X
2 2 2
||F − Tn || = ||F || + |bi − ai | − |ai |2 .
i=1 i=1
Si bi = ai se encuentra
n
X
2 2
||F − Tn || = ||F || − |ai |2 ≥ 0.
i=1
192
Por lo que, para cualquier n
n
X
2
||Tn || = |ai |2 ≤ ||F ||2 < ∞.
i=1
n
(15.25)
X X
2
lı́m ||Tn || = lı́m |ai |2 = |an |2 = ||F ||2 .
n→∞ n→∞
i=1 n≥0
193
Regresó a París cuando Napoleón fue derrotado. Intentó ser miembro de la
Academia de Ciencia de Francia, pero fue rechazado cinco veces. No probó
el teorema que lleva su nombre, pero mostró la importancia del teorema al
usarlo para obtener soluciones a diferentes ecuaciones diferenciales. Escribió
solo cinco artículos, pero le bastó para que su nombre pasara a la historia de
las Matemáticas.
1 cos nx sin nx
{ψ(x)} = √ , √ , √ , n∈N
2π π π
a0 X cos nx sin nx
F (x) = √ + an √ + bn √
2π n≥0 π π
con
Z π
1 1
a0 = √ F (x) = √ dxF (x),
2π 2π −π
Z π
cos nx 1
an = √ F (x) = √ dxF (x) cos x,
π π −π
Z π
sin nx 1
bn = √ F (x) = √ dxF (x) sin x.
π π −π
194
Las series de Fourier tienen aplicaciones en diversas disciplinas como electró-
nica, electrodinámica, nanzas, mecánica analítica, mecánica cuántica, etc.
195
15.11. Proceso de ornormalización de Gram-Schmidt
Sea V un espacio vectorial y supongamos que en este espacio el conjunto
de vectores
{u1 , u2 , · · · , un } (15.26)
n
X
ũ = v − ui ⟨ui |v⟩ .
i=1
Este vector es ortogonal a todos los vectores del conjunto (15.26). En efecto,
se cumple que
n
X
⟨uk |ũ⟩ = ⟨uk v − ui ⟨ui |v⟩⟩
i=1
* n
+
X
= ⟨uk |v⟩ − uk ui ⟨ui |v⟩
i=1
n
X
= ⟨uk |v⟩ − ⟨uk |ui ⟩ ⟨ui |v⟩
i=1
n
X
= ⟨uk |v⟩ − δki ⟨ui |v⟩
i=1
= ⟨uk |v⟩ − ⟨uk |v⟩
= 0.
Además, si se satisface
n
(15.27)
X
ũ = v − ui ⟨ui |v⟩ =
̸ 0.
i=1
196
podemos formar el vector
el cual es unitario.
Supongamos que
{v1 , v2 , · · · , vn } (15.29)
v1
u1 = .
||v1 ||
v2 − ⟨u1 |v2 ⟩ u1
u2 = ,
||v2 − ⟨u1 |v2 ⟩ u1 ||
{u1 , u2 }
197
es ortonormal. Además, como v3 es linealmente independiente de u1 y u2 po-
demos forma el vector
{u1 , u2 , u3 }
15.11.1. Ejemplos
Consideremos el conjunto de vectores
{v1 = (1, −1, 1) , v2 = (1, 1, 1) , v3 = (−1, −1, 1)},
el cual es linealmente independiente.
199
Con este producto escalar obtenemos
Z 1
2
||Q1 (x)|| = Q1 (x)Q1 (x)dx
−1
Z 1
= 32 dx
−1
2
= 3 · 2,
de donde
√
||Q1 (x)|| = 3 2,
por lo que
1
22 · 2
Z
2 2
||P̃2 (x)|| = (2x) = ,
−1 3
que implica
r
2
||P̃2 (x)|| = 2 ,
3
200
así el polinomio
r
P̃2 (x) 3
P2 (x) = = x
||P̃2 (x)|| 2
es unitario.
201
es ortonormal.
15.12. Ejercicios
1.- Realizar el producto escalar de los vectores
(−2i, 4, 5), (6, 5, i).
202
3.- Realizar el producto escalar de las matrices
−i 1 3 1
A= , B= .
0 2 5 0
5.- De la matriz
1 −3i
A=
2 1
obtener una matriz de norma uno.
.
7.- Determinar si el siguiente conjunto de vectores es ortonormal
1 1 1
√ (i, −i, 2), √ (−i, i, 1), √ (1, 1, 0).
6 3 2
8.- Determinar si las funciones
f (x) = x, g(x) = x2
203
10.- Determinar si las matrices de Pauli
0 1 0 −i 1 0
σ1 = , σ2 = , σ3 =
1 0 i 0 0 −1
son ortogonales.
204
Capítulo 16
Valores y vectores propios
En este capítulo veremos las deniciones de vector y valor propio. Daremos
algunos ejemplos y mostraremos que usando los vectores y valores propios la
representación matricial de una transformación lineal se puede simplicar.
16.1. Denición
Sean M una matriz de n × n, v un vector de dimensión n y λ un escalar.
Se dice que v es vector propio de M y λ es valor propio de V si se cumple
la igualdad
M v = λv.
205
16.2. Ejemplo
Antes de ver los resultados importantes sobre valores y vectores propios,
veremos un ejemplo. Con este propósito consideremos la matriz
2 1 0
M = 0 5 −1 ,
0 0 4
206
que implican
1 1 1
v1 = x1 0 , v2 = x2 3 , v3 = x3 2 ,
0 0 2
Note que con los valores propios se puede formar la matriz diagonal
λ1 0 0 2 0 0
D = 0 λ2 0 = 0 5 0 ,
0 0 λ3 0 0 4
U −1 = 0 1
3
− 31 .
1
0 0 2
es decir
1 − 13 − 16
2 0 0 2 1 0 1 1 1
1
0 5 0 = 0
3
− 13 0 5 −1 0 3 2 .
1
0 0 4 0 0 2
0 0 4 0 0 2
207
linealmente independiente.
en donde
M v1 = λ1 v1 .
Como el conjunto
{v1 }
Para m = 2, tenemos
{v1 , v2 } , {λ1 , λ2 } ,
en donde
M v1 = λ1 v1 , M v2 = λ2 v2 , λ1 ̸= λ2
Supongamos que
α1 v1 + α2 v2 = 0, (16.3)
entonces
M 0 = M (α1 v1 + α2 v2 )
= α1 M v1 + α2 M v2
= α1 λ1 v1 + α2 λ2 v2 = 0,
es decir
α1 λ1 v1 + α2 λ2 v2 = 0. (16.4)
Ahora, multiplicando la ecuación (16.3) por λ2 tenemos
α1 λ2 v1 + α2 λ2 v2 = 0. (16.5)
Restando la ecuaciones (16.4) y (16.5) tenemos
α1 (λ1 − λ2 )v1 = 0,
208
Sustituyendo este valor en (16.3) encontramos
α2 = 0.
es linealmente independiente.
es linealmente independiente.
En el paso inductivo tenemos que probar que todo conjunto de
{v1 , v2 , · · · , vm , vm+1 } (16.6)
vectores propios no nulos con valores propios diferentes
λi ̸= λj , i, j = 1, · · · , m, m + 1
es linealmente independiente.
Supongamos que tenemos una combinación lineal nula de los vectores (16.6)
α1 v1 + α2 v2 + · · · + αm vm + αm+1 vm+1 = 0, (16.7)
entonces
M 0 = M (α1 v1 + α2 v2 + · · · + αm vm + αm+1 vm+1 )
= α1 M v1 + α2 M v2 + · · · + αm M vm + αm+1 M vm+1
= α1 λ1 v1 + α2 λ2 v2 + · · · + αm λm vm + αm+1 λm+1 vm+1 = 0,
209
es decir
α1 λ1 v1 + α2 λ2 v2 + · · · + αm λm vm + αm+1 λm+1 vm+1 = 0. (16.8)
Ahora, multiplicando la ecuación (16.7) por λm+1 tenemos
α1 λm+1 v1 + α2 λm+1 v2 + · · · + αm λm+1 vm + αm+1 λm+1 vm+1 = 0. (16.9)
Restando la ecuaciones (16.8) y (16.9) tenemos
α1 (λ1 − λm+1 ) v1 + α2 (λ2 − λm+1 ) v2 + · · · + αm (λm − λm+1 ) vm = 0. (16.10)
Note que esta última igualdad es una combinación lineal del conjunto de vec-
tores propios no nulos {v1 , v2 , · · · , vm } con valores propios diferentes
(λi ̸= λj , i, j = 1, · · · , m).
Por hipótesis de inducción, este conjunto es linealmente independiente, enton-
ces como (16.10) es una combinación lineal nula temos que
α1 (λ1 − λm+1 ) = α2 (λ2 − λm+1 ) = · · · = αm (λm − λm+1 ) = 0.
Además, como λi ̸= λj tenemos que
α1 = α2 = · · · = αm = 0.
sustituyendo estos valore en (16.7) encontramos
αm+1 = 0.
Por lo tanto, si λi ̸= λj , i, j = 1, · · · m, m + 1 cualquier combinación lineal de
la forma (16.7) implica que α1 = α2 = · · · = αm = αm+1 = 0. Así, el conjunto
de vectores propios
{v1 , v2 , · · · , vm , vm+1 }
es linealmente independiente. Esto termina la demostración.
210
podemos construir los renglones de la matriz
a11 a12 · · · a1n
a21 a22 · · · a2n
a = .. .. . . .. ,
. . . .
an1 an2 · · · ann
Note que las columnas de esta última matriz están dadas por los vectores pro-
pios de la matriz M.
Además, usando la matriz (16.12), esta última expresión se puede escribir como
Mjk aTki = λi aTji ,
entonces,
M aT = λi aTji .
ji
211
por lo que
−1
aT M aT = λi δli .
li
Así,
−1
aT M aT = D, (16.13)
en donde D es la matriz diagonal
λ1 0 · · · 0
0 λ2 · · · 0
D = .. .
. . . . .
. ..
. .
0 0 · · · λn
Se puede observar que el resultado (16.13) se puede escribir como
−1
M = aT D aT , (16.14)
es decir,
D = U −1 M U, U = aT . (16.15)
Como sabemos, la mayoría de operaciones con matrices son más fáciles de rea-
lizar con matrices diagonales. Por esta razón, antes de realizar operaciones con
una matriz es mejor obtener sus valores propios y obtener su matriz similar
diagonal.
La noción de valor propio surgió en uno de los trabajos de Euler que trata
sobre métodos para resolver sistemas de ecuaciones diferenciales ordinarias li-
neales, en 1743. Asimismo, Lagrange usó esta idea para resolver un problema
de mecánica celeste en 1774. Por las mismas fechas, D'Alembert ocupó esa
idea para resolver el sistema de ecuaciones diferenciales de tres osciladores.
Mientras que Cauchy usó la noción de valor propio en problemas de geometría
en los cursos que impartía desde 1815.
212
para obtener sus valores y vectores se puede usar el siguiente código de Python
1 import numpy as np
2 from numpy . linalg import eig
3 b = np . array ([[1 , -1 ,2 ,1] ,[ -1 ,3 ,1 , -2] ,[1 ,3 , -1 ,1] ,[1 , -1 ,0 ,2]
4 ])
5 v , w = eig ( b )
6 print ( ' valores - propios : ' , v )
7 print ( ' vectores - propios ' , w )
Listing 16.1: Valores y vectores propios de una matriz
con el cual se obtienen los siguientes valores y vectores propios
valores-propios:[4.52782655-,2.4290382,2.54377682,0.35743483]
vectores-propios [[0.14439693,-0.5528967,-0.5781175,-0.82056069]
[-0.83689882,-0.22159463,-0.50232403,0.10163719]
[-0.35784446,0.79975351,-0.6277125,0.03373165]
[0.38819742,0.07480226,-0.13938343,0.56143762]]
16.6. Ejercicios
1.- Para la matriz
1 2 0
M = 6 −1 0 ,
−1 −2 −1
obtener su forma diagonal y la matriz cambio de base.
213
Capítulo 17
Matrices similares
En este capítulo deniremos el concepto de matrices similares, mostrare-
mos que dicho concepto induce una relación de equivalencia entre matrices y
veremos algunas de las implicaciones de esta relación.
∀g ∈ G, g ∼ g, (17.1)
∀g1 , g2 ∈ G, si g1 ∼ g2 , entonces g2 ∼ g1 , (17.2)
∀g1 , g2 , g3 ∈ G, si g1 ∼ g2 y g2 ∼ g3 , entonces g1 ∼ g3 . (17.3)
χg = {g ′ ∈ G|g ∼ g ′ }.
214
cuando la relación R es de equivalencia y se cumple
χg1 ∩ χg2 ̸= ∅, g1 , g2 ∈ G
si satisface
g1 ∼ g2
entonces
χg1 = χg2 .
Supongamos que
g ∈ χg1
que implica
g ∼ g1 .
Ahora, como
g1 ∼ g2 ,
y R es una relación de equivalencia obtenemos
g ∼ g2 .
Este último resultado nos indica que
g ∈ χg2
Supongamos que
g̃ ∈ χg2
entonces
g̃ ∼ g2
215
y como g2 ∼ g1 entonces se cumple que
g̃ ∼ g1 ,
que implica
g̃ ∈ χg1
Por lo tanto
χg2 ⊂ χg1 .
Así, hemos demostrado que se cumple
χg1 ⊂ χg2 y χg2 ⊂ χg1
de donde
χg1 = χg2 ,
que es lo queríamos demostrar. Nótese que este resultado también se puede
escribir como
M ∼A
216
si existe una matriz invertibe U de n × n tal que se cumple
M = U −1 AU. (17.7)
y su inversa
−1 1 1 1
U =
2 −1 1
se cumple
10 2 1 1 1 2 4 1 −1
= .
4 0 2 −1 1 6 8 1 1
217
por lo tanto, deniendo
U ′ = U −1
se tiene
A = U ′−1 M U ′ .
Así, podemos armar que si M es similar a A, entonces A es similar a M. De
esta forma hemos probado que se cumple la propiedad (17.1).
218
17.3. Propiedades
Las matrices que pertenecen a la misma partición tienen propiedades se-
mejantes. Por ejemplo, si A es similar a M entonces
det M = det A,
T r(M ) =T r(A),
= T r U U −1 A
= T r(A),
que es lo que se quería demostrar. Así, dos matrices similares tienen el mismo
determinante y la misma traza.
M n = U −1 An U, (17.10)
219
Ahora, supongamos que x es una variable real, entonces podemos formar un
polinomio de la forma
P (x) = a0 + a1 x + a2 x2 + · · · + an xn ,
P (M ) = a0 I + a1 M + a2 M 2 + · · · + an M n .
Si M es similar a A, entonces
P (M ) = U −1 P (A)U.
entonces
P (A) = 0.
Lo que quiere decir que las matrices similares son raíces de los mismos polino-
mios.
X
f (x) = an x n , an ∈ R,
n≥0
220
también se puede denir la matriz
X
f (M ) = an M n ,
n≥0
donde
M 0 = I.
Se puede mostrar que si la matriz M es similar a la matriz A se cumple
f (M ) = U −1 f (A)U.
221
17.5. Ejercicios
1.- Con la matriz
1 1
U=
−1 1
y su inversa
−1 1 1 −1
U =
2 1 1
c) Considerando el polinomio
P (x) = 2 + 4x + 5x2 − x3
222
Capítulo 18
Exponencial de una matriz
En este capítulo estudiaremos la exponencial de una matriz y daremos va-
rios ejemplos.
18.1. Denición
Supongamos que x es una variable real y se dene la función
X
f (x) = an x n ,
n≥0
X
f (M ) = an M n ,
n≥0
supondremos que
M 0 = I,
223
se puede denir la exponencial de una matriz
X 1
eM = M n.
n≥0
n!
X αn
eαM = Mn
n≥0
n!
18.2. Ejemplo 1
Antes de continuar recordemos las series de Taylor de las funciones coseno
y seno
X (−)n
cos z = z 2n ,
n≥0
(2n)!
X (−)n
sin z = z 2n+1 .
n≥0
(2n + 1)!
0 1 α
e −1 0 , (18.2)
224
se puede observar que la serie de la exponencial se puede separar en potencias
pares e impares, es decir
X 1
eM α = M n αn
n≥0
n!
X 1 X 1
= M 2n α2n + M 2n+1 α2n−1 .
n≥0
(2n)! n≥0
(2n + 1)!
esto es
M 2 = (−)I.
M 2n =(−)n I,
M 2n M =(−)n IM = (−1)n M.
225
Por lo tanto,
0 1
−1 0
α
X 1 0 1 n
e = αn
n! −1 0
n≥0
X 1 2n 2n+1
0 1 2n
X 1 0 1
= α + α2n+1
n≥0
(2n)! −1 0 n≥0
(2n + 1)! −1 0
X 1 X 1
= (−)n Iα2n + (−)n M α2n+1
n≥0
(2n)! n≥0
(2n + 1)!
X 1 X 1
= I (−)n α2n + M (−)n α2n+1
n≥0
(2n)! n≥0
(2n + 1)!
= Icos α +M sin α
1 0 0 1
= cos α + sin α
0 1 −1 0
cos α sin α
= ,
− sin αt cos α
en conclusión
0 1 α
−1 0 cos α sin α
e = .
− sin α cos α
226
0 0 0 0 0 1 0 −1 0
M1 = i 0 0 −1 , M2 = i 0 0 0 , M3 = i 1 0 0 .
0 1 0 −1 0 0 0 0 0
(18.3)
⃗
α) = e−i⃗α·M .
Λ (⃗
0 0 0
M12n = 0 1 0
= T1 , M12n+1 = M1 , (18.4)
0 0 1
1 0 0
M22n = 0 0 0
= T2 , M22n+1 = M2 , (18.5)
0 0 1
1 0 0
M32n = 0 1 0
= T3 , M32n+1 = M3 , (18.6)
0 0 0
es decir
Mj2n = Tj , Mj2n+1 = Mj , j = 1, 2, 3.
227
Considerando estos resultados, junto con las series de cos α y sin α, se tiene
X 1
e−iαMj = (−iαMj )n
n≥0
n!
X 1 X 1
= (−iα)2n (Mj )2n + (−iα)2n+1 (Mj )2n+1
n≥0
(2n)! n≥0
(2n + 1)!
X 1 X 1
= I + Tj (−iα)2n + Mj (−iα)2n+1
n≥1
(2n)! n≥0
(2n + 1)!
X (−1)n X (−1)n
= I − Tj + Tj + α2n − iMj α2n+1
n≥1
(2n)! n≥0
(2n + 1)!
X (−)n α2n
= I − Tj + Tj − iMj sin α
n≥0
(2n)!
= I − Tj + Tj cos α − iMj sin α.
1 0 0
e−iαM1 = 0 cos α − sin α ,
0 sin α cos α
cos α 0 sin α
e−iαM2 = 0 1 0 ,
− sin α 0 cos α
cos α − sin α 0
e−iαM3 = sin α cos α 0 .
0 0 1
Así, e−iαM1 representa una rotación sobre el eje x, e−iαM2 representa una ro-
tación sobre el eje y, mientras que e−iαM3 representa una rotación sobre el eje z.
228
18.4. Matrices de Pauli
Las matrices de Pauli tienen aplicaciones en diversas áreas. Estas matrices
se denen como
0 1 0 −i 1 0
σ1 = , σ2 = , σ3 = .
1 0 i 0 0 −1
por lo que,
σ12n =σ22n = σ32n = I,
σ12n+1 =σ1 ,
σ22n+1 =σ2 ,
σ32n+1 =σ3 .
Así,
X (iα)n
eiασ1 = σ1n
n≥0
n!
X (i)2n (α)2n X (i)2n+1 (α)2n+1
= σ12n + σ12n+1
n≥0
(2n)! n≥0
(2n + 1)!
X (−)n (α)2n X (−)n (α)2n+1
= I +i σ1
n≥0
(2n)! n≥0
(2n + 1)!
X (−)n (α)2n X (−)n (α)2n+1
= I + iσ1
n≥0
(2n)! n≥0
(2n + 1)!
= cos αI + iσ1 sin α,
es decir
eiασ1 = cos αI + iσ1 sin α.
229
De la misma forma, se obtiene
n̂ · ⃗σ =n1 σ1 + n2 σ2 + n3 σ3
n3 n1 − in2
= ,
n1 + in2 −n3
la cual cumple
2 n21 + n22 + n23 0 1 0
(n̂ · ⃗σ ) = = = I,
0 n1 + n2 + n23
2 2
0 1
de donde
(n̂ · ⃗σ )2n = I, (n̂ · ⃗σ )2n+1 = n̂ · ⃗σ .
es decir,
eian̂·⃗σ = I cos a + in̂ · ⃗σ sin a.
230
Wolfgang Pauli (1900-1958) fue un físico austríaco que realizó trabajos fun-
damentales para el desarrollo de la mecánica cuántica. A los 18 años terminó
su licenciatura y después realizó el doctorado bajo la dirección de Arnold Som-
merfeld en la Universidad de Múnich. Posteriomente realizó una estancia con
Max Born de quien aprendió Álgebra Lineal y la empezó a usar en la mecánica
cuántica. Las matrices de Pauli las obtuvo al estudiar propiedades del electrón
que se descubrieron experimentalmente. En 1945 le fue otorgado el Premio
Nobel por sus trabajos en mecánica cuántica. Cuando Hitler anexó a Austria a
Alemania, Pauli decidió irse a Suiza. En Suiza, Pauli recibió información sobre
el proyecto de la bomba atómica nazi y decidió alertar a la comunidad cientíca
del peligro que existía con esa arma. Posteriormente, viajó a Estados Unidos y
se convirtió en ciudadano norteamericano. Cuando terminó la segunda guerra
mundial regresó a Suiza.
231
es decir,
2
Dij = λ2i δij .
En general, se obtiene
n
Dij = (DD · · · D)ij
= Dik1 Dk1 k2 Dk2 k3 · · · Dkn−1 j
= (λi δik1 )(λk1 δk1 k2 )(λk2 δk2 k3 ) · · · (λkn−1 δkn−1 j )
= λi λk1 λk2 · · · λkn−1 δik1 δk1 k2 δk2 k3 · · · λkn−1 j
= λni δij ,
por lo que
n
Dij = λni δij .
232
tenemos
2 λ21 0
D = ,
0 λ22
por lo tanto,
X f (λ1 ) 0
f (D) = .
0 f (λ2 )
233
Donde los escalares λi son los valores propios de M. Así, existe una matriz U
tal que se cumple
M = U DU −1 ,
esto es
M n = U Dn U −1 .
Por lo que
X 1
eM = Mn
n≥0
n!
X 1
= U Dn U −1
n≥0
n!
!
X 1
= U Dn U −1
n≥0
n!
= U eM U −1 ,
es decir
eM = U eD U −1 ,
234
18.6.1. Ejemplo
Por ejemplo, para la matriz
0 −2
M=
1 3
es complicado calcular directamente su exponencial. Sin embargo, podemos
ver que los vectores propios de esta matriz son
λ1 = 1, λ2 = 2.
Por lo que la matriz M es similar a la matriz diagonal
1 0
D= .
0 2
Además usando los vectores propios de M, podemos construir las matriz de
cambio de base
2 1
U=
−1 −1
cuya inversa es
−1 1 1
U = ,
−1 −2
se puede probar que
D = U −1 M U,
por lo que
M = U DU −1 ,
es decir
0 −2 2 1 1 0 1 1
= .
1 3 −1 −1 0 2 −1 −2
Entonces
0 −2
1 0
1 3 2 1 0 2 1 1
e = e
−1 −1 −1 −2
2 1 e 0 1 1
=
−1 −1 0 e2 −1 −2
2e − e2 2e − 2e2
= .
−e + e2 −e + 2e2
235
18.7. Inversa de exponencial de una matriz
Supongamos que A es una matriz de n × n entradas, entonces podemos
denir las dos exponenciales
eA , e−A ,
esta matrices son inversas. Para probar esta armación notemos que
! !
X An X (−)m Am
eA e−A =
n≥0
n! m≥0
m!
2
A3 An
A
= I +A+ + + ··· + + ···
2! 3! n!
A2 A3 n
nA
× I −A+ − + · · · + (−) + ···
2! 3! n!
A2 A2
2
= I + (−A + A) + − +A −
2! 2!
A3 A3 A3 A3
+ − + − + + ··· +
3! 2! 2! 3!
(−)n (−)n−1 (−)n−2 (−)n−k
n 1
+ A + + + ··· + + ··· + +
n! (n − 1)! (n − 2)!2! (n − k)!k! n!
!
+··· ,
236
18.8. Operaciones con Python
Si tenemos la matriz
−5 2 0 8
2 −6 3 9
A=
−2 −1 5 −2
0 1 3 −1
18.9. Ejercicios
1.- Obtener la exponencial de la matriz
6 1
M= .
−2 3
237
Capítulo 19
Sistema de ecuaciones diferenciales
lineales de primer orden con
coecientes constantes
Como una aplicación de los temas que hemos visto en otros capítulos,
veremos soluciones de sistema de ecuaciones diferenciales lineales de primer
orden con coecientes constantes.
x(t) = eαt x0 ,
238
Ahora consideremos el sistema lineal de ecuaciones diferenciales ordinarias
dx
=ax + by, (19.1)
dt
dy
=cx + dy, (19.2)
dt
en donde a, b, c, d son constantes reales. Podemos observar que usando las de-
niciones
x a b
X= , M= ,
y c d
dX
= M X.
dt
en donde
a b t
eMt
=e c d .
239
19.1.1. Ejemplo 1
Por ejemplo, consideremos el sistema de ecuaciones lineales
ẋ = βy, (19.3)
ẏ = −βx, (19.4)
que se puede escribir como
ẋ 0 β x
= .
ẏ −β 0 y
Por lo tanto, la solución es
0 1 βt
x −1 0 x0
=e .
y y0
Antes de continuar, observemos que la serie de la exponencial se puede
escribir como
X 1
eM βt = M n (βt)n
n≥0
n!
X 1 X 1
= M 2n (βt)2n + M 2n+1 (βt)2n−1 ,
n≥0
(2n)! n≥0
(2n + 1)!
240
es decir,
M 2 = (−)I.
También se encuentra
M 2n+1 = M 2n M
= (−)n IM
= (−1)n M,
esto es
M 2n+1 = (−1)n M.
Por lo tanto,
0 1
−1 0 X 1 0 1 n
βt
e = (βt)n
n! −1 0
n≥0
X 1 0 1 2n X 1
0 1
2n+1
2n
= (βt) + (βt)2n+1
(2n)! −1 0 (2n + 1)! −1 0
n≥0 n≥0
X 1 X 1
= (−)n I(βt)2n + (−)n M (βt)2n+1
n≥0
(2n)! n≥0
(2n + 1)!
X 1 X 1
= I (−)n (βt)2n + M (−)n (βt)2n+1
n≥0
(2n)! n≥0
(2n + 1)!
= I cos βt + M sin βt
1 0 0 1
= cos βt + sin βt
0 1 −1 0
cos βt sin βt
= ,
− sin βt cos βt
es decir
0 1 βt
−1 0 cos βt sin βt
e = .
− sin βt cos βt
241
Por lo tanto la solución al sistema de ecuaciones diferenciales ordinarias (19.3)-
(19.4) es
0 1 βt
x −1 0 x0 cos βt sin βt x0
= e =
y y0 − sin βt cos βt y0
x0 cos βt + y0 sin βt
= ,
−x0 sin βt + y0 cos βt
es decir
x = x0 cos βt + y0 sin βt,
y = −x0 sin βt + y0 cos βt.
19.2. Ejemplo 2
Consideremos el sistema de ecuaciones lineales
ẋ = −2βy, (19.5)
ẏ = βx + 3βy, (19.6)
que se puede escribir como
ẋ 0 −2 x
=β .
ẏ 1 3 y
Por lo tanto, la solución es
0 −2 βt
x 1 3 x0
=e .
y y0
Los valores propios de la matriz
0 −2
M=
1 3
son
λ1 = 2, λ2 = 1
242
Entonces, la matriz de cambio de base y su inversa son
1 1
U = ,
−1 − 12
−1 −1 −2
U = .
2 2
Por lo que
2 0
D= = U −1 M U,
0 1
de donde
0 −2 2 0
=U U −1 .
1 3 0 1
Así,
0 −2 βt
2 0 βt
e 1 3 =
Ue −10 1
U 2βt
1 1 e 0 −1 −2
=
−1 − 12 0 eβt 2 2
2βt βt 2βt βt
−e + 2e −2e + 2e
= 2βt βt .
e −e 2e2βt − eβt
19.3. Ejemplo 3
Ahora veamos como resolver el sistema de ecuaciones
ẋ = βx + βy, (19.7)
ẏ = 4βx + βy. (19.8)
Primero denamos
x 1 1
X= , M= ,
y 4 1
243
por lo que el sistema de ecuaciones (19.7)-(19.8) toma la forma
dX
= βM X. (19.9)
dt
Los valores propios de M son
λ1 = 3, λ2 = −1,
y se cumple
3 0
D= = U −1 M U.
0 −1
Ahora, deniendo
−1 x̄
X̄ = U X= ,
ȳ
244
Este sistema de ecuaciones tiene la forma
d x̄ 3 0 x̄
=β ,
dt ȳ 0 −1 ȳ
lo que implica
dx̄
= 3β x̄,
dt
dȳ
= −β ȳ.
dt
Cuyas soluciones son
x̄ = e3βt x̄0 ,
ȳ = e−βt ȳ0 .
Entonces
x̄ e3βt x̄0
X = U X̄ = U =U
ȳ e−βt ȳ0
3βt
e 0 x̄0
= U −βt
0 e ȳ0
3βt
e 0 −1 x0
= U U ,
0 e−βt y0
es decir,
1 1 1 e3βt 0 2 1 x0
X = −βt .
4 2 −2 0 e 2 −1 y0
246
Ahora, usando la denición
x̄
X̄ = U −1
X= , (19.13)
ȳ
247
por lo tanto,
1 1
x = (cos ω1 t + cos ω2 t) x0 + (cos ω1 t − cos ω2 t) y0
2 2
1 sin ω1 t sin ω2 t 1 sin ω1 t sin ω2 t
+ + v0x + − v0y ,
2 ω1 ω2 2 ω1 ω2
1 1
y = (cos ω1 t + cos ω2 t) y0 + (cos ω1 t − cos ω2 t) x0
2 2
1 sin ω1 t sin ω2 t 1 sin ω1 t sin ω2 t
+ + v0y + − v0x .
2 ω1 ω2 2 ω1 ω2
248
divulgara en la sociedad. Junto con Denis Diderot (1713-1784) emprendió el
proyecto llamado la Enciclopedia, una obra escrita en la cual se intentó colocar
todo el conocimiento que se tenía hasta esos días. La convicción de D' Alembert
y Diderot era que el conocimiento se divulgara en la sociedad para el desarro-
llo humano. En ese proyecto también participaron personajes como Voltaire,
Montesquieu, Jacques Rousseau y Adam Smith. La Enciclopedia fue un gran
éxito editorial y causó revuelo en distintos ámbitos sociales de su época. Debi-
do a que D' Alembert era un ateo declarado, la Iglesia y la Monarquía francesa
presionaron para que D' Alembert saliera del proyecto. D' Alembert fue con-
trovertido y polémico desde su nacimiento hasta el último día de su vida. En
efecto, fue hijo natural de dos miembros de la élite francesa de la época, pero
nunca fue reconocido por sus padres y poco tiempo después de nacer su madre
lo abandonó en la puerta de la iglesia de Saint-Jean-le Rond, de esa iglesia to-
mó su nombre. El niño D' Alembert fue adoptado por una mujer humilde que
tomó el papel de su madre. Cabe señalar que hasta el nal de sus días sostuvo
su condición de ateo por lo que fue enterrado en una tumba común sin nombre.
19.5. Ejercicios
1.- Resolver el sistema de ecuaciones diferenciales ordinarias
ẋ = 2x − y,
ẏ = −2x + 3y.
249
Capítulo 20
Relación entre el determinante y
la traza de una matriz
En este capítulo mostraremos que el determinante de una matriz se puede
relacionar con su traza y daremos algunos ejemplos de esta relación.
20.1. Relación
Supongamos que A es una matriz de n × n diagonalizable. Entonces existe
una matriz U invertible de tal forma que se cumple
λ1 0 · · · 0
0 λ2 · · · 0
A = U .. .
.. . . ...
−1
. U ,
.
0 0 · · · λn
X
f (x) = an x n ,
n≥0
250
entonces
f (λ1 ) 0 ··· 0
0 f (λ2 ) · · · 0
. .. . . ..
−1
f (A) = U . U ,
. . . .
0 0 · · · f (λn )
por lo que
n
X
T r(f (A)) = f (λi ).
i=1
Pn
= e i=1 ln λi
= eT r(ln A) ,
es decir,
det A = eT r(ln A) . (20.1)
A = eM
251
donde M es una matriz de n × n, entonces
det A = eT r(ln A)
M
= eT r(ln e )
= eT r(M ) ,
por lo que
det eM = eT r(M ) .
tenemos que
0 −2
det e 1 3 3
=e .
20.3. Ejercicios
1.- Obtener el determinante de la matriz
−3 1 2
2 1 0
M =e 1 1 −2 .
252
Capítulo 21
Operador adjunto
En este capítulo daremos el concepto operador adjunto y veremos algunos
ejemplos. Este concepto nos ayudará a obtener los valores propios de diferentes
transformaciones lineales.
21.1. Denición
Dado un operador A lineal deniremos el operador adjunto, A† , como el
operador que satisface
⟨Av|u⟩ = v|A† u ,
21.1.1. Matrices
Por ejemplo, para Cn se tiene
⟨Av|u⟩ = (Av)∗T u
= v ∗T A∗T u
= v|A† u
= v ∗T A† u,
de donde, para una matriz cuadrada con entradas complejas, la matriz adjunta
es
A† = A∗T . (21.1)
253
21.1.2. Derivada
Para el espacio vectorial de las funciones, el adjunto de un operador de-
pende fuertemente del dominio, las condiciones de borde que se satisfacen y
del producto escalar. En el espacio de las funciones suaves e integrables ψ(x)
denidas en el intervalo [a, b] y que cumplen ψ(a) = ψ(b) = 0. se puede denir
el operador
∂
A=α ,
∂x
Ahora
Z b
†
ψ1 |A ψ2 = dxψ1∗ (x)A† ψ2 (x),
a
254
que implica la igualdad
†
∂ ∂
α = −α∗ . (21.3)
∂x ∂x
Note que este resultado depende fuertemente de que se cumpla ψ(a) = ψ(b) =
0.
donde se satisface
q(x) > 0 ∀a ∈ [a, b]. (21.4)
Para este caso es más conveniente considerar el operador
α ∂
à = ,
q(x) ∂x
255
es decir,
b
−α∗ ∂
D E Z
Ãψ1 |ψ2 = dxq(x)ψ1∗ (x) ψ2 (x)
a q(x) ∂x
Además, se debe cumplir
D E Z b
†
ψ1 |à ψ2 = dxq(x)ψ1∗ (x)Æ ψ2 (x),
a
por lo cual se obtiene
α∗ ∂
Æ = − .
q(x) ∂x
Por lo tanto,
D E
v| (A + B)† |u = v| A† + B † u ,
(A + B)† = A† + B † . (21.5)
256
que implica
(AB)† = B † A† . (21.6)
21.2. Ejercicios
1.- Obtener el operador adjunto de la matriz
3 −i 1
M = 4 + 2i −1 i .
1 1 + 2i 1
257
Capítulo 22
Operadores hermíticos
En este capítulo veremos la denición de operador hermítico y algunas
de sus propiedades. Los operadores hermíticos tienen aplicaciones en diversas
áreas como la mecánica cuántica.
22.1. Denición
Una clase importante de operadores son los autoadjuntos, que satisfacen
A† = A,
(Λ)∗T = Λ, (22.1)
258
además las matrices
0 0 0
M1 = i 0 0 −1
,
0 1 0
0 0 1
M2 = i 0 0 0 ,
−1 0 0
0 −1 0
M3 = i 1 0 0
0 0 0
son hermíticas.
(Λ)T = Λ, (22.2)
así las matrices simétricas de coecientes reales son hermíticas. Por ejemplo
las matrices
0 0 0
A = 0 0 1 ,
0 1 0
2 0 4
B = 0 6 0 ,
4 0 5
9 2 0
C = 2 6 −1
0 −1 5
259
se tiene
⟨Av|v⟩ = ⟨λv|v⟩
= λ∗ ⟨v|v⟩ ,
pero también tenemos
⟨Av|v⟩ = ⟨v|A† v⟩
= ⟨v|Av⟩
= ⟨v|λv⟩
= λ ⟨v|v⟩ ,
que implica la igualdad
λ∗ ⟨v|v⟩ = λ ⟨v|v⟩
que nos conduce al resultado
λ∗ = λ.
260
de M con valores propios λa y λb diferentes, entonces va y vb son ortogonales,
es decir
⟨va |vb ⟩ = 0.
Para probar esta armación, su pongamos que se cumplen la ecuaciones
M v1 = λ1 v1 ,
M v2 = λ2 v2 .
Considerando estas dos ecuaciones y que M es una matriz es hermítica, se
tiene
λ1 ⟨v1 |v2 ⟩ = ⟨λ1 v1 |v2 ⟩
= ⟨M v1 |v2 ⟩
= ⟨v1 |M † v2 ⟩
= ⟨v1 |M v2 ⟩
= ⟨v1 |λ2 v2 ⟩
= λ2 ⟨v1 |v2 ⟩,
esto es
λ1 ⟨v1 |v2 ⟩ = λ2 ⟨v1 |v2 ⟩,
de donde
(λ1 − λ2 ) ⟨v1 |v2 ⟩ = 0.
Ahora, si
λa − λb ̸= 0,
se llega a
⟨v1 |v2 ⟩ = 0.
que es lo que queríamos demostrar.
Observe que si todos los valores propios de M son diferentes, entonces to-
dos vectores propios de M son ortogonales entre si. En otras palabras, si todos
los n valores propios de M son diferentes, entonces con los vectores propios
de M se puede formar una base ortonormal. Note que en este caso la matriz
de cambio de base formada con los vectores propios de M tendrá renglones
ortogonales entre si. Posteriormente a este tipo de matrices les llamaremos
unitarias u ortogonales.
261
22.4. Ejemplo
Consideremos la matriz hermítica
1 1−i
M = ,
1+i −1
la cual satisface
√
√ 1
√ √3−1√ (1 − i)
U † = U ∗T = 3− 3 2 √3− 3 = U −1 .
√ 1
√ − √3+1√ (1 − i)
3+ 3 2 3+ 3
262
los cuales son ortogonormales. Además la matriz de cambio de base es
1 2 1
U=√ ,
5 1 −2
la cual cumple
1 2 1
T
U =√ = U −1 .
2 1 −2
263
es decir
AT − iB T = A + iB,
de donde
AT = A, B T = −B,
Por lo tanto, A debe ser una matriz simétrica y B debe ser una matriz antisi-
métrica.
n−1
X n(n − 1)
i= .
i=1
2
Supongamos que
β1 , β2 , β3 , β4
son número reales, entonces la matriz
β1 β3 − iβ4
A= ,
β3 + iβ4 β2
265
es hermítica. Se puede observar que toda matriz hermítica se puede escribir
como
1 0 0 0 0 1 0 −i
A = β1 + β2 + β3 + β4 .
0 0 0 1 1 0 i 0
Como estas 4 matrices son linealmente independientes, son base del espacio de
las matrices hermíticas de 2 × 2.
son número reales. Entonces, otra forma de parametrizar a las matrices her-
míticas de 2 × 2 es
α0 + α3 α1 − iα2
A= .
α1 + iα2 α0 − α3
1 0 0 1 0 −i 1 0
A = α0 + α1 + α2 + α3 .
0 1 1 0 i 0 0 −1
266
A las matrices σ1 , σ2 , σ3 se les llama de Pauli, las cuales son linealmente inde-
pendientes.
A = α0 σ0 + α1 σ1 + α2 σ2 + α3 σ3 .
Por lo que la matriz identidad junto con las matrices de Pauli forman una base
para las matrices hermíticas de 2 × 2.
267
Ahora, supongamos que
β1 , β2 , β3 , β4 , β5 , β6 , β7 , β8 , β9
268
Existen otras formas de parametrizar a las matrices hermíticas de 3 × 3.
Por ejemplo, supongamos que
α0 , α1 , α2 , α3 , α4 , α5 , α6 , α7 , α8
son número reales, entonces la matriz
α0 + α3 + √13 α8 α1 − iα2 α4 − iα5
A=
α1 + iα2 α0 − α3 + √13 α8 α6 − iα7
,
2
α4 + iα5 α6 + iα7 α0 − √3 α8
es hermítica. De donde,
1 0 0 0 1 0 0 −i 0
A = α0 0 1 0
+ α1 1 0 0
+ α2 i 0 0
0 0 1 0 0 0 0 0 0
1 0 0 0 0 1 0 0 −i
+ α3 0 −1 0
+ α4 0 0 0
+ α5 0
0 0
0 0 0 1 0 0 i 0 0
0 0 0 0 0 0 1 0 0
1
+ α6 0 0 1
+ α7 0 0 −i + α8 √
0 1 0 .
0 1 0 0 i 0 3 0 0 −2
269
A las matrices
λ1 , λ2 , λ3 , λ4 , λ5 , λ6 , λ7 , λ8
270
con A un matriz de n × n. Note que
†
B† = A† A
†
= A† A†
= A† A
= B,
es decir
B † = B,
así
⟨Av|Av⟩
λ= ≥ 0,
⟨v|v⟩
esto es
λ ≥ 0,
271
22.9. Ejercicios
1.- Obtener los valores propios de la matriz hermítica
1 i 0
M = −i −1 0 .
0 0 2
272
Capítulo 23
Matrices antihermíticas
En este capítulo estudiaremos las matrices antihermíticas y sus propieda-
des. En particular, mostraremos que toda matriz de n × n con entradas com-
plejas se puede escribir como las suma de una matriz hemítica con un matriz
antihermítica.
23.1. Denición
Λ es una matriz antihermítica si satisface
Λ† = −Λ (23.1)
273
23.2. Ejemplo, las matrices de Dirac
Las matrices de Dirac se usan en mecánica cuántica relativista. Estas ma-
trices están dadas por
1 0 0 0
0 1 0 0
γ0 = ,
0 0 −1 0
0 0 0 −1
0 0 0 1
0 0 1 0
γ1 = ,
0 −1 0 0
−1 0 0 0
0 0 0 −i
0 0 i 0
γ2 = ,
0 i 0 0
−i 0 0 0
0 0 1 0
0 0 0 −1
γ3 = .
−1 0 0 0
0 1 0 0
274
adicionalmente se encuentra
⟨Av|v⟩ = ⟨v|A† v⟩
= ⟨v|(−Av)⟩
= − ⟨v|λv⟩
= −λ ⟨v|v⟩ ,
de donde
λ∗ ⟨v|v⟩ = −λ ⟨v|v⟩ ,
que nos lleva al resultado
λ∗ = −λ.
A = eiαΛ
275
23.3.1. Parámetros libres
Si separamos a una matriz compleja Λ en su parte real e imaginaria se tiene
Λ = A + iB,
es decir,
AT − iB T = −A − iB,
de donde
AT = −A, B T = B.
Por lo tanto, A debe ser una matriz antisimétrica y B debe ser una matriz
simétrica.
n2 .
276
23.3.2. Descomposición en operadores hermíticos y anti-
hermíticos
Con cualquier matriz Λ se pueden construir las matrices
Λ + Λ†
Λ+ = ,
2
Λ − Λ†
Λ− = ,
2
277
Note que si Λ solo tienen componentes reales, entonces
Λ + ΛT
Λ+ = ,
2
Λ − ΛT
Λ− = ,
2
Λ = Λ+ + Λ−
23.4. Ejercicios
1.- Obtener la parte simétrica y antisimétrica de la matriz
1 4 2
−5 3 6 .
√
3 7 8
278
Capítulo 24
Matrices ortogonales
Como una aplicación de los temas vistos anteriormente ahora estudiaremos
las matrices ortogonales, las cuales se relacionan con las matrices de rotaciones.
24.1. Denición
Una matriz Λ de entradas reales de n × n es ortogonal si cumple
ΛT Λ = I (24.1)
279
es decir
ΛTx (θ) Λx (θ) = I.
De la misma forma se puede mostrar que las matrices de rotación sobre los
ejes x y y
cos ψ 0 sin ψ
Λy (ψ) = 0 1 0 ,
− sin ψ 0 cos ψ
cos ϕ sin ϕ 0
Λz (ϕ) = − sin ϕ cos ϕ 0
0 0 1
1) Axioma de cerradura:
g1 ∈ G, g2 ∈ G =⇒ g1 · g2 ∈ G
2) Axioma de asociatividad:
g1 ∈ G, g2 ∈ G, g3 ∈ G, =⇒ g1 · (g2 · g3 ) = (g1 · g2 ) · g3 .
∃e ∈ G, g1 ∈ G =⇒ g1 · e = e · g1 = g1 .
280
4)Axioma del inverso:
ΛT1 Λ1 = I, ΛT2 Λ2 = I,
de donde
(Λ1 Λ2 )T (Λ1 Λ2 ) = ΛT2 ΛT1 Λ1 Λ2
= ΛT2 Λ2 = I,
esto es
(Λ1 Λ2 )T (Λ1 Λ2 ) = I.
Λ1 , Λ2 ∈ O(n) =⇒ Λ1 Λ2 ∈ O(n).
281
por lo que
T T
Λ−1 Λ−1 = ΛT Λ−1
= ΛΛ−1 = I,
esto es
T
Λ−1 Λ−1 = I.
detA = detAT .
de donde
(detΛ)2 = 1,
es decir
detΛ = ±1.
detΛ = 1.
282
El subconjunto de matrices Λ que cumplen detΛ = −1 no forman un grupo.
Por ejemplo, la identidad no está en ese subconjunto. Algunas matrices de este
tipo son
−1 0 0
0 1 0 ,
0 0 1
1 0 0
0 1 0 ,
0 0 −1
−1 0 0
0 −1 0 .
0 0 −1
24.4. Parámetros
Observe que la matriz de n × n
Λ11 Λ12 · · · Λ1n
Λ21 Λ22 · · · Λ2n
Λ= .. .. . . ..
. . . .
Λn1 Λn2 · · · Λnn
Λ11 Λ12 Λ1n
Λ21 Λ22 Λ2n
C1 = .
. , C2 = .. , · · · , Cn = .
. .
. . .
Λn1 Λn2 Λnn
283
Claramente, estos vectores representan los renglones de la matriz traspuesta,
ΛT . Por lo tanto, la condición (24.1) se puede escribir como
Λ11 Λ21 · · · Λn1 Λ11 Λ12 · · · Λ1n
Λ12 Λ22 · · · Λn2 Λ21 Λ22 · · · Λ2n
ΛT Λ = .
. .
. . . .
. . .. . . ..
. ..
. . . . . .
Λ1n Λ2n · · · Λnn Λn1 Λn2 · · · Λnn
C1 · C1 C1 · C2 · · · C1 · Cn
C2 · C1 C2 · C2 · · · Cn · C2
=
.. .. . . .. = I.
(24.2)
. . . .
Cn · C1 Cn · C2 · · · Cn · Cn
Ci · Cj = δij ,
es decir, si una matriz satisface la condición (24.1), sus columnas son ortonor-
males.
parámetros libres.
284
24.5. Matriz antisimétrica y matrices ortogona-
les
Sea A una matriz antisimétrica, es decir que satisface
AT = −A
Λ = eαA (24.4)
esto es
ΛT = Λ−1 ,
por lo tanto
T
eαA eαA = I.
det eM = eT r(M )
285
y que toda matriz antisimétrica tiene traza nula
T r(A) = 0,
entonces
det eA = eT r(A)
= e0 = 1,
de donde
eA ∈ SO(n).
286
con
0 0 0 0 0 1 0 −1 0
m1 = 0 0 −1 , m2 = 0 0 0 , m3 = 1 0 0 .
0 1 0 −1 0 0 0 0 0
Así
SO(3) = eα1 m1 +α2 m2 +α3 m3 ,
pertenecen a SO(3).
24.6. Distancia
Sea ⃗x = (x1 , · · · , xn ) un vector en Rn y denamos la forma cuadrática
y la matriz renglón
XT =
x1 x2 ··· xn ,
287
la distancia se puede escribir como
l2 = X T X = X T IX.
X ′ = ΛX,
se tiene la distancia
l′2 = X ′T IX ′
= (ΛX)T ΛX
= X T ΛT IΛ X,
es decir
l′2 = X T ΛT IΛ X,
l2 = l′2 ,
de donde
ΛT IΛ = I.
24.7. Ejercicios
1.- Determinar si la siguiente matriz es ortogonal
√2 0 √1
6 3
M = √1 √1 − √13 .
6 2
− √16 √1
2
√1
3
288
2.- Determinar si la siguiente matriz es ortogonal
√2 0 √1
6 3
M = √1 √1 − √13 .
6 2
− √16 √1
2
− √15
289
Capítulo 25
Matrices unitarias
Una generalización de las matrices ortogonales son las llamadas matrices
unitarias, que son muy útiles para entender la mecánica cuántica. En este
capítulo daremos la denición de matrices unitarias y estudiaremos algunas de
sus aplicaciones.
25.1. Denición
Una matriz de n × n con entradas complejas U es unitaria si cumple
U † U = I, U † = U ∗T (25.1)
U † = U −1 .
es unitaria.
290
Deniremos a U (n) como el conjunto de las matrices U de n × n que cum-
plen la ecuación de unitariedad (25.1), probaremos U (n) que con la operación
del producto de las matrices forma un grupo. Antes de continuar, recordemos
que un grupo cumple con el axioma de la cerradura, el axioma de la asociati-
vidad, el axioma del neutro y el axioma del inverso.
U1† U1 = I, U2† U2 = I,
de donde
(U1 U2 )† (U1 U2 ) = U2† U1† U1 U2
= U2† IU2 = I,
es decir
(U1 U2 )† (U1 U2 ) == I.
por lo que
† †
U −1 U −1 = U † U −1
= U U −1 = I,
esto es
†
U −1 U −1 = I.
291
Así, las matrices U de n × n con entradas complejas que cumplen la ecua-
ción (25.1) forman un grupo. A este grupo se llama grupo unitario U (n).
de donde
det U = eiα ,
292
se pueden formar con los vectores columna
u11 u12 u1n
u21 u22 u2n
V1 = .
.. , V = .. , · · · , Vn = .
.. .
2
.
un1 un2 unn
U † U =U T ∗ U
u∗11 u∗21 · · · u∗n1 u11 u12 · · · u1n
u∗ u∗ · · · u∗ u21 u22 · · · u2n
12 22 n2
= .
. .
. . . .. . .. . . ..
. ..
. . . . . .
u∗1n u∗2n · · · u∗nn un1 un2 · · · unn
V1∗ · V1 V1∗ · V2 · · · V1∗ · Vn
V ∗ · V1 V ∗ · V2 · · · V ∗ · V2
2
(25.2)
2 n
= .
.. . .
.. . . .. = I,
.
Vn∗ · V1 Vn∗ · V2 · · · Vn∗ · Vn
Vi∗ · Vj = δij .
293
Así el grupo unitario U (n) tiene
n2
es unitaria. En efecto
†
U† = eiαB
†
= e−iαB
= e−iαB
= U −1
es decir
U † = U −1 .
25.5. U (1)
Sea los números complejos de la forma
U = eiα (25.3)
294
con α un número real. Observe que
∗
U † = eiα
= e−iα
= U −1 .
Por lo tanto, el conjunto de números complejos de la forma (25.3) forman la
matriz de 1 × 1 unitarias. A este grupo se le llama U (1) y es fundamental pa-
ra el estudio de la elecrodinámica. También podemos notar que este conjunto
representa un círculo en el plano complejo, como se muestra en la gura (25.1).
U (1) eiα
295
las matrices de Pauli.
se encuentra
det U = eT r(ln U )
eT r(ln(e ))
i(α0 σ0 +α1 σ1 +α2 σ2 +α3 σ3 )
=
= eiT r(α0 σ0 +α1 σ1 +α2 σ2 +α3 σ3 )
= ei(α0 T r(σ0 )+α1 T r(σ1 )+α2 T r(σ2 )+α3 T r(σ3 ))
= ei2α0 .
A estas matrices se les llama SU (2) y se usan para estudiar diferentes propie-
dades del electrón.
25.7. SU (3)
Las matrices unitarias de 3 × 3 tienen 9 parámetros libres. Además las
matrices hermíticas de 3 × 3 se pueden generan con la matriz identidad y las
matrices de Gell-Mann de la forma
8
X
A= αk λk
k=0
296
con
1 0 0 0 1 0
λ0 =I = 0 1 0 , λ1 = 1 0 0 ,
0 0 1 0 0 0
0 −i 0 1 0 0
λ2 = i 0 0 , λ3 = 0 −1 0 ,
0 0 0 0 0 0
0 0 1 0 0 −i
λ4 = 0 0 0 , λ5 = 0 0 0 ,
1 0 0 i 0 0
0 0 0 0 0 0
λ6 = 0 0 1 , λ7 = 0 0 −i ,
0 1 0 0 i 0
1 0 0
1
λ8 =√ 0 1 0
3 0 0 −2
297
A estas matrices se les llama SU (3) y se usan para estudiar diferentes propie-
dades de la cromodinámica cuántica.
es decir,
U † = U −1 .
298
entonces
⟨ψ1′ |ψ2′ ⟩ = (U ψ1 )∗T U ψ2
= ψ1∗T U ∗T U ψ2 .
implica
U ∗T U = 1,
es decir, las matrices unitarias dejan invariante la cantidad (25.4).
25.10. Ejercicios
1.- Determinar si la siguiente matriz es unitaria
√i − √i3 √1
6 2
M =
− √i6 √i
3
√1
2 .
√2 √1 0
6 3
299
Capítulo 26
Integrales Gaussianas
Como una aplicación de la matrices simétricas estudiaremos algunas inte-
grales Gaussianas. Estas integrales son importantes en diferentes áreas como
la mecánica cuántica, probabillidad, nanzas, machine learning, etc.
∞
Z r
π
I1 = e−αx2
dx = , α > 0. (26.1)
−∞ α
y la matriz
3 −1
M =
−1 3
300
la integral (26.2) se puede escribir como
Z
(26.3)
T MX
I2 = e−X dxdy.
R2
Ahora, los valores propios de M son
λ1 = 2, λ2 = 4
mientras que los vectores propios normalizados son
1 1 1 1
v1 = √ , v2 = √ ,
2 1 2 −1
los cuales son ortogonales. Además la matriz de cambio de base es
1 1 −1
U = √ ,
2 1 1
la cual es ortogonal, pues cumple
1 1 1
U T
= √ = U −1 .
2 −1 1
Además se satisface la igualdad
M = U DU T
con
2 0
D = . (26.4)
0 4
Entonces, deniendo
x′
′
X = = UT X
y′
y considerando que
det U = 1,
la integral (26.3) toma la forma
Z
T MX
I2 = e−X dxdy
2
ZR
T U DU T X
= e−X dxdy
2
ZR
TX TD
= e−(U ) (U T X ) dxdy
2
ZR
′T DX ′
= e−X dx′ dy ′ .
R2
301
Por lo tanto, considerando la matriz D (26.4) y la integral Gaussiana (26.1) se
llega a
Z
′2 +4y ′2 )
I2 = e−(2x dx′ dy ′
Z R2 Z
−2x′2 ′ ′2
= e dx e−4y dy ′
R R
r r r
π π π2
= = ,
2 4 8
es decir
r
π2
Z
−(x2 −2xy+3y 2 )
e dxdy = .
R2 8
x
X= ,
y
b
a
M= b
2 (26.6)
2
c
Supongamos que M es una matriz diagonalizable y que sus valores propios son
λ1 , λ2 ,
302
Como la matriz (26.6) es simétrica, los vectores propios son ortonormales y la
matriz de cambio de base
U
es ortogonal y satisface
M = U DU T
con
λ1 0
D = . (26.8)
0 λ2
y considerando que
det U = 1,
Si alguno de los valores propios de matriz (26.6) es negativo, esta integral diver-
ge. Pero si los dos valores propios son positivos, usando la integral Gaussiana
(26.1), se encuentra
303
Z
′2 +λ ′2 )
I2d = e−(λ1 x 2y
dx′ dy ′
R2
r r s
π π π2
= = .
λ1 λ2 λ1 λ2
Ahora como
det M = λ1 λ2 ,
tenemos que
Z
′2 +λ ′2 )
I2d = e−(λ1 x 2y
dx′ dy ′
R2
r
π2
= .
det M
Por lo tanto, si los valores propios de la matriz (26.6) son positivos, entonces
s
π2
Z
e−( ax2 +bxy+cy 2 ) dxdy =
b2
,
R2 ac − 4
es decir
r
π2
Z Z
−(ax2 +bxy+cy 2 ) −X T M X
I2d = e dxdy = e dxdy = ,
2 R2 det M
R
a 2b
x
X= , M= b .
y 2
c
304
Para obtener esta integral observemos que
2 2 jx
−αx + jx = −α x −
α
j2 j2
2 jx
= −α x − + 2− 2
α 4α 4α
2
j2
j
= −α x − + ,
2α 4α
es decir
2
j2
2 j
−αx + jx = −α x − + .
2α 4α
Usando este resultado obtenemos
Z ∞ Z ∞ 2 2
j j
I= e −αx2 +Jx
dx = e−α(x− 2α ) + 4α
dx,
−∞ −∞
305
Primero notemos que debido a que M es una matriz simétrica se cumple
M T = M,
M −1 = (M T )−1 = (M −1 )T ,
por lo que
T
M −1 J M −1 J
X− M X− =
2 2
1 T 1
= XT M X − J (M −1 )T M X + X T M M −1 J + J T (M −1 )T M M −1 X
2 4
1 1
= XT M X − J T X + X T J + J T M −1 J.
2 4
Además como
J · X = J T X = XJ T ,
se llega a
T
M −1 J M −1 J
1
X− M X− = X T M X − J · X + J T M −1 J,
2 2 4
de donde
T
M −1 J M −1 J
1
T
X MX − J · X = X− M X− − J T M −1 J.
2 2 4
Por lo que
Z Z −1
T −1
−X T M X+J·X − X− M 2 J M X− M 2 J + 14 J T M −1 J
e Πni=1 dxi = e Πni=1 dxi .
Rn Rn
Z −1
T −1
1 T
J M −1 J − X− M 2 J M X− M 2 J
= e 4 e Πni=1 dxi ,
Rn
306
26.3. Ejercicios
1.- Obtener la integral
Z
2 −2xy−2y 2 +3x+8y
e−3x dxdy.
R2
307
Capítulo 27
Transformada discreta de Fourier
y la matriz de Fourier
Como una aplicación de las matrices unitarias, en este capítulo estudiare-
mos la Transformada discreta de Fourier, en la cual aparece de manera natural
una matriz unitaria.
27.1. Denición
Supongamos que en el espacio vectorial CN , tenemos el vector
x0
x1
x=
x2
,
(27.1)
..
.
xN −1
N −1
1 X
(27.2)
2πi
Xk = √ xn e− N kn , k = 0, 1, · · · , N − 1.
N n=0
308
Note que para cada valor de k tenemos un valor de Xk . Por ejemplo, si k = 0
se tiene
N −1
1 X x0 + x1 + · · · + xN −1
X0 = √ xn = √ ,
N n=0 N
309
27.2. Matriz de Fourier
Se puede observar que deniendo
(27.4)
2πi
ω = e− N ,
N −1
1 X
Xk = √ xn ω kn , (27.5)
N n=0
en particular se encuentra
1
X0 = √ (x0 + x1 + · · · + xN −1 ) ,
N
1
x0 + x1 ω + x2 ω 2 + · · · + xN −1 ω N −1 ,
X1 = √
N
1
x0 + x1 ω 2 + x2 ω 4 + · · · + xN −1 ω 2(N −1) ,
X2 = √
N
..
.
1 2
XN −1 = √ x0 + x1 ω (N −1) + x2 ω 2(N −1) + · · · + xN −1 ω (N −1) .
N
1 1 1 ··· 1
1 ω ω2 ··· ω N −1
1
ω 2(N −1) (27.6)
2
W = √ 1 ω
ω4 ···
N .. .
.. .. ... ..
. . .
N −1 2(N −1)
1 ω ω ··· ω (N −1)(N −1)
310
tenemos
1 1 1 ··· 1
X0 x 0
X2
1 ω ω2 ··· ω N −1 x1
1
1 ω 2 ω4 ··· ω 2(N −1)
.. = √ .. .
. N .
..
.. .. ... .. .
. . .
XN −1 N −1 2(N −1) (N −1)(N −1) xN −1
1 ω ω ··· ω
Cuando N = 3 se obtiene
1 1√ 1√
1 −1+i 3 −1−i 3
W3 = √ 1 2√ 2√
3 −1−i 3 −1+i 3
1 2 2
y si N = 4 se llega a
1 1 1 1
1 1 i −1 −i
W4 = .
2 1 −1 1 −1
1 −i −1 i
311
Note que en esta matriz los índices empiezan en cero y teminan en N, por lo
que tenemos una matriz de N × N.
es decir
1 zN − 1
(WW† )ij = .
N z−1
Ahora, considerando la denición de z dada en (27.8) y la denición ω dada
en (27.4) se encuentra
N
zN = ω i−j
2π (i−j)N
= eN
2π(i−j)N
= e N
= e2π(i−j) = 1,
es decir,
z N = 1.
313
Por lo tanto, si i ̸= j, se encuentra
(WW† )ij = 0.
Estos resultados nos indican que se cumple la igualdad
(WW† )ii = δij ,
en otras palabras
WW† = I.
Por lo tanto, se cumple la igualdad
W† = W−1
En particular se encuentra
1 1 1
W−1
2 = W†2 =√ ,
21 −1
1 1√ 1√
1
W−1
3 = W†3 = √ 1 −1−i 2√
3 −1+i 3
2√
,
3 −1+i 3 −1−i 3
1 2 2
1 1 1 1
1 1 −i −1 i
W−1
4 = W†4 = .
2 1 −1 1 −1
1 i −1 −i
Además, con matriz
1 1 1 ··· 1
−1
1 ω ω −2 ··· ω −(N −1)
1
(27.9)
−2
W† = √ 1
ω ω −4 ··· ω −2(N −1)
.
..
.. .. ... ..
N
. . .
−(N −1) −2(N −1)
1 ω ω ··· ω −(N −1)(N −1)
se encuentra la transformada discreta Inversa de Fourier, la cual está dada por
N −1
1 X 2πi
xn = √ Xk e N kn .
N k=0
314
27.4. Denición alterna
La transformada discreta de Fourier tiene aplicaciones en diferentes áreas
y en algunos casos se toman la siguiente denición
N −1
(27.10)
2πi
X
Xk = xn e− N kn
, k = 0, 1, · · · , N − 1.
n=0
cuya inversa es
N −1
1 X 2πi
xn = Xk e N kn .
N k=0
Para grandes cantidades de datos los algoritmos deben realizar una canti-
dad enorme de operaciones, lo que los vuelve lentos. En estos casos es mejor
emplear otros algortimos, como la llamada Transformada Rápida de Fourier
(FFT, por su siglas inglés), que es un algoritmo más rápido para obtener la
Transformada discreta de Fourier.
315
array([22.-0.j,-8.76539748-3.88793297j,
-1.31886366-1.20626946j,2.58426114-6.41707809j,
2.58426114+6.41707809j,-1.31886366+1.20626946j,
-8.76539748+3.88793297j])
en este caso se emplea la dención (27.10).
316
Capítulo 28
Polinomio característico
Para obtener los valores propios de una matriz se deben obtener las raí-
ces de un polinomio. En este capítulo veremos algunas propiedades de dicho
polinomio.
det (A − λI) = 0.
es decir
det (A − λI) = λ2 − λT r(A) + det A.
317
se encuentra
det (A − λI) = (−)λ3 + λ2 (A11 + A22 + A33 )
−λ A22 A33 + A33 A11 + A22 A11
−A13 A31 A23 A32 − A12 A21
318
es decir,
det (A − λI) = (−)n λn + (−)n−1 λn−1 T r(A) + · · · + det A.
con
a0 = det A, · · · , an−1 = (−)n−1 T r(A), an = (−)n . (28.2)
entonces
P ′ (λ) = det (A′ − λI)
det U AU −1 − λI
=
det U AU −1 − λU IU −1
=
det U (A − λI) U −1
=
= det U det (A − λI) det U −1
det U
= det (A − λI)
det U
= det (A − λI)
= P (λ),
esto es,
P ′ (λ) = P (λ),
319
28.2. Teorema de Cayley-Hamilton
Otro resultado interesante es que la matriz A es raíz de su polinomio cara-
terístico, es decir, se satisface
un conjunto de matrices.
320
por lo que
AC0 + λ (AC1 − C0 ) + λ2 (AC2 − C1 ) + · · · + λn−1 (ACn−1 − Cn−2 )
−λn Cn−1 = (a0 + a1 λ + · · · + an λn )I.
de donde
a0 I = AC0 ,
a1 A = A2 C1 − AC0 ,
a2 A2 = A3 C2 − A2 C1 ,
..
.
an−1 An−1 = An Cn−1 − An−1 Cn−2 ,
an An = −An Cn−1 .
Así,
P (A) =a0 + a1 A + · · · + an−1 An−1 + an An
=AC0 + A2 C1 − AC0 + A3 C2 − A2 C1 + · · · +
+ An Cn−1 − An−1 Cn−2 − An Cn−1 = 0,
321
general fue dada por Georg Frobenius en 1878. Debido al respeto que le ins-
piraban Caley y Hamilton, Frobenius decidió dar los nombres de estos dos
matemáticos al teorema.
28.3. Ejercicios
1.- Para la matriz
5 2
A=
−8 −3
322
2.- Para la matriz
4 0 1
A = 2 3 2
1 0 4
323
Capítulo 29
Espacios invariantes y bloques de
Jordan
Ahora estudiaremos matrices que tienen valores propios repetidos. Para
lograr este objetivo, deniremos el concepto de espacio invariante.
T (U ) ⊂ U,
U = {0}
es un espacio invariante.
324
Por lo tanto, el conjunto Ker(T ) es un subespacio invariante bajo T.
es decir,
w1 ∈ ⟨v⟩ ,
que implica
T (⟨v⟩) ⊂ ⟨v⟩ .
Así, el espacio generado por un vector propio de T es un espacio invariante.
{v1 , v2 , · · · , vm }, m ≤ n, (29.1)
⟨v1 , v2 , · · · , vm ⟩ = {w ∈ V |∃αi ∈ K, w = αi vi }
325
es un espacio vectorial invariante bajo T. En efecto, recordemos que si los vecto-
res (29.1) son vectores propios de T, entonces existen λi ∈ K(i = 1, 2, · · · , m),
tal que
T (v1 ) = λ1 v1 ,
T (v2 ) = λ2 v2 ,
..
.
T (vm ) = λm vm , (29.2)
ahora supongamos que
w1 ∈ T (⟨v1 , v2 , · · · , vm ⟩) ,
Además, debido a que w2 es parte del espacio vectorial generado por el conjunto
(29.1), entonces existen m escalares αi ∈ K tal que
w2 = αi vi ,
de donde
w1 = T (w2 )
= T (αi vi )
= αi T (vi )
= αi λi vi ∈ ⟨v1 , v2 , · · · , vm ⟩ ,
es decir,
w1 ∈ ⟨v1 , v2 , · · · , vm ⟩ ,
que implica
T (⟨v1 , v2 , · · · , vm ⟩) ⊂ ⟨v1 , v2 , · · · , vm ⟩ .
Esto quiere decir que el espacio generado por los vector propios de T es un
espacio invariante.
326
también supongamos que estos subespacios son invariantes bajo T. Entonces
si
{u1 , u2 , · · · , um }, m < n,
es base de U1 y
{w1 , w2 , · · · , wk }, m + k = n,
es base de U2 , el conjunto
{u1 , u2 , · · · , um , w1 , w2 , · · · , wk },
es base de V. En este caso se tiene
α11 · · · 0 ···
T (u1 )
α1m 0
u1
T (u2 ) α21 · · · α2m 0 ··· 0 u2
.. .. .. .. .. ..
.
. . . .
.
T (um ) αm1 · · · αmm 0 ··· 0 um
= .
T (w1 ) 0 ··· 0 β11 · · · β1k w1
T (w2 ) 0 ··· 0 β21 · · · β2k w2
.
.. .. .. .. .. ..
. ··· . . . .
T (wk ) 0 ··· 0 βk1 · · · βkk wk
327
con
T
X1ij = αij , X2ij = βijT .
U1 , U2 , · · · Ur , r≤n
V = U1 ∪ U2 ∪ · · · ∪ Ur , Ui ∩ Uj = ∅, i ̸= j i, j = 1, 2, · · · r,
328
Así, si V tiene dimensión n y tiene n subespacios vectoriales invariantes bajo
T, la matriz asociada a la trasformación T es diagonalizable.
λ1 , λ2 , · · · λn−k
P (λ) = (λ − λ1 )k (λ − λ2 ) · · · (λ − λn−k ) .
329
mientras que la matriz asociada asociada a la transformación T restringida a
este subespacio es
λ2 0 · · · 0
0 λ3 · · · 0
Mrestringido = .. . .
.. . . .. .
. .
0 0 · · · λn−r
En este caso cada, uno de los vectores (29.3) nos dan un subespacio invariante
bajo T.
w0 = v1 , λ = λ1
que implica
T (w0 ) = λw0 .
330
Si existe w1 que satisface la ecuación (29.4) entonces los vectores
{w1 , w0 } (29.6)
es decir,
α1 w0 = 0.
Por lo tanto,
α1 = 0,
sustituyendo este resultado en la ecuación (29.7) se llegaba a
α0 w0 = 0,
que implica
α0 = 0,
así
α1 = α0 = 0.
Por lo tanto, el conjunto de vectores (29.6) es linealmente independiente.
v ∈ ⟨{w1 , w0 }⟩ ,
331
de donde, recurriendo a la ecuación (29.5), se llega a
T (v) = T (β1 w1 + β0 w0 )
= β1 T (w1 ) + β0 T (w0 )
= β1 (λw1 + w0 ) + β0 λw0
= β1 λw1 + (β1 + β0 λ) w0 ,
esto es,
T (v) = β1 λw1 + (β1 + β0 λ) w0 ,
que implica
T (v) ∈ ⟨{w1 , w0 }⟩ ,
por lo que
T (⟨{w1 , w0 }⟩) ⊂ ⟨{w1 , w0 }⟩ .
Así, el conjunto
⟨{w1 , w0 }⟩ .
es invariante bajo T.
tal que
332
es decir
(T − λI)2 (wk ) = wk−2 ,
en general se cumple
(T − λI)l (wk ) = wk−l ,
que implica
(T − λI)k (wk ) = w0 , (29.11)
(T − λI)l (wk ) = 0, l > k. (29.12)
Ahora, supongamos que existen α0 , α1 , · · · , αr−1 ∈ K tal que
α0 w0 + α1 w1 + α2 w2 + · · · + αr−2 wr−2 + αr−1 wr−1 = 0. (29.13)
Entonces aplicando la función (T − λI)r−1 a esta combinación lineal y usando
las igualdades (29.11)-(29.12), se llega a
(T − λI)r−1 (α0 w0 + α1 w1 + α2 w2 + · · · + αr−2 wr−2 + αr−1 wr−1 ) =
= α0 (T − λI)r−1 (w0 ) + α1 (T − λI)r−1 (w1 ) + α2 (T − λI)r−1 (w2 ) + · · ·
+αr−2 (T − λI)r−1 (wr−2 ) + αr−1 (T − λI)r−1 (wr−1 )
= αr−1 w0 = 0
es decir,
αr−1 w0 = 0,
por lo que
αr−1 = 0.
que implica
α0 w0 + α1 w1 + α2 w2 + · · · + αr−3 wr−3 = 0.
Realizando varias veces el mismo procedimiento, encontramos que
α0 = α1 = · · · = αr−2 = αr−1 = 0,
333
por lo tanto, el conjunto de vectores (29.8) es linealmente independiente.
Además, si
v ∈ ⟨w0 , w1 , w2 , · · · , wr−2 , wr−1 ⟩ ,
entonces existen β0 , β1 , · · · , βr−1 ∈ K tal que
v = β0 w0 + β1 w1 + β2 w2 + · · · + βr−2 wr−2 + βr−1 wr−1 ,
se obtiene
T (v) = T (β0 w0 + β1 w1 + β2 w2 + · · · + βr−2 wr−2 + βr−1 wr−1 )
= β0 T (w0 ) + β1 T (w1 ) + β2 T (w2 ) + · · · + βr−2 T (wr−2 ) + βr−1 T (wr−1 )
= β0 λw0 + β1 (λw1 + w0 ) + β2 (λw2 + w1 ) + · · ·
+βr−2 (λwr−2 + wr−3 ) + βr−1 (λwr−1 + wr−2 )
= (λβ0 + β1 ) w0 + (λβ1 + β2 ) w2 + · · ·
+ (λβr−2 + βr−1 ) wr−2 + βr−1 λwr−1 ,
que implica
T (⟨w0 , w1 , w2 , · · · , wr−2 , wr−1 ⟩) ⊂ ⟨w0 , w1 , w2 , · · · , wr−2 , wr−1 ⟩ .
Entonces el espacio vectorial generado por los vectores (29.8) es invariante bajo
la transformación T.
w0 = v1 , w1 , w2 , · · · , wr−1 , v2 , v3 , · · · , vr−n
< w0 = v1 , w2 , · · · , wr−1 >, < v2 >, < v3 >, · · · , < vr−n >
334
son invariantes bajo T.
Note que para r = 2 tenemos la base del espacio invariante {w0 , w1 }, que
cumple
T (w0 ) =λw0 ,
T (w1 ) =λw1 + w0 ,
T (w0 ) =λw0 ,
T (w1 ) =λw1 + w0 ,
T (w2 ) =λw2 + w1 .
335
que es bloque de Jordan de orden 3.
T (w0 ) λ 0 0 0 w0
T (w1 ) 1 λ 0 0 w1
T (w2 ) = 0
,
1 λ 0 w2
T (w3 ) 0 0 1 λ w3
T (w0 ) =λw0 ,
T (w1 ) =λw1 + w0 ,
T (w2 ) =λw2 + w1 ,
..
.
T (wr−1 ) =λwr−1 + wr−2
336
que implican la matriz asociada
λ 1 0 ··· 0 0
0 λ 1 ··· 0 0
Jr = ... ... ... .. ..
. .
0 0 0 ··· λ 1
0 0 0 ··· 0 λ
con
i1 + i2 + · · · + ik = n.
Por lo que, usando el mismo algoritmo que se emplea para el caso de un valor
propio repetido, se puede mostrar que con los espacios invariantes para cada
valor propio repetido la matriz asociada a la transformación T se puede escribir
como
Ji1 0 ··· 0
0 Ji · · · 0
M = .. . ..
2
.
.. . . .
. .
0 0 · · · J ik
337
en donde Jij es el bloque de Jordan de orden ij .
29.3. Ejemplos
Como un ejemplo consideremos la matriz
1 2 −4
A= 0 3 0 .
0 1 3
de donde
1−λ 2 −4
A − λI = 0 3−λ 0
0 1 3−λ
cuyo determinantes es
det (A − λI) = (3 − λ)2 (1 − λ)
que implica los valores característicos
λ1 = 1, λ2 = 3.
Como podemos ver, el valor propio λ2 = 3 tiene multiplicidad 2.
338
Para obtener el tercer vector linealmente dependiente debemos buscar un vec-
tor v3 que cumpla
(A − λ2 I) v3 = v2 ,
es decir debemos resolver el sistema de ecuaciones
−2 2 −4 x −2
0 0 0 y = 0 ,
0 1 0 z 1
que implica
0
v3 = 1 .
1
Con los vectores propios v1 , v2 , v3 podemos formar las columnas de la matriz
de cambio de base
1 −2 0
U = 0 0 1
0 1 1
cuya inversa es
1 −2 2
U −1 = 0 −1 1 ,
0 1 0
con estas matrices se puede comprobar que se cumple
1 −2 2 1 2 −4 1 −2 0
U −1 AU = 0 −1 1 0 3 0 0 0 1
0 1 0 0 1 3 0 1 1
1 0 0
= 0 3 1 .
0 0 3
Así, la forma canónica de A es
1 0 0
J = 0 3 1 .
0 0 3
339
29.4. Operaciones con Python
Si tenemos la matriz
7 1 −3 2 2
−6 2 4 −2 −2
A= 0
1 3 1 −1
−2 −1 6 0 −3
−4 0 3 −1 −1
340
topología algebraica. Sus trabajos inuyeron a otros matemáticos importantes
como Sophus Lie y Felix Klein. En 1912 se retiró de la academia, murió en
depresión debido a que tres de sus seis hijos murieron asesinados en la primera
guerra Mundial.
29.5. Ejercicios
1.- Obtener la forma canónica de Jordan de la matriz
2 4 −6 0
4 1 −3 −4
A= .
1 0 4 −1
0 4 −6 2
341
Capítulo 30
Espacio dual
En este capítulo estudiaremos el Espacio Dual de un espacio vectorial. Nos
enfocaremos en los espacios vectoriales de dimensión nita. El material que
veremos en este capítulo es importantes para entender temas posteriores.
30.1. Denición
Sea V un espacio vectorial sobre el campo K. Denotaremos el conjunto de
las transformaciones lineales de V en K como
V ∗ = {T : V → K|T lineal} ,
30.2. Ejemplos
30.2.1. Caso Cn
Como primer ejemplo, veamos un elemento del espacio dual de Cn . Supon-
gamos que v0 es un vector jo que pertenece a Cn y que N es una matriz de
entradas complejas de n × n, entonces la función
T : Cn → C
342
denida como
T (v) = v0∗T N v (30.1)
cumple
T (λ1 v1 + λ2 v2 ) = v0∗T N (λ1 v1 + λ2 v2 )
= v0∗T N λ1 v1 + v0∗T N λ2 v2
= λ1 v0∗T N v1 + λ2 v0∗T N v2
= λ1 T (v1 ) + λ2 T (v2 ).
es decir
T (λA + γB) = λT (A) + γT (B) .
Por lo tanto, la función T denida en (30.2) es lineal, lo cual nos indica que
pertenece al espacio dual (Mnn (C))∗ .
343
30.3. Producto escalar y espacio dual
Si un espacio vectorial tiene producto escalar es posible obtener elementos
de su espacio dual con la ayuda de dicho producto. En efecto, supongamos que
V es un espacio vectorial sobre C con producto escalar, entonces si v0 es un
vector jo en V se puede denir la función
Tv0 : V → C,
tal que
Tv0 (v) = ⟨v0 |v⟩ . (30.3)
Usando las propiedades del producto escalar se puede demostrar que Tv0
es una función lineal. Esta última armación es vedadera, pues si v1 , v2 ∈ V y
λ1 , λ2 ∈ C, se cumple
de donde
Tv0 (λ1 v1 + λ2 v2 ) = λ1 Tv0 (v1 ) + λ2 Tv0 (v2 ).
30.3.1. Ejemplo R3
Por ejemplo, en el espacio vectorial R3 , con el vector constante jo
a
v0 = b ,
c
344
entonces
v1
Tv0 (v) = a b c v2 .
v3
g(x) = sen x,
se puede denir la función Tg tal que para cualquier función intengrable f (x)
en el intervalo [a, b] se cumpla
Z b
Tg (f (x)) = (sin x) f (x).
a
Esta función es lineal y por lo tanto pertenece al espacio dual del espacio vec-
torial de las funciones integrales en el intervalo [a, b].
345
por el modo en que actúa en los vectores de dicha base.
tales que
f (v1 ) = α1 , f (v2 ) = α2 , · · · , f (vn ) = αn , (30.5)
estas últimas igualdades denen completamente a f. En efecto, si v ∈ V, existen
n números
λ1 , λ2 , · · · , λn ∈ K
tales que
v = λ1 v1 + λ2 v2 + · · · + λn vn , (30.6)
por lo que, debido a que f es lineal, se cumple
f (v) = f (λ1 v1 + λ2 v2 + · · · + λn vn )
= λ1 f (v1 ) + λ2 f (v2 ) + · · · + λn f (vn )
= λ1 α1 + λ2 α2 + · · · + λn αn ,
es decir,
f (v) = λ1 α1 + λ2 α2 + · · · + λn αn .
Este resultado nos ayudará a encontrar una base para el espacio dual V ∗ .
De nuevo supongamos que los vectores (30.4) forman una base de V, en-
tonces deniremos las funciones lineales
{f1 , f2 , · · · , fn } , (30.7)
tales que
fi (vj ) = δij , i, j = 1, 2, · · · , n.
346
Probaremos que las funciones (30.7) forman una base del espacio dual V ∗ .
Antes realizar la prueba, notemos que debido a que los vectores (30.4)
forman una base de V, cualquier vector v ∈ V se puede escribir de la forma
(30.6), por lo que se cumplen
fi (v) = fi (λ1 v1 + λ2 v2 + · · · + λn vn )
= λ1 fi (v1 ) + λ2 fi (v2 ) + · · · + λi fi (vi ) + · · · + λn fi (vn )
= λi ,
esto es,
fi (v) = λi . (30.8)
Ahora probaremos que las funciones (30.7) generan al espacio dual V ∗ , es
decir, probaremos que si f ∈ V ∗ , entonces f es una combinación lineal de las
funciones (30.7). Primero, notemos que si f ∈ V ∗ y el conjunto de vectores
(30.4) es una base de V, entonces podemos denir la siguiente combinación
lineal de funciones
f ′ = f (v1 )f1 + f (v2 )f2 + · · · + f (vn )fn .
lo que prueba que cualquier función f ∈ V ∗ se puede escribir como una com-
binación lineal de las funciones (30.7) de la forma
f = f (v1 )f1 + f (v2 )f2 + · · · + f (vn )fn .
347
Así, las funciones (30.7) generan al espacio dual V ∗ .
tal que
γ1 f1 + γ2 f2 + · · · + γn fn = 0.
por lo que
γ1 = 0.
dim (V ∗ ) = n.
348
30.5. Cambio de base en el espacio dual
Ya demostramos que si V tiene dimensión n y que el conjunto de vectores
{v1 , v2 , · · · , vn } (30.9)
es base de V. Entonces, si las funciones
f1 , f2 , · · · , fn (30.10)
satisfacen
fi (vj ) = δij , i, j = 1, 2, · · · , n
Debido a que los vectores (30.9) y (30.11) son bases de V, existe una matriz
U ∈ Mn×n (K) tal que
vi′ = Uij vj .
De la misma forma, debido a que las funciones (30.10) y (30.12) son bases del
espacio dual V ∗ , existe una matriz U ′ ∈ Mn×n (K) tal que
fi′ = Uij′ fj .
349
En efecto, podemos ver que
δij = fi′ (vj′ )
= fi′ (Ujk vk )
= Ujk fi′ (vk )
= Ujk Uil′ fl (vk )
= Ujk Uil′ δlk
′
= Ujk Uik
′T
= Ujk Uki
U U ′T ji
=
esto es,
δij = U U ′T
ji
de donde
U U ′T = I,
es decir,
T
U = U ′−1 ,
que implica
T
U ′ = U −1 .
vi′ = Uij vj ,
′ −1 T
fj = U −1 ji fj .
fi = U
ij
30.6. Ejemplos
30.6.1. Ejemplo en R3
Para R3 tenemos la base
1 0 0
e1 = 0 , e2 = 1 , e3 = 0 ,
0 0 1
350
entonces la base del espacio dual de R3 son las funciones lineales
f1 , f2 , f3 ,
que satisfacen
f1 (e1 ) = 1, f1 (e2 ) = 0 f1 (e3 ) = 0,
f2 (e1 ) = 0, f2 (e2 ) = 1, f2 (e3 ) = 0,
f3 (e1 ) = 0, f3 (e2 ) = 0, f3 (e3 ) = 1.
es decir,
a
f1 b = a.
c
351
de donde
a a
f b
= (λ1 f1 + λ2 f2 + λ3 f3 ) b
c c
a a a
= λ1 f1 b + λ2 f2 b + λ3 f3 b
c c c
= λ1 a + λ2 b + λ3 c.
Así, todas las funciones del espacio dual (R3 )∗ , son de la forma
a
f b = λ1 a + λ2 b + λ3 c.
c
entonces, una base del espacio dual de M2×2 (R) son las funciones lineales
f1 , f2 , f3 , f4 ,
que satisfacen
f1 (e1 ) = 1, f1 (e2 ) = 0 f1 (e3 ) = 0, f1 (e4 ) = 0,
f2 (e1 ) = 0, f2 (e2 ) = 1, f2 (e3 ) = 0, f2 (e4 ) = 0,
f3 (e1 ) = 0, f3 (e2 ) = 0, f3 (e3 ) = 1, f3 (e4 ) = 0,
f4 (e1 ) = 0, f4 (e2 ) = 0, f4 (e3 ) = 0, f4 (e4 ) = 1.
352
debido a que f1 es una función lineal, se cumple
a b 1 0 0 1 0 0 0 0
f1 = f1 a +b +c +d
c d 0 0 0 0 a 0 0 1
1 0 0 1 0 0 0 0
= af1 + bf1 + cf1 + df1
0 0 0 0 a 0 0 1
= a,
es decir
a b
f1 = a.
c d
de donde
a b a b
f = (λ1 f1 + λ2 f2 + λ3 f3 + λ4 f4 )
c d c d
a b a b a b a b
= λ1 f1 + λ2 f 2 + λ3 f3 + λ4 f4
c d c d c d c d
= λ1 a + λ2 b + λ3 c + λ4 d.
Así, toda las funciones del espacio dual (M2×2 (R))∗ son de la forma
a b
f = λ1 a + λ2 b + λ3 c + λ4 d.
c d
30.7. Ejercicios
1.- Para el espacio dual (M3×3 (R))∗
353
Capítulo 31
Funciones bilineales
En este capítulo estudiaremos el concepto de función bilineal, el cual ex-
tiende el concepto de función lineal y tiene una amplia gama de aplicaciones.
Los temas de este capítulo son importantes para entender conceptos y apli-
caciones avanzadas del álgebra lineal.
31.1. Denición
Sean V, U y W espacios vectoriales en el campo K, se dice que la función
T :V ×U →W
Note que esta denición nos dice que la función T es bilineal si es lineal en
cada una de sus entradas.
354
las dos condiciones
Ver ejercicio 1.
31.2. Ejemplos
31.2.1. Ejemplo en C × C
Para construir el primer ejemplo, supongamos λ es una constante compleja,
entonces denamos la función
T :C×C→C
355
31.2.2. Ejemplo en Rm × Rn
Ahora veamos un ejemplo en Rm × Rn , supongamos M es una matriz de
entradas reales de m × n,
M11 M12 ··· M1n
M21 M22 ··· M2n
M = .. .. .. ,
. . ··· .
Mm1 Mm2 ··· Mmn
entonces denamos la función
T : Rm × Rn → R
tal que si
a1 b1
a2 b2
u = .. ∈ Rm , v = .. ∈ Rn
. .
am bn
entonces
T (u, v) = uT M v
M11 M12 ··· M1n b1
21 M22
M ··· M2n b2
= a1 a2 · · · am .. .. .. . .(31.2)
. ..
. . ···
Mm1 Mm2 ··· Mmn bn
Esta función es bilineal, pues si γ1 , γ2 ∈ R, para cualquier u, u′ ∈ Rm se tiene
T
T (γ1 u + γ2 u′ , v) = (γ1 u + γ2 u′ ) M v
= γ1 uT + γ2 u′T M v
= γ1 uT M v + γ2 u′T M v
= γ1 T (u, v) + γ2 T (u′ , v).
Adicionalmente, para cualquier v, v ′ , ∈ Rn se cumple
T (u, γ1 v + γ2 v ′ ) = uT M (γ1 v + γ2 v ′ )
= uT M γ1 v + uT M γ2 v ′
= γ1 uT M v + γ2 uT M v ′
= γ1 T (u, v) + γ2 T (u, v ′ ).
Por lo tanto, la función denida en (31.2) es una función bilineal.
356
31.2.3. Ejemplo con matrices
Como otro ejemplo, consideremos el espacio de las matrices reales de n × n,
Mn×n (R). En este espacio supogamos que N es una matriz ja de n × n.
Entonces, podemos denir función
T : Mn×n (R) × Mn×n (R) → Mn×n (R)
con la regla
∂
T (f, g)(x) = λf (x) g(x), f, g ∈ A. (31.4)
∂x
357
Supongamos que γ1 , γ2 ∈ R y que f1 , f2 , g ∈ A, entonces se cumple
∂
T (γ1 f1 + γ2 f2 , g) = λ (γ1 f1 (x) + γ2 f2 (x)) g(x)
∂x
∂ ∂
= λγ1 f1 (x) g(x) + λγ2 f2 (x) g(x)
∂x ∂x
∂ ∂
= γ1 λf1 (x) g(x) + γ2 λf2 (x) g(x)
∂x ∂x
= γ1 T (f1 , g) + γ2 T (f2 , g).
dim(U ) = n,
dim(V ) = m.
358
También supongamos que la función
T :U ×V →W
Para iniciar la prueba notemos que debido a que T es una función sobre
U × V, si
u1 , u2 , · · · , um
es una base de U y
v1 , v2 , · · · , vn
tales que
u = λ1 u1 + λ2 u2 + · · · + λm um ,
y existen n elementos en K
γ1 , γ2 , · · · , γn
De donde,
T (u, v) = T (λi ui , γj vj ) = λi γj T (ui , vj ) = λi γj wij ,
esto es
T (u, v) = λi γj wij , (31.6)
359
Por lo tanto, si una función bilineal se dene sobre una base U y una base V,
automáticamente está denida sobre todo el dominio U × V.
de donde
G(u, v) = T (u, v).
31.3.1. Ejemplo
Por ejemplo, sea V = R4 con la base
(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0) (0, 0, 0, 1)
360
Entonces deniremos la función bilineal
T : V × U → M2×2 (R)
tal que
0 −1 1 0
T (1, 0, 0, 0), = ,
1 0 0 0
0 −1 0 1
T (0, 1, 0, 0), = ,
1 0 0 0
0 −1 0 0
T (0, 0, 1, 0), = ,
1 0 1 0
0 −1 0 0
T (0, 0, 0, 1), = .
1 0 0 1
31.4. Ejercicios
1.- Sean V, U y W espacios vectoriales en el campo K, y
T :V ×U →W
361
T una función. Probar que T es una función bilineal si y solo si satisface las
condiciones
∀λ1 , λ2 ∈ K, ∀v1 , v2 ∈ V, u ∈ U, T (λ1 v1 + λ2 v2 , u) = λ1 T (v1 , u) + λ2 T (v2 , u),
∀λ1 , λ2 ∈ K, ∀v ∈ V, u1 , u2 ∈ U, T (v, λ1 u1 + λ2 u2 ) = λ1 T (v, u1 ) + λ2 T (v, u2 ).
tal que
1 0
T (1, 0), = (1, 0, 0, 0, 0),
0 0
1 0
T (0, 1), = (0, 1, 0, 0, 0, 0),
0 0
0 0
T (1, 0), = (0, 0, 0, 1, 0),
0 1
0 0
T (0, 1), = (0, 0, 0, 0, 0, 1),
0 1
0 1
T (1, 0), = (0, 0, 1, 0, 0, 0),
1 0
0 1
T (0, 1), = (0, 0, 0, 1, 0, 0).
1 0
362
Capítulo 32
Formas bilineales
En este capítulo veremos el concepto de forma bilineal. En particular, ve-
remos que este concepto está relacionado con el concepto de espacio dual, el
cual se dene en el espacio de las funciones lineales.
32.1. Denición
Sean V y U espacios vectoriales sobre el campo K, si la función
T :V ×U →K
es una función bilineal, se dice que T que es una forma bilineal. El conjunto
de funciones bilineales de V y U en K se denota como
L2 (V, U, K) .
Si U = V se denota
L2 (V, V, K) = Bil (V ) .
32.1.1. Ejemplo en Cn × Cm
Por ejemplo, si Mnm es una matriz de coecientes complejos, la función
T : Cn × Cm → C
denida como
T (v1 , v2 ) = v1T M v2
es una función bilineal y por lo tanto una forma bilineal
363
32.1.2. Ejemplo con matrices
Como otro ejemplo, consideremos el espacio de las matrices reales de n × n,
Mn×n (R). En este espacio supogamos que N es una matriz ja de n × n.
Entonces, podemos denir función
T : Mn×n (R) × Mn×n (R) → R
Así, la función denida en (32.1) es una función bilineal y por lo tanto una
forma bilineal.
T :A×A→R
con la regla
Z b
∂
T (f, g) = λf (x) g(x)dx, f, g ∈ A. (32.2)
a ∂x
364
Supongamos que γ1 , γ2 ∈ R y que f1 , f2 , g ∈ A, entonces se cumple
Z b
∂
T (γ1 f1 + γ2 f2 , g) = λ (γ1 f1 (x) + γ2 f2 (x)) dx g(x)
a ∂x
Z b
∂ ∂
= λγ1 f1 (x) g(x) + λγ2 f2 (x) g(x) dx
a ∂x ∂x
Z b Z b
∂ ∂
= γ1 λf1 (x) g(x) dx + γ2 λf2 (x) g(x) dx
a ∂x a ∂x
= γ1 T (f1 , g) + γ2 T (f2 , g).
Además, si g1 , g2 , f ∈ A, entonces se cumple
Z b
∂
T (f, γ1 g1 + γ2 g2 ) = λf (x) (γ1 g1 (x) + γ2 g2 (x)) dx
a ∂x
Z b
∂ ∂
= λf (x) γ1 g1 (x) + λf (x) γ1 g2 (x) dx
a ∂x ∂x
Z b Z b
∂ ∂
= γ1 λf (x) g1 (x) dx + γ2 λf (x) g1 (x) dx
a ∂x a ∂x
= γ1 T (f, g1 ) + γ2 T (f, g2 ).
Entonces la función denida en (32.2) es una función bilineal y por lo tanto
una forma bilineal.
365
es una base de V. Entonces si
T :U ×V →K
es una función bilineal, existen nm vectores en K tales que
366
esto es
M11 M12 ··· M1n γ1
M21 M22
··· M2n γ2
T (u, v) = λ1 λ2 · · · λm .. .. .. . .
. ..
. . ···
Mm1 Mm2 ··· Mmn γn
32.3. Ejemplos
32.3.1. Ejemplo 1
Por ejemplo, sea K = R y U = R2 , V = R3 , con las bases
1 0 0
1 0
u1 = , u2 = , v1 = 0 , v2 = 1 , v3 = 0 .
0 1
0 0 1
367
De donde, para cualquier dos vectores de R2 y R3 se tiene
b1 b1
a a b c
F 1 , b 2 = a1 a2 b2 .
a2 d e f
b3 b3
32.3.2. Ejemplo 2
Supongamos que U un espacio vectorial de dimensión m, V un espacio
vectorial de dimensión n. Entonces, si M es una matriz que pertenece a
Mm×m (K),, dada una base de U, {ui }m
i=1 , y una base de V, {vj }j=1 , se puede
n
tal que
a1 b1 a1 a b c b1
F a2 , b 2
= a2
d e f b2 .
a3 b3 a3 g h q b3
368
tal que si u ∈ U y v ∈ V se cumple
Probaremos que T es una función bilineal y por lo tanto una forma bilineal.
Para realizar la prueba supongamos que λ, γ ∈ K, u1 , u2 ∈ U y v ∈ V, por lo
que
T (λu1 + γu2 , v) = f (λu1 + γu2 ) g(v)
= (λf (u1 ) + γf (u2 )) g(v)
= λf (u1 )g(v) + γf (u2 )g(v)
= λT (u1 , v) + γT (u2 , v).
Además, si u ∈ U y v1 , v2 ∈ V se encuentra
T (u, λv1 + γv2 ) = f (u) g (λv1 + γv2 )
= f (u) (λg(v1 ) + γg(v2 ))
= λf (u)g(v1 ) + γf (u)g(v2 )
= λT (u, v1 ) + γT (u, v2 ).
369
son una base del espacio dual U ∗ . De la misma forma, si V es un espacio
vectorial sobre K de dimensión n y
{v1 , v2 , · · · vn
las cuales son formas bilineales. Las funciones (32.7) son una base del espacio
de las formas bilineales de U × V en K,
Bil(U, V, K) = {T : U × V → K|T Bilineal}. (32.8)
Primero probaremos que las formas bilineales (32.7) general al espacio (32.8).
Así, supongamos que la función
T :U ×V →K
tales que
u = λ1 u1 + λ2 u2 + · · · + λm um ,
370
de forma análoga si v ∈ V, entonces existen n elementos de K
γ1 , γ2 , · · · , γn
de tal forma que
v = γ1 v1 + γ2 v2 + · · · + γn vn .
Entonces,
T (u, v) = T (λi ui , γk vk )
= λi γk T (ui , vk )
= λi γk αik ,
además,
T ′ (u, v) = αjl fj (u)gl (v)
= αjl fj (λi ui )gl (γk vk )
= αjl λi fj (ui )γk gl (vk )
= λi γk αjl fj (ui )gl (vk )
= λi γk αjl δji δlk
= λi γk αik .
Por lo tanto, para cualquier (u, v) ∈ U × V se cumple
T (u, v) = T ′ (u, v),
en consecuencia cualquier forma bilineal se puede escribir de la forma
T = αik fi gk
que es una combinación lineal de las formas bilineales (32.7) Por lo tanto, el
espacio de las formas bilineales (32.8) es generado por las funciones (32.7).
Ahora probaremos que el conjunto de las formas bilineales (32.7) son li-
nealmente independientes. Para realizar esta prueba, supongamos que existen
nm elementos βik ∈ K tales que
βik fi gk = 0,
entonces
0 = (βik fi gk ) (u1 , v1 )
= βik fi (u1 )gk (v1 )
= βik δi1 δk1
= β11 ,
371
es decir,
β11 = 0.
Por lo tanto, el conjunto de funciones (32.7) es una base del espacio de las
formas bilineales
En particular, si U = V se obtiene
32.5.1. Ejemplo
Por ejemplo, para R2 tenemos la base
1 0
e1 = , e2 = ,
0 1
por lo que el espacio dual tiene como base las funciones lineales
f1 , f2 ,
que satisfacen
f1 (e1 ) = 1, f1 (e2 ) = 0,
f2 (e1 ) = 0, f2 (e2 ) = 1.
372
entonces una base del espacio dual de M2×2 (R) son las funciones lineales
g1 , g2 , g3 , g4 ,
que satisfacen
g1 (m1 ) = 1, g1 (m2 ) = 0 g1 (m3 ) = 0, g1 (m4 ) = 0,
g2 (m1 ) = 0, g2 (m2 ) = 1, g2 (m3 ) = 0, g2 (m4 ) = 0,
g3 (m1 ) = 0, g3 (m2 ) = 0, g3 (m3 ) = 1, g3 (m4 ) = 0,
g4 (m1 ) = 0, g4 (m2 ) = 0, g4 (m3 ) = 0, g4 (m4 ) = 1.
Así, una base de las formas bilineales de R2 × M2×2 (R) son la funciones
f1 g1 , f1 g2 , f1 g3 , f1 g4 , f2 g1 , f2 g2 , f2 g3 , f2 g4 ,
x a b
T , = α11 xa + α12 xb + α13 xc + α13 xd +
y c d
+α21 ya + α22 yb + α23 yc + α24 yd.
se tiene
a
x a b α11 α12 α13 α14
b .
T , = x y
y c d α21 α22 α23 α24 c
d
373
32.6. Ejercicios
1.- Para el espacio R3 × M2×2 (R)
374
Capítulo 33
Formas cuadráticas
En este capítulo estudiaremos las formas cuadráticas y algunas de sus apli-
caciones en geometría y física.
33.1. Denición
Supongamos que V es un espacio vectorial sobre el campo K y que la
función
T :V ×V →K
q:V →K
375
33.2. Matriz asociada
Si q es una forma cuádrica, entonces es una forma bilineal y debe tener
asociada una matriz.
376
33.3. Transformaciones invariantes
En la geometría y en varias áreas de la física son importantes las transfor-
maciones lineales
q (X ′ ) = q (X) . (33.3)
= X T ΛT ηΛ X
= X T ηX,
de donde
X T ΛT ηΛ X = X T ηX.
377
entonces la ecuación (33.6) implica
(det Λ)2 = 1,
esto es
det Λ = ±1.
Gη = Λ ∈ Mn×n (R)|ΛT ηΛ = η,
det η ̸= 0 .
Antes de realizar la prueba recordemos que para que Gη sea un grupo debe
cumplir las siguientes propiedades:
1) Axioma de cerradura:
Λ1 , Λ2 ∈ Gη =⇒ Λ1 Λ2 ∈ Gη .
2) Axioma de asociatividad:
Λ1 , Λ2 , Λ3 ∈ Gη , =⇒ Λ1 (Λ2 · λ3 ) = (Λ1 Λ2 ) Λ3 .
∃I ∈ Gη , ∀Λ ∈ Gη =⇒ Λ · I = I · Λ = Λ.
378
4)Axioma del inverso:
por lo que
(Λ1 Λ2 )T η (Λ1 Λ2 ) = ΛT2 ΛT1 ηΛ1 Λ2
= ΛT2 ηΛ2
= η,
es decir,
(Λ1 Λ2 )T η (Λ1 Λ2 ) = η.
379
es decir,
T
Λ−1 η = ηΛ,
de donde
T
Λ−1 ηΛ−1 = ηΛΛ−1 = η,
esto es,
T
Λ−1 ηΛ−1 = η.
33.4. Distancia
Como primer ejemplo, supongamos que V = Rn y
η = I.
Entonces, si
x1
x2
X = .. ,
.
xn
la forma cuadrática es
Note que con la matriz identidad, la forma cuadrática nos da la distancia eu-
clidiana de un vector de Rn al origen. Por esta razón, se dice que la matriz
identidad es la métrica del espacio euclidiano.
380
En particular, para R3 se tiene la forma cuadrática
33.5. Pseudodistancia
Ahora veamos un ejemplo en la relativida especial de Einstein. En esta
teoría, si c es la velocidad de la luz, t es el tiempo y x, y, z son las coordenadas
del espacio tridimensional, un cuadrivector se dene como
ct
x
X=
y.
(33.8)
z
0 0 0 −1
381
De donde, se puede construir la forma cuadrática
q(X) = s2 = X T ηX
1 0 0 0 ct
0 −1 0 0 x
= ct x y z
0 0 −1 0 y
0 0 0 −1 z
= c2 t2 − x2 − y 2 − z 2 ,
es decir
s2 = c2 t2 − x2 − y 2 − z 2 . (33.9)
A esta forma cuadrática se le llama pseudodistancia y fue propuesta por A.
Einstein para poder explicar que la velocidad de luz es la misma para cualquier
observador que se mueve con velocidad constante con respecto a la fuente de
luz. Así, la forma cuadrática es la piedra angular de la relatividad de A. Eins-
tein.
entonces, la ecuación
ΛT ηΛ = η
382
se puede escribir explícitamente como
a1 a3 0 0 1 0 0 0 a1 a2 0 0
a2 a4 0 0 0 −1 0
0 a3 a4
0 0
ΛT ηΛ =
0 0 1 0 0 0 −1 0 0 0 1 0
0 0 0 1 0 0 0 −1 0 0 0 1
a1 a3 0 0 a1 a2 0 0
a2 a4 0 0 −a3 −a4 0 0
=
0 0 1 0 0 0 −1 0
0 0 0 1 0 0 0 −1
a21 − a23 a1 a2 − a3 a4 0 0
a1 a2 − a3 a4 a22 − a24 0 0
=
0 0 −1 0
0 0 0 −1
1 0 0 0
0 −1 0 0
= η= ,
0 0 −1 0
0 0 0 −1
que implica
a21 − a23 = 1, (33.10)
a22 − a24 = −1, (33.11)
a1 a2 − a3 a4 = 0. (33.12)
Ahora, deniendo
v
β = ,
c
1
γ = p ,
1 − β2
se obtienen las soluciones
a1 = a4 = γ,
a2 = a3 = −βγ.
Por lo que una transformación de Lorentz está dada por
γ −βγ 0 0
−βγ γ 0 0
Λ=
0
,
0 1 0
0 0 0 1
383
de donde
ct′
γ −βγ 0 0 ct
x′ −βγ γ 0 0 x
′ = ,
y 0 0 1 0 y
z′ 0 0 0 1 z
que implica
ct′ = γ (ct − βx) ,
x′ = γ (x − βct) ,
y′ = y,
z′ = z.
Uno de los postulados que impuso Albert Einstein para construir su teoría
especial de la relatividad es que las leyes de la física deben ser invariantes bajo
las transformaciones de simetría de la forma cuadrática (33.9). Otra forma de
expresar este postulado es que las leyes de la física deben ser invariantes bajo
las transformaciones de Lorentz.
384
abordarlos. Se graduó de física y matemáticas en la universidad de Leyden.
Posteriormente, trabajó como profesor e inició su doctorado en la misma uni-
versidad. Como investigador realizó trabajos que dieron claridad sobre temas
de óptica y diversos fenómenos electromagnéticos, también escribió un tratado
de análisis matemático. Uno de sus trabajo más relevantes fue sobre el estudio
de las simetrías de las ecuaciones de Lorentz, en donde encontró las transfor-
maciones que llevan su nombre. Este trabajo en un inicio fue mal recibido, pero
diferentes trabajos experimentales le dieron la razón y permitieron a Einstein
contruir la relatividad especial. Además, junto con su alumno P. Zeeman reali-
zó diversos estudios sobre los efectos de un campo magnético intenso en una
fuente de luz de sodio, en donde descubrieron el llamado efecto Zemman. Por
dicho trabajo ambos recibieron el premio Nobel de física en 1902.
y la matriz asociada es η
η00 = 1, η0′ 0 = η00′ = 0, η0i = ηi0 = 0, i = 1, 2, · · · , d,
η0′ 0′ = 1, η0′ i = ηi0′ = 0,
ηji = δij , j = 1, 2, · · · , d,
esto es
1 0 0 0 ··· 0
0
1 0 0 ··· 0
0 0 −1 0 ··· 0
η = 0 .
0 0 −1 ··· 0
.. .. .. .. ..
. . . . ··· .
0 0 0 0 ··· −1
385
De donde se obtiene la forma cuadrática
q(X) = X T ηX
1 0 0 0 ··· 0 x0
0
1 0 0 ··· 0 x0′
0
0 −1 0 ··· 0 x1
= x0 x0 ′ x1 x2 · · · xd 0
0 0 −1 ··· 0 x2
.. .. .. .. .. .
. ..
. . . . ···
0 0 0 0 ··· −1 xd
2 2 2 2 2
= x0 + x0′ − x1 + x2 + · · · + xd ,
esto es
q(X) = x20 + x20′ − x21 + x22 + · · · + x2d . (33.13)
El caso
q(X) = −R2 ,
es decir,
x20 + x20′ − x21 + x22 + · · · + x2d = −R2
386
Capítulo 34
Funciones multilineales y tensores
En este capítulo, extenderemos el concepto de función bilineal a función
multilineal. De la misma forma, extenderemos el concepto forma bilineal a for-
ma multilineal.
34.1. Denición
Sean V1 , V2 , · · · , VN espacios vectoriales en el campo K, se dice que la fun-
ción
T : V1 × V2 × · · · × VN → W
es multilineal si λ1 , λ2 ∈ K y
v1 ∈ V2 , v2 ∈ V2 , · · · , vi , vi′ ∈ Vi , · · · , vN ∈ VN
se cumple
T (v1 , v2 , · · · , λ1 vi + λ2 vi′ , · · · , vN )
= λ1 T (v1 , v2 , · · · , vi , · · · vN ) + λ2 T (v1 , v2 , · · · , vi′ , · · · vN )
387
34.2. Funciones multilineales actuando en una
base
Ahora probaremos que si una funciones multilineales está denida en una
base del dominio V1 × V2 × · · · × VN automáticamente está denida en todo el
dominio. También recordemos que si dos funciones lineales coinciden en una
base del dominio, esa funciones multilineales son las mismas. Nos concentra-
remos en espacios vectoriales de dimensión nita.
388
tales que
vi = λ1i v1i + λ2i v2i + · · · + λni i vni i ,
esto es
vi = λji i vji i , ji = 1, 2, · · · , ni
De donde,
T (v1 , v2 , · · · , vi , · · · , vN ) = T (λj1 1 vj1 1 , λj2 2 vj2 2 , · · · , λji i vji i , · · · , λjN N vjN N )
= λj1 1 λj2 2 · · · λji i · · · λjN N T (vj1 1 , vj2 2 , · · · , vji i , · · · , vjN N )
= λj1 1 λj2 2 · · · λjN N wj1 j2 ···jN ,
esto es
(34.3)
T (v1 , v2 , · · · , vN ) = λj1 1 λj2 2 · · · λjN N wj1 j2 ···jN .
Por lo tanto, si una función multilineal se dene sobre cada una de las bases
de los espacios Vi , automáticamente está denida sobre todo el dominio (34.1)
389
34.3. Formas multilineales
Sean V1 , V2 , · · · , VN espacios vectoriales en el campo K, si la función
T : V1 × V2 × · · · × VN → K
Con los espacios duales Vi∗ de los espacios vectoriales Vi se pueden construir
formas multlineales.
Probaremos que T es una función multilineal y por lo tanto una forma mul-
tilineal. Para realizar la prueba supongamos que λ, γ ∈ K y vi , vi′ ∈ Vi de
donde
T (v1 , v2 , · · · , λvi + γvi′ , · · · , vn ) =
= f1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 )fi (λvi + γvi′ )fi+1 (vi+1 ) · · · fN (vN )
= f1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 ) (λfi (vi ) + γf (vi′ )) fi+1 (vi+1 ) · · · fN (vN )
= λf1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 )fi (vi )fi+1 (vi+1 ) · · · fN (vN ) +
+γf1 (v1 )f2 (v2 ) · · · fi−1 (vi−1 )f (vi′ )fi+1 (vi+1 ) · · · fN (vN )
= λT (v1 , v2 , · · · , vi , · · · , vN ) + γT (v1 , v2 , · · · , vi′ , · · · , vN )
esto es
T (v1 , v2 , · · · , λvi + γvi′ , · · · , vN ) =
= λT (v1 , v2 , · · · , vi , · · · , vN ) + γT (v1 , v2 , · · · , vi′ , · · · , vn ).
390
34.4. Base de las formas bilineales
Denamos el conjunto de formas bilineales
Mostraremos que este espacio es generado por los espacios duales Vi∗ .
391
Ahora supongamos que vi ∈ Vi , entonces existen ni elementos en K
λ1i , λ2i , · · · , λni i ,
tales que
vi = λ1i v1i + λ2i v2i + · · · + λni i vni i ,
esto es,
vi = λji i vji i , jI = 1, 2, · · · , ni
De donde,
T (v1 , v2 , · · · , vi , · · · , vN ) = T (λj1 1 vj1 1 , λj2 2 vj2 2 , · · · , λji i vji i , · · · , λjN N vjN N )
= λj1 1 λj2 2 · · · λji i · · · λjN N T (vj1 1 , vj2 2 , · · · , vji i , · · · , vjN N )
= λj1 1 λj2 2 · · · λjN N αj1 j2 ···jN ,
es decir,
T (v1 , v2 , · · · , vN ) = λj1 1 λj2 2 · · · λjN N αj1 j2 ···jN .
de donde
T ′ (v1 , v2 , · · · , vN ) = λj1 1 λj2 2 · · · λjN N αj1 j2 ···jN = T (v1 , v2 , · · · , vN )
392
Ahora probaremos que el conjunto de las formas multilineales (34.7) son
linealmente independientes. Para realizar esta prueba, supongamos que existen
nm elementos βi1 i2 ···iN ∈ K tales que
entonces
0 = (βi1 i2 ···iN fi1 1 fi2 2 · · · fiN N ) (v11 , v12 , · · · , v1N )
= βi1 i2 ···iN fi1 1 (v11 )fi2 2 (v12 ) · · · fiN N (v1N )
= βi1 i2 ···iN δi1 1 δi2 2 · · · δ1N
= β11···1
es decir,
β11···1 = 0.
dim (F M ul) = n1 n2 · · · nN .
dim (F M ul(V )) = nN .
393
34.5. Ejercicios
1.- Probar que si λ ∈ C, la función
T :C×C×C→C
tal que si z1 , z2 , z3 ∈ C se cumple
T (z1 , z2 , z3 ) = λz1 z2 z3
es multilineal.
2.- Para el espacio de las matrices Mn×n (R) probar que si λ ∈ R, la función
T : Mn×n (R) × Mn×n (R) × Mn×n (R) → Mn×n (R)
tal que si A1 , A2 , A3 ∈ Mn×n (R) se cumple
T (A1 , A2 , A3 ) = λA1 A2 A3
es una función multilineal.
3.- Para el espacio de las matrices Mn×n (R) probar que si λ ∈ R, la función
T : Mn×n (R) × Mn×n (R) × Mn×n (R) → R
tal que si A1 , A2 , A3 ∈ Mn×n (R) se cumple
T (A1 , A2 , A3 ) = λT r(A1 A2 A3 )
es una forma multilineal.
394
Probar que T es una función bilineal.
es denida como
T (V1 , V2 , V3 ) = V1 × (V2 × V3 ) ,
con
V1 , V2 , V3 ∈ R3 ,
es denida como
T (V1 , V2 , V3 ) = V1 · (V2 × V3 ) ,
con
V1 , V2 , V3 ∈ R3 ,
395
Capítulo 35
Funciones alternantes, producto
exterior y derivada exterior
En este capítulo estudiaremos las funciones multilineales alternantes con
las cuales deniremos el producto exterior. También deniremos la derivada
exterior, la cual nos permite relacionar el álgebra lineal con varios conceptos
importantes del cálculo diferencial de varias variables como el rotacional y la
divergencia.
T (v, v) = 0.
396
Para probar esta armación, notemos que debido a que T es una función
bilineal alternante se encuentra
0 = T (u + v, u + v)
= T (u, u + v) + T (v, u + v)
= T (u, u) + T (u, v) + T (v, u) + T (v, v)
= 0 + T (u, v) + T (v, u) + 0
= T (u, v) + T (v, u),
esto es ,
T (u, v) + T (v, u) = 0,
de donde
T (u, v) = −T (v, u).
35.2. Ejercicios
1.- En la Mecánica Clásica es importante el espacio fase
x, p = mẋ.
y las funciones en dicho espacio F (x, p). Ahora supongamos que tenemos dos
funciones del espacio fase
F1 : R2 → R,
F2 : R2 → R,
397
2.- En Mecánica Cuántica es importante el llamado conmutador entre ope-
radores lineales. Para denir el conmutador entre matrices, supongamos que
A1 , A2 ∈ Mn×n (C)
T (A1 , A2 ) = [A1 , A2 ] = A1 A2 − A2 A1 .
una función alternante. Debido a que T es una función bilineal queda com-
pletamente determinada si se dene en una base de V. Por lo que si V tiene
dimensión n y
{v1 , v2 , · · · , vn }
398
tal que
u = λ11 v1 + λ12 v2 + · · · + λ1n vn ,
y existen n elementos en K
λ21 , λ22 , · · · , λ2n ,
tal que
v = λ21 v1 + λ22 v2 + · · · + λ2n vn .
Por lo tanto,
T (u, v) = T (λ1j1 vj1 , λ2j2 vj2 )
= λ1j1 λ2j2 T (vj1 , vj2 ), j1 , j2 = 1, 2, · · · , n,
es decir,
T (u, v) = λ1j1 λ2j2 T (vj1 , vj2 ).
De forma explícita se tiene
T (u, v) = λ11 λ22 T (v1 , v2 ) + λ11 λ23 T (v1 , v3 ) + · · · + λ11 λ2n T (v1 , vn ) +
+λ12 λ21 T (v2 , v1 ) + λ12 λ23 T (v2 , v3 ) + · · · + λ12 λ2n T (v2 , vn ) +
..
.
+λ1n λ21 T (vn , v1 ) + λ1n λ22 T (vn , v2 ) + · · · + λ1n λ2n−1 T (vn , vn−1 ),
que se puede reescribir como
T (u, v) = λ11 λ22 T (v1 , v2 ) + λ12 λ21 T (v2 , v1 ) + · · · + λ11 λ2n T (v1 , vn ) + λ1n λ21 T (vn , v1 ) +
+λ12 λ23 T (v2 , v3 ) + λ13 λ22 T (v3 , v2 ) + · · · + λ12 λ2n T (v2 , vn ) + λ1n λ22 T (vn , v2 ) +
+λ13 λ24 T (v3 , v4 ) + λ14 λ23 T (v4 , v3 ) + · · · + λ13 λ2n T (v3 , vn ) + λ1n λ23 T (vn , v3 ) +
..
.
+λ1n−1 λ2n T (vn−1 , vn ) + λ1n λ2n−1 T (vn , vn−1 ).
Entonces, como T es una función alternante se tiene
T (u, v) = (λ11 λ22 − λ12 λ21 ) T (v1 , v2 ) + · · · + (λ11 λ2n − λ1n λ21 ) T (v1 , vn ) +
+ (λ12 λ23 − λ13 λ22 ) T (v2 , v3 ) + · · · + (λ12 λ2n − λ1n λ22 ) T (v2 , vn ) +
+ (λ13 λ24 − λ14 λ23 ) T (v3 , v4 ) + · · · + (λ13 λ2n − λ1n λ23 ) T (v3 , vn ) +
..
.
+ (λ1n−1 λ2n − λ1n λ2n−1 ) T (vn−1 , vn ).
399
Así, con la convención de Einstein se tiene
ϵij
satisface
ϵ12 = 0,
ϵi1 i2 = −ϵi1 i2 , i1 , i2 = 1, 2.
con
i1 , i2 = 1, 2, j1 , j2 = 1, 2, · · · , n, j1 < j2 .
T (vi , vj ), i < j, i, j = 1, 2, · · · , n.
400
De forma explícita tenemos
n(n − 1)
(n − 1) + (n − 2) + · · · + 2 + 1 =
2
35.4.1. Ejemplos
35.4.2. Caso de dimensión 2
Supongamos que V tiene dimensión 2 y que
{v1 , v2 }.
401
tal que
u = λ11 v1 + λ12 v2 ,
v = λ21 v1 + λ22 v2 .
Por lo que, considerando la expresión (35.2), se puede observar que, en este
caso, todas las funciones alternantes se pueden escribir como
se obtiene
detM = λ11 λ22 − λ12 λ21
de donde
T (u, v) = (det M ) T (v1 , v2 ) .
T (u, v) = (λ11 λ22 − λ12 λ21 ) T (v1 , v2 ) + (λ11 λ23 − λ23 λ21 ) T (v1 , v3 )+
+ (λ12 λ23 − λ13 λ22 ) T (v2 , v3 ).
402
35.5. Producto exterior
Si T es una función alternante, se dene el producto exterior o cuña como
T (u, v) = u ∧ v.
v ∧ v = 0, ∀v ∈ V,
u ∧ v = −v ∧ u, ∀v, u ∈ V.
vi ∧ vj , i < j, i, j = 1, 2, · · · , n. (35.6)
v1 ∧ v2 , v1 ∧ v3 , ··· , v1 ∧ vn ,
v2 ∧ v3 , v2 ∧ v4 , ··· , v2 ∧ vn ,
v3 ∧ v4 , v3 ∧ v5 , ··· , v3 ∧ vn ,
..
.
vn−2 ∧ vn−1 , vn−2 ∧ vn ,
vn−1 ∧ vn ,
403
productos exteriores linealmente independientes.
tales que
u = λ11 v1 + λ12 v2 + · · · + λ1n vn ,
y existen n elementos en K
λ21 , λ22 , · · · , λ2n ,
tales que
v = λ21 v1 + λ22 v2 + · · · + λ2n vn .
con
i1 , i2 = 1, 2, j1 , j2 = 1, 2, · · · , n, j1 < j2 . (35.7)
35.6. Ejemplos
35.6.1. Caso de dimensión 2
Supongamos que V tiene dimensión 2 y que
{v1 , v2 }
404
es una de sus bases. Entonces, si u, v ∈ V existen λ11 , λ12 , λ21 , λ22 ∈ K tales
que
u = λ11 v1 + λ12 v2 ,
v = λ12 v1 + λ22 v2 .
Así, en este caso el producto exterior entre u y v tienen la forma
se obtiene
detM = λ11 λ22 − λ12 λ21
de donde
u ∧ v = (det M ) (v1 ∧ v2 ) .
u ∧ v = (λ11 λ22 − λ12 λ21 ) (v1 ∧ v2 ) + (λ11 λ23 − λ23 λ21 ) (v1 ∧ v3 )+
+ (λ12 λ23 − λ13 λ22 ) (v2 ∧ v3 ).
405
35.7. Funciones multilineales alternantes
Sea V un espacio vectorial sobre el campo K y tiene dimensión n, entonces
podemos construir el espacio vectorial
V m = V × V ··· × V .
| {z }
m
T : V m → W, m≤n (35.8)
con
i ̸= j
se cumple
406
de donde
0 = T (u1 , u2 , · · · , ui−1 , u + v, ui+1 , · · · , uj−1 , u + v, uj+1 , · · · , un ) =
= T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , u + v, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u + v, uj+1 , · · · , un ) =
= T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ) +
+ T (u1 , v2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) =
= T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) +
+ T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ),
así
0 = T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) +
+T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ).
que implica
T (u1 , u2 , · · · , ui−1 , u, ui+1 , · · · , uj−1 , v, uj+1 , · · · , un ) =
−T (u1 , u2 , · · · , ui−1 , v, ui+1 , · · · , uj−1 , u, uj+1 , · · · , un ).
407
solo si se cumple
vik ̸= vil , k, l = 1, 2, · · · , m.
Así, de la base de n vectores debemos tomar combinaciones de m elementos
sin repetición, el total de estas combinaciones sin repetición son
n!
D= .
(n − m)!m!
Esto nos indica que el espacio de las funciones alternantes (35.8) tiene dimen-
sión D.
Por lo que si
u1 , u2 , · · · , um ∈ V
existen
n!
(n − m)!m!
T (u1 , u2 , · · · , um ) = αi1 i2 ···im T (vi1 , vi2 , · · · , vim ), i1 < i2 < i3 < · · · < im .
T (u1 , u2 , · · · , um ) = u1 ∧ u2 ∧ · · · ∧ um .
408
En particular, para los elementos de la base de V tenemos
de donde
tal que
u = λ11 v1 + λ12 v2 + λ13 v3 ,
v = λ21 v1 + λ22 v2 + λ23 v3 ,
w = λ31 v1 + λ32 v2 + λ33 v3 .
409
Además, T3 se puede expresar en términos de
v1 ∧ v2 ∧ v3 ,
410
es decir ,
u∧v∧w = λ11 λ22 λ33 − λ11 λ23 λ32 − λ12 λ21 λ33 + λ12 λ23 λ31 +
+λ13 λ21 λ32 − λ13 λ22 λ31 (v1 ∧ v2 ∧ v3 ) . (35.9)
de donde
411
se obtiene
detM = λ11 (λ22 λ33 − λ23 λ32 ) − λ12 (λ21 λ33 − λ23 λ31 ) + λ13 (λ21 λ32 − λ22 λ31 ) ,
u ∧ v ∧ w = (det M ) (v1 ∧ v2 ∧ v3 ) .
u ∧ v ∧ w = ⃗λ · ⃗γ × ζ⃗ (v1 ∧ v2 ∧ v3 ) .
412
es una base del espacio vectorial V y que
Tm : V m → W
es una función alternante con
m ≤ n.
Entonces, si
u1 , u2 , · · · , um ∈ V
existen nm escalares λij en K tales que
u1 = λ11 v1 + λ12 v2 + · · · + λ1n vn ,
..
.
um = λm1 v1 + λm2 v2 + · · · + λmn vn ,
En este caso el producto exterior se puede expresar como
En particular, si n = m tenemos
u1 = λ11 v1 + λ12 v2 + · · · + λ1n vn ,
..
.
un = λn1 v1 + λn2 v2 + · · · + λnn vn ,
por lo que se puede denir la matriz de n × n
λ11 · · · λ1n
M = ... · · · ..
. ,
λn1 · · · λnn
y se obtiene
u1 ∧ u2 ∧ · · · ∧ un = (detM ) v1 ∧ v2 ∧ · · · ∧ vn .
413
35.10. Derivada exterior
Consideremos la siguientes funciones
F : Rn → R.
Fa : Rn → R,
Fab : Rn → R, a, b = 1, 2, · · · , n.
f = Fa dxa .
∂Fa b
df = dx ∧ dxa .
∂xb
∂Fab c
dg = dx ∧ dxa ∧ dxb .
∂xc
414
35.11. Caso n = 3
En este caso una 0-forma es una función como
F : R3 → R.
y su derivada exterior es
∂F 1 ∂F 2 ∂F 3
dF = dx + 2 dx + 3 dx
∂x1 ∂x ∂x
de donde
⃗ · d⃗x = ∂F dx1 + ∂F dx2 + ∂F dx3 ,
∇F
∂x1 ∂x2 ∂x3
lo por lo que
⃗ · d⃗x.
dF = ∇F
415
Por lo que su derivada exterior es
dω = d(F1 dx1 ) + d(F2 dx2 ) + d(F3 dx3 )
∂F1 1 ∂F1 2 ∂F1 3
= dx + 2 dx + 3 dx ∧ dx1
∂x1 ∂x ∂x
∂F2 1 ∂F2 2 ∂F2 3
+ dx + 2 dx + 3 dx ∧ dx2
∂x1 ∂x ∂x
∂F3 1 ∂F3 2 ∂F3 3
+ dx + 2 dx + 3 dx ∧ dx3
∂x1 ∂x ∂x
∂F1 1 ∂F1 ∂F1
= 1
dx ∧ dx1 + 2 dx2 ∧ dx1 + 3 dx3 ∧ dx1
∂x ∂x ∂x
∂F2 1 ∂F 2 ∂F2
+ 1 dx ∧ dx2 + 2 dx2 ∧ dx2 + 3 dx3 ∧ dx2
∂x ∂x ∂x
∂F3 1 ∂F 3 ∂F 3
+ 1 dx ∧ dx3 + 2 dx2 ∧ dx3 + 3 dx3 ∧ dx3
∂x ∂x ∂x
∂F2 ∂F1 1 2 ∂F 3 ∂F2 2 3 ∂F1 ∂F3
= − 2 dx ∧ dx + − 3 dx ∧ dx + − 1 dx3 ∧ dx1 ,
∂x1 ∂x ∂x2 ∂x ∂x3 ∂x
es decir
∂F2 ∂F1 1 2 ∂F3 ∂F2 2 3 ∂F1 ∂F3
dω = − 2 dx ∧ dx + − 3 dx ∧ dx + − 1 dx3 ∧ dx1 .
∂x1 ∂x ∂x2 ∂x ∂x3 ∂x
Ahora, del cálculo de varias variables sabemos que para la función vectorial
ω
⃗ = (F1 , F2 , F3 )
deniendo
î = (1, 0, 0), ĵ = (0, 1, 0), k̂ = (0, 0, 1)
el rotacional se dene como
î ĵ k̂
⃗ ×ω
∇ ⃗ = ∂ ∂ ∂
∂x1 ∂x2 ∂x3
F1 F2 F3
∂F3 ∂F2 ∂F1 ∂F3 ∂F2 ∂F1
= − 3 î + − 1 ĵ + − 2 k̂,
∂x2 ∂x ∂x3 ∂x ∂x1 ∂x
416
esto es
⃗ ×ω ∂F3 ∂F2 ∂F1 ∂F3 ∂F2 ∂F1
∇ ⃗ = − 3 î + − 1 ĵ + − 2 k̂,
∂x2 ∂x ∂x3 ∂x ∂x1 ∂x
⃗ ×ω
∂F3 ∂F2
∇ ⃗ = − 3 ,
1 ∂x2 ∂x
⃗
∂F1 ∂F3
∇×ω⃗ = − 1 ,
2 ∂x3 ∂x
⃗ ×ω
∂F 2 ∂F 1
∇ ⃗ = − 2 .
3 ∂x1 ∂x
dω = ∇⃗ ×ω
⃗ dx2 ∧ dx3 + ∇⃗ ×ω
⃗ dx3 ∧ dx1 + ∇⃗ ×ω
⃗ dx1 ∧ dx2 .
1 2 3
417
tenemos la derivada exterior
dΩ = d F1 dx2 ∧ dx3 + F2 dx3 ∧ dx1 + F3 dx1 ∧ dx2
de donde
∂F1 ∂F2 ∂F3
dΩ = + 2 + 3 dx1 ∧ dx2 ∧ dx3 .
∂x1 ∂x ∂x
Ahora, si denimos
⃗ = (F1 , F2 , F3 ) ,
Ω
tenemos la divergencia
por lo cual
dΩ = ∇⃗ ·Ω
⃗ dx1 ∧ dx2 ∧ dx3 .
418
Capítulo 36
Producto tensorial
En este capítulo estudiaremos el producto tensorial el cual nos permite en-
tender la estructura general de las funciones multilineales.
tal que
T =H ◦F
419
en términos de F.
y que
{v11 , v21 , · · · , vn1 }
es base de V1 y
{v12 , v22 , · · · , vm2 }
420
Además, considerando que cualquier función lineal está denida por la forma
en que actúa en la base del dominio, existe una única función lineal
H : U → W,
tal que
H(eij ) = wij = T (vi , vj ).
Por lo tanto, para cualquier par de elementos (vi1 , vj2 ) de la base del dominio
se cumple la igualdad
(H ◦ F ) (vi1 , vj2 ) = G(vi1 , vj2 ),
La existencia del producto tesorial es muy útil porque nos dice que todas las
funciones bilineales se relacionan con la función universal F y basta estudiar
esta. Se suele denotar a U como
U = V 1 ⊗K V 2 ,
421
F (vi1 , vj2 ) = vi1 ⊗ vj2 .
36.2. Caso de R2
Como un ejemplo, veamos el caso en que V1 = V2 = R2 . Estos dos espacios
vectoriales tienen como base canónica
1 0
e1 = , e2 = .
0 1
0 0 0 1
422
bases es con la regla
1 1
1 0 0
1 1 1 1
⊗ = F , =
1 = 0 ,
0 0 0 0
0
0 0
0 0
1
1 0 1 0
1 = 1 ,
⊗ = F , =
0 1 0 1 0 0
0
1 0
1 0
0 0 0
0 1 0 1
⊗ = F , 1 = 1 ,
=
1 0 1 0
1
0 0
0 0
0
0 0 0 0
1 = 0 .
⊗ = F , =
1 1 1 1 0 0
1
1 1
0 0 0 1
ac
ad
=
bc
bd
423
esto es
c ac
a
a c
d = ad ,
⊗ =
b d c bd
b
d bd
y un vector de Rn
b1
b2
v = ..
.
bn
a1 b1 a1 v a1 b 1
a2 b 2 a2 v a1 b 2
.. .. .. ..
u ⊗ v = . ⊗ . = . = . ,
am−1 bn−1 am−1 v am bn−1
am bn am v am b n
424
y para M2×2 (R) tomamos la base
1 0
e1 = ,
0 0
0 1
e2 = ,
0 0
0 0
e3 = ,
1 0
0 0
e4 = ,
0 1
la función bilineal F debe asociar estas dos bases. En este caso podemos tomar
1 1 1 1
⊗ = F ,
0 0 0 0
T
1 1
=
0 0
T
1
1 0
=
1T
0
0
1 1 0
=
0 1 0
1·1 1·0
=
0·1 0·0
1 0
= ,
0 0
425
además
1 0 1 0
⊗ = F ,
0 1 0 1
T
1 0
=
0 1
T
0
1 1
=
0T
0
1
1 0 1
=
0 0 1
1·0 1·1
=
0·0 0·1
0 1
= ,
0 0
426
esto es
1 0 1 0 0
⊗ = 0 1 = .
0 1 0 1 0
El último caso es
0 0 0 0
⊗ = F ,
1 1 1 1
T
0 0
=
1 1
T
0
0 1
=
0T
1
1
0 0 1
=
1 0 1
0·1 0·0
=
1·0 1·1
0 0
= ,
0 1
Así tenemos
1 1 1 1 0
⊗ = 1 0 = ,
0 0 0 0 0
1 0 1 0 1
⊗ = 0 1 = ,
0 1 0 0 0
0 1 0 0 0
⊗ = 1 0 = ,
1 0 1 1 0
0 0 0 0 0
⊗ = 0 1 = .
1 1 1 0 1
427
Considerando que F debe ser una función bilineal, se puede mostrar que
para cualquier par de vectores de R2 se tiene
a c a ac ad
(36.6)
⊗ = c d = .
b d b bc bd
Por ejemplo,
2 −1 2 −2 10
(36.7)
⊗ = −1 5 =
3 5 3 −3 15
La regla (36.6) se puede generalizar para obtener un producto tensorial entre
un vector de Cm y un vector de Cn de la siguiente forma
∗T
a1 b1 a1 b1 a1
a2 b 2 a2 b 2 a2
.. ⊗ .. = .. .. = .. b∗1 b∗2 · · · b∗n
. . . . .
am bn am bn am
a1 b∗1 a1 b∗2 · · · a1 b∗n
a2 b ∗ a2 b ∗ · · · a2 b ∗
1 2 n
= .. .
. .
. ,
. . ··· .
an b∗1 an b∗2 · · · am b∗n
es decir,
a1 b1 a1 b∗1 a1 b∗2 ··· a1 b∗n
a2 b 2 a2 b ∗ a2 b ∗ ··· a2 b∗n
1 2
.. ⊗ .. = .. .
. .. ,
. . . . ··· .
am bn an b1 an b∗2
∗
··· am b∗n
36.2.2. Matrices
Como otro ejemplo, consideremos el espacio de las matrices reales de 2 × 2,
es decir V1 = V2 = M2×2 (R). En este caso podemos tomar la base
1 0 0 1 0 0 0 0
e1 = , e2 = , e3 = , e4 = .
0 0 0 0 1 0 0 1
428
Se puede observar que el espacio vectorial M2×2 (R) × M2×2 (R) tiene dimensión
16. Entonces, el espacio U debe tener dimensión 16. Por ejemplo, podemos
tomar como U al espacio vectorial M4×4 (R), cuya base canónica es
1 0 0 0 0 1 0 0 0 0 1 0
0 0 0 0 0 0 0 0
, M3 = 0 0 0 0 ,
M1 =
0 , M2 =
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 1 0 0 0 0 0 0 0 0
0 0 0 0 1 0 0 0
, M6 = 0 1 0 0 ,
M4 =
0
, M5 =
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
0 0 1 0 0 0 0 1
, M9 = 0 0 0 0 ,
M7 =
0 , M8 =
0 0 0 0 0 0 0 1 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
, M12 = 0 0 0 0 ,
M10 =
0 , M11 =
1 0 0 0 0 1 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
, M15 = 0 0 0 0 ,
M13 =
0 , M14 =
0 0 0 0 0 0 0 0 0 0 0
1 0 0 0 0 1 0 0 0 0 1 0
0 0 0 0
0 0 0 0
M16 =
0
.
0 0 0
0 0 0 1
429
La función F debe relacionar un par de elementos de la base de M2×2 (R) con
un elemento de la base de M4×4 (R). Una forma de denir a F es con la regla
1 0 0 1 1 0 1 0
⊗ = F ,
0 0 0 0 0 0 0 0
1 0 1 0
1 0 0
0 0 0
=
1
0 1 0
0 0
0 0 0 0
1 0 0 0
0 0 0 0
=
0 0
= M1 ,
0 0
0 0 0 0
esto es,
1 0 0 0
1 0 0 1 0 0 0 0
⊗ = = M1 .
0 0 0 0 0 0 0 0
0 0 0 0
Tambiém tenemos
1 0 0 1 0 1 0 1
⊗ = F ,
0 0 0 0 0 0 0 0
0 1 0 1
1 0 0
0 0 0
=
0
1 0 1
0 0
0 0 0 0
0 1 0 0
0 0 0 0
=
0 0
= M2 ,
0 0
0 0 0 0
es decir,
0 1 0 0
1 0 0 1 0 0 0 0
⊗ = = M2 .
0 0 0 0 0 0 0 0
0 0 0 0
430
Adicionalmente tenemos
1 0 0 0 1 0 0 0
⊗ = F ,
0 0 1 0 0 0 1 0
0 0 0 0
1 1 0
0 1 0
=
0
0 0 0
0 0
1 0 1 0
0 0 0 0
1 0 0 0
=
0 0
= M5 ,
0 0
0 0 0 0
1 0 0 0 1 0 0 0
⊗ = F ,
0 0 0 1 0 0 0 1
0 0 0 0
1 0 0
1 0 1
=
0
0 0 0
0 0
0 1 0 1
0 0 0 0
0 1 0 0
=
0 0
= M6 ,
0 0
0 0 0 0
0 1 1 0 0 1 1 0
⊗ = F ,
0 0 0 0 0 0 0 0
1 0 1 0
0 0 1
0 0 0
=
1
0 1 0
0 0
0 0 0 0
0 0 1 0
0 0 0 0
=
0 0
= M3 ,
0 0
0 0 0 0
431
0 1 0 1 0 1 0 1
⊗ = F ,
0 0 0 0 0 0 0 0
0 1 0 1
0 0 1
0 0 0
=
0
1 0 1
0 0
0 0 0 0
0 0 0 1
0 0 0 0
=
0 0
= M4 ,
0 0
0 0 0 0
0 1 0 0 0 1 0 0
⊗ = F ,
0 0 1 0 0 0 1 0
0 0 0 0
0 1 1
0 1 0
=
0
0 0 0
0 0
1 0 1 0
0 0 0 0
0 0 1 0
=
0 0
= M7 ,
0 0
0 0 0 0
0 1 0 0 0 1 0 0
⊗ = F ,
0 0 0 1 0 0 0 1
0 0 0 0
0 0 1
1 0 1
=
0
0 0 0
0 0
0 1 0 1
0 0 0 0
0 0 0 1
=
0 0
= M8 ,
0 0
0 0 0 0
432
0 0 1 0 0 0 1 0
⊗ = F ,
1 0 0 0 1 0 0 0
1 0 1 0
0 0 0
0 0 0
=
1
0 1 0
1 0
0 0 0 0
0 0 0 0
0 0 0 0
=
1 0
= M9 ,
0 0
0 0 0 0
0 0 0 1 0 0 0 1
⊗ = F ,
1 0 0 0 1 0 0 0
0 1 0 1
0 0 0
0 0 0
=
0
1 0 1
1 0
0 0 0 0
0 0 0 0
0 0 0 0
=
0 1
= M10 ,
0 0
0 0 0 0
0 0 0 0 0 0 0 0
⊗ = F ,
1 0 1 0 1 0 1 0
0 0 0 0
0 1 0
0 1 0
=
0
0 0 0
1 0
1 0 1 0
0 0 0 0
0 0 0 0
=
0 0
= M13 ,
0 0
1 0 0 0
433
0 0 0 0 0 0 0 0
⊗ = F ,
1 0 0 1 1 0 0 1
0 0 0 0
0 0 0
1 0 1
=
0
0 0 0
1 0
0 1 0 1
0 0 0 0
0 0 0 0
=
0 0
= M14 ,
0 0
0 1 0 0
0 0 1 0 0 0 1 0
⊗ = F ,
0 1 0 0 0 1 0 0
1 0 1 0
0 0 0
0 0 0
=
1
0 1 0
0 1
0 0 0 0
0 0 0 0
0 0 0 0 0 0 0 1
=
0 0
= M11 , ⊗ =
1 0 0 1 0 0
0 0 0 0
0 0 0 1
F ,
0 1 0 0
0 1 0 1
0 0 0
0 0 0
=
0
1 0 1
0 1
0 0 0 0
0 0 0 0
0 0 0 0
=
0 0
= M12 ,
0 1
0 0 0 0
434
0 0 0 0 0 0 0 0
⊗ = F ,
0 1 1 0 0 1 1 0
0 0 0 0
0 1 0
0 1 0
=
0
0 0 0
0 1
1 0 1 0
0 0 0 0
0 0 0 0
=
0 0
= M15 ,
0 0
0 0 1 0
0 0 0 0 0 0 0 0
⊗ = F ,
0 1 0 1 0 1 0 1
0 0 0 0
0 0 0
1 0 1
=
0
0 0 0
0 1
0 1 0 1
0 0 0 0
0 0 0 0
=
0 0
= M16 .
0 0
0 0 0 1
Usando que F es una función bilineal, se puede probar que en general se cumple
a b e f a b e f
⊗ = F ,
c d g h c d g h
e f e f
a g h b
g h
=
e f
e f
c d
g h g h
ae af be bf
ag ah bg bh
=
ce cf de df ,
cg ch dg dh
435
es decir
e f e f ae af be bf
a b
a b e f
g h g h = ag
ah bg bh
⊗ = .
c d g h e f e f ce cf de df
c d
g h g h cg ch dg dh
Por ejemplo
−1 8 −1 8
−2 3 2 5
−2 5 −1 8 3 2
⊗ =
3 4 3 2 −1 8 −1 8
3 4
3 2 3 2
2 −16 −5 40
−6 −4 15 10
=
−3 24 −4
.
32
9 6 12 8
a11 B · · · a1m B
A ⊗ B = ... ..
. .
an1 B · · · anm B
436
Supongamos que K es un campo y que tenemos los polinomios
P (x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn ,
Q(x) = b0 + b1 x + b2 x2 + · · · + bm−1 xm−1 + bm xm .
con
a0 , a2 , · · · , an , b0 , b1 , · · · , bm ∈ K.
con
cn+m = an bm ,
cn+m−1 = an−1 bm + an bm−1 ,
cn+m−2 = an−2 bm + an− bm−1 + an bm−2 ,
..
.
c 2 = a0 b 2 + a1 b 1 + b 0 a2 ,
c 1 = a0 b 1 + b 0 a1 ,
c 0 = a0 b 0 ,
Los mayas tenían un método muy eciente para realizar este producto en
el cual se usa el producto de Kronecker. Primero, al polinomio
P (x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn ,
437
le asociamos el vector columna
an
an−1
..
.
a= ,
a2
a1
a0
438
es decir
an b m an bm−1 an bm−2 ··· an b 2 an b 1 an b 0
an−1 bm an−1 bm−1 an−1 bm−2
··· an−1 b2 an−1 b1 an−1 b0
an−2 bm an−2 bm−1 an−2 bm−2 ··· an−2 b2 an−1 b1 an−2 b0
a ⊗ b = ... .. .. .. .. ..
. . . . . .
···
a2 b m
a2 bm−1 a2 bm−2 ··· a2 b 2 a2 b 1 a2 b 0
a1 b m a1 bm−1 a1 bm−2 ··· a1 b 2 a1 b 1 a1 b 0
a0 b m a0 bm−1 a0 bm−2 ··· a0 b 2 a0 b 1 a0 b 0
Ahora realizaremos una operación que llamaremos traza maya, la cual consiste
en sumar los elementos de las diagonales de la matriz de acuerdo con ell color
y colocaremos el resultado en un vector. En este caso tenemos
an b m
an−1 bm + an bm−1
an−2 bm + an−1 bm−1 + an bm−2
..
T rmaya (a ⊗ b) = . .
a 0 b 2 + a 1 b 1 + a 2 b 2
a0 b 1 + a1 b 0
a0 b0
Se puede observar que las entradas de este vector coincide con los coecientes
del producto de los polinomios P (x)Q(x).
36.3.1. Ejemplo
Consideremos los polinomios
P (x) = 2 − 3x + 4x2 + x3 ,
Q(x) = 1 + 2x − x2 .
439
cuyo producto de Kronecker es
1
4 −1
a⊗b =
−3
⊗ 2
1
2
1
4
= −1 2 1
−3
2
−1 2 1
−4 8 4
=
3 −6 −3 ,
−2 4 2
es decir
−1 2 1
−4 8 4
a⊗b=
3 −6 −3 ,
−2 4 2
de donde
−1
−2
12
T rmaya (a ⊗ b) =
−4 ,
1
2
440
siglo XIX en las matemáticas de Europa. Actualmente este algoritmo se suele
usar en criptografía.
Un desarrollo semejante al mostrado en este capítulo se encuentra en el artículo
[19].
441
Debido a que W es multilineal, existen n1 n2 · · · nN vectores en W, tales que
T (v1i1 , v2i2 , · · · , vN iN ) = wi1 i2 ···iN ∈ W,
donde
il = 1, 2, · · · , nl , l = 1, 2, · · · , N.
tal que
F (v1i1 , · · · , vN iN ) = ei1 i2 ···iN .
Además, debido a que cualquier función lineal está denida por la forma en
que actúa en la base del dominio, existe una única función lineal
H : U → W,
tal que
H(ei1 i2 ···in ) = wi1 i2 ···iN = T (v1i1 , v2i2 , · · · , vN iN ).
442
lo que implica que para cualquier vector
(v1 , v2 , · · · , vN ) ∈ V1 × V2 × · · · × VN
se cumple la igualdad (36.9).
La existencia del producto tensorial es muy útil porque nos dice que todas
las funciones multilineales se relacionan con la función universal F y basta
estudiar ésta. Se suele denotar a U como
U = V1 ⊗K V2 ⊗K · · · ⊗K VN ,
F (v1 , v2 , · · · , vN ) = v1 ⊗ v2 ⊗ · · · ⊗ vN .
443
36.5. Tensor
Supongamos que V1 , V2 , · · · , Vn son espacios vectoriales sobre K, entonces
a las funciones
F : V1 × V2 × · · · × Vn → K
En este con texto, a los vectores de los espacios Vi se les llama contravariantes
y a los elementos de los espacios duales Vi∗ se les llama covariantes.
Por ejemplo, si
V = V1 = V2 = · · · = Vn
tenemos el espacio dual
V ∗ = V1∗ = V2∗ = · · · = Vn∗ .
444
es una de sus bases. Entonces, los tensores de la forma (36.10) son generados
por las funciones multilineales de la forma
vi∗1 ⊗ vi∗2 ⊗ · · · ⊗ vi∗l ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm (36.11)
con
i1 , i2 , · · · , il , j1 , j2 , · · · , jm = 1, 2, · · · , n.
y
v1′ , v2′ , v3′ , · · · , vn′
445
con U la matriz de cambio de base. También recordemos que si
v1∗ , v2∗ , v3∗ , · · · , vn∗
y
v1∗′ , v2∗′ , v3∗′ , · · · , vn∗′
También se tiene
j1′ j2′ ···jm
′ ′i′1 ′ ′
F = Fi′′1 i′2 ···i′l v ⊗ v ′i2 ⊗ · · · ⊗ v ′il ⊗ vj′ 1′ ⊗ vj′ 2′ ⊗ · · · ⊗ vj′ m
′
′ ′ ′
′
′
′
= Fi′′1 i′2 ···i′l j1 j2 ···jm U i1 i1 v i1 ⊗ U i2 i2 v i2 ⊗ · · · ⊗ U il il v il ⊗
⊗ Uj1′ j1 vj1 ⊗ Uj2′ j2 vj2 ⊗ · · · ⊗ Ujm jm
′ vjm
′ ′ ′ jm ′ j1′ j2′ ···jm
′
= U i1 i1 · U i2 i2 · · · U il il · Uj2′ j2 · · · Uj2′ j2 Ujm
′ Fi′1 i′2 ···i′l
v i1 ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm ,
esto es,
′ ′ ′ jm ′ j1′ j2′ ···jm
′
F = U i1 i1 · U i2 i2 · · · U il il · Uj2′ j2 · · · Uj2′ j2 Ujm
′ Fi′1 i′2 ···i′l
v i1 ⊗ v i2 ⊗ · · · ⊗ v il ⊗ vj1 ⊗ vj2 ⊗ · · · ⊗ vjm .
446
que induce la regla de transformación
j1 j2 ···jm ′ ′ jm ′ j1′ j2′ ···jm
′
Fi1 i2 ···il = U i1 i1 · · · U il il · · · Uj2′ j2 Ujm
′ Fi′1 i′2 ···i′l .
447
Capítulo 37
Compuertas clásicas y cuánticas
En este capítulo veremos que diferentes compuertas de la computación
clásica y cuántica se pueden expresar con herramientas del álgebra lineal.
448
con la cual se satisface
0 1 0 1 0 1 1 0
= , = . (37.6)
1 0 1 0 1 0 0 1
Estos resultados coinciden con los resultados (37.1)-(37.2). Así, con los vectores
(37.3) y (37.4) junto con la matriz (37.5) podemos representar la tabla de
verdad de la negación NOT (37.1).
37.2. Compuerta OR
Supongamos que tenemos las proposiciones A y B entonces la tabla de ver-
dad de A o B, está dado por (37.2)
A B A∨B
V V V
V F V
F V V
F F F
449
Ahora, podemos hacer el producto tensorial
0 0
0 1 0
0 0
V ⊗V = ⊗ =
0 = 0 ,
1 1
1
1 1
1 0
0
0 1
0 = 0 ,
V ⊗F = ⊗ =
1 0 1 1
1
0 0
0 0
1
1 0
1 = 1 ,
F ⊗V = ⊗ =
0 1 0 0
0
1 0
1 1
1
1 1
0 = 0 .
F ⊗F = ⊗ =
0 0 1 0
0
0 0
Entonces, podemos proponer la matriz OR
1 0 0 0
OR = , (37.11)
0 1 1 1
con la cual se satisface
0
1 0 0 0
0 = 0 = V,
OR (V ⊗ V ) =
0 1 1 1 0 1
1
0
1 0 0 = 0 = V,
0 0
OR (V ⊗ F ) =
0 1 1 1 1 1
0
0
1 0 0 0
1 = 0 = V,
OR (F ⊗ V ) =
0 1 1 1 0 1
0
1
1 0 0 0
= 1 = F,
0
OR (F ⊗ F ) =
0 1 1 1 0 0
0
450
es decir,
OR (V ⊗V) = V,
OR (V ⊗ F) = V,
OR (F ⊗V) = V,
OR (F ⊗ F) = F,
que coincide con la tabla de verdad de A ∨ B, dada por las expresiones (37.7)-
(37.10).
451
con la cual se satisface
0
1 1 1 0 0
= 0 = V,
AND (V ⊗V) =
0 0 0 1 0 1
1
0
1 1 1 0 0 1
AND (V ⊗ F) = = = F,
0 0 0 1 1 0
0
0
1 1 1 0 1
= 1 = F,
AND (F ⊗V) =
0 0 0 1 0 0
0
1
1 1 1 0 0 1
AND (F ⊗ F) = = = F,
0 0 0 1 0 0
0
es decir,
AND (V ⊗V) = V,
AND (V ⊗ F) = F,
AND (F ⊗V) = F,
AND (F ⊗ F) = F,
que coincide con la tabla de verdad de A ∧ B dada por las expresiones (37.12)-
(37.15).
452
es decir,
0 0 0 1
NAND = . (37.17)
1 1 1 0
Con la cual se satisface
0
0
= 1 = F,
0 0 0 1
NAND (V ⊗V) =
1 1 1 0 0 0
1
0
0 0 0 1 0 0
NAND (V ⊗ F) = = = V,
1 1 1 0 1 1
0
0
0 0 0 1
= 0 = V,
1
NAND (F ⊗V) =
1 1 1 0 0 1
0
1
0 0 0 1 0 0
NAND (F ⊗ F) = = = V,
1 1 1 0 0 1
0
esto es
NAND (V ⊗V) = F,
NAND (V ⊗ F) = V,
NAND (F ⊗V) = V,
NAND (F ⊗ F) = V,
que coincide con la tabla de verdad de
¬ (A ∧ B) .
Cuando se aplican compuertas de manera sucesiva se dice que se aplican
operaciones secuenciales.
453
En algunos casos se requieren realizar operaciones paralelas en las cuales
una compuerta solo afecta a algunos de los vectores. Por ejemplo, si A y B son
dos proposiciones y queremos realizar la tabla de verdad de
¬A ∧ B (37.18)
la compuerta NOT solo afecta a la proposición A, pero no a B. Para la repre-
sentación de las operaciones paralelas podemos ocupar el producto tensorial
en las compuertas.
454
De forma explícita tenemos
0 1 1 0
NOT ⊗ I = ⊗
1 0 0 1
1 0 1 0
0 0 1 1
= 0 1
1 0 1 0
1 0
0 1 0 1
0 0 1 0
0 0 0 1
=
1 0 0 0 ,
0 1 0 0
es decir,
0 0 1 0
0 0 0 1
NOT ⊗ I =
1
,
0 0 0
0 1 0 0
por lo que
0 0 1 0
1 1 1 0 0 0 0 1
AND (NOT ⊗ I) =
0 0 0 1 1 0 0 0
0 1 0 0
1 0 1 1
= .
0 1 0 0
455
Con la cual se satisface
0
1 0 1 1 0
= 1 = F,
(AND (NOT ⊗ I)) (V ⊗ V ) =
0 1 0 0 0 0
1
0
1 0 1 1
0 = 1 = F,
(AND (NOT ⊗ I)) (V ⊗ F ) =
0 1 0 0 1 0
0
0
1 0 1 1 1
= 0 = V,
(AND (NOT ⊗ I)) (F ⊗ V ) =
0 1 0 0 0 1
0
1
1 0 1 1
0 = 1 = F,
(AND (NOT ⊗ I)) (F ⊗ F ) =
0 1 0 0 0 0
0
es decir,
(AND (NOT ⊗ I)) (V ⊗V) = F,
(AND (NOT ⊗ I)) (V ⊗ F) = F,
(AND (NOT ⊗ I)) (F ⊗V) = V,
(AND (NOT ⊗ I)) (F ⊗ F) = F,
456
mientras que la parte derecha es simplemnte la compuerta OR
1 0 0 0
OR = .
0 1 1 1
1 0 0 0
esto es
0 0 0 1
0 0 1 0
NOT ⊗ NOT =
0
.
1 0 0
1 0 0 0
Por lo que,
0 0 0 1
0 1 1 1 1 0 0 0 1 0
NOT (AND (NOT ⊗ NOT)) =
1 0 0 0 0 1 0 1 0 0
1 0 0 0
0 1
0 1 1 1
=
1 0
1 0 0 0
1 0 0 0
=
0 1 1 1
= OR.
457
37.7. Notación binomial y bits
En muchos casos es más común emplear la notación binomial o de bits
V = 1,
F = 0
y para los vectores se suelen usar los kets, que originalmente surgieron en
Mecánica Cuántica en donde se toma
0
|V ⟩ = |1⟩ = ,
1
1
|F ⟩ = |0⟩ = .
0
458
esto es
1
0
|00⟩ = |0⟩ ⊗ |0⟩ =
0 ,
0
0
1
|01⟩ = |0⟩ ⊗ |1⟩ =
0 ,
0
0
0
|10⟩ = |1⟩ ⊗ |0⟩ =
1 ,
0
0
0
|11⟩ = |1⟩ ⊗ |1⟩ =
0 .
37.8. Qubits
Una computadora cuántica usa como qubits los estados de espín de un
electrón. Los estados de espín tienen como base los vectores
1 0
|0⟩ = , |1⟩ = .
0 1
Entonces, cualquier estado del espín del electrón se puede escribir como com-
binación lineal de los estados |0⟩ y |1⟩ , esto es
|ψ⟩ = α0 |0⟩ + α1 |1⟩ ,
donde
|α0 |2 + |α1 |2 = 1.
Aquí
|α0 |2
representa la probabilidad de que el electrón se encuentre en el estado |0⟩ .
Mientras que
|α1 |2
459
representa la probabilidad de que el electrón se encuentre en el estado |1⟩ .
|ψ⟩ = |0⟩
|ψ⟩
|ψ⟩ = |1⟩
o
|101⟩ = |1⟩ ⊗ |0⟩ ⊗ |1⟩ .
460
Podemos observar que en un sistema de n qubits, cada electrón aporta dos
elementos a la base del sistema. Por lo que un sistema de n qubits tiene di-
mensión
2n .
461
Para realizar operaciones paralelas se usa el producto tensorial. Por ejem-
plo, si el sistema se describe con el estado
|ψ⟩ = |ψ1 ⟩ ⊗ |ψ2 ⟩
y se tienen las dos compuertas
A1 , A2
podemos construir la compuerta paralela
A = A1 ⊗ A2 ,
con la cual se puede realizar la operación paralela
A |ψ⟩ = (A1 ⊗ A2 ) (|ψ1 ⟩ ⊗ |ψ2 ⟩) = (A1 |ψ1 ⟩) ⊗ (A2 |ψ2 ⟩)
esto es
A |ψ⟩ = (A1 |ψ1 ⟩) ⊗ (A2 |ψ2 ⟩) .
462
Por ejemplo tenemos la compuerta CNOT es
CNOT |00⟩ = |00⟩ ,
CNOT |01⟩ = |01⟩ ,
CNOT |10⟩ = |1⟩ ⊗ NOT |0⟩ = |1⟩ ⊗ |1⟩ = |11⟩ ,
CNOT |11⟩ = |1⟩ ⊗ NOT |1⟩ = |1⟩ ⊗ |0⟩ = |10⟩ ,
esto es
CNOT |00⟩ = |00⟩ ,
CNOT |01⟩ = |01⟩ ,
CNOT |10⟩ = |11⟩ ,
CNOT |11⟩ = |10⟩ .
Así, la compuerta CNOTse puede representar con la matriz
1 0 0 0
0 1 0 0
CNOT =
0
.
0 0 1
0 0 1 0
463
Para esete caso, una compuerta CA se puede representar con la matriz
I 0
CA = .
0 A
37.11. Ejercicios
1.- Si A y B son dos proposiciones, obtener la representación matricial de
la compuerta para la expresión
A ∨ ¬B. (37.23)
2.- Si A y B son dos proposiciones, usando la representación matricial de
las compuertas mostrar que se cumplen la ley de De Morgan
¬ (A ∨ B) = ¬A ∧ ¬B, (37.24)
es decir, usando la representación matricial de compuertas mostrar que se
cumple
NOT · (OR) = AND · (NOT ⊗ NOT) . (37.25)
3.- Si A y B son dos proposiciones, usando la representación matricial de
las compuertas mostrar que se cumplen la ley de De Morgan
¬ (A ∧ B) = ¬A ∨ ¬B.
464
Capítulo 38
Transformada cuántica de Fourier
La Transformada Cuántica de Fourier está relacionada con la Transformada
Discreta de Fourier, sin embargo, estas transformadas se aplican en contextos
diferentes. Por esta razón, buscando que estos temas se puedan estudiar de
forma autónoma, los capítulos de estos temas se presentan de forma indepen-
diente con su notación propia y sin hacer referencia entre ellos.
es decir
x = a0 20 , a0 = 0, 1.
465
se pueden escribir como
0 = 0 · 21 + 0 · 20 ,
1 = 0 · 21 + 1 · 20 ,
2 = 1 · 21 + 0 · 20 ,
3 = 1 · 21 + 1 · 20 ,
de donde
x = a1 21 + a0 20 , a1 , a0 = 0, 1.
así
x = a2 22 + a1 21 + a0 20 , a1 , a0 = 0, 1.
466
38.1.1. Notación binaria fraccionaria
Ahora veremos la notación binaria fraccionaria.
x1 x2 x3 xn
[0.x1 x2 · · · xn ] = + 2 + 3 + ··· + n,
2 2 2 2
en particular,
x1
[0.x1 ] = ,
2
además,
x1 x2
[0.x1 x2 ] = + 2.
2 2
Por ejemplo,
1
[0,1] = ,
2
además,
1 1 3
[0,11] = + 2 =
2 2 4
otro ejemplo es
1 0 1 5
[0,101] = + 2+ 3 = .
2 2 2 8
Los resultados de esta sección los usaremos para expresar de forma más sencilla
los qubits y su transformada cuántica de Fourier.
467
38.2. Estados con notación binaria
Un qubit tienen como base los estados
1 0
|0⟩ = , |1⟩ = .
0 1
Por lo que, cuando tenemos 2 qubits cualquier estado se puede escribir como
|ψ⟩ = α0 |0⟩ + α1 |1⟩ + α2 |2⟩ + α3 |3⟩ ,
468
con
|α0 |2 + |α1 |2 + |α2 |2 + |α3 |2 = 1.
|0⟩ = |000⟩ ,
|1⟩ = |001⟩ ,
|2⟩ = |010⟩ ,
|3⟩ = |011⟩ ,
|4⟩ = |100⟩ ,
|5⟩ = |101⟩ ,
|6⟩ = |110⟩ ,
|7⟩ = |111⟩ .
con
|α0 |2 + |α1 |2 + |α2 |2 + |α3 |2 + |α4 |2 + |α5 |2 + |α6 |2 + |α7 |2 = 1
469
Si tenemos un sistema de n qubits, su base consta de N = 2n estados, los
cuales son
|0⟩ ⊗ · · · ⊗ |0⟩ ⊗ |0⟩ = |0 · · · 00⟩ ,
|0⟩ ⊗ · · · ⊗ |0⟩ ⊗ |1⟩ = |0 · · · 01⟩ ,
..
.
|1⟩ ⊗ · · · ⊗ |1⟩ ⊗ |1⟩ = |1 · · · 11⟩ .
k ∈ {0, 1, 2, · · · , 2n − 1}
deniremos el estado
donde
con
|α0 |2 + |α1 |2 + · · · + |α2n −1 |2 = 1.
470
es un estado del sistema, su Transformada Cuántica de Fourier se dene como
n −1
2X
QF T |ψ⟩ = γ̃k |k⟩
k=0
donde
n
2 −1
1 X
(38.1)
2πi πi
γ̃k = √ γj ω kj , ω = e 2n = e 2n−1 .
2n j=0
Por lo que
n −1
2X 2 −1 n
1 X
QF T |ψ⟩ = √ γj ω kj |k⟩
k=0
2n j=0
n −1
2X n −1
2X
!
1
= γj √ ω kj |k⟩
j=0
2n k=0
n −1
2X
= γj QF T |j⟩
j=0
con
2 −1 n
1 X jk
QF T |j⟩ = √ ω |k⟩ .
2n k=0
1
QF T |0⟩ = √ (|0⟩ + |1⟩ + |2⟩ + · · · + |2n − 1⟩) ,
2n
1 n
|0⟩ + ω |1⟩ + ω 2 |2⟩ + · · · + ω 2 −1 |2n − 1⟩ ,
QF T |1⟩ = √
2n
1 n
|0⟩ + ω 2 |1⟩ + ω 4 |2⟩ + · · · + ω 2(2 −1) |2n − 1⟩ ,
QF T |2⟩ = √
2n
..
.
1 n n n 2
QF T |2n − 1⟩ = √ |0⟩ + ω 2 −1 |1⟩ + ω 2(2 −1) |2⟩ + · · · + ω (2 −1) |2n − 1⟩ .
2n
471
Por lo tanto, la transforama cuántica de Fourier se puede escribir como
|0⟩ 1 1 1 ··· 1 |0⟩
n
|1⟩
1 ω ω2 ··· ω 2 −1 |1⟩
|2⟩ 1
1 ω 2 ω4 ··· ω 2(2n −1)
|2⟩
QF T = √ n .
.. . .. .. ... .. ..
..
2
. . . . .
n n −1 n (2n −1)2 |2n − 1⟩
|2 − 1⟩ 1 ω 2
ω −1)
2(2
··· ω
A la matriz
1 1 1 ··· 1
n
1 ω ω 2
··· ω 2 −1
1
2
ω4
n
ω 2(2 −1)
W = √ 1 ω ··· (38.2)
. .. .. ... ..
..
n
2
. . .
2n −1 2(2n −1) (2n −1)2
1 ω ω ··· ω
38.3.1. Un qubit
Si tenemos un qubit se cumple 21 = 2, por lo que
ω = eπi
de donde
1 1 1
W2 = H = √ ,
2 1 −1
Por lo tanto,
|0⟩ 1 1 1 |0⟩
QF T =√ ,
|1⟩ 2 1 −1 |1⟩
472
de donde
1
QF T |0⟩ = √ (|0⟩ + |1⟩) ,
2
1
QF T |1⟩ = √ (|0⟩ − |1⟩) .
2
Usando la notación de la fracción binaria, podemos ver que
1
QF T |0⟩ = √ |0⟩ + e2πi[0,0] |1⟩ ,
2
1
QF T |1⟩ = √ |0⟩ + e2πi[0,1] |1⟩ ,
2
es decir
1
QF T |a0 ⟩ = √ |0⟩ + e2πi[0.a0 ] |1⟩ ,
a1 = 0, 1.
2
de donde
1 1 1 1
1 1 i −1 −i
W4 = .
2 1 −1 1 −1
1 −i −1 i
Por lo tanto
|0⟩ 1 1 1 1 |0⟩
|1⟩ 1 1 i −1 −i |1⟩
QF T
|2⟩ = 2 1 −1 1 −1 |2⟩ ,
|3⟩ 1 −i −1 i |3⟩
473
que implica
1
QF T |0⟩ = (|0⟩ + |1⟩ + |2⟩ + |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ + |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ + |1⟩) + |1⟩ ⊗ (|0⟩ + |1⟩))
2
1
= (|0⟩ + |1⟩) ⊗ (|0⟩ + |1⟩) ,
2
es decir,
1
QF T |0⟩ = (|0⟩ + |1⟩) ⊗ (|0⟩ + |1⟩) .
2
Usando la expansión binaria este resultado se puede escribir como
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,00] |1⟩ .
QF T |00⟩ =
2
Además,
1
QF T |1⟩ = (|0⟩ + i |1⟩ − |2⟩ − i |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ + i |1⟩) − |1⟩ ⊗ (|0⟩ + i |1⟩))
2
1
= (|0⟩ − |1⟩) ⊗ (|0⟩ + i |1⟩) ,
2
de donde
1
QF T |1⟩ = (|0⟩ − |1⟩) ⊗ (|0⟩ + i |1⟩) .
2
Por lo que usando la expansión binaria, este último resultado se puede escribir
como
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,01] |1⟩ .
QF T |01⟩ =
2
Adicionalmente,
1
QF T |2⟩ = (|0⟩ − |1⟩ + |2⟩ − |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ − |1⟩) + |1⟩ ⊗ (|0⟩ − |1⟩))
2
1
= (|0⟩ + |1⟩) ⊗ (|0⟩ − |1⟩) ,
2
474
entonces,
1
QF T |2⟩ = (|0⟩ + |1⟩) ⊗ (|0⟩ − |1⟩) .
2
Usando la expansión binaria, este estado se puede escribir como
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,10] |1⟩ .
QF T |10⟩ =
2
De la misma forma
1
QF T |3⟩ = (|0⟩ − i |1⟩ − |2⟩ + i |3⟩)
2
1
= (|0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩)
2
1
= (|0⟩ ⊗ (|0⟩ − i |1⟩) − |1⟩ ⊗ (|0⟩ − i |1⟩))
2
1
= (|0⟩ − |1⟩) ⊗ (|0⟩ − i |1⟩) ,
2
así,
1
QF T |3⟩ = (|0⟩ − |1⟩) ⊗ (|0⟩ − i |1⟩) .
2
Con la expansión binaria este resultado se puede escribir como
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ .
QF T |11⟩ =
2
En resumen tenemos las transformaciones
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,00] |1⟩ ,
QF T |0⟩ = QF T |00⟩ =
2
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,01] |1⟩ ,
QF T |1⟩ = QF T |01⟩ =
2
1
|0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,10] |1⟩ ,
QF T |2⟩ = QF T |10⟩ =
2
1
|0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ ,
QF T |3⟩ = QF T |11⟩ =
2
que de forma compacta se puede expresar como
1
|0⟩ + e2πi[0.a0 ] |1⟩ ⊗ |0⟩ + e2πi[0.a1 a0 ] |1⟩ ,
QF T |a1 a0 ⟩ = a0 , a1 = 0, 1.
2
475
38.3.3. Tres qubits
Para 3 qubits se tiene 23 = 8, entonces
πi
ω=e4
476
Usando la expansión binaria, este resultado se puede escribir como
1 2πi[0,0] 2πi[0,00] 2πi[0,000]
QF T |000⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8
Además,
1 πi 3πi πi 3πi
QF T |1⟩ = √ |0⟩ + e 4 |1⟩ + i |2⟩ + e 4 |3⟩ − |4⟩ − e 4 |5⟩ − i |6⟩ − e 4 |7⟩
8
1 πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ + i |0⟩ ⊗ |1⟩ ⊗ |0⟩
8
3πi πi
+e 4|0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩
3πi
−i |1⟩ ⊗ |1⟩ ⊗ |0⟩ − e |1⟩ ⊗ |1⟩ ⊗ |1⟩
4
1 πi 3πi
= |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
2
πi 3πi
− |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
1 πi 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
8
1 πi
πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ + |1⟩ ⊗ i |0⟩ + ie 4 |1⟩
8
1 πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ,
8
de donde
1 πi πi
QF T |1⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ + e 2 |1⟩ ⊗ |0⟩ + e 4 |1⟩ .
8
que usando la expansión binaria, se puede escribir como
1 2πi[0,1] 2πi[0,01] πi
2πi[0,001]
QF T |001⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e e 2 |1⟩ ⊗ |0⟩ + e |1⟩ .
8
477
De la misma forma
1
QF T |2⟩ = √ (|0⟩ + i |1⟩ − |2⟩ − i |3⟩ + |4⟩ + i |5⟩ − |6⟩ − i |7⟩)
8
1
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |0⟩ ⊗ |1⟩ − |0⟩ ⊗ |1⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ ⊗ |1⟩
8
+ |1⟩ ⊗ |0⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩ ⊗ |1⟩
1
= √ |0⟩ ⊗ (|0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩)
8
+ |1⟩ ⊗ (|0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩)
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |1⟩
8
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ (|0⟩ + i |1⟩) − |1⟩ ⊗ (|0⟩ + i |1⟩)
8
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ,
8
por lo que
1
QF T |2⟩ = √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ,
8
que usando la expansión binaria se puede escribir como
1 2πi[0,0] 2πi[0,10] 2πi[0,010]
QF T |010⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8
478
Como otro caso tenemos
1 3πi πi 3πi πi
QF T |3⟩ = √ |0⟩ + e 4 |1⟩ − i |2⟩ + e 4 |3⟩ − |4⟩ − e 4 |5⟩ + i |6⟩ − e 4 |7⟩
8
1 3πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ − i |0⟩ ⊗ |1⟩ ⊗ |0⟩ +
8
πi 3πi
+e |0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩ +
4
πi
+i |1⟩ ⊗ |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩ ⊗ |1⟩
1 3πi πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
8
3πi πi
− |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
1 3πi πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩
8
1 3πi
πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ − i |1⟩ ⊗ |0⟩ + ie 4 |1⟩
8
1 3πi
3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩
8
1 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ,
8
entonces,
1 3πi
QF T |3⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ + e 4 |1⟩ ,
8
que usando la expansión binaria se puede escribir como
1
QF T |011⟩ = √ |0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ ⊗ |0⟩ + e2πi[0,011] |1⟩ .
8
479
Ahora,
1
QF T |4⟩ = √ (|0⟩ − |1⟩ + |2⟩ − |3⟩ + |4⟩ − |5⟩ + |6⟩ − |7⟩)
8
1
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − |0⟩ ⊗ |0⟩ ⊗ |1⟩ + |0⟩ ⊗ |1⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ ⊗ |1⟩
8
+ |1⟩ ⊗ |0⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩ ⊗ |1⟩
1
= √ |0⟩ ⊗ (|0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩)
8
+ |1⟩ ⊗ (|0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩)
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ − |0⟩ ⊗ |1⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |1⟩
8
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ (|0⟩ − |1⟩) + |1⟩ ⊗ (|0⟩ − |1⟩)
8
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ,
8
por lo tanto,
1
QF T |4⟩ = √ |0⟩ + |1⟩ ⊗ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ,
8
que usando la expansión binaria se puede escribir como
1 2πi[0,0] 2πi[0,00] 2πi[0,100]
QF T |100⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8
480
Otro caso es
1 πi 3πi πi 3πi
QF T |5⟩ = √ |0⟩ − e 4 |1⟩ + i |2⟩ − e 4 |3⟩ − |4⟩ + e 4 |5⟩ − i |6⟩ + e 4 |7⟩
8
1 πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ + i |0⟩ ⊗ |1⟩ ⊗ |0⟩
8
3πi πi
−e 4|0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩
3πi
−i |1⟩ ⊗ |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩ ⊗ |1⟩
1 πi πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
πi 3πi
− |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
1 πi 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
1 πi
3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ + i |1⟩ ⊗ |0⟩ + ie 4 |1⟩
8
1 πi
πi πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ + i |1⟩ ⊗ |0⟩ + ie 2 e 4 |1⟩
8
1 πi
πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ + i |1⟩ ⊗ |0⟩ + iie 4 |1⟩
8
1 πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8
así,
1 πi
QF T |5⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8
que usando la expansión binaria se puede escribir como
1 2πi[0,1] 2πi[0,01] 2πi[0,101]
QF T |101⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8
481
También se encuentra
1
QF T |6⟩ = √ (|0⟩ − i |1⟩ − |2⟩ + i |3⟩ + |4⟩ − i |5⟩ − |6⟩ + i |7⟩)
8
1
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |0⟩ ⊗ |1⟩ − |0⟩ ⊗ |1⟩ ⊗ |0⟩ + i |0⟩ ⊗ |1⟩ ⊗ |1⟩
8
+ |1⟩ ⊗ |0⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩ ⊗ |1⟩
1
= √ |0⟩ ⊗ (|0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩)
8
+ |1⟩ ⊗ (|0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩)
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ |0⟩ − i |0⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ + i |1⟩ ⊗ |1⟩
8
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ ⊗ (|0⟩ − i |1⟩) − |1⟩ ⊗ (|0⟩ − i |1⟩)
8
1
= √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ,
8
por lo cual
1
QF T |6⟩ = √ |0⟩ + |1⟩ ⊗ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ,
8
que usando la expansión binaria, se puede escribir como
1 2πi[0,0] 2πi[0,10] 2πi[0,110]
QF T |110⟩ = √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8
482
De la misma forma
1 3πi πi 3πi πi
QF T |7⟩ = √ |0⟩ − e 4 |1⟩ − i |2⟩ − e 4 |3⟩ − |4⟩ + e 4 |5⟩ + i |6⟩ + e 4 |7⟩
8
1 3πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |0⟩ ⊗ |1⟩ − i |0⟩ ⊗ |1⟩ ⊗ |0⟩
8
πi 3πi
−e 4|0⟩ ⊗ |1⟩ ⊗ |1⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |0⟩ ⊗ |1⟩ +
πi
+i |1⟩ ⊗ |1⟩ ⊗ |0⟩ + e 4 |1⟩ ⊗ |1⟩ ⊗ |1⟩
1 3πi πi
= √ |0⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
3πi πi
− |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
1 3πi πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |0⟩ ⊗ |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ⊗ |1⟩
8
1 3πi
πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ − i |1⟩ ⊗ |0⟩ − ie 4 |1⟩
8
1 3πi
3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ ⊗ |0⟩ − e 4 |1⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩
8
1 3πi
= √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8
en consecuencia
1 3πi
QF T |7⟩ = √ |0⟩ − |1⟩ ⊗ |0⟩ − i |1⟩ ⊗ |0⟩ − e 4 |1⟩ ,
8
que usando la expansión binaria se puede escribir como
QF T |7⟩ = QF T |111⟩
1 2πi[0,1] 2πi[0,11] 2πi[0,111]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8
483
Por lo tanto,
QF T |0⟩ = QF T |000⟩
1
= √ |0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,00] |1⟩ ⊗ |0⟩ + e2πi[0,000] |1⟩ ,
8
QF T |1⟩ = QF T |001⟩
1 2πi[0,1] 2πi[0,01] 2πi[0,001]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |2⟩ = QF T |010⟩
1
= √ |0⟩ + e2πi[0,0] |1⟩ ⊗ |0⟩ + e2πi[0,10] |1⟩ ⊗ |0⟩ + e2πi[0,010] |1⟩ ,
8
QF T |3⟩ = QF T |011⟩
1 2πi[0,1] 2πi[0,11] 2πi[0,011]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |4⟩ = QF T |100⟩
1 2πi[0,0] 2πi[0,00] 2πi[0,100]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |5⟩ = QF T |101⟩
1
= √ |0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,01] |1⟩ ⊗ |0⟩ + e2πi[0,101] |1⟩ ,
8
QF T |6⟩ = QF T |110⟩
1 2πi[0,0] 2πi[0,10] 2πi[0,110]
= √ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ,
8
QF T |7⟩ = QF T |111⟩
1
= √ |0⟩ + e2πi[0,1] |1⟩ ⊗ |0⟩ + e2πi[0,11] |1⟩ ⊗ |0⟩ + e2πi[0,111] |1⟩ .
8
QF T |a2 a1 a0 ⟩ =
1 2πi[0.a0 ] 2πi[0.a1 a0 ] 2πi[0.a2 a1 a0 ]
√ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ ⊗ |0⟩ + e |1⟩ .
8
484
como
QF T |k⟩ = QF T |an−1 · · · a1 a0 ⟩
1
=√ |0⟩ + e2πi[0.a0 ] |1⟩ ⊗ |0⟩ + e2πi[0.a1 a0 ] |1⟩ ⊗ · · · ⊗ |0⟩ + e2πi[0.an ···a1 a0 ] |1⟩ .
2n
† 1 X k0
(W W )ii = n ω
2 k=0
2 −1 n
1 X
= n 1
2 k=0
2n
= n,
2
por lo que
(W W † )ii = 1.
Mientras que en el caso
i ̸= j
podemos denir
z = ω i−j (38.4)
y la suma (38.3) se puede escribir como
2 −1 n
† 1 X k
(W W )ij = n z .
2 k=0
† 1 X k
(W W )ij = z
N k=0
n
1 z2 − 1
= ,
2n z − 1
486
por lo cual
n
† 1 z2 − 1
(W W )ij = n ,
2 z−1
Ahora, considerando la denición de z dada en (38.4) y la denición ω dada
en (38.1) se encuentra
n 2n
z2 = ω i−j
2π (i−j)2n
= e 2n
2π(i−j)2n
= e 2n
= e2π(i−j) = 1
es decir, n
z 2 = 1.
Por lo tanto, si i ̸= j, se encuentra
(W W † )ij = 0.
Estos resultados nos indican que se cumple la igualdad
(W W † )ii = δij ,
en otras palabras
W W † = I.
Por lo tanto, se cumple la igualdad
W † = W −1
Así
1 1 1 ··· 1
−1 −2 n
1 ω ω ··· ω −(2 −1)
1
ω −2 ω −4 ···
n
ω −2(2 −1)
W −1 = W † = √ 1 .
n
2 .
..
.. .. ... ..
. . .
−(2n −1) −2(2n −1) n −1)(2n −1)
1 ω ω ··· ω −(2
487
Referencias
[1] E. Lluis-Puebla, Álgebra lineal, Primera edición, Sistemas Técnicos de
Edición, México (1997).
[2] S. H. Friedberg, A. J. Insel y L. E. Spence, Álgebra lineal, Primera edición,
Publicaciones Cultural S.A, México (1982).
[3] P. Halmos, Finite-dimensional vector spaces, Segunda edición, Dover, New
York (2017).
[4] H. A. Rincón, Álgebra lineal, Facultad de Ciencias UNAM, México (2015).
[5] J. A. de la Peña, Álgebra lineal avanzada, Fondo de Cultura Económica,
México (1996).
[6] H. Anton, Introducción al álgebra lineal, Limusa, México (2001).
[7] A. M. Sales-Cruz y O. González-Gaxiola, Introducción al álgebra lineal
con Mathematica, UAM Cuajimalpa, México (2014).
[8] R. Courant y F. John, Introducción al cálculo y al análisis matemático,
Volumen I y II, Editorial Limusa, México (1990).
[9] M. Reed y B. Simon, Methods of modern mathematical physics, Academic
Press Inc, New York (1972).
[10] A. N. Kolmogorov, Elementos de la teoría de funciones y del análisis
funcional, Mir Moscú, México (1975).
[11] D. Luzardo y A. L. Peña, Historia del álgebra lineal hasta los albores del
siglo XX, Divulgaciones Matemáticas 14 Vol. 4, 153 (2006).
[12] N. Bourbaki, Elementos de historia de las matemáticas, Alianza Editorial,
Madrid (1976).
[13] M. J. Crowe, A History of vector analysis, Dover, New York (1967).
488
[14] A. D. Aczel, El último teorema de Fermat, el secreto de un antiguo pro-
blema matemático, Fondo de Cultura Económica, México (2003).
[15] J. D. Hidary, Quantum computing: an applied approach, Springer, Switzer-
land (2019).
[16] P. V. O' Neil, Matemáticas avanzadas para la ingeniería. Quinta edición.
International Thomson Editores, México (2004).
[17] H. Gardner, Mentes creativas: una anatomía de la creatividad. Ediciones
Paidós Ibérica, Madrid (1995).
[18] H. Weyl, Space, Time, Matter. Dover, USA (1955).
[19] L. F. Magaña, Las matemáticas y los mayas, Ciencias 19, (1990). (1955).
489
Índice Alfabético
O(n), 280 Exponencial de una matriz, 223
SO(2), 286
SO(3), 286 Formas bilineales, 363
SO(n), 280 Formas cuadráticas , 375
SU (2), 295 Formas multilineales, 390
SU (3), 296 Función alternante, 396
SU (n), 290 Funciones bilineales, 354
U (1), 294 Funciones multilineales, 387
U (2), 295 Gauss-Jordan, 94
U (n), 290 Generadores, 27
Gram-Schmidt, 196
Base, 30
Bloques de Jordan, 324 Imagen, 142
Independencia lineal, 28
Cambio de base, 129 Integral Gaussiana, 300
Cayley-Hamilton, 320 Inversa, 39
Convención de Einstein, 34
Ker, 139
Delta de Kronecker, 37
Dependencia lineal, 29 Método de Cramer, 89
Derivada exterior, 396 Método Maya, 436
Desigualdad de Bessel, 185 Matrices, 17, 33
Desigualdad de Schwarz, 186 Matrices ortogonales, 279
Desigualdad del triángulo, 187 Matrices antihermíticas, 273
Determinante, 52 Matrices de Dirac, 274
Dimensión, 30 Matrices de Gell-Mann , 267
Matrices de Pauli, 265
Espacio dual, 342 Matrices similares, 214
Espacio vectorial, 15 Matrices unitarias, 290
Espacios invariantes, 324 Matriz adjunta, 83
Espacios métricos, 189 Matriz asociada, 154
Espacios normados, 187 Matriz diagonal, 210
490
Núcleo, 139 Tensor de Levi-Civita, 54
Tensores, 390, 396
Operador adjunto, 253 Teorema de Pitágoras, 183
Operador hermítico, 258 Transformación lineal, 134
Transformaciones de Lorentz, 381
Polinomio característico , 317 Transformada cuántica de Fourier,
Producto de Kronecker, 424 465
Producto escalar, 165 Transformada discreta de Fourier,
Producto exterior, 396 308
Producto tensorial, 419 Transpuesta, 40
Qubit, 459 Traza, 43
491
Álgebra lineal, con ejercicios en Python, apli-
caciones y notas históricas, de Juan Manuel
Romero Sanpedro, es una obra que se puede
encontrar en la página web del repositorio de la
UAM Cuajimalpa Concéntric@.