Guia
Guia
Guia
https://sites.google.com/site/matematica3a2011/
2018
Índice general
2. Espacios Vectoriales 22
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . 24
2.3. Bases y Dimensión . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4. Cuentas Sobre Subespacios . . . . . . . . . . . . . . . . . . . . 30
3. Transformaciones Lineales 31
3.1. Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2. Líneas y Planos . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . 36
3.3.1. Operaciones entre transformaciones lineales . . . . . . 38
3.3.2. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . 38
ii
3.3.3. Representación de Transformaciones Lineales porMatrices 42
4. Transformaciones Simétricas 46
4.1. Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . 46
4.2. Transformaciones Simétricas . . . . . . . . . . . . . . . . . . . 51
5. Formas Cuadráticas 54
5.1. Formas Cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . 54
5.1.1. Teorema de la Signatura . . . . . . . . . . . . . . . . . 59
5.1.2. Demostración del Teorema 5.1 . . . . . . . . . . . . . . 59
5.1.3. Ejemplos de cálculo . . . . . . . . . . . . . . . . . . . . 68
5.2. Formas Cuadráticas con Restricciones . . . . . . . . . . . . . . 70
6. Continuidad y Diferenciabilildad en Rn 81
6.1. Métrica Euclídea en Rn . . . . . . . . . . . . . . . . . . . . . . 81
6.1.1. Abiertos y Cerrados en Rn . . . . . . . . . . . . . . . . 83
6.1.2. Compacidad . . . . . . . . . . . . . . . . . . . . . . . . 86
6.1.3. Conectividad . . . . . . . . . . . . . . . . . . . . . . . 87
6.2. Continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.2.1. Extremos Absolutos . . . . . . . . . . . . . . . . . . . 92
6.3. Diferenciación . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.1. Derivadas parciales . . . . . . . . . . . . . . . . . . . . 99
6.3.2. Planos Tangente y Diferencial Total . . . . . . . . . . . 99
6.3.3. Regla de la cadena, caso general. . . . . . . . . . . . . 99
6.3.4. Hessianos . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.4. Extremos Locales . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.5. Polinomios de Taylor . . . . . . . . . . . . . . . . . . . . . . . 103
iii
iv
3. x + y + z = 1, x = 0, x − y = 1, 0x + 0y + 0z = 1, 0x + 0y + 0z = 0,
todas en tres variables x, y, z.
1
2 CAPÍTULO 1. REPASO DE SISTEMAS LINEALES
ecuación1
ecuación2
sistema
···
ecuaciónm
una línea en R2 , si a ̸= 0 o b ̸= 0
Sol.(ax+by = c) representa todo R2 , si a = 0 y b = 0, y c = 0.
el vacío, si a = 0 y b = 0, y c ̸= 0.
(0,1)
s
s
fig.3: Única solución.
s
HsH
s Tres líneas
HH superpuestas.
H
@
s @
@
s @s
@
@
@
@
3(5 − 2y) − y = 1
15 − 6y − y = 1
−7y = −14
4 CAPÍTULO 1. REPASO DE SISTEMAS LINEALES
5
{ Hs(1,2)
2 HH
− 7y = −14 HH
x + 2y = 5 0 5
1.1. SISTEMAS LINEALES 5
5
{ 2
(1,2)
HsH
y = 2 HH
H
x + 2y = 5 0 5
{ 2 s(1,2)
y = 2
x = 1 0 1
Problemas:
x − y = 2
2x + 3y = 1
5.
3x + 2y = 3
x + 4y = −1
x + y = 3
6. 2x − y = 4
3
7
x + 0y = 5
1.1.2. Preguntas
Analice cada una de las siguientes preguntas y afirmaciones. Si no tiene
ahora la respuesta, mantengase alerta hasta que, al avanzar el curso, en-
cuentre las explicaciones. Intente jugar con ejemplos pequeños, como los del
problema anterior.
Verdadero Falso
En cada una de las siguientes afirmaciones decidir si es verdadera o falsa.
Explicar porqué es verdadera en caso de serlo, o dar un ejemplo que muestre
la falsedad de la afirmación en caso de ser falsa.
8. det(AB) = det(A)det(B).
Teorema 1.1. Toda matriz Am×n se reduce a una única matriz reducida y
escalonada RA .
Demostración. Para demostrar el teorema hace falta mostrar dos cosas. Pri-
mero que efectivamente existe un número finito de operaciones elementales
por fila que reducen A a alguna matriz reducida; luego haciendo una cantidad
finita de permutaciones entre sus filas es posible siempre escalonarla. Segun-
do, debemos probar que la reducida y escalonada obtenida anteriormente es
en verdad única. La demostración de este hecho lo diferimos para después de
que desarrollemos la noción de subespacios vectoriales.
Veamos entonces cómo es posible hacer un número finito de operaciones
elementales por fila hasta reducir A. Miramos la primera fila de A; si es nula,
vamos a la segunda fila. Caso contrario, existe un primer elemento no nulo.
Si ese primer elemento no nulo no es uno, usamos una operación elemental
del tipo multiplicación por un escalar distinto de cero sobre la fila uno para
convertir ese primer elemento no nulo en uno. Así podemos suponer que es
uno (el pivote de la fila uno, si es no nula.) Ahora con operaciones del tipo
‘a una fila se la reemplaza por la misma fila más un múltiplo de otra fila’ es
posible poner ceros arriba y abajo de ese pivote.
Luego pasamos a la fila dos. Si es nula, vamos a la fila tres. Caso contrario,
existe un primer elemento no nulo, que como antes podemos suponer es un
uno, en una columna distinta de la del pivote de la fila uno, si ésta era no nula.
Con operaciones elementales del tipo ‘una fila se reemplaza por la misma fila
más un múltiplo de otra fila’ siempre es posible poner ceros arriba y abajo
de ese uno (pivote de la segunda fila , si ésta es no nula.)
Continuando de esta manera, en a lo más tantos pasos como filas de A,
nos encontramos con una matriz reducida por filas obtenida de A mediante
un número finito de operaciones elementales.
Ejercicio 1.1. Clasificar todas las matrices reducidas y escalonadas 2x2, 3x2
y 2x3 de acuerdo al rango 0, 1, 2; lo mismo pero con las matrices 3x3, de
acuerdo al rango 0, 1, 2, 3.
(1,2)
HsH
HH 1 0 1
H le corresponde
0 0 1 2
@
@
@
@s
@
@
@
1. @ (Todas se cortan en el punto (a, b).)
(1,2) s
s (1,1)
2.
s
(2,3)
3.
s
(3,3)
s
(1,1)
4. (Tres líneas superpuestas.)
10 CAPÍTULO 1. REPASO DE SISTEMAS LINEALES
@
@s s
(1,2)@ (3,2)
@s
@
5. (2,1)@
(0,1)
s
1.1.6. Al revés.
A cada uno de los sistemas reducidos, escritos en forma matricial, aso-
ciarles una gráfica conceptual que represente el sistema original.
1 0 a
1.
0 1 b
1 2 a
2.
0 0 0
0 1 a
3.
0 0 0
0 1 1
4.
0 0 2
1.1. SISTEMAS LINEALES 11
0 1 1
5. 0 0 0
0 0 0
1 0 a
6. 0 1 b
0 0 1
1 0 1
7. 0 1 2
0 0 0
1 0 2
8. 0 0 3
0 0 4
1 −1 0
9. 0 0 0
0 0 0
1.1.7. Aplicaciones
Plantee en términos de ecuaciones lineales y resuelva usando eliminación
gaussiana cada uno de los siguientes problemas.1
I II III
A 3 1 2
B 1 2 1
C 2 4 1
Usuarios
Serv. Ind. Dem. Ext. Prod. Tot.
Productores Serv. 110 90 180 380
Ind. 80 150 200 430
a) Para este año se espera que la demanda externa sobre cada sector
cambie a los valores 230 millones y 180 millones para servicios e
industria, respectivamente. Calcule la producción total esperada
para cada sector para el presente año. Use la fórmula de la adjunta
para calcular la inversa de una matriz.
b) Cuánto demandará la industria de los servicios?
A B C D
R 1 4 1 2
S 1 1 0 0
T 3 0 1 1
U 0 1 1 1
1 0 0
E1 = −3 1 0
0 0 1
De la misma forma, a la matriz elemental
1 0 0
E2 = 0 1 5
0 0 1
le corresponde la operación elemental 2da + 5 ∗ 3ra .
Problemas:
1. Encontrar las correspondientes matrices elementales a las siguientes o-
peraciones elementales, en tamaño 4x4: 1ra −3∗4ta , 3ra −4ta , 2da +4∗4ta ,
−3 ∗ 4ta , permutar 2da por 4ta .
2. A las siguientes matrices elementales encontrarles la correspondiente
operación elemental y calcular la matriz elemental inversa de cada una
de ellas exhibiendo la correspondiente operación elemental.
1 0 0 1 0 0 1 0 0
E1 = −3 1 0 E2 = 0 1 7 E3 = 0 1 0
0 0 1 0 0 1 −3 0 1
1 0 0 1 0 5 0 0 1
E4 = 0 1/2 0 E5 = 0 1 0 E6 = 0 1 0
0 0 1 0 0 1 1 0 0
1.2. OTRAS CUESTIONES A TENER EN CUENTA. 15
1 2 0 1 0 1 1 2 3
A = −3 1 0 B = −3 1 0 C= 0 7 4
0 0 4 −1 0 1 0 0 5
0 0 0 1 0 −3 3 0 0
D= 3 1 5 E= 0 1 0 F = 0 3 0
2 3 1 3 0 1 0 0 3
A−1 AX = A−1 b
IX = A−1 b
X = A−1 b
−1 2 3 y1
4 5 6 y2
7 8 9 y3
1.2. OTRAS CUESTIONES A TENER EN CUENTA. 17
1 0 0 − 12 y1 + y2 − 12 y3
0 1 0 y1 − 5y2 + 3y3
0 0 1 − 12 y1 + 11 y − 13
3 2
y
6 3
− 12 1 − 12
1 −5 3
− 12 11
3
− 13
6
1 0 2 1 y1
−1 1 0 1 y2
0 2 −1 0 y3
1 1 −1 −1 y4
18 CAPÍTULO 1. REPASO DE SISTEMAS LINEALES
1. det(I) = 1
3. det(eij (A)) = −det(A) donde eij (A) significa permutar la fila i por la
fila j, con i ̸= j.
1 0 1 2 2 4
= det 0 3 1 + det 0 3 1
7 4 3 7 4 3
o también se podría pensar que la primer fila se descompone así
lo que conduce a
3 2 5 3 0 0 0 2 0
det 0 3 1 = det 0 3 1 + det 0 3 1
7 4 3 7 4 3 7 4 3
0 0 5
+ det 0 3 1
7 4 3
8. det(AB) = det(A)det(B)
En particular, si A es invetible, se sigue que det(A)det(A−1 ) = 1; de
donde se deduce que si A es invertible su determinante debe ser no
nulo y det(A−1 ) = 1/det(A). El recíproco es cierto: Si A tiene deter-
minante no nulo, entonces A es invertible. Esto se sigue de las cuatro
primeras propiedades del determinante. Es posible reducir A adentro
del determinante y obtener que el determinante de A es múltiplo del
determinante de RA . La única forma de que det(RA ) sea no nulo es
que RA sea la identidad; en caso contrario tendría por lo menos una
fila nula y el determinante sería cero. Pero entonces A se reduce a la
identidad y por lo tanto debe ser invertible.
Para probar esta propiedad 8) se apela a la unicidad del determinante
como sigue. Si det(A) ̸= 0, entonces la función definida por
det(AB)
g(B) =
det(A)
det(AB)
g(B) = = det(B)
det(A)
de donde
det(AB) = det(A)det(B)
camino por RA B, que al tener una fila nula, obliga a RAB a tener
por lo menos una fila nula; en este paso hemos usado casi sin notarlo
la unicidad de la reducida y escalonada de AB: reduzca RA B sólo
trabajando sobre las primeras n − 1 filas, luego al agregarle la última
fila cero, se sigue teniendo una reducida y escalonada, que debe ser RAB
por la unicidad.) y por lo tanto su determinante es cero. Luego ambos
lados de la identidad det(AB) = det(A)det(B) son cero.
1.3. Bibliografía
Existen numerosos textos de álgebra lineal de carácter introductorio en
biblioteca desde los cuales se pueden seguir todos los temas de repaso. Entre
los de fácil lectura se encuetran, por ejemplo
Más conciso, con mucho mayor carga de lenguage algebraico, y con mayor al-
cance en los temas tratados, los dos primeros capítulos de Hoffman, Kenneth
y Kunze, Ray, Ál gebra Lineal, sirven como preámbulo preparatorio para el
resto del curso.
Capítulo 2
Espacios Vectoriales
a) la adición es conmutativa: α + β = β + α
b) la adición es asociativa: (α + β) + γ = α + (β + γ)
c) existe un vector neutro 0: 0 + α = α + 0 = α
d) para todo vector α ∈ V existe un único vector −α ∈ V tal que
−α + α = α + (−α) = 0
a) 1α = α para todo α ∈ V ;
b) c1 (c2 α) = (c1 c2 )α (asociatividad);
1
Vea Hoffman-Kunze, Linear Algebra.
22
2.1. ESPACIOS VECTORIALES 23
(cA)ij = cAij
1. W = {(x, y) ∈ R2 | x + y = 0}
2. W = {(x, y) ∈ R2 | x + y = 1}
3. W = {(x, y) ∈ R2 | y ≥ 0}
4. W = {(x, y) ∈ R2 | ∃t ∈ R : x = t3 + 1 ∧ y = −2t3 + 1}
Ejercicio 2.6. Pruebe que el conjunto solución de todo sistema lineal ho-
mogéneo m × n AX = 0 es un subespacio de Rn . Al mismo tiempo pruebe
que el conjunto solución de un sistema AX = b no homogéneo nunca es un
subespacio; piense en el ejemplo del ejercicio2.5, puntos 1 y 2.
(D3 + D2 + D + I)f = 0
∑
m
αi = aji βj
j=1
para ciertos coeficientes aji ’s. Ahora miramos el sistema lineal homogéneo
(mire los αi como columnas)
∑
n
xi αi = 0 (2.1)
i=1
Este sistema sólo tiene la solución trivial. Ese sistema se puede escribir en
términos de los βj ’s
∑n ∑
m
xi aji βj = 0
i=1 j=1
2.3. BASES Y DIMENSIÓN 27
P (D)f = 0
P (D)f = 0
Transformaciones Lineales
⟨α, β⟩ = a1 b1 + · · · + an bn ∈ R
Ejercicio 3.1. Verifique que el producto interno canónico satisface las si-
guientes propiedades: para todo α, β, γ ∈ Rn ,
1. ⟨α + β, γ⟩ = ⟨α, γ⟩ + ⟨β, γ⟩
31
32 CAPÍTULO 3. TRANSFORMACIONES LINEALES
∥α + β∥ ≤ ∥α∥ + ∥β∥
La primera de éstas, muestra que el producto interno es contínuo.
Ejercicio 3.3. Para probar la desigualdad de Schwarz use el hecho que, para
α, β ∈ Rn fijos, laexpresión 0 ≤ ∥α + tβ∥ define una parábola nunca negativa.
Por lo tanto su discriminante debe ser menor o igual a cero. Obtenga de esa
afirmación la desigualdad de Schwarz.
Ejercicio 3.4. Obtenga la desigualdad triangular a partir de la desigualdad
de Schwarz trabajando sobre ∥α + β∥2 y estimando el término cruzado. Ve-
rifique que las siguientes son formas equivalentes a la desigualdad triangular.
1. ∥α∥ − ∥β∥ ≤ ∥α − β∥
2. |∥α∥ − ∥β∥| ≤ ∥α − β∥
El segundo punto muestra que la norma es contínua (más de esto en el capí-
tulo sobre continuidad en varias variables.)
Para α y β vectores no nulos, de la desigualdad de Schwarz se obtiene
⟨α, β⟩
−1 ≤ ≤1
∥α∥ ∥β∥
Luego existe un único θ ∈ [0, π] tal que
⟨α, β⟩
= cos θ
∥α∥ ∥β∥
3.1. PRODUCTO INTERNO 33
β
y
*
θα
(0, 0)
Figura 3.1: Ángulo entre dos vectores
Esto es equivalente a
⟨α, β⟩ = ∥α∥ ∥β∥ cos θ
ahora para todo α, β ∈ Rn (Si alguno de los vectores es nulo, el ángulo entre
ellos no esta definido; en ese caso, la expresión simplemente dice que ambos
miembros son cero.)
Ejercicio 3.5. Use el teorema del coseno para deducir que θ en la fórmula
anterior representa el ángulo entre ambos vectores. Deduzca que dos vectores
en Rn son ortogonales si y sólo si su producto interno es cero. Encuentre una
condición en términos del producto interno que sea equivalente a la afirmación
‘α es paralelo a β’.
β β β
⟨α, ⟩ = ∥α∥ cos θ
∥β∥ ∥β∥ ∥β∥
√
Ejercicio 3.6. Encuentre todos los vectores (x, y, z) ∈ R3 que proyectan 3
sobre el vector (1, 1, 1). Lo mismo pero que proyectan cero sobre (1, 1, 1).
Interprete estos conjuntos de vectores en términos geométricos.
Ejercicio 3.7. Dado el vector (1, 1, 1) ∈ R3 , encuentre dos vectores no nu-
los ortogonales entre sí que sean ortogonales a (1, 1, 1). Pruebe que los tres
vectores así conformados son linealmente independientes.
Ejercicio 3.8. Dados α1 = (1, 1, 1, 1); α2 = (1, −1, −1, −1) ∈ R4 , encuentre
todos los vectores (x, y, z, w) ∈ R4 ortogonales a α1 y α2 . Complete los vec-
tores α1 y α2 con un par se vectores β1 , β2 ortogonales a ellos de manera que
{α1 , α2 , β1 , β2 } sea una base de R4 .
Ejercicio 3.9. Sea S un subconjunto finito de vectores de Rn . Pruebe que
el conjunto S⊥ de todos los vectores ortogonales a todo vector de S es un
subespacio vectorial, denominado complemento ortogonal de S. Pruebe
( )⊥
que el complemento ortogonal de S⊥ , S⊥ , es el subespacio generado por
S.
(Ayuda: Para lo primero, interprete el complemento ortogonal de S como
el conjunto solución del sistema lineal homogéneo cuyas filas son exactamente
los vectores de S. Para lo segundo, como todo vector fila del sistema antes
mencionado es ortogonal a todo vector de S⊥ , toda combinación lineal entre
vectores de S –que no son otras que combinaciones lineles entre las filas de la
matriz del sistema en cuestión– es ortogonal a todo vector de S⊥ . Esto dice
( )⊥
que el subespacio generado por S está incluído en S⊥ . Para ver que ambos
subespacios son iguales, use el hecho que el rango de la matriz del sistema
arriba mencionado más el número de variables libres es n, el número de
columnas, para concluir que ambos subespacios tienen la misma dimensión.
Si todo esto no funciona, pida ayuda en clase.)
de dos planos en R3 . Tenga presente que no existe una única manera de hacer
esto último; puede Usted explicar de cuántas formas es posible obtener una
línea como intersección de dos planos en R3 ?
Ejercicio 3.11. Describa paramétricamente el plano de dim 2 en R4 que
pasa por (2, 1, −1, 0) y es paralelo al subespacio generado por los vectores
(1, 0, 1, 0) y (0, 1, 0, 1). Describa el mismo plano luego como intersección de
dos hiperplanos de codimensión uno en R4 .
Ejercicio 3.12. Asuma que el producto interno al cual se refiere la ortogo-
nalidad es el canónico. Interprete paramétricamente el conjunto solución W
del sistema AX = 0, donde
2 −1 0 3 1
1 0 1 −1 2
A= 1 −1 −1
4 −1
4 −1 2 1 5
es la matriz del problema 2.4 del práctico anterior, como un plano que pasa
por el origen (y por lo tanto, subespacio de R5 .)
Obtenga el complemento ortogonal W ⊥ del subespacio anterior y úse-
lo para interpretar a W como intersección de hiperplanos en R5 . Tiene un
nombre conocido para W ⊥ ? Y de alguna base a mano de W ⊥ ?
Interprete el conjunto solución de AX = b, donde b = (1, 1, 0, 3), en tér-
minos de W como el plano paralelo al subespacio W que pasa por X0 , donde
X0 es cualquier solución del AX = b. Ahora use W ⊥ para interpretar al con-
junto solución de AX = b como intersección de hiperplanos en R5 . (Ayuda:
Una base de W ⊥ –que ya ha calculado como las filas no nulas de la reducida
RA de A– provee de un conjunto linealmente independiente de vectores orto-
gonales al plano que define el sistema AX = b, digamos N1 , . . . , Nr , entonces
los hiperplanos que se buscan son
⟨X − X0 , Ni ⟩ = 0
donde i = 1, 2, . . . , r = r(A))
Ahora sea V el subespacio columna de A. Obtenga V ⊥ . Interprete geo-
métricamente.
Ejercicio 3.13. Use proyecciones para probar que la distancia de un punto
arbitrario X ∈ R3 al plano con ecuación normal ⟨X − X0 , N ⟩ = 0 es
|⟨X − X0 , N ⟩|
36 CAPÍTULO 3. TRANSFORMACIONES LINEALES
donde N tiene norma uno. (El plano en cuestión pasa por X0 y tiene vector
normal N .)
T (α + β) = T α + T β ∀α, β ∈ V
T (cα) = cT α ∀α ∈ V ∧ ∀c ∈ R
Ejercicio 3.14. Verifique que en cada uno de los siguientes casos T : V → W
define una transformación lineal.
1. Sea V = W = R [x] el espacio vectorial de todos los polinomios en una
variable x con coeficientes en los reales. T es derivación en x.
es lineal.
1. T (x, y) = (x, y + 1, x + y)
4. T (x, y) = (sin x, x, x)
1. T (x, y, z) = (x + y, y + z, x + y + z)
1. Pruebe que
[α + β]Φ = [α]Φ + [β]Φ
1
Esto es ciertamente un pequeño abuso de lenguaje que sólo se permite para conferir
una idea que resulta cierta en la mayoría de las aplicaciones en Rn . Para ver que no es
exacto este lenguaje, piense en las funciones et y e3t . Son linealmente independientes y
el ‘sistema lineal homgéneo’ aet + be3t = 0 para todo t ∈ R entraña una infinidad de
ecuaciones en las incógnitas a, b.
3.3. TRANSFORMACIONES LINEALES 39
[cα]Φ = c [α]Φ
para todo c ∈ R y α, β ∈ V .
2. Pruebe que la función [ ]Φ : V → Rn que a cada vector α de V le asigna
sus coordenadas [α]Φ en Rn es una biyección.
Este hecho muestra que si V tiene dimensión n, V es esencialmente equiva-
lente al espacio vectorial Rn . Más de esto luego.
Del ejercicio anterior, si Φ = {β1 , . . . , βn } y Ψ = {α1 , . . . , αn } son dos
bases del mismo espacio V , para cualquier γ ∈ V , se tiene
γ = c1 β1 + · · · + cn βn
[γ]Ψ = [c1 β1 + · · · + cn βn ]Ψ
[γ]Ψ = c1 [β1 ]Ψ + · · · + cn [βn ]Ψ
[γ]Ψ = [[β1 ]Ψ · · · [βn ]Ψ ] × [γ]Φ
lo que representa las coordenadas de γ en la base Ψ en términos de las
coordenadas de γ en la base Φ. La matriz P = [[β1 ]Ψ · · · [βn ]Ψ ] se denomina
matriz cambio de base.
Lema 3.1. La matriz cambio de base siempre es invertible.
Demostración. Si no fuese así, no se reduciría a la identidad y tendría rango
menor a n. Luego existiría una solución no trivial X0 del sistema homogéneo
P X = 0. En ese caso se tendría
[0]Ψ = [[β1 ]Ψ · · · [βn ]Ψ ] × X0
[0]Ψ = [c1 β1 + · · · + cn βn ]Ψ
c1
..
donde X0 = . . Luego,
cn
0 = c1 β1 + · · · + cn βn
con los ci ’s no todos nulos. Contradicción porque los βi ’s forman base.
40 CAPÍTULO 3. TRANSFORMACIONES LINEALES
Por el lema anterior toda matriz cambio de base es invertible. Esto sugiere
la idea de que toda matriz invertible es la matriz cambio de base de alguna
base dada en alguna otra. Esta conjetura es correcta, como lo muestra el
siguiente
Φ = {e3 , e2 , e1 }
Ψ = {e1 , e3 , e2 }
Calcule la matriz cambio de base P de Φ a Ψ; y luego al revés, de Ψ a Φ.
Verifique que una es inversa de la otra. Este problema muestra que el orden
de una base debe ser tenido en cuenta.
Ejercicio 3.24.
= a1 [T e1 ]Can + · · · + an [T en ]Can
que en términos del producto matricial es
= [c1 T α1 + · · · + cn T αn ]Ψ
= c1 [T α1 ]Ψ + · · · + cn [T αn ]Ψ
44 CAPÍTULO 3. TRANSFORMACIONES LINEALES
c1
..
= [[T α1 ]Ψ , . . . , [T αn ]Ψ ] × .
cn
= [[T α1 ]Ψ , . . . , [T αn ]Ψ ] × [α]Φ
La matriz m × n dada por
[[T α1 ]Ψ , . . . , [T αn ]Ψ ]
Ejercicio 3.28. Sea V el espacio vectorial de todos los polinomios con coe-
ficientes en los reales, y sea Vn el subespacio de V de los polinomios de
grado menor o igual a n. Considerando la base que consiste de las potencias
xk , k = 0, 1, . . . , ordenadas de manera ascendente, calcular la matriz que
representa al operador lineal T : Vn → Vn+1
∫ x
T (f )(x) = f (t)dt.
0
se tiene que
A2 − (a + d)A + (ad − bc)I = 0
Por lo tanto, todo operador lineal sobre R2 satisface una ecuación similar.
Este resultado es un caso especial de un teorema general de Cayley-Hamilton:
Todo operador lineal sobre un espacio vectorial finito satisface su polinomio
característico igual a cero. Más de esto luego.
Transformaciones Simétricas
46
4.1. VECTORES Y VALORES PROPIOS 47
det(A − λI) = 0
= det(A − λI)
y por lo tanto no importa la matriz que usemos para representar a T .
Por el teorema fundamental del álgebra, existen a lo más n raíces para
el polinomio P (λ), y exactamente n raíces en los complejos contadas con
su multiplicidad. En resumen, los valores propios de T son las raíces de su
polinomio característico y a lo más hay tantas como la dimensión de V . Todo
lo dicho hasta aquí alcanza para el siguiente
En realidad, sólo falta ver que vectores propios de valores propios dis-
tintos son linealmente independientes entre sí. Para ver esto, supongamos
que los n = dim(V ) valores propios de T son λ1 , . . . , λn , todos distintos en
los reales. Y supongamos que α1 , . . . , αn son los correspondientes vectores
propios. Entonces, si
c1 α1 + · · · + cn αn = 0,
aplicando T a ambos lados, se tiene
c 1 λ1 α 1 + · · · + c n λn α n = 0
P (λ) = λ2 + 1
que no tiene raíces reales. Esto dice que imposible esperar que T se pueda
diagonalizar en alguna base de R2 .
Aún cuando todas las raíces del polinomio característico existan en los
reales, no siempre existen suficientes vectores propios para formar una base
de V . Veamos un ejemplo de esto. Supongamos que T está representado en
la base canónica por la matriz
[ ]
1 1
A=
0 1
P (λ) = (λ − 1)2
4.1. VECTORES Y VALORES PROPIOS 49
que tiene todas sus raíces en R: λ0 = 1 es raíz doble. Para buscar los vectores
propios miramos las soluciones no triviales del sistema
(A − λ0 I)X = 0
([ ] )
1 1
−I X =0
0 1
[ ][ ] [ ]
0 1 x 0
=
0 0 y 0
que tiene como soluciones los múltiplos del vector e1 ; nada más. Con ese
vector solo no se llega a una base de R2 .
De regeso a nuestra discusión. De nuevo, si Φ es una base que diagonaliza
a T , se debe tener
T αi = λi αi , i = 1, 2, . . . , n
lo que en términos de la matriz A que representa a T en la base canónica se
convierte en
A[αi ] = λi [αi ] ; i = 1, 2, . . . , n
que a su vez puede ser leído en términos de la matriz cambio de base P
de la la nueva base Φ a la canónica. P es la matriz cuyas columnas son
los vectores αi ’s puestos en columna (es decir, P tiene por columnas a los
vectores [αi ]Can ’s.) Entonces, si existe la base que diagonaliza a T ,
P −1 AP = D
1.
1 −1 −1
A= 0 2 −1
0 0 3
50 CAPÍTULO 4. TRANSFORMACIONES SIMÉTRICAS
2.
3 0 2
A = −1 1 −1
−1 0 0
3.
1 −1 −1
A = −1 2 −1
−1 −1 3
4.
2 1 0
A= 1 2 1
0 1 2
Ejercicio 4.2. Para los dos últimos casos del problema anterior, verificar que
es posible tomar la matriz P que diagonaliza a T con columnas ortogonales
entre sí y de norma uno. Calcule P −1 y compare con la traspuesta de P .
Ejercicio 4.3. Pruebe que si una matriz P n × n tiene por columnas los
vectores de una base de Rn cuyos vectores son ortogonales entre sí y cada
uno de norma uno, entonces P P T = I. Tales matrices se denominan orto-
gonales. Verifique que si dos matrices son ortogonales su producto también
lo es.
Ejercicio 4.4. Pruebe que toda matriz invertible A tiene todos sus valores
propios no nulos. Más aún, λ0 es un valor propio de A si y sólo si 1/λ0 es
valor propio de A−1 .
Ejercicio 4.5. Sea T : Rn → Rn un operador lineal representado en la
base canónica por una matriz ortogonal. Entonces, con respecto al producto
interno canónico de Rn ,
⟨T x, T y⟩ = ⟨x, y⟩
Ayuda: Escriba todo matricialmente; producto interno incluído.
Ejercicio 4.6. Pruebe que una matriz ortogonal sólo tiene como valores
propios reales a ±1. Ayuda: Use los problemas anteriores y el hecho que el
determinante es invariante por trasposición.1
1
En general, para tener todos los valores propios de una matriz en el cuerpo de escalares
hace falta que éste sea algebraicamente cerrado; es decir, que todo polinomio de grado
n > 0 con coeficientes en el cuerpo tenga todas sus n raíces en el cuerpo. En particular,
en el caso de una matriz ortogonal real, del análogo del ejercicio 4.5 pero en C, se sigue
que los valores propios sólo pueden ser de la forma eiθ = cos θ + i sin θ, con θ ∈ R.
4.2. TRANSFORMACIONES SIMÉTRICAS 51
P T [T ]P = D
P T [T ]T P = DT = D = P T [T ]P
de donde
[T ]T = [T ]
En otras palabras, [T ] es simétrica. Este hecho puede decirse en términos del
producto interno canónico así:
⟨T α, β⟩ = ⟨α, T β⟩
Ejercicio 4.7. Pruebe que para toda matriz cuadrada An×n se cumple
⟨Aα, β⟩ = ⟨α, AT β⟩
52 CAPÍTULO 4. TRANSFORMACIONES SIMÉTRICAS
Demostración.
Demostración.
Demostración.
Ejercicio 4.8. En cada uno de los siguientes casos, encuentre una matriz
ortogonal P que diagonalice A.
1.
1 0 −1
A= 0 2 0
−1 0 1
2. √
3/2 √1/2 0
A = 1/2 − 3/2 0
0 0 2
3.
0 1 1
A= 1 2 1
1 1 0
4.
1 2 3
A= 2 3 4
3 4 5
5. [ ]
cos θ sin θ
A=
sin θ − cos θ
Capítulo 5
Formas Cuadráticas
54
5.1. FORMAS CUADRÁTICAS 55
Q(X) = X T AX
Q(P U ) = (P U )T A(P U )
Q(P U ) = U T (P T AP )U
Q(P U ) = U T DU
Que puesto en términos de los valores propios λ1 , . . . , λn de A, toma la forma:
Q = λ1 u21 + · · · + λn u2n
Ejercicio 5.2. En cada uno de los siguientes casos encuentre la matriz simé-
trica correspondiente a la forma cuadrática dada y una substitución ortogonal
que la diagonalice. Exprese la forma en las nuevas coordenadas explícitamen-
te.
1. 3x2 − 6xy + y 2
5.1. FORMAS CUADRÁTICAS 57
2. 8x2 + 9xy − 3y 2
5. 2xy
6. 3x2 + 4xy
7. −6xy + 8y 2
8. x2 + 2xy + y 2
9. 3x2 − 4xy + 3y 2
Ejercicio 5.3. Sea Q(X) = X T AX. Para cada caso encuentre la P ortogonal
que diagonaliza A y decida si la forma es definida positiva o negativa; si es
semidefinida positiva o negativa; o indefinida.
1.
0 1/2 1/2
A = 1/2 0 1/2
1/2 1/2 0
2. Q(x, y) = x2 + 2xy + y 2
3. Q(x, y) = x2 + 2xy
4.
3/2 0 1/2
A= 0 2 0
1/2 0 3/2
5.
−11 −5 3 1
−5 −11 1 3
A=
3 1 −11 −5
1 3 −5 −11
58 CAPÍTULO 5. FORMAS CUADRÁTICAS
Ejercicio 5.4. Hallar una condición necesaria y suficiente para que la forma
ax2 + bxy + cy 2 se pueda diagonalizar ortogonalmente a una forma del tipo
ku2 .
Existe una manera de decidir sobre el signo de una forma cuadrática sin
necesidad de diagonalizarla (aunque tal vez no menos laborioso.)
Definición 5.3. Sea An×n una matriz. Una submatriz de orden k es una
matriz k × k que se obtiene de A omitiendo n − k filas y n − k columnas,
posiblemente distintas. Cuando las n − k filas y columnas que se omiten de A
son las mismas, la submatriz que se obtiene se dice submatriz principal.
Cuando las n − k filas y columnas que se omiten de A son las últimas k +
1, k + 2, . . . , n, la submatriz que se obtiene se dice submatriz principal
líder y se denotará A(k) . Los determinantes de las submatrices principales
se denominan menores pricipales de A. Los determinantes de submatrices
principales líderes de orden k se denominan menores principales líderes
de orden k.1
Por ejemplo, si
1 2 3
A= 4 5 6
7 8 9
entonces [ ]
4 6
7 9
es la submatriz de A que se obtiene omitiendo la fila primera y la columna
segunda; las submatrices principales líderes de A de orden 1, 2, 3 son respec-
tivamente
[ ] 1 2 3
1 2
[1] , , 4 5 6
4 5
7 8 9
Los menores principales líderes son sus respectivos determinantes. Son me-
nores principales no líderes de A las matrices
[ ] [ ]
5 6 1 3
[5] , [9] , ,
8 9 7 9
Sus determinantes, junto con los menores principales líderes, son todos los
menores principales de A.
1
Esta definición tortuosa no se ha simplificado en lo que respecta a terminología con el
sólo objetivo de respetar el vocabulario folklórico.
5.1. FORMAS CUADRÁTICAS 59
A(n−1) a
A=
aT an n
se puede descomponer usando operaciones elementales por filas y por colum-
nas (ambas simultáneamente) así:
A(n−1) 0
A = MT × ×M
0 d
(M es una matriz producto de elementales del tipo antes mencionado pero
que opera por columnas en vez de por filas; M usa el bloque A(n−1) para
hacer a cero. M T es producto de elementales del mismmo tipo arriba men-
cionado que usa el bloque A(n−1) para poner cero en lugar de aT .) De esta
descomposición de A se desprenden las dos relaciones deseadas; primero
y segundo
( )
X1
(X1T , xn )(M −1 )T A(M −1 ) = X1T A(n−1) X1 + d x2n (5.2)
xn
donde X1 ∈ Rn−1 .
∀X ∈ Rn \ {0} : X T AX > 0
62 CAPÍTULO 5. FORMAS CUADRÁTICAS
(⇐) Asuma ahora al revés, supongamos que todos los menores principales
de A son positivos. El caso n = 1 es que a > 0 implica Q(x) = ax2 > 0,
para todo x ∈ R no nulo; así Q es positiva definida.
La hipótesis inductiva es ahora que si una matriz simétrica de tamaño
(n − 1) × (n − 1) tiene todos sus menores principales positivos, entonces
la forma cuadrática asociada es positiva definda.
Como A tiene todos sus menores principales positivos, det(A(n−1) ) > 0;
luego A(n−1) es invertible y las cuentas que llevaron a 5.1 y 5.2 son
posibles. Por 5.1, como detA > 0 y det(A(n−1) ) > 0, se tiene d > 0.
Ahora, como A(n−1) tiene todos sus menores principales positivos, por
hipótesis inductiva, Qn−1 es positiva definida. Luego, por 5.2, la forma
sobre Rn con matriz (M −1 )T A(M −1 ) debe ser positiva definida. Luego
Q es positiva definida por el lema 5.1 anterior. Listo
Ejercicio 5.10. Realice con todo detalle los pasos de la demostración del
primer punto del teorema en el caso de n = 3. Use la expresión (2) para n =
3, 2, 1 hasta haber completado todos los cuadrados. Reescriba los coeficientes
en términos de los menores principales y recupere el teorema nuevamente.
Ejercicio 5.11. Hay otra aplicación interesante que se desprende del Lema
5.1. Denote con P una matriz permutación n × n, en otras palabras, P se
obtiene de la identidad haciendo la correspondiente permutación de sus filas.
En particular, las filas de P forman naturalmente una base ortonormal de
Rn ; esto es, P es una matriz ortogonal: P T P = I
5.1. FORMAS CUADRÁTICAS 63
3
W es el subfila de A.
64 CAPÍTULO 5. FORMAS CUADRÁTICAS
Q(x, y) = 2bxy + cy 2
[ ]
= c 2b/cxy + y 2
[ ]
= c (y + b/cx)2 − b2 /c2 x2
Ahora si Q(x, y) ≥ 0 para todo x, y ∈ R, en particular para x = 0 se tiene
Q(x, y) = cy 2 ≥ 0 para todo y ∈ R, con lo cual c > 0. Además, si se toma y
tal que y + b/cx = 0, se tiene Q(x, y) = c [0 − b2 /c2 x2 ] ≥ 0 para todo x ∈ R,
que es posible sólo si b = 0. Así
[ ]
0 0
A=
0 c
con c > 0, que tiene todos sus menores principales no negativos.
Y al revés, si a = 0, c > 0 y ac − b2 ≥ 0, entonces debe ser b = 0 y por lo
tanto Q(x, y) = cy 2 ≥ 0. Listo el caso n = 2.
Ejercicio 5.12. Usando los casos n = 1, 2, probar el caso n = 3. Si alguna
parte le resultara compleja, fíjese en la demostración que sigue especializán-
dola al caso n = 3.
Antes de continuar con la demostración, veámos un resultado que esta-
blece la relación entre los menores principales de la forma dada y de la forma
obtenida a partir de la anterior permutando las variables entre sí.
5.1. FORMAS CUADRÁTICAS 65
En particular,
det((P T AP )(I) ) = det(A(σI) )
como queríamos probar. Listo el Lema.
Paso inductivo. Asuma que toda matriz A simétrica de tamaño (n −
1) × (n − 1) o menor es semidefinida positiva si y sólo si todos sus menores
principales son no negativos. Queremos ver que lo mismo vale para toda A
simétrica de tamaño n × n.
Supóngase que An×n es semidefinida positiva. En particular, haciendo
cero la variable xi en X T AX ≥ 0, se tiene que la submatriz principal A(i) de
tamaño (n − 1) × (n − 1) obtenida omitiendo la fila y la columna i-ésima de A
es semidefinida positiva, para cualquier 1 ≤ i ≤ n. Por Hipótesis inductiva,
todo menor principal de A(i) es no negativo, para 1 ≤ i ≤ n. Así todos los
menores principales de orden inferior a n son no negativos. Sólo falta ver que
66 CAPÍTULO 5. FORMAS CUADRÁTICAS
0 ≤ X T AX = U T P T AP U = λ1 u21 + · · · + λn u2n
det(A) = det(P T AP ) = λ1 . . . λn ≥ 0
a11 0 a11 0
(I) = T
0 B 0 EI BEI
1 0 1 0 a a 1 −1/a11 a 1 0
= T × × 11 × ×
0 EI −1/a11 a In−1 T
a An−1 0 In−1 0 EI
1 0 a a 1 −1/a11 aEI
= × 11 ×
−1/a11 EIT aT EIT aT An−1 0 EI
1 0 1 0 1 0 1 −1/a11 aEI
= × T ×A× ×
−1/a11 EIT aT Ik×k 0 EI 0 EI 0 Ik×k
1 0 1 −1/a11 aEI
= × A(I∪{1}) ×
−1/a11 EIT aT Ik×k 0 Ik×k
Tomando determinantes y observando que las matrices triangulares de los
extremos en la última identidad no cuentan a los fines del determinante, se
obtiene la identidad 5.3.
De la identidad 5.3 y como A tiene todos sus menores principales no
negativos, se sigue que B(n−1)×(n−1) tiene todos sus menores no negativos.
Por hipótesis inductiva, B es semidefinida positiva. Como además a11 > 0,
la matriz
a11 0
= M T AM
0 B
es positiva semidefinida, donde
1 −1/a11 a
M :=
0 In−1
signatura(A) = (+, +, +)
4 3 3 10
Im×m 0m×(n−m) × X = 0
Las restricciones simplemente dicen que las primeras m variables son cero:
x1 = 0, . . . , xm = 0 y la forma restringida resulta simplemente
donde A es la matriz diagonal con los λ’s en la diagonal y cero fuera. Es fácil
calcular los menores principales de H.
det(H (k) ) = 0, k = 1, 2, . . . , 2m − 1
porque
0m×m Im×m
(2m)
det(H ) = det
(m)
Im×m An×n
0m×m Im×m
(2m)
det(H ) = det
Im×m 0m×m
haciendo operaciones elementales por fila del tipo ‘a una fila se le suma un
múltiplo de otra fila’ para hacer cero el bloque de A(k) .
det(H (2m) ) = (−1)m
reordenando m-filas. Y por último, usando la misma propiedad del determi-
nante
det(H (2m+k) ) = (−1)m λm+1 . . . λm+k , k = 1, 2, . . . , (n − m) (5.4)
Entonces la forma restringida es definida positiva si y sólo si
(−1)m det(H (2m+1) ) > 0, . . . , (−1)m det(H (n) ) > 0
Mire bien esa condición porque vale en general.
De la misma manera, la forma restringida
Q(0, . . . , 0, xm+1 , . . . , xn ) = λm+1 x2m+1 + · · · + λn x2n
es negativa definida si y sólo si
λm+1 < 0, . . . , λn < 0
Esto puede nuevamente expresarse en términos de los últimos n − m menores
principales de H. Por (3), los signos de los λ’s quedan determinados por
sig((−1)m det(H (2m+k) )) = (−1)k , k = 1, 2, . . . , n − m.
Es decir, los signos de los últimos n − m menores deben alternar de ma-
nera que el menor principal más grande, el de orden n, termine con signo
(−1)m (−1)n−m = (−1)n . Esta condición también vale en general deacuerdo
al siguiente teorema.
5.2. FORMAS CUADRÁTICAS CON RESTRICCIONES 73
Ejercicio 5.14. Revise todas las cuentas del ejemplo anterior en detalle
para el caso de n = 4 y m = 1, 2. Esto lo ayudará a entender porqué los
n − m últimos menores principales de H deciden la signatura de la forma
restringida.
0m×m Bm×n
H=
T
Bn×m An×n
Entonces,
Notar:
1. x = 0 es positiva definida.
2. y = 0 es indefinida.
3. y = 0, z = 0 es negativa definida.
1. W = {(x, y, z) ∈ R3 | x + y = 0}
{ [x] }
2. W = (x, y, z) ∈ R | [ 1 2 1 ] × z = [ 0 ]
3 1 1 1 y 0
{ [x] }
3. W = (x, y, z) ∈ R3 | [ 1 1 1 ] × yz = [ 00 ]
Ahora en cada uno de los casos anteriores encuentre una base ortonormal de
W y obtenga la matriz asociada a QW en esa base.
4. Q(x1 , x2 , x3 , x4 ) = x21 −x22 −x23 +x24 +x1 x2 +x3 x4 sujeta a las restricciones
x1 + x2 + x3 = 0 y x1 + x2 + x4 = 0
5.2. FORMAS CUADRÁTICAS CON RESTRICCIONES 75
Q(X) = X T AX
(5.5)
sujeto a BX = 0
1er. Paso
Si cambiamos B por su reducida y escalonada RB el subespacio W no
cambia. Como se asumió que B tiene rango máximo, las m columnas de
RB donde aparecen los pivotes forman por sí solas la matriz identidad m ×
m. Esas columnas de RB pueden no ser las m primeras, pero es posible
reordenar las variables de X mediante multiplicación a izquierda por una
matriz permutación P de manera tal que la matriz RB P tiene la identidad
m × m en sus primeras m columnas. Entonces podemos asumir sin pérdida
de generalidad que la matriz que define al subespacio W tiene la forma
Im×m Cm×(n−m)
2do. Paso
Con el objeto de calcular QW explícitamente, vamos a despejar las varia-
bles con pivotes en términos de las variables libres para luego substituirlas
76 CAPÍTULO 5. FORMAS CUADRÁTICAS
X1
Im×m Cm×(n−m) × =0
X2
está forzando
X1 = −CX2
8
Ahora substituímos en la forma Q. Para llevar a cabo estas cuentas es
conveniente escribir A en bloques que se correspondan con la partición de X
en (X1 , X2 ). Escribimos
A1 E
−CX2
= [−X2T C T , X2T ] × ×
X2
E T A2
3er. Paso
Pregunta:¿Qué relación existe entre cualquier menor principal de AW y
los de H?
8
Todo lo que esto dice es que W está parametrizado por los pares de la forma
(−CX2 , X2 ) para X2 ∈ Rn−m arbitrario.
5.2. FORMAS CUADRÁTICAS CON RESTRICCIONES 77
Entonces una cuenta simple que dejamos como ejercicio muestra que
I 0 0
0 I −CI ,
0 0 I
78 CAPÍTULO 5. FORMAS CUADRÁTICAS
0 I CI 0 I 0
HI = I A1 EI → I A1 −A1 CI + EI
I 0 0
−A1 I 0 ,
−EIT 0 I
0 I 0
→ I 0 −A1 CI + EI
I 0 0
0 I 0 ,
0 −CIT I
I 0 A1 CI − EI
0 I 0 ,
0 0 I
se obtiene
0 I
I 0 0
0 0 AIW
Entonces
(−1)m det H I = det AIW
Recuerde esta identidad porque explica la conexión entre los menores de la
forma restringida y los menores de la matriz orlada.
80 CAPÍTULO 5. FORMAS CUADRÁTICAS
4to. Paso
Use el teorema de la signatura para formas y obtenga los enunciados que
queremos probar.Q.E.D.
Continuidad y Diferenciabilildad
en Rn
N2 ∥x∥ = 0 ⇔ x = 0.
81
82 CAPÍTULO 6. CONTINUIDAD Y DIFERENCIABILILDAD EN RN
∑
n
∥x∥L1 = |xi |
i=1
d(x, y) = ∥x − y∥
M1 d(x, y) ≥ 0
M2 d(x, y) = 0 ⇔ x = y
M3 d(x, y) = d(y, x)
B(x0 , r) = {x ∈ Rn | ∥x − x0 ∥ < r}
A◦ ⊂ A ⊂ A− = A ∪ ∂A
Ejercicio 6.8. Pruebe usando nada más que la definición de clausura que
1. (A ∪ B)− = A− ∪ B −
1. A◦ ⊂ A ⊂ A−
2. A− = A◦ ∪ ∂A
3. A− = A ∪ ∂A
4. A◦ = A ∼ ∂A
5. A− ∼ A◦ = ∂A
6. ∂A = ∂(Rn ∼ A)
7. Rn ∼ ∂A = A◦ ∪ (Rn ∼ A)◦
Ejercicio 6.9. Para cada uno de los siguientes conjuntos, obtenga su interior,
clausura y frontera; decida si es abierto o cerrado o ninguno de los anteriores.
5. [a, b] × [c, d] ⊂ R2
6. S = {x ∈ Rn | a1 x1 + · · · + an xn < d}
6.1.2. Compacidad
La mitad de las veces los problemas de optimización en economía son
cerrados y acotados, y la otra mitad son cerrados pero no acotados. Recuerde
que un subconjunto A es acotado si existe algún radio positivo r tal que la
bola centrada en el origen (o en cualquier otro punto) de radio r contiene a
A. La propiedad de un conjunto de ser cerrado y acotado es un invariante: se
preserva bajo continuidad. Veremos entonces algunas propiedades inmediatas
y un par de teoremas que serán de gran utilidad al momento de garantizar
la existencia de óptimos. Primero una definición:
A ⊂ ∪i∈I Ui
6.1.3. Conectividad
¿Cómo decir que un conjunto es conexo? La idea intuitiva que se tiene nos
hace querer que un intervalo de números reales sea conexo, que un conjunto
que consiste de un solo punto también lo sea. El problema con la idea intuitiva
de conectividad es que se mezcla con otra noción cercana pero distinta que es
la de conección por curvas y, para añadir sutilezas, la conectividad depende
muy finamente de Qué abiertos son los que se han declarado como tales.
Por esto la conectividad puede depender de la métrica que se use. Sólo para
ilustrar en algunos ejemplos cambiaremos la métrica euclídea para mostrar
esta dependencia. Veamos las definiciones.
Definición 6.4. Un subconjunto E ⊂ Rn es disconexo si existen abiertos
U y V de Rn tales que
E =E∩U ∪E∩V
E ∩ U ̸= ∅ , E ∩ V ̸= ∅ y E ∩ U ∩ V = ∅
En tal caso se dice que U y V son una separación de E o que U y V separan
a E.
Por supuesto que un conjunto es conexo si no es disconexo. Claramente
un conjunto que consiste de un solo punto es conexo. Muchos menos obvio
es que en R con la métrica euclídea los únicos conexos son los intervalos.
Teorema 6.4. Supongamos que R tiene la métrica euclídea. Si E ⊂ R es
conexo, entonces E es alguno de los siguientes conjuntos
[a, b], [a, b), (a, b], (a, b), [a, ∞), (a, ∞), (−∞, b), (−∞, b], R
88 CAPÍTULO 6. CONTINUIDAD Y DIFERENCIABILILDAD EN RN
6.2. Continuidad
La idea de continuidad para funciones de varias variables es exactamente
la misma que para el caso de una variable real, excepto que el valor absoluto
se cambia por la métrica euclídea. Filosóficamente, la existencia de límites
se apoya esencialmente en hecho de que Rn es un espacio completo con la
métrica euclídea. Esto puede decirse en términos de sucesiones: Toda sucesión
de Cauchy en Rn tiene límite.
Definición 6.5. Sea U un abierto no vacío de Rn . Una función f : U ⊂
Rn → R es continua en un punto x0 ∈ U si para todo ε > 0 existe r > 0 tal
que
f [B(x0 , r)] ⊂ (f (x0 ) − ε, f (x0 ) + ε)
Si f es contínua en todo x0 ∈ U , entonces f se dice continua en todo U .
Una función F : U ⊂ Rn → Rm , F = (F1 , . . . , Fm ), definida sobre un
abierto U es continua sobre U si cada función coordenada Fi : U → R es
continua en el sentido anterior, para i = 1, 2, . . . , n.
Ejercicio 6.10. Si f : U ⊂ Rn → Rm , con U abierto, la definición de
continuidad en x0 ∈ U de arriba es exactamente equivalente a la siguiente
afirmación:
Para todo ε > 0 existe r > 0 tal que si ∥x − x0 ∥ < r, entonces
∥f (x) − f (x0 )∥ < ε
(Ayuda: Usted debe probar que una definición es si y solo si la otra. Para
ello use las desigualdades, cuya verificación son parte del ejercicio,
f −1 [V ] = {x ∈ U | f (x) ∈ V } ⊂ Rn
Luego
∥f (x) + g(x) − (f (x0 ) + g(x0 ))∥ < ϵ/2 + ϵ/2
para todo x tal que ∥x − x0 ∥ < δ3 donde r0 > δ3 = min{δ1 , δ2 } > 0. Listo la
suma.
Para el producto. Nuevamente la clave es la desigualdad triangular,
más el viejo truco de sumar y restar lo apropiado. Sea ϵ > 0 dado arbitrario
y x0 ∈ U ∩ V . Para no salirnos del dominio del producto f g, tomamos r0 > 0
tal que la bola abierta B(x0 , r0 ) está incluida en U ∩ V .(Por esta razón todos
los deltas que se tomen serán menores que r0 .) Ahora mire la desigualdad
Ejemplo 6.1. Por los teoremas arriba mencionados son ejemplos de funcio-
nes continuas
Ejercicio 6.12. Pruebe, usando los teoremas sobre continuidad arriba men-
cionados, que las funciones del ejemplo anterior son efectivamente conti-
nuas. En el caso del ejemplo quinto, exprese z como exponencial del loga-
ritmo: z = Keα ln x+β ln y . Para el sexto ejemplo, use la fórmula mı́n {a, b} =
1
2
(a+b−|a − b|). (Encuentre una fórmula similar para máx {x, y}.) En ambos
casos interprete como una composición.
Ejercicio 6.13. Entre las funciones más usadas en microeconomía para des-
cribir utilidad, beneficios, producción, etc., se encuentran las siguientes fun-
ciones, que, para mayor facilidad en los problemas propuestos que siguen, se
han restringido a sus versiones de dos variables:
{ }1/r
III f3 (x, y) = ( xa )r + ( yb )r , una función CES (Constant Elasticity Subs-
titution function,) donde a, b, r son constantes positivas fijas. Nueva-
mente el dominio natural de la función es el primer cuadrante abierto
del plano.
2. Pruebe que
lı́m f3 (x, y) = f1 (x, y)
r→−∞
|x| + |y| ≤ 1
(fig.??) por ser de la forma f −1 [[0, 1]] = {(x, y) ∈ R2 | f (x, y) ∈ [0, 1]}
con f (x, y) = |x| + |y|, que es una función continua por ser suma de
dos funciones continuas, que a su vez son composición de funciones
continuas: la función valor absoluto con las proyecciones ortogonales
sobre los ejes. Es además acotado, y por lo tanto compacto, debido a
las desigualdades
∥(x, y)∥ ≤ |x| + |y| ≤ 1
que muestran al conjunto E incluido en la bola cerrada de radio uno.
94 CAPÍTULO 6. CONTINUIDAD Y DIFERENCIABILILDAD EN RN
xy ≤ 1
por
f [E ∩ B(x0 , r)] ⊂ (f (x0 ) − ε, f (x0 ) + ε)
Cambio que puede traer alguna sorpresa en cuanto a la intuición de continuidad. Para
más sobre esto, véase Mansfield, Introduction to Topology, o Kelley, Topología General,
EUDEBA.
96 CAPÍTULO 6. CONTINUIDAD Y DIFERENCIABILILDAD EN RN
0,5
y 0
-0,5
-1
-0,6-0,4-0,2 0 0,2 0,4 0,6
x
x ∈ E.
En otras palabras, una función real continua sobre un compacto siempre
alcanza su máximo y mínimo absoluto. Este resultado garantiza la existencia
de extremos absolutos pero dice nada acerca de cómo encontrarlos. Dos po-
sibilidades complementarias dividen la búsqueda de extremos: o el extremo
reside en la frontera del dominio o bien en el interior del mismo. Lo que sigue
en nuestro estudio son justamente técnicas del cálculo infinitesimal que per-
miten encontrar candidatos a extremos y decidir sobre su condición en esas
dos situaciones para cierto tipo de problemas que naturalmente se presentan
en la economía matemática.
Ejercicio 6.14. En cada uno de los siguientes casos decida si el teorema 6.9
es o no aplicable directamente.
1. w = a1 x1 + · · · + an xn sobre todo el espacio Rn
6.3. DIFERENCIACIÓN 97
6.3. Diferenciación
La siguiente lista de ejercicios son de ablande y le harán ganar soltura a
la hora de visualizar y calcular.
Ejercicio 6.15. Para cada una de las siguientes funciones indicar el mayor
dominio de definición, dibujarlo e indicar dónde es continua y dónde no lo es.
Realice un mapa de nivel de la función y un dibujo de su gráfica (inténtelo.)
1. f (x, y) = min{x, y}
3. f (x, y) = max{x, y}
4. f (x, y) = max{ x , y }
2 3
√
5. f (x, y) = 1 − x2 − y 2 , hemisferio norte.
Ejercicio 6.16. en cada uno de los siguientes casos calcule las derivadas
parciales ∂f /∂x y ∂f /∂y, y calcule los puntos críticos en el mayor dominio
de la función dada.
1. f (x, y) = e2x−5y
2. e−(x−1)
2 −3(y−3)2
3. f (x, y) = x3 + xy cos(xy)
1
4. f (x, y) = x2 +y 2
5. f (x, y) = xy
+y 2, si x2 + y 2 ̸= 0
f (x, y) =
0, si x = y = 0
Ejercicio 6.18. Los siguientes son ejemplos de funciones que en algún lugar
de su dominio no son continuas porque no tienen límite. En cada caso, use
alguno de los dos hechos siguientes: si el límite existe, debe ser único y, en
particular, si se tiende al punto por una curva continua, el límite debe existir
en todos estos casos especiales y todos deben ser iguales al límite ’doble’.
6.3. DIFERENCIACIÓN 99
1. Sea { xy
x2 +y 2
, si (x, y) ̸= (0, 0);
f (x, y) = .
0, si (x, y) = (0, 0)
Pruebe usando líneas por el origen y = mx que el límite de f no existe
en cero.
2. Sea {
x2 −y 4
x2 +y 4
, si (x, y) ̸= (0, 0);
f (x, y) = .
0, si (x, y) = (0, 0)
Usando líneas por el origen y = mx, verifique que todos los límites
especiales de f sobre estas líneas existen y valen cero en cero. Luego,
usando las curvas y = mx2 , pruebe que el límite de f en (0, 0) no existe.
1
3. Pruebe que la función f (x, y) = x2 +y 2 no tiene límite en cero. (Para
2. Ahora asuma que en el caso anterior los precios varian de acuerdo a las
funciones p1 = 5rt2 y p2 = 3rt, y el ingreso y = 20r. Encuentre la tasa
de variación en las cantidades demandadas cuando t = 5 y r = 0,1.
Ejercicio 6.23. En cada uno de los siguientes casos encuentre los puntos
críticos de la función dada en el dominio que corresponda.
a)
0 1/2 1/2
A = 1/2 0 1/2
1/2 1/2 0
b)
1 0 0
A= 0 2 0
0 0 3
c)
1 1 1
A= 1 1 1
1 1 1
√
3. z = 1 − x2 − y 2 , en la esfera abierta de radio uno de R2 . (La gráfica
de la función es el hemisferio norte de la esfera de radio uno en R3 .
Explique.)5
4. z = xe−(x , en todo R2 .
2 +y 2 )
5. z = xy 2 − x2 y, en todo R2 .
5
Usetedes no querían el término ‘bola abierta’y terminamos usando ‘esfera abierta’;
mire la confusión que ahora tenemos entre cáscara y huevo!
6.5. POLINOMIOS DE TAYLOR 103
y en general
∑ ∂ k f (x0 )
g (k) (0) = (xi − aik ) . . . (xik − aik )
1≤i1 ,...,ik ≤n
∂xi1 . . . ∂xik 1
En estas sumas hay términos cruzados que son iguales por el teorema de
Clairaut–Young por ser las derivadas continuas. Un poco de notación a esta
altura resulta útil a la hora de las cuentas concretas. Se introduce el coefi-
ciente multinomial ( )
k k!
=
r1 · · · rn r1 ! · · · rn !
donde r1 + · · · + rn = k y 0 ≤ r1 , . . . , rn ≤ k. Estos coeficientes generalizan
k!
los numeros combinatorios ( kr ) = r!(k−r)! , los cuales son el caso n = 2 del
coeficiente multinomial.
Con esta notación en uso las derivadas de g en cero son
∑ ( )
2 ∂ 2 f (x0 )
(2)
g (0) = (x1 − a1 )r1 · · · (xn − an )rn
r1 · · · rn ∂xr11 · · · ∂xrnn
r1 +···+rn =2
0≤r1 ,...,rn ≤2
∑ ( )
k ∂ k f (x0 )
g (k)
(0) = (x1 − a1 )r1 · · · (xn − an )rn
r1 · · · rn ∂xr11 · · · ∂xrnn
r1 +···+rn =k
0≤r1 ,...,rn ≤k
Ejercicio 6.24. Realice todas las cuentas en detalle para calcular las deriva-
das de g en cero en el caso de R2 y hasta orden k = 3. Luego haga lo mismmo
para tres variables, caso R3 .
6.5. POLINOMIOS DE TAYLOR 105
∑k ∑ ( )
1 s ∂ s f (x0 )
Pk,x0 (x) = (x1 − a1 )r1 · · · (xn − an )rn
s! r1 · · · rn ∂xr11 · · · ∂xrnn
s=0 r1 +···+rn =s
0≤r1 ,...,rn ≤s
g k+1 (c)
g(1) − P (1) = (1 − 0)k+1
(k + 1)!
∑ ( )
1 k+1 ∂ k+1 f (x0 (1 − c) + cx)
(x1 −a1 )r1 · · · (xn −an )rn
(k + 1)! r1 · · · rn ∂xr11 · · · ∂xrnn
r1 +···+rn =k
0≤r1 ,...,rn ≤k
(6.1)
Como hemos supuesto las derivadas de f continuas hasta el orden k + 1 sobre
U , existe una constante positiva M que acota a todas las derivadas parciales
de f de orden k + 1 sobre la esfera cerrada BCerr. (x0 , r/2). Entonces, por la
desigualdad triangular y como cada |xi − ai | ≤ ∥x − x0 ∥, se tiene la siguiente
estimación
|f (x) − Pk,x0 (x)| ≤
∑ ( )
1 k+1
≤ M |x1 − a1 |r1 · · · |xn − an |rn
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1
∑ ( )
1 k+1
≤ M ∥x − x0 ∥r1 · · · ∥x − x0 ∥rn
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1
∑ ( )
1 k+1
≤ M ∥x − x0 ∥k+1
(k + 1)! r1 · · · rn
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1
106 CAPÍTULO 6. CONTINUIDAD Y DIFERENCIABILILDAD EN RN
nk+1
≤M ∥x − x0 ∥k+1
(k + 1)!
( )
∑ k+1
porque n k+1
= (1 + · · · + 1) k+1
= .
r1 +···+rn =k+1
0≤r1 ,...,rn ≤k+1 r1 · · · rn
Luego,
que prueba
Q.E.D.
dos es
1 − x2 − y 2
que muestra dos cosas: primero, que la función f tiene un punto crítico en
el origen, y segundo, que es un máximo local por tener forma cuadrática
definida negativa.
Ejercicio 6.26. Clacule los polinomios de Taylor para las siguientes funcio-
nes en el punto indicado y describa la naturaleza del punto (x0 , y0 ) de ser
punto crítico.
Optimización no Lineal en Rn
2. w = xy + xz
3. z = (x2 + y 2 ) ln (x2 + y 2 )
4. w = cos (x2 + y 2 + z 2 )
5. w = x2 + y 2 + z 2
Ejercicio 7.2. Para la siguiente lista de casos, como antes mire las condi-
ciones de primer orden y decida el carácter del punto crítico a través de la
derivada segunda de la función objetivo. Si la segunda derivada se anulara,
calcule los subsiguientes polinomios de Taylor hasta el menor siguiente no
nulo y decida la condición del punto crítico.
110
7.1. OPTIMIZACIÓN SIN RESTRICCIONES 111
2. z = x2 y 2
3. z = x2 + 4xy − y 2 − 8x − 6y
4. z = x2 − xy − y 2 + 5y − 1
5. z = x2 + 2y 2 − x
6. z = x sin y
7. z = x4 + y 4
8. z = (x − y)4
que exhibe claramente un mínimo local en cero sea cual fuere la dirección
(a, b) de la línea.
112 CAPÍTULO 7. OPTIMIZACIÓN NO LINEAL EN RN
Ejercicio 7.4. Una firma usa dos insumos para producir un determinado
artículo. Si su función producción es Q = x1/4 y 1/4 y si vende cada artículo por
un peso y compra cada insumo por cuatro pesos, encuentre la combinación
de cantidades de insumos que maximizan las utilidades.
Ejercicio 7.5. Como el caso anterior pero en general. Supóngase que una
firma tiene función producción de Cobb–Douglas de cierto artículo Q = xα y β ,
con precio final de venta p y precios r y s de cada insumo respectivamente.
Resuelva las condiciones de primer orden para encontrar la combinación de
insumos que tentativamente maximice las utilidades. Véa las condiciones de
segundo orden para determinar qué parámetros α, β, p, r, s garantizan que la
solución sea un máximo global.
Ejercicio 7.6. Las AeroFlight normalmente cubre los vuelos de Sky Iland a
la capital D.F. La compañía trata pasajeros de la clase de negocios y turista
como mercados separados al demandar compra de boletos por anticipado
a la clase turista. Suponga que las funciones demanda en cada caso son
Q = 16 − p, para la clase de negocios, y Q = 10 − p para la clase turista,
y que la función costo para todos los viajeros son C(Q) = 10 + Q2 . Qué
precio debe la compañía poner a cada clase de boleto para maximizar sus
ganancias?
Capítulo 8
Optimización no Lineal en Rn
∇g1 (x0 )
[ ] ..
dx0 G = Gx1 (x0 ) · · · Gxn (x0 ) = .
∇gm (x0 )
113
114 CAPÍTULO 8. OPTIMIZACIÓN NO LINEAL EN RN
dhv0
dv0 H =
I
una matriz de tamaño n×(n−m); el bloque inferior es la identidad I(n−m)×(n−m) .
En particular,
0 = dv0 (G ◦ H) = dx0 G × dv0 H (8.1)
2do. paso: La restricción de f a S (a U más exactamente) es la composición
de f con H. Como f tiene un extremo local en x0 cuando se restringe a S,
f ◦ H tiene un extremo local en v0 . Luego
0 = dv0 (f ◦ H) = ∇f (x0 ) × dv0 H (8.2)
8.2. OPTIMIZACIÓN CON RESTRICCIONES MIXTAS 115
Práctico Extra
∑
n
S(a, b) = (yi − axi − b)2
i=1
117
118 CAPÍTULO 9. PRÁCTICO EXTRA
Problema 2:
Una desigualdad famosa. Considere una forma cuadrática Q(X) =
X AX, donde A es simétrica 3 × 3. El problema consiste en encontrar el
T
Problema 3:
Minimización de costos de una firma. Una firma en un proceso de
producción simple requiere de dos imputs x ≥ 0, y ≥ 0, a un costo unitario
de w1 , w2 respectivamente, para lograr un nivel de producción q = f (x, y)
de determinado output, donde f (x, y) = Kxa y b es la función producción. La
minimización de los costos de producir un output q0 plantea el problema
min w1 x + w2 y
s.a. f (x, y) = q0
x ≥ 0, y ≥ 0
1. Plantee las condiciones necesarias de primer orden y obtenga los valores
óptimos para los inputs x e y en términos de K, a, b, w1 , w2 , q0 .
2. Calcule explícitamente el valor del costo mínimo en términos de los
parámetros w1 , w2 , q0 .
120 CAPÍTULO 9. PRÁCTICO EXTRA
Problema 4:
El problema del tamaño óptimo de inventario Una firma posee un
inventario de cierto artículo que disminuye a una tasa constante por unidad
de tiempo. Cuando el inventario es cero, la firma hace un pedido de un nuevo
lote de q artículos para reponer el stock, pedido éste que se satisface inme-
diatamente. La firma ordena n lotes al año para satisfacer un requerimiento
anual fijo de Q0 artículos; así Q0 = qn. Dos tipos de costos ocurren: un costo
de almacenamiento, y otro, Co , por cada orden de un nuevo lote. La cantidad
promedio en stock para lotes de un tamaño q, es q/2 (, fácil de ver.) Si el
costo de almacenamiento de un artículo es Ca , el costo total de almacenar
un lote es Ca q/2. El costo total es entonces, C = Ca q/2 + Co n. Considere el
problema de minimizar los costos de inventario (sujeto a Q0 = qn.)
Problema 5:
Estudie los extremos locales y absolutos, de existir, de 3x2 + 5y 2 + xy
sujeto a las restricciones 1 ≤ x ≤ 5, 2 ≤ y ≤ 7. (No olvide argumentar sobre
la existencia —o no—de los extremmos absolutos.)
Problema 6:
Estudie los extremos locales y absolutos, de existir, de 3x2 −y 2 +x−2y +1
sujeto a x2 + y 2 ≤ 1, y ≥ 0, x ≥ 0.
9.1. DE OPTIMIZACIÓN CON CUENTAS 121
Problema 7:
Estudie los extremos locales y absolutos, de existir, de (x + y)e−x
2 −y 2
sujeto a x ≥ 0, x2 + y 2 ≤ 2.
Problema 8:
Estudie los extremos locales y absolutos, de existir, de f (x, y, z) = xz +yz
sujeto a y 2 + z 2 ≤ 1 ; xz ≤ 1.
Problema 9:
Considere el problema
opt. z = x2 + y 2 − 2xy
sa 0≤x≤1
0≤y≤1
1. Determine si los extremos absolutos existen o no.
2. Calcule todos los puntos críticos, sueltos, etc.
3. Determine el carácter de cada uno de los puntos interesantes arriba
calculado.
4. Sumarice lo obtenido.
Problema 10:
Considere el problema
opt. z = x2 − y 2 + 2xy
sa x2 + y 2 ≤ 1
0≤y
0≤x
1. Determine si los extremos absolutos existen o no.
2. Calcule todos los puntos críticos, sueltos, etc.
3. Determine el carácter de cada uno de los puntos interesantes arriba
calculado.
4. Sumarice lo obtenido.
122 CAPÍTULO 9. PRÁCTICO EXTRA
Problema 11:
Maximice U (x, y) = Kxα y β , una Cobb–Douglas, sujeta a p1 x + p2 y ≤ I
y x ≥ 0, y ≥ 0.
9.2. Continuidad
Problema 1:
Indique en cuáles de los siguientes casos es posible garantizar la existencia
de extremos absolutos —uno o ambos—y porqué. (No debe hacer ninguna
cuenta terrible.)
1. z = x − y sujeto a las restricciones x2 + y 2 − 2x − 2y + 1 ≤ 0, x2 + y 2 −
4x − 2y + 4 ≤ 0.
2. z = x2/3 y 1/3 sujeto a la restricción 0 ≤ x, y ≤ 1(ambas desigualdades
para ambas variables.)
3. z = (x2 − y 2 ) sujeto a x2 < 1.
x3
4. z = 1+y 2
sujeto a máx {|x| , |y|} ≤ 3.
Problema 2:
√
3
Considere la cuenta c := (0,97) cos(0,11).
4. Puede dar una idea del error cometido en las aproximaciones de los dos
primeros ítems?
9.4. Formas
Problema 1:
1. Enuncie condiciones necesarias y suficientes en términos de determi-
nantes para que la foma cuadrática q = X T AX, donde AT = A, sea
negativa definida. Luego aplique ese resultado al caso q = 3x2 + y 2 −
z 2 − 2xy − 2xz − 2yz.
Problema 2:
Se espera que enuncie correctamente los teoremas necesarios y exhiba las
cuentas completas en el ejemplo en particular.
124 CAPÍTULO 9. PRÁCTICO EXTRA
Problema 3:
1. Usando determinantes, decida el carácter (def.,semidef., o indef.,) de la
forma cuadrática q = X T AX, donde
1 2 1
A= 2 3 −4
1 −4 5
restringida al subespacio W = {(x, y, z) ∈ R3 | y + z = 0}.
2. Encuentre una matriz invertible M , no necesariamente ortogonal, tal
que M T AM sea diagonal, donde A es la matriz del punto anterior.
Explique porqué la signatura de A y M T AM son las mismas (Se pide
una demostracón!)
Problema 4:
1. Usando determinantes, decida el carácter (def.,semidef., o indef.,) de la
forma cuadrática q = X T AX, donde
1 1 1
A= 1 2 1
1 1 1
restringida al subespacio W = {(x, y, z) ∈ R3 | y − 2z = 0}.
2. Encuentre una matriz ortogonal P tal que P T AP sea diagonal, donde
A es la matriz del punto anterior. Explique porqué la signatura de A y
P T AP son las mismas (Se pide una demostración!)
9.5. GEOMETRÍA LINEAL 125
Problema 2:
Considere el plano Σ determinado por los puntos P1 = (0, 0, 1), P2 =
(2, 1, 0) y P3 = (0, 1, 1).
Problema 3:
Considere el plano Σ que pasa por el punto P0 = (1, 0, 1) y es paralelo a
los vectores α = (0, 1, 1) y β = (1, 1, 1). Dado el punto P1 = (0, 1, −1),
maximizar f (x, y)
sujeto a g(x, y) ≤ c0
donde las funciones involucradas son dos veces continuamente diferenciables
y ∇g es no nulo en todos los puntos de la curva de nivel g(x, y) = c0 . La
resolución del problema es gráfica y conceptual; no requiere de cuentas. La
fig.1 le muestra el mapa de nivel de la función objetivo junto con su gradiente.
La fig.2 muestra la función restricción y su gradiente. Por último, la fig.3 le
muestra ambas funciones juntas, la función objetivo y el borde de la región.