L3 - Álgebra Linear - IMC

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 8

Preparação IMC: Álgebra Linear

ÁLGEBRA LINEAR – Nível U, julho de 2005

Essa lista discute alguns resultados importantes de Álgebra Linear que às vezes ficam de fora dos cursos
universitários (principalmente de engenharia) tais como a forma canônica de Jordan, o polinômio minimal de
uma matriz, o teorema espectral e o teorema min-max sobre autovalores, todos apresentados na 2ª parte.
A primeira parte comenta conceitos menos sofisticados como multiplicação por blocos, autovalores e
autovetores, nilpotência, polinômio característico e diagonalização.
Vários resultados tradicionais não são apresentados aqui (como por exemplo as definições e principais
teoremas sobre núcleo e posto de uma transformação). Para um estudo introdutório de Álgebra Línear,consulte
qualquer livro universitário sobre o assunto.

1. CONCEITOS INICIAIS

1.1 Multiplicação por blocos


Desde que as dimensões das matrizes A,B,...,H estejam compatíveis (i.e, existam os produtos do lado direito),
podemos fazer o produto de duas matrizes olhando separadamente para os blocos:
 A B E F   AE + BG AF + BH 
  ⋅  = 
C D  G H   CE + DG CF + DH 
O caso mais simples é quando consideramos o produto AB olhando para cada uma dos vetores
coluna x1 , x 2 ,..., x n de B:
   
   
AB = A ⋅  x1 x2 ... x n  =  A ⋅ x1 A ⋅ x2 ... A ⋅ x n 
   
   
(ou seja, AB dá a imagem dos vetores colunas de B pela transformação A).

A idéia de blocos também pode ser usada para o cálculo de determinantes, mas apenas no caso em que a
matriz C é nula. Nesse caso, tem-se:
A B
=| A | ⋅ | D |
0 D

Exemplo 1. (Putnam 86) Sejam A, B, C, D matrizes nxn tais que AB T e CD T são simétricas e
AD T − BC T = I . Mostre que AT D − C T B = I
Solução:
Transpondo a equação da hipótese:
DAT − CB T = I .
Como AB T = BAT e CD T = DC T , temos a seguinte identidade por blocos:
 A B   DT − BT   I 0
  ⋅   = 
  = I 2 n
C D  − C
T
AT  0 I 
Mas se XY = I, com X e Y quadradas, então X e Y são inversas uma da outra e comutam, i.e, YX = I.

 DT − BT   A B 
 ⋅  = I 2n
− CT
 AT   C D 
Em particular, isso dá AT D − C T B = I n como queríamos.

Exercício 1. Sejam A, B, C, D matrizes quadradas tais que A inversível e AC = CA . Mostre que nesse caso,
A B
=| AD − CB |
C D
Lista 03
Marcio Cohen 1
Álgebra Linear

 I 0  A B   A B 
Sugestão: Olhe para o produto em blocos  −1
 ⋅   =  
−1 
 − CA I   C D   0 D − CA B 

1.2 Autovalores e autovetores


λ complexo é chamado autovalor de uma matriz quadrada A quando existe vetor não-nulo x tal que
Ax = λ x .
Nesse caso, x é denominado um autovetor de A.
Observe que o sistema homogêneo equivalente ( A − λI ) x = 0 tem solução não-nula se e somente se
det( A − λI ) = 0 , o que nos leva a definição do polinômio característico no item 3.
n
Exemplo 2. Seja A uma matriz real nxn com entradas não-negativas tal que ∑a
j =1
ij = 1 para todo i. Mostre que

todos os autovalores de A tem módulo menor que 1.


Solução: Seja λ um autovalor de A e x = ( x1 , x 2 ,..., x n ) T um autovetor correspondente. Seja
r = xi = max{ x k } .
1≤ k ≤ n
Olhando para a i-ésima coordenada de Ax = λx tem-se:
n n
λx i = ∑ aij x j ≤ xi ⋅ ∑ aij = xi ⇒ λ ≤ 1
j =1 j =1

1.3. Nilpotência
Uma matriz quadrada A nxn é denominada nilpotente quando existe t natural tal que A t = 0 .
Observe que uma matriz é nilpotente se e somente se todos os seus autovalores são nulos.
Demo: Seja x um autovetor associado ao autovalor λ . Então, Ax = λx ⇒ A n x = λn x ⇒ λn = 0 .
A volta pode ser provada facilmente com o teorema de Cayley-Hamilton, que será discutido adiante.

Denomina-se índice de nilpotência o menor inteiro positivo k tal que A k = 0 , e não é difícil provar que nesse
caso tem-se k ≤ n (dica: prove que os vetores x, Ax, A 2 x,..., A k −1 x são LI).
O exemplo mais clássico de matriz nilpotente são as matrizes triangulares que tem zero na diagonal principal
(elas são populares por aparecerem somadas a matrizes diagonais na forma de Jordan).
0 * * * 0 0 * * 0 0 0 *
     
0 0 * * 0 0 0 * 3 0 0 0 0 4
Ex.: A =   . Nesse caso: A = 
2
; A = ;A =0
0 0 0 * 0 0 0 0 0 0 0 0
     
0 0 0 0    0 0 
 0 0 0 0 0 0
(os elementos * representam números não necessariamente nulos).

Exemplo 3. (BPM) Seja A uma matriz nxn tal que tr ( A k ) = 0 para k = 1, 2, ..., n. Mostre que A é nilpotente.
Sugestão: Suponha por absurdo que A tenha autovalores não-nulos λ1 , λ 2 ,..., λ p com multiplicidades
m1 , m2 ,..., m p respectivamente. Procure uma contradição no determinante da matriz associada ao sistema
p
0 = tr ( A k ) = ∑ m j λkj , k = 1,2,..., n ,
j =1
(obs: Use que a soma dos autovalores de uma matriz é igual ao seu traço. Isso será comentado em outro item)

Lista 03 2
Preparação IMC: Álgebra Linear

1.4. Matriz adjunta


Dada uma matriz complexa A, definimos sua adjunta como sendo A* = AT (i.e, o conjugado da matriz
transposta). Observe que quando A tem entradas reais, A* = AT . Uma matriz A é denominada auto-adjunta (ou
hermitiana) quando A = A* (quando A é real isso significa que A é simétrica)..

1.5. Produto escalar


Dados dois vetores complexos (possivelmente reais), podemos definir um produto escalar como:
< x, y >= x * y
1 − i
Por exemplo, quando x =  , y =   temos x * y = 1 ⋅ (−i ) + ( −i ) ⋅ 1 = −2i .
i 1
2
Observe que se λ ∈ C , < λx, y >=< x, λ y >= λ < x, y > e < x, x >= x ≥0
Se A for uma matriz nxn e x um vetor do ℜ , temos como conseqüência da definição (e da propriedade
n

( AB)* = B* A* ) que:
< Ax, x >=< x, A* x >
Obs: Uma matriz A nxn simétrica é denominada positiva definida se <Ax, x> > 0 para todo x não-nulo. Isso é
equivalente a dizer que todos os autovalores de A são positivos. Nesse caso, é possível mostrar que sempre
existe B tal que A = B T B .

Teorema: Uma matriz real simétrica tem todos os seus autovalores reais.
Demo: (o resultado vale para qualquer matriz auto-adjunta):
Seja λ um autovalor de A associado ao autovetor x. Então,
λ < x, x >=< λx, x >=< Ax, x >=< x, A* x >=< x, Ax >=< x, λx >= λ < x, x >
2
Como < x, x >= x ≠ 0 , temos λ = λ .

m
Exemplo 4. Sejam A1, A2, ..., Am matrizes autoadjuntas tais que ∑A k =1
2
k = 0 . Mostre que Ak é nula para todo k.
m m m m 2

Solução: Para todo vetor x: ∑ < Ak2 x, x > = ∑ < Ak x, Ak* x > = ∑ < Ak x, Ak x > = 0 ⇒ ∑ Ak x
k =1 k =1 k =1 k =1
=0
2
Como Ak x ≥ 0 sempre, temos Ak x = 0 para todo x, logo Ak = 0.

2. DIAGONALIZAÇÃO
Uma matriz quadrada A é dita diagonalizável quando existe uma matriz inversível P tal que
D = P −1 AP é diagonal.
Nesse caso, tem-se A = PDP −1 , A 2 = PDP −1 PDPP −1 = PD 2 P −1 , e em geral,
A k = PD k P −1
Isso simplifica enormemente o cálculo de potências de A, pois é fácil ver que
D = diag (λ1 , λ 2 ,..., λ n ) ⇒ D k = diag (λ1k , λk2 ,..., λkn )

Obs: Esse é um problema de extrema importância em álgebra linear, pois sabendo calcular Ak fica fácil
calcular qualquer série formal envolvendo A, como por exemplo polinômios, eA, sen(A), etc.

É importante observar que nem toda matriz é diagonalizável, como ilustra o exemplo abaixo.
0 1
Se A =   = PDP −1 , então 0 = A 2 = PD 2 P −1 ⇒ diag (λ12 , λ22 ) = 0 ⇒ D = 0 ⇒ A = 0 .
 0 0 

Lista 03
Marcio Cohen 3
Álgebra Linear

2.1. Matrizes diagonalizáveis


Uma matriz Anxn é diagonalizável se e somente se possui n autovetores linearmente independentes. Nesse
caso, forma-se P colocando como colunas esses n autovetores e a matriz D = P −1 AP será diagonal com os
autovalores de A na diagonal principal.

Uma condição suficiente para que isso ocorra (mas não necessária) é que A tenha todos os seus autovalores
distintos.

(para detalhes e exemplos sobre diagonalização, visite http://en.wikipedia.org/wiki/Diagonalizable_matrix)

2.2. Teorema Espectral


Seja A uma matriz real e simétrica (ou, mais geralmente, uma matriz autoadjunta). Então A é
diagonalizável, com autovalores reais, e com uma matriz de transição P ortogonal (i.e, os vetores de P são
unitários e ortogonais dois a dois. P −1 = P T ).

(demo em http://en.wikipedia.org/wiki/Spectral_theorem)

n
Exercício 2. (OBM 01) Seja A = (aij) uma matriz real simétrica n x n tal que aii = 1 , ∑a
j =1
ij < 2 para todo i.

Mostre que 0 ≤ det A ≤ 1 .

Exercício 3. (BPM) Seja A uma matriz real, simétrica e positiva definida. Seja y ∈ ℜ n um vetor não-nulo.
y T A n +1 y
Mostre que lim existe e é um autovalor de A.
n →∞ y T An y

3. TEOREMA MIN-MAX
Seja A uma matriz real e simétrica. Sejam λ1 ≥ λ 2 ≥ ... ≥ λ n seus autovalores (eles são reais pelo teorema
espectral). Então,
 < Ax, x > 
λk = min  max 

dim S = n − k +1
x∈S < x, x > 
(ou seja: Fixe um subespaço S de dimensão n – k + 1. Olhe para r(S) = máximo da expressão <Ax, x> quando x é
um vetor unitário de S. O autovalor em questão é o mínimo dentre os r quando variamos S).

Exemplo 5. (OBM 04) Seja X uma matriz real inversível de ordem n e XT sua transposta. Sejam
λ1 ≥ λ 2 ≥ ... ≥ λ n ≥ 0 os autovalores de XTX. Definimos a norma de X por X = λ1 e o fator de dilatação
λ1 AB
de A por d ( X ) = . Mostre que, para quaisquer matrizes A e B inversíveis, d ( AB ) ≥ ⋅ d ( B)
λ2 A⋅ B
Solução (por Alex Abreu):
Sejam λ1 ≥ λ 2 ≥ ... ≥ λ n > 0; β 1 ≥ β 2 ≥ ... ≥ β n > 0; α 1 ≥ α 2 ≥ ... ≥ α n > 0 os autovalores de AB, B e
A respectivamente. A desigualdade pedida é claramente equivalente a λ 2 ≤ α 1 ⋅ β 2 .
Como XTX é sempre simétrica e < X T Xu, u >=< Xu , Xu > , temos pelo teorema do min-max que:
 < ABx, ABx > < Bx, Bx > 
λ2 = min  max ⋅ 
dim S = n −1
 x∈S < Bx, Bx > < x, x > 
Por outro lado, como só há um subespaço de dimensão n (e ele inclui todos os vetores) temos:
< Ax, Ax >  < Bx, Bx > 
α 1 = max , e β 2 = min  max .
x∈R n < x, x > dim S = n −1
 x∈S < x, x > 

Lista 03 4
Preparação IMC: Álgebra Linear

< Bx, Bx >


Seja S o subespaço no qual β 2 é atingido, i.e, β 2 = max .
x∈S < x, x >
Temos então:
 < ABx, ABx > < Bx, Bx >  < ABx, ABx > < Bx, Bx >
λ 2 ≤ max ⋅  ≤ max ⋅ max ,
x∈S
 < Bx, Bx > < x, x >  x∈S < Bx, Bx > x∈S < x, x >
(usamos respectivamente que o mínimo é ≤ que qualquer elemento do conjunto e max(uv) ≤ max u ⋅ max v )
O segundo termo do produto é exatamente β 2 . Fazendo x ' = Bx e notando que B ( S ) ⊂ R n , tem-se:
< ABx, ABx >
max ≤ α 1 , e juntando tudo vem λ 2 ≤ α 1 ⋅ β 2
x∈S < Ax, Ax >

Exercício 4. (BPM) Seja A uma matriz real simétrica com entradas não-negativas. Mostre que A tem um
autovetor com entradas não-negativas.
Sugestão: Olhe para o maior autovalor de A.

4. POLINÔMIO CARACTERÍSTICO
Dada uma matriz A, o polinômio
p A ( x) = det( A − xI ) = a 0 x n + a1 x n −1 + ... + a n
é denominado polinômio característico de A. Suas raízes λ1 , λ 2 ,..., λ n são exatamente os autovalores de A.
Observando o polinômio característico, é fácil provar que
tr ( A) = λ1 + λ 2 + ... + λ n
det( A) = λ1 ⋅ λ 2 ⋅ ... ⋅ λ n
(basta observar que só a diagonal principal afeta a0 e a1,dando a 0 = (−1) n , a1 = (−1) n −1 tr ( A), a n = det A )
Um outro resultado interessante é que p AB ( x) = p BA ( x) , ou seja, AB e BA sempre têm o mesmo polinômio
característico.

An
Exemplo 6. (IMC 00) Para toda matriz A real, defina e A = ∑
n =0 n!
. Prove ou disprove que para todo polinômio
AB BA
real P(x), P (e ) é nilpotente se e somente se P (e ) também for.
Solução (por Rodrigo Villard):

Lema:Se λ é autovalor de V e temos uma série de potência f (t ) = ∑α
k =0
k t k , então f (λ ) é autovalor de f (V )

Demo: Existe v tal que V x = λ x . Segue que V x = λ x para todo k e, como conseqüência,
k k

 ∞   ∞  ∞
 ∑ α k V k  ⋅ x =  ∑ α k λk  ⋅ x . Ou seja, se f (t ) = ∑ α k t k , então f (V )⋅ x = f (λ ) ⋅ x .
 k =0   k =0  k =0
Mais geralmente, podemos provar (olhando as derivadas) que a multiplicidade desse autovalor em V é a mesma
que em f(V).

Sabemos que AB e BA tem o mesmo polinômio característico (e portanto os mesmos autovalores). Aplicando
o lema na série de potência de f (t ) = e t , concluímos que e AB e e BA tem o mesmo polinômio característico (e
portanto os mesmos autovalores). Aplicando agora o lema em no polinômio p, concluímos que p (e AB ) e
p (e BA ) também têm o mesmo polinômio característico. Como uma matriz N é nilpotente se e somente se
p N ( x) = x n , o resultado está demonstrado.

Lista 03
Marcio Cohen 5
Álgebra Linear

4.1. Cayley-Hamilton
Toda matriz é anulada pelo seu polinômio característico. Na notação acima, isso significa dizer que
a 0 A n + a1 A n −1 + ... + a n I = 0 , onde I é a identidade.
Esse teorema fornece uma outra maneira de se calcular potências de A.
3 2
Exemplo 7. Seja A =   . Calcule A100.
3 4
Solução: O polinômio característico de A é p A ( x) = x 2 − 7 x + 6 . Fazendo a divisão euclidiana de polinômios:
6100 − 1 6 − 6100
x100 = ( x 2 − 7 x + 6) ⋅ q ( x) + αx + β , sendo α = ;β = .
5 5
Como potências de uma mesma matriz sempre comutam, podemos escrever
A100 = ( A 2 − 7 A + 6 I ) ⋅ q ( A) + α ⋅ A + β , onde q é um polinômio.
Pelo teorema, A 2 − 7 A + 6 I = 0 e portanto A100 = αA + β .

4.2. Polinômio Minimal


É o polinômio mônico µ (x ) de menor grau que anula a matriz (sua existência está assegurada pelo teorema
anterior).
Temos os seguintes resultados muito importantes associados a esse polinômio:
I. Se um polinômio p anula a matriz A, então µ ( x) divide p ( x) . Em particular, µ | p A .
II. Todo autovalor de A é raiz de µ ( x)
III. A é diagonalizável se e somente se µ ( x) só admite raízes simples.
(I e II implicam que µ ( x ) divide pA sem perder raízes)

Exemplo 8. (BPM) Seja A uma matriz real simétrica tal que A 5 + A 3 + A = 3I . Mostre que A = I.
Solução: Vamos encontrar o polinômio minimal de A.
Como A é real e simétrica, todos os seus autovalores são reais e portanto as raízes de µ ( x) são reais.
Como o polinômio p ( x) = x 5 + x 3 + x − 3 anula a matriz, ele é múltiplo de µ ( x ) .
Mas a única raiz real de p é x = 1 ( p (1) = 0 e p ' ( x) = 5 x 2 + 3 x 2 + 1 > 0 ∀x ), logo µ ( x ) = x − 1 e como µ
anula a matriz, deve-se ter A − I = 0 ∴ A = I

Exercício 5. (IMC 03) Seja A uma matriz real tal que 3 A 3 = A 2 + A + I . Mostre que A k converge para uma
matriz idempotente (i.e, uma matriz B tal que B2 = B).

5. FORMA CANÔNICA DE JORDAN


Quando A não é diagonalizável, o ideal é conseguir uma mudança de base de tal forma que a matriz P −1 AP
seja a mais próximo possível de uma matriz diagonal. Isso é exatamente o que faremos agora.
Uma matriz Tk (λ ) kxk é considerada um bloco de Jordan associado ao autovalor λ quando seus únicos
elementos não-nulos estão na sua diagonal principal (e valem λ ) e nos elementos imediatamente acima (valendo
1) (i.e, t ii = λ , t i ,i +1 = 1 e os demais são nulos).
λ 1 0 0 
λ 1 0   
λ 1    0 λ 1 0
Por exemplo, T1 (λ ) = (λ ); T2 (λ ) =  ; T3 (λ ) =  0 λ 1 ; T4 (λ ) = 
0 λ 0 0 λ 0 0 λ 1
   
0 0 0 λ
 

Lista 03 6
Preparação IMC: Álgebra Linear

Chamaremos de matriz de Jordan uma matriz J (Tk1 (λ1 ); Tk 2 (λ 2 ),..., Tk j (λ j )) formada por
blocos de Jordan na sua diagonal principal e 0 no resto. Por exemplo,
λ 1 0 0
 
0 λ 0 0
J (T2 (λ ), T1 (λ ), T1 ( µ )) =  .
0 0 λ 0
 
0 0 0 µ 

Teorema: Toda matriz complexa pode ser expressa como A = PJP −1 , onde J é uma matriz de Jordan.

Não é fácil determinar os tamanhos dos blocos de Jordan da sua matriz (e na maioria das vezes você não vai
precisar disso). A dimensão do maior bloco de Jordan associado a λ é a multiplicidade dessa raiz no polinômio
minimal da matriz.
Por exemplo, se p A ( x) = ( x − 2) 5 ( x − 3) 2 , temos que para µ1 ( x) = ( x − 2) 3 ( x − 3) uma J possível é
2 1 0 0 0 0 0 2 1 0 0 0 0 0
   
0 2 1 0 0 0 0 0 2 1 0 0 0 0
0 0 2 0 0 0 0  0 0 2 0 0 0 0
   
J1 =  0 0 0 2 0 0 0  . Outra é J 2 =  0 0 0 2 1 0 0 .
0 0 0 0 2 0 0  0 0 0 0 2 0 0 
 
0 0 0 0 0 3 0 0 0 0 0 0 3 0
   
0 0 0 0 0 0 3 0 0 0 0 0 0 3

Obs: Na maior parte dos problemas você não vai precisar calcular a forma de Jordan explicitamente. Mas para alguns
exemplos e uma explicação mais detalhada você pode consultar http://www.maths.gla.ac.uk/~tl/minimal.pdf

Exemplo 9. (IMC 00) Sejam A e B matrizes quadradas de mesma dimensão tais que rank ( AB − BA) = 1 .
Mostre que ( AB − BA) 2 = 0 .
(Solução oficial): Como o posto (rank) de X = AB – BA é um, no máximo um autovalor da matriz pode ser não-
nulo. Como Tr ( X ) = Tr ( AB) − Tr ( BA) = 0 é a soma dos autovalores de X, todos eles precisam ser nulos.
Colocando X na sua forma de Jordan (os autovalores entram na diagonal) temos X = PDP −1 .
D não pode ter um bloco de tamanho maior que 2 (porque isso significaria 2 colunas independentes,
contradizendo a hipótese posto(X) = 1).
0 1
Como J 2 (0) =   ⇒ J 2 2 = 0 , temos que D2 = 0, logo X 2 = PD 2 P −1 = 0 .
 0 0

Exercício 6. Seja A uma matriz quadrada complexa inversível. Mostre que existe B tal que B 2 = A

Exercício 7. (Vietnam 03) Seja A uma matriz quadrada tal que A 2003 = 0 . Mostre que
rank ( A) = rank ( A + A 2 + A 3 + ... + A n ) para todo n.

6. LISTA DE PROBLEMAS

1. (IMC 97) Seja M uma matriz inversível 2n x 2n, cuja representação por blocos é
A B E F
M =  , M −1 =  . Mostre que detM.detH = detA.
C D  G H 

Lista 03
Marcio Cohen 7
Álgebra Linear

2. (Putnam 85) Seja G um grupo finito de matrizes reais nxn {Mi}, 1 ≤ i ≤ r com o produto de matrizes
r r
tradicional. Suponha que ∑ tr (M i ) = 0 para todo i. Mostre que
i =1
∑M
i =1
i é a matriz nula.

3. (COM 04) Sejam A, B duas matrizes n x n com entradas reais tais que para qualquer matriz X nxn se tem
det(A+X) = det(B+X). Mostre que A = B.

4. Seja A uma matriz complexa satisfazendo a equação Ar = I, r natural não-nulo. Mostre que trA ≤ n

5. Seja T : R m → R m um operador linear de posto 1. Demonstre que T é diagonalizável ou nilpotente.


(Sugestão: Use que toda matriz A de posto 1 pode ser escrita como A = xy T , onde x e y são vetores coluna)

6. (BPM) Seja A 2x2 com coordenadas inteiras e suponha que exista n tal que A n = I . Mostre que A12 = I .

7. (Romênia) Seja A uma matriz complexa de dimensão n ≥ 2 com posto r, 1 ≤ r ≤ n − 1 .


a) Mostre que existem matrizes B e C , ambas de posto r, tais que A = BC .
b) Mostre que a matriz A se anula para um polinômio de grau r + 1 com coeficientes complexos.
Solução em http://www.artofproblemsolving.com/Forum/post-8060.html

8. (Putnam 96) Dada uma matriz quadrada A, definimos senA pela série de potências

(−1) n
senA = ∑ A 2 n +1 .
n = 0 ( 2n + 1)!

 1 1996 
Prove ou disprove: Existe matriz real A tal que senA =  .
0 1 
9. (Vojtech 03) Duas matrizes quadradas reais A e B são tais que A 2002 = B 2003 = I e AB = BA.
Mostre que A + B + I é inversível.

10. (VJ03) Sejam A e B matrizes hermitianas 2x2 com autovalores (a1, a2) e (b1,b2) respectivamente. Determine
todos os possíveis pares (c1, c2) de autovalores da matriz A+B.

7. REFERÊNCIAS

1. Linear Algebra Problem Book, Paul Halmos (leitura recomendada para os iniciantes).
2. Berkley Problems in Mathematics, Paulo Ney e Jorge Nuno Silva.
3. The William Lowell Putnam Mathematical Competition 1985-2000
4. The William Lowell Putnam Mathematical Competition 1965-1984
5. http://en.wikipedia.org
6.. Vojtech Varnik Competition: http://prf.osu.cz/kma/dokumenty/vjaimc/j--list.html
7. IMC: http://www.imc-math.org.br
8.. Olimpíada Colombiana Universitária: http://olimpia.uanarino.edu.co/ocmu/ocmu.htm

Lista 03 8

Você também pode gostar