Teorema de Cayley-Hamilton

julho 26, 2013

Um enunciado e demonstração bacana de que o polinômio característico de uma transformação linear A anula essa transformação, em outras palavras:

Teorema. (A - \lambda_1)(A - \lambda_2) \ldots (A-\lambda_n) = 0

onde A é uma transformação linear de um espaço vetorial complexo de dimensão n com autovalores \lambda_1, \lambda_2, \ldots, \lambda_n (com possíveis repetições).

Demonstração. Escolha uma base e_1, e_2, e_3, \ldots na qual a matriz de A é triangular superior de modo que

A =\begin{pmatrix} \lambda_1 & * & * & \cdots \\ & \lambda_2 & * & \cdots \\ & & \lambda_3 & \cdots \\ & & & \ddots \end{pmatrix}

e então

\begin{array}{r}  (A-\lambda_1)(A-\lambda_2) (A-\lambda_3) \ldots = \\  \begin{pmatrix}  0 & * & * & \cdots \\ & * & * & \cdots \\ & & * & \cdots \\ & & & \ddots  \end{pmatrix}  \begin{pmatrix}  * & * & * & \cdots \\ & 0 & * & \cdots \\ & & * & \cdots \\ & & & \ddots  \end{pmatrix}  \begin{pmatrix}  * & * & * & \cdots \\ & * & * & \cdots \\ & & 0 & \cdots \\ & & & \ddots  \end{pmatrix}  \ldots  \end{array}
onde a ordem dos fatores no produto pode ser trocada.

Calculando em e_1 temos que

\begin{array}{rcl}  \ldots (A-\lambda_1) e_1 & = & \\  \begin{pmatrix}  0 & * & * & \cdots \\ & * & * & \cdots \\ & & * & \cdots \\ & & & \ddots  \end{pmatrix} e_1 & = & 0  \end{array}

Calculando em e_2 temos que

\begin{array}{rcl}  \ldots (A-\lambda_1)(A-\lambda_2) e_2 & = & \\  \ldots (A-\lambda_1) \begin{pmatrix} * & * & * & \cdots \\ & 0 & * & \cdots \\ & & * & \cdots \\ & & & \ddots \end{pmatrix} e_2 & = & \\  \ldots (A-\lambda_1) * e_1 & = & 0  \end{array}

Calculando em e_3 temos que

\begin{array}{rcl}  \ldots (A-\lambda_1)(A-\lambda_2)(A-\lambda_3) e_3 & = & \\  \ldots (A-\lambda_1) (A-\lambda_2) \begin{pmatrix} * & * & * & \cdots \\ & * & * & \cdots \\ & & 0 & \cdots \\ & & & \ddots \end{pmatrix} e_3 & = & \\  \ldots (A-\lambda_1)(A-\lambda_2) * e_1 + * e_2 & = & 0  \end{array}

E assim em diante, calculado na base e_1, e_2, e_3, \ldots, e_n esse produto dá zero, logo o produto é a matriz zero. \square

Algumas considerações:

  • A demonstração formal seria por indução e com alguns detalhes a mais, mas acredito que a demonstração acima ilustra bem as ideias e, o mais bacana, deixa claro porque as coisas funcionam!
  • Os dois tipos de demonstração que eu conhecia disso eram: via matriz de cofatores (é feia, se presta a generalizações para matriz sobre anéis, mas é algébrica demais), via densidade de matrizes complexas diagonalizáveis (é bacana, mas usa topologia e continuidade e pressupõe mais maturidade). Essa aqui usa apenas coisas básicas de álgebra linear mas é geral suficiente para matrizes sobre corpos (tomando o fecho algébrico do corpo). É claro que teria que depois argumentar porque o teorema também vale para matrizes reais.
  • Nunca ensinei Álgebra Linear, mas em termos da sequência de assuntos, imagino assim: dentro do tópico de subespaços invariantes e formas normais de transformações 1) definição de autovetor e autovalor, 2) definição de polinômio característico. Daqui em diante num espaço vetorial complexo: 3) existência de $n$ autovalores complexos (raízes do polinômio característico), 4) existência de pelo menos um autovetor para cada autovalor distinto, 5) a existência de uma uma base na qual a matriz de uma transformação é triangular superior: consequência da existência de autovetor, pode ser feita mais concretamente com matrizes ou mais abstratamente com espaços e transformações quocientes, na forma triangular superior os autovalores aparecem na diagonal.
  • A forma triangular superior de uma transformação pode ser  a primeira forma normal (também conhecida como forma de Schür), que depois poderia ser refinada para a forma de Jordan. Note que a forma de Schür pode motivar a definição de autoespaços generalizados.
Anúncios

EDOs lineares de coeficientes constantes via Álgebra Linear

dezembro 26, 2012

Sempre ouvi falar que a solução de EDOs lineares homogêneas de coeficientes constantes bem como o Método dos Coeficientes a Determinar pode ser feita como aplicação de ferramentas de Álgebra Linear.

Como não achei isso feito explicitamente, escrevi essas notas disponíveis clicando aqui.  Achei bem interessante ver que todos os casos acabam sendo reduzidos aos casos

y^{(n)} = 0 ou y^{(n)} = polinômio,

que tem solução geral polinomial 😀  Gostei especialmente da demonstração dos Coeficientes a Determinar no caso em que o termo não-homogêneo é um polinômio.

Alguém sabe onde isso é feito explicitamente? Eu achei algumas coisas dispersas na Internet aqui e aqui mas elas escondem a Álgebra Linear.

Do jeito que está acho que algumas coisas daqui podem ser usadas como exercícios para um curso de Álgebra Linear.  Acho que algumas coisas também podem ser adaptadas para um curso de EDO para uma turma mais interessada, como é feito nos links da Internet que pus no parágrafo anterior.

Correções, comentários e contribuições são sempre bem-vindos!


União de subespaços vetoriais.

agosto 31, 2012

O objetivo desse post é demonstrar o seguinte resultado de Álgebra Linear, que usamos o tempo todo mas que frequentemente não paramos para provar.

Teorema: Sejam V um espaço vetorial de dimensão finita sobre um corpo infinito \mathbb K e tome V_1,\dots, V_n\subseteq V subespaços vetoriais. Então, V_1\cup\cdots\cup V_n é um subespaço de V se, e só se, um dos V_i‘s contém todos os outros.

Antes de prová-lo, vejamos a consequência do Teorema que nos interessa.

Corolário: Sejam V um espaço vetorial de dimensão finita sobre um corpo infinito \mathbb K e tome f_1,\dots,f_n\in V^* não nulos. Então, existe v\in V tal que f_i(v)\neq 0 para todo i=1,\dots,n.

(Uma versão desse resultado é um exercício do Hoffman-Kunze.)

Para provar esse Corolário, consideramos os subespaços V_i:=\ker f_i. É preciso mostrar que V_1\cup\cdots\cup V_n\subsetneq V, e fazemos isso supondo o contrário. Então, V_1\cup\cdots\cup V_n = V é um subespaço vetorial de V, e pelo Teorema isso significa que, para algum V_i, V_i\supseteq V_j para todo j=1,\dots,n. Portanto, V=V_1\cup\cdots\cup V_n=V_i=\ker f_i, ou seja, f_i=0. Como supomos cada f_j\neq0, obtemos um absurdo.

(Para quem não sabe, a gente usa esse Corolário para produzir elementos regulares e completamente regulares em álgebras de Lie semissimples. No primeiro caso, os funcionais considerados são as raízes, e no segundo as diferenças entre elas.)

Demonstração do Teorema: (\Leftarrow) Imediato. (\Rightarrow) Se V_i\subseteq V_1\cup\cdots\cup\widehat{V_i}\cup\cdots\cup V_n para algum i, então podemos excluir o subespaço V_i da lista pois ele não contribui para a união V_1\cup\cdots\cup V_n. Logo, podemos supor, sem perda de generalidade, que V_1\nsubseteq V_2\cup\cdots\cup V_n. Vamos provar que V_i\subseteq V_1 para todo i. Seja v_0\in V_1\backslash(V_2\cup\cdots\cup V_n), e tomemos v\in V_2\cup\cdots\cup V_n qualquer. Como V_1\cup\cdots\cup V_n é subespaço e u_0,v\in V_1\cup\cdots\cup V_n, então ku_0+v\in V_1\cup\cdots\cup V_n para todo k\in\mathbb K. Logo, para cada k, ou kv_0+v\in V_1 ou kv_0+v\in V_2\cup\cdots\cup V_n.

\vdash k_0v_0+v\in V_1 para algum k_0\in\mathbb K.

Como v_0\notin V_2\cup\cdots\cup V_n, então para cada 2\leq i\leq n podemos escolher f_i\in V_i^0 tal que f_i(v_0)\neq 0, em que W^0:=\{f\in V^*:\forall w\in W,\, f(w)=0\} para cada W\subseteq V. (Isso porque \dim_\mathbb K V<\infty.) Consideremos o polinômio p(k)=\prod_{i=2}^n f_i(kv_0+v) = \prod_{i=2}^n \big(f_i(v_0)k+f_i(v)\big), e notemos que seu termo dominante é \left[\prod_{i=2}^n f_i(v_0)\right]k^{n-1}\neq 0. Com isso, p é não nulo de grau n-1, e portanto possui uma quantidade finita de raízes. Como \mathbb K é infinito, segue que existe k_0\in\mathbb K tal que p(k_0)\neq 0, i.e., tal que f_i(k_0v_0+v)\neq0 para todo 2\leq i\leq n, i.e., tal que k_0v_0+v\notin V_2\cup\cdots\cup V_n. Portanto, k_0v_0+v\in V_1. \dashv

Por fim, como v_0\in V_1 e k_0v_0+v\in V_1, temos v\in V_1. QED

(No caso em que \mathbb K é algebricamente fechado, dá para fazer uma demonstração bem curtinha desse Teorema usando a noção de redutibilidade de uma variedade algébrica. Mas isso envolve o Nullstellensatz e, honestamente, é usar canhão para matar mosca.)

Considerações finais.

  1. Obtive essa prova tentando emular a demonstração, mais simples, do caso n=2 (que também vale para corpos finitos). Nessa situação, V_2\cup\cdots\cup V_n=V_2 é um subespaço e o argumento envolvendo polinômios é desnecessário: se v_0\in V_1\backslash V_2 e v\in V_2, então v_0+v\in V_2 implica v_0=(v_0+v)-v\in V_2 e obtemos imediatamente que v_0+v\in V_1. Por outro lado, quando tentamos generalizar isso para n\geq3, esbarramos no problema que, em geral, V_2\cup\cdots\cup V_n não é subespaço, e v_0=(v_0+v)-v pode não estar em V_2\cup\cdots\cup V_n (e frequentemente este é o caso).
  2. Como contraexemplo, temos o espaço vetorial V=\mathbb Z_2\times\mathbb Z_2 sobre (o corpo finito) \mathbb Z_2. Tomando V_1=\{0;(1,0)\}, V_2=\{0;(1,1)\} e V_3=\{0;(0,1)\}, é imediato que V_1,V_2,V_3 são subespaços e que V=V_1\cup V_2\cup V_3.
  3. Para provar o Corolário diretamente, procede-se de maneira análoga à demonstração do Teorema, mas a passagem com anuladores não é necessária, o que faz com que o Corolário valha mesmo que \dim V=\infty.

Quem tiver correções ou comentários, é só postar um comentário abaixo. 😛


Uma breve história da decomposição de Bruhat

junho 24, 2011

Olá pessoal,

Achei curiosa essas anotações de uma palestra do Lusztig que envio em anexo: na Seção 2 que ele fala rapidamente da história da decomposição de Bruhat desde Gauss e os chineses 🙂

Lusztig – BRUHAT DECOMPOSITION AND APPLICATIONS

PS – Talvez alguém se interesse também pela Seção 4, na qual ele menciona as classes de conjugação nilpotentes dentre de um grupo semisimples G.  Esse assunto está relacionado com a generalização da forma canônica de Jordan para G e eu gostaria de saber mais sobre ele…

 


Base "canônica" para formas simpléticas.

maio 9, 2010

Inspirados nas propriedades dos determinantes de matrizes 2 \times 2, definimos o que seria uma forma simplética.

Definição 1: Dado um espaço vetorial de dimensão finita V, uma forma simplética sobre V é uma aplicação \Omega: V \times V \rightarrow \mathbb{R} que é bilinear, anti-simétrica e não degenerada. Dizemos que (V, \Omega) é um espaço vetorial simplético.

Dizer que \Omega é anti-simétrica, significa dizer que \Omega(x,y) = -\Omega(y,x). E isso implica em particular que \Omega(x,x) = 0. Dizer que \Omega é não degenerada, é o mesmo que dizer que para cada x \in V não nulo fixado, o funcional linear \Omega(x, \cdot): y \mapsto \Omega(x, y) não é identicamente nulo. Em outras palavras, para todo x \in V não nulo, existe y \in V tal que \Omega(x, y) \neq 0.

As formas simpléticas possuem algumas semelhanças com o produto interno (nos reais). Por exemplo, se fixarmos uma das coordenadas obtemos um funcional linear. O produto interno também é não degenerado. Com o produto interno, podemos construir uma base ortonormal. A grande vantagem da base ortonormal, é que o produto interno assume sempre a mesma forma (\sum x_i y_i) quando os vetores estão escritos nesta base. Neste post, mostraremos que as formas simpléticas possuem propriedade semelhante.

Primeiro, para fazer as coisas a la André, vamos para algumas definições, propriedades e caracterizações. 🙂

Uma diferença entre as formas simpléticas e o produto interno, é que no caso do produto interno, dado um subespaço W \subset V, a restrição do produto interno a W \times W continuava sendo um produto interno, desta vez sobre W. No caso de uma forma simplética \Omega, nem sempre temos que \Omega |_{W \times W} é uma forma simplética de W. Quando o for, dizemos que W é simplético.

Definição 2: Seja (V, \Omega) é simplético e W \subset V. Se (W, \Omega|_{W \times W}) é uma forma simplética (ou seja, é não degenerada), dizemos que W é um subespaço simplético.

Definição 3: Dado um espaço vetorial simplético (V, \Omega), defina \tilde{\Omega}: V \rightarrow V^* a aplicação \tilde{\Omega}(x) \mapsto \Omega(x, \cdot).

Note que dizer que \Omega é não degenerado, é o mesmo que dizer que \ker(\tilde{\Omega}) = \{0\}.

Lema 1: A aplicação \tilde{\Omega} é bijetiva.

Demonstração: De fato, pela observação acima, a aplicação é injetiva. Como \dim(V) = \dim(V^*), a aplicação é também sobrejetiva.


Definição 4: Dado um subespaço W \subset V, definimos W^\Omega = \{v \in V | \text{para todo } w \in W,\, \Omega(v,w) = 0\}. Este é o subespaço ortogonal a W.

Note, que diferentemente do caso do produto interno, não é sempre verdade que V = W \oplus W^\Omega, pois é possível que W \cap W^\Omega \neq \{0\}. Nosso primeiro resultado interessante será justamente o fato de que V = W \oplus W^\Omega sempre que, e apenas quando, W for simplético. (proposição 1)

Lema 2: Vale que \dim(V) = \dim(W) + \dim(W^\Omega).

Demonstração: Considere a aplicação \tilde{\Omega}_W: V \rightarrow W^* dada por \tilde{\Omega}_W(v) = \tilde{\Omega}(v)|_{W}. Ou seja, é a composição de \tilde{\Omega} com a restrição em W. Note que \ker(\tilde{\Omega}_W) = W^\Omega. Se mostrarmos que \tilde{\Omega}_W é sobrejetiva, teremos que \dim(V) = \dim(W^*) + \dim(W^\Omega). Como \dim(W^*) = \dim(W), isso concluiria a demonstração.

Sabemos pelo lema 1 que \tilde{\Omega} é sobrejetiva. Assim, dizer que \tilde{\Omega}_W é sobrejetiva é o mesmo que dizer que todo funcional linear em W é a restrição de algum funcional linear em V. Em outras palavras, é o mesmo que dizer que todo funcional em W pode ser estendido a V. Este fato é verdadeiro. De fato, basta estender uma base de W a uma base de V e definir arbitrariamente o funcional nos “novos vetores da base”. (ficou um bocado informal… formalize isso por conta própria :-P)


Observação: Uma das consequências do lema 2, é que (W^\Omega)^\Omega = W. (verifique)

Proposição 1: O subespaço W \subset V é simplético \Leftrightarrow W \cap W^\Omega = \{0\} \Leftrightarrow V = W \oplus W^\Omega \Leftrightarrow V = W + W^\Omega.

Demonstração: A equivalência entre as três últimas condições é consequência direta do lema 2. Observe que dizer que W é simplético é o mesmo que dizer que W \cap W^\Omega = \{0\}. E isso concluí a demonstração! 🙂


E finalmente…

Teorema: Seja (V, \Omega) um espaço vetorial simplético. Então existe uma base de V dada por vetores e_1, \dotsc, e_n, f_1, \dotsc, f_n tais que para todo i, j = 1, \dotsc, n, temos que \Omega(e_i, e_j) = \Omega(f_i, f_j) = 0 e \Omega(e_i, f_j) = \delta_{ij}. Em particular, todo espaço vetorial simplético tem dimensão par.

Demonstração:

Afirmação 1: Se W \subset V é simplético, então W^\Omega também é simplético.

A afirmação é consequência imediata da proposição 1.

Afirmação 2: Dado um espaço vetorial simplético (V', \Omega') qualquer, sempre existem e, f \in V' linearmente independentes, tais que \Omega(e,f) = 1. Neste caso, o subespaço \left<e, f\right> é simplético.

Tome e \in V' não nulo. Pela não degenerescência de \Omega' existe g \in V' tal que \Omega'(e, g) = \alpha \neq 0. Basta então tomar f = \frac{g}{\alpha}. Note que e, f são linearmente independentes, pois caso contrário teríamos \Omega'(e,f) = 0. É fácil ver que o subespaço gerado será simplético.

Afirmação 3: Se W \subset V é simplético e U \subset W^\Omega também é simplético, então W + U é simplético. Neste caso, W + U = W \oplus U, pois W \cap U \subset W \cap W^\Omega = \{0\}.

Tome w + u \in W + U. Então existem w' \in W e u' \in U tais que \Omega(w,w') = \Omega(u,u') = 1. Assim, \Omega(w+u, w'+u') = \Omega(w,w') + \Omega(u,w') + \Omega(w,u') + \Omega(u,u') = \Omega(w,w') + \Omega(u,u') = 2 \neq 0.

Considere a família \mathcal{F} de todos os subespaços V' \subset V simpléticos tais que o teorema vale para V'. Note que essa família é não vazia pela afirmação 2. Tome W \in \mathcal{F} maximal. Basta então mostrar que W = V.

Não fosse o caso, pelo lema 2, teríamos W^\Omega \neq \{0\}. Pela afirmação 1, W^\Omega é simplético. Agora, pela afirmação 2, podemos encontrar e, f \in W^\Omega tais que \Omega(e, f) = 1 e \left<e, f\right> \subset W^\Omega é simplético. No entanto, pela afirmação 3, W' = W \oplus \left<e, f\right> é simplético, contradizendo a maximalidade de W. (verifique que W' satisfaz as condições do teorema)


Lei dos Paralelogramos e Lei dos Cossenos.

abril 23, 2010

A Lei dos Cossenos pode ser reformulada sem o uso de ângulo ou produto interno, assumindo o formato conhecido como Lei dos Paralelogramos.

Seja E um espaço vetorial munido de um produto interno (\cdot,\cdot ), a Lei dos Cossenos pode ser enunciada assim:

{\| b\| }^{2}+{\| a\| }^{2} -2 \| a \| . \| b \| cos(\theta ) = \| a-b \| ^2(Lei dos Cossenos)

Onde cos(\theta )=\frac{(a,b)}{\| a \| . \| b \|},a,b\in E

Mas,

(a,b)=\frac{{\| a+b\| }^2- \| a\| ^2-\| b\| ^2 }{2}

Assim, a Lei dos Cossenos fica,

{\| a \| } ^2+ {\| b\| }^2 -{\| a+b \| }^2+{\|a\| }^2 +{\|b\| }^2={\| a-b\| }^2

Isto é,

2{\| a\| }^2+2{\| b\| }^2 ={\| a+b\| }^2+{\| a-b\| }^2(Lei dos Paralelogramos)

A argumentação acima mostra que em um espaço vetorial E munido de um produto interno (\cdot ,\cdot ) a Lei dos Paralelogramos é exatamente a Lei dos Cossenos. A primeira vista somos levados a imaginar que a Lei dos paralelogramos pode ser válida em um espaço Vetorial normado E, com norma \| \cdot \|, no qual não vale a Lei dos Cossenos. Surpreendentemete, veremos que ainda assim a Lei dos parelelogramos é exatamentea a Lei dos Cossenos.

Theorema: Seja E um espaço vetorial normado com norma \| \cdot \|, no qual vale,

2{\| a\| }^2+2{\| b\| }^2 ={\| a+b\| }^2+{\| a-b\| }^2(Lei dos Paralelogramos)

Para todo a,b\in E.

Então \| a\|=\sqrt (a,a) para algum produto interno (\cdot ,\cdot )  em E.

Demonstração: Se  \| a\|=\sqrt (a,a) algum produto interno (\cdot ,\cdot )  em E, então,

(a,b)=\frac{{\| a+b\| }^2- \| a\| ^2-\| b\| ^2 }{2}

Basta então mostrar (\cdot ,\cdot ) dado pele equação acima  é um produto interno em E.

Ou seja,

(i)(\cdot ,\cdot ) é simétrica.

Isso é claro  da sua definição.

(ii)(a ,a )\geq 0, a\in E e (a,a)=0 se e somente se a=0

Isso é claro, pois pela definição (a ,a )=\| a\| ^2

(iii)(\cdot ,\cdot ) é bilinear.

De fato, sejam a, a',b \in E, e vejamos que, (a,b)+(a',b)=(a+a',b)

(a,b)+(a',b)=\frac{{\| a+b\| }^2- \| a\| ^2-\| b\| ^2 }{2}+\frac{{\| a'+b\| }^2- \| a'\| ^2-\| b\| ^2 }{2}=

\frac{{\| a+b\| }^2+{\| a'+b\| }^2- \| a\| ^2-\| b\| ^2- {\| a'\| }^2-\| b\| ^2 }{2}=

\frac{{\frac{{\| a+b+a'+b\| }^2+ \| a-a'\| ^2}{2}}- \| a\| ^2-\| b\| ^2- {\| a'\| }^2-\| b\| ^2 }{2}

Mas pela Lei dos Paralelogramos, segue que,

{\| (a+a'+b)+b\| }^2=2{\| a+a'+b\| }^2+2{\| b\|}^2-{\| a+a'\| }^2

Substituindo na última expressão obtemos:

\frac{{\frac{2{\| a+a'+b\| }^2+2{\| b\|}^2-{\| a+a'\| }^2+ \| a-a'\| ^2}{2}}- \| a\| ^2-\| b\| ^2- {\| a'\| }^2-\| b\| ^2 }{2}=

\frac{{{\| a+a'+b\| }^2+{\| b\|}^2+\frac{-{\| a+a'\| }^2+ \| a-a'\| ^2}{2}}- \| a\| ^2-\| b\| ^2- {\| a'\| }^2-\| b\| ^2 }{2}=

Mas pela Lei dos Paralelogramos, segue que,

{\| a-a'\| }^2=-{\|a+a'\| }^2+{\| a\| }^2+2{\| a'\| }^2

Substituindo na última expressão obtemos:

\frac{{{\| a+a'+b\| }^2+{\| b\|}^2+\frac{-{\| a+a'\| }^2-{\|a+a'\| }^2+2{\| a\| }^2+2{\| a'\| }^2}{2}}- \| a\| ^2-\| b\| ^2- {\| a'\| }^2-\| b\| ^2 }{2}=

\frac{{{\| a+a'+b\| }^2+{\| b\|}^2{-{\|a+a'\| }^2+{\| a\| }^2+{\| a'\| }^2}{}}- \| a\| ^2-\| b\| ^2- {\| a'\| }^2-\| b\| ^2 }{2}=

\frac{{\| a+a'+b\| }^2-{\| a+a'\| }^2-\| b\| ^2 }{2}=(a+a',b)

Agora, para b\in E fixado, vejamos que g_b (a)=(a,b),a\in E é uma função linear, segue da argumentação anterior que g_b (a+a')=g_b (a)+g_b (a')a,a'\in E, donde g_b (ra)=rg_b (a), a\in E, r \in \mathbb Q. Dado agora r\in \mathbb R, seja \{r_n \} uma sucessão em \mathbb Q que converge para r, segue da continuidade de g_b que,

g_b (ra)=g_b(lim_{n\rightarrow \infty }r_n a)=lim_{n\rightarrow \infty}g_b (r_n a)=lim_{n\rightarrow \infty}r_n g_b (a)=

rg_b (a)

Logo, g_b (a),a\in E é uma função linear.

Na verdade o fato da Lei dos Paralelogramos ser sempre exatamente a Lei dos Cossenos, não é tão surpreendente assim, visto que sendo a Lei dos Paralelogramos uma “Lei dos Cossenos generalizada”, nela estaria subjacente a idéia de ângulo e onde tem uma noção de angulo é razoável esperar que exista uma estrutura de produto interno.

(qed)


Normas Equivalentes

março 23, 2010

Novamente, um post sobre um teorema já exposto. No entanto, vou expor aqui uma forma interessante de se provar a equivalência das normas em um espaço vetorial de dimensão fiinita.

Duas normas num espaço vetorial E são chamadas de equivalentes quando as métricas provenientes dessas normas são equivalentes.

Teorema 1: Sejam E,F espaços vetoriais normados. As seguintes afirmações a respeito de uma aplicação linear T:E\to  F são equivalentes:

1) T é uniformemente contínua;

2) T é contínua;

3) T é contínua no ponto 0\in E ;

4) T é Lipschitz.


Demonstração: Com efeito, tem-se que as implicações (1)\Longrightarrow (2) , (2)\Longrightarrow (3) e (4)\Longrightarrow (1) são óbvias.  Provemos a implicação (3)\Longrightarrow (4) .

Com efeito, tem-se, pela hipótese, que existe  \delta >0 tal que

\left| v \right| \leq \delta \Longrightarrow \left\| T(v)  \right\| <1 .

Dado u\in\left\{ x\in E : \left| x\right| = 1 \right\} , tem-se que \left| \delta u \right| = \delta e, então,

\delta \left\| T(u)\right\| = \left\| T( \delta u) \right\|  < 1 , donde segue que

\left\| T(u)\right\| <\frac{ 1 }{ \delta } . Isso provou que \left\{ \left\| Tx\right\| \in F:\left| x\right| =1\right\} é limitado. Denotamos L=sup\left\{ \left\| Tx\right\| \in  F:\left| x\right| =1\right\} .

Dados x,y\in E , segue que \displaystyle \left\| T  \left( \frac{x-y}{ \left| x-y\right| } \right) \right\|\leq L e, portanto,

\displaystyle \frac{1}{ \left| x-y\right| } \left\| T\left(  x-y\right) \right\| \leq L , ou seja, \left\| Tx - Ty\right\|  \leq L\left| x-y\right| .


Corolário 1.1: Sejam \left\| \cdot \right\| _1 e \left\| \cdot \right\| _2 duas normas num espaço vetorial E . Se tais normas são equivalentes, segue que as métricas provenientes dessas normas são uniformemente equivalentes. E, mais precisamente, existem \alpha, \beta > 0 tais que

\alpha \left\| u \right\| _1 \leq \left\| u \right\| _2  \leq \beta \left\| u \right\| _1 para todo u\in E .


Demonstração: Com efeito, se tais normas são equivalentes, segue que

id: (E, \left\| \cdot \right\| _1 ) \to (E, \left\| \cdot  \right\| _2 ) é um homeomorfismo. Pelo teorema precedente, id e sua inversa são lipschitzianas (em particular, id é um homeomorfismo uniforme). Isso implica que existem \alpha , \beta  > 0 tais que

\alpha \left\| x-y \right\| _1 \leq \left\| x-y \right\| _2  \leq  \beta \left\| x-y \right\| _1 para quaisquer x,y\in E .

Em particular,

\alpha \left\| x \right\| _1 \leq \left\| x \right\| _2 \leq    \beta \left\| x \right\| _1 para qualquer x\in E (bastava tomar y=0 ).



Corolário 1.3: Seja E um espaço vetorial normado. Ao trocar a norma de E por uma equivalente, seqüências convergentes são transformadas em seqüências convergentes, e seqüências de Cauchy são transformadas em seqüências de Cauchy. Em particular, se E é completo em relação a uma norma, ele será completo em relação a qualquer norma equivalente.


Demonstração: É consequência imediata do fato de métricas provenientes de normas equivalentes serem uniformemente equivalentes.



Teorema 2: Sejam E um espaço vetorial normado e \mathbb{R}^n munido da norma do máximo (ou uma equivalente). Toda aplicação linear T: \mathbb{R} ^n \to E é contínua.


Demonstração: Com efeito, tem-se que, dado u\in\mathbb{R}^n ,

\displaystyle \left\| T(u)\right\|\leq \sum_{i=1}^n   \left|u_i\right| \left\| T(e_i)\right\|\leq \left| u \right|   \sum_{i=1}^n \left\| T(e_i)\right\| ,

onde \left\{ e_1, \ldots , e_n \right\} \subset \mathbb{R}^n é a base canônica, e onde \left| u \right| é a norma (do máximo) de u em \mathbb{R}^n . Fazendo \displaystyle L= \sum_{i=1}^n \left\| T(e_i) \right\| , segue que

\displaystyle \left\| T(u)\right\|\leq L\left| u \right| .

Isso provou que \displaystyle \left\| T(v)\right\|\leq L\left|   v \right| para todo v\in\mathbb{R}^n . Portanto, isso completa a prova de que T é contínua, afinal, dados x,y\in\mathbb{R}^n , tem-se, pelo provado que

\displaystyle \left\| Tx-Ty\right\| =\left\|   T(x-y)\right\|\leq L\left| x-y \right| .



Teorema 3: Quando \mathbb{R}^n está munido de alguma norma equivalente à norma do máximo, K\subset\mathbb{R}^n é compacto se, e somente se, é limitado e fechado em \mathbb{R} ^n .


Demonstração: Se K\subset \mathbb{R}^n é fechado e limitado, dada uma seqüência em K , segue, pelo teorema de Bolzano-Weierstrass (provado no outro post), que existe uma subseqüência convergente em \mathbb{R}^n . Como K é fechado, segue que essa subseqüência converge em K . Isso completou a prova de que K é compacto.

Reciprocamente, se K é compacto, segue que K é totalmente limitado (em particular, limitado) e fechado.



Leminha: Se \mathbb{R}^m está munido de uma norma equivalente à norma do máximo, segue que

\left\{ x:\left| x\right| =1 \right\} = S^{m-1}\subset\mathbb{R}^m é compacto.


Demonstração: Com efeito, basta provar que S^{m-1} é fechado (afinal, S^{m-1} é obviamente limitado). Note que, dado uma seqüência convergente x_n\to L tem-se que \left| x_n\right| \to \left| L\right| . Logo se (u_n) é uma seqüência convergente de vetores em S^{m-1} , como \left| u_n\right|\to 1 , segue que a norma do limite é 1 . E, portanto, o limite está em S^{m-1} .


Teorema 4: Seja E um espaço vetorial normado de dimensão finita m . Segue que existe um homeomorfismo linear H: \mathbb{R}^m\to E .


Demonstração: Com efeito, dada uma base \left\{u_1, \ldots ,u_m\right\} , define-se H: \mathbb{R} ^m \to E , \displaystyle H(x) = \sum_{i=1}^n x_i u_i .

H é linear. Portanto, pelo teorema 2, é contínua. Além disso, H é obviamente bijetiva. Como S^{m-1}\subset\mathbb{R}^m é compacto, segue que

f: S^{m-1}\to\mathbb{R} , f(u)=\left\| H(u)\right\| ,

assume máximo e mínimo (por ser contínua). Como H é bijetiva (em particular, injetiva), segue que H(x)\neq 0 para todo x\in S^{m-1} . Portanto, o mínimo de f é um número r> 0 .

Tem-se, então, que, dado y\in\mathbb{R}^m ,

\displaystyle \left\| H\left( \frac{y}{ \left| y\right| }\right) \right\| = \frac{1}{\left| y \right| } \left\| H(y)\right\| \geq r . Disso segue que

\left\| H(y)\right\| \geq r \left| y \right| .

Isso provou a continuidade da inversa.



Corolário 4.1: Sejam E e F espaços vetoriais normados de dimensão finita. Toda aplicação linear T: E\to F é contínua.


Demonstração: Com efeito, pelo teorema 4, existe um homeomorfismo linear H:\mathbb{R}^m\to E (onde m é a dimensão de E ).

Tem-se que (T\circ H) : \mathbb{R}^m\to F é uma aplicação linear. Logo, pelo teorema 2, é contínua. Como H é um homemorfismo, segue que

T= (T\circ H)\circ H^{-1} é composição de aplicações contínuas e, portanto, contínua.



Corolário 4.2: Todas normas em espaço vetorial de dimensão finita são equivalentes.


Demonstração: Com efeito, seja E um espaço vetorial de dimensão finita. Dadas duas normas \left\| \cdot \right\| _1 , \left\| \cdot \right\| _2 em E , segue que

id: (E, \left\| \cdot \right\| _1 ) \to (E, \left\| \cdot \right\| _2 )

e sua inversa são aplicações lineares. Portanto, pelo corolário acima, elas são contínuas e, então, as normas são equivalentes.



Observação: Da equivalência das normas em espaços vetoriais de dimensão finita, segue que, para qualquer espaço vetorial normado E de dimensão finita, valem:

1) K\subset E é compacto se, e somente se, K é limitado e fechado em E .

2) Vale o teorema de Bolzano-Weierstrass em E . Ou seja, toda seqüência limitada em E possui subseqüência convergente em E .

Teorema 5: Todo espaço vetorial normado de dimensão finita é completo.


Demonstração: Seja E um espaço vetorial normado de dimensão finita. Segue, pelo provado, que toda seqüência limitada possui subseqüência convergente. Logo, dada uma seqüência de Cauchy (u_n) em E , segue que ela é limitada. Portanto ela possui subseqüência convergente. Mas é fácil de verificar que, se uma seqüência de Cauchy possui uma subseqüência convergente, ela converge: portanto (u_n) converge.