Teorema de Cayley-Hamilton

julho 26, 2013

Um enunciado e demonstração bacana de que o polinômio característico de uma transformação linear A anula essa transformação, em outras palavras:

Teorema. (A - \lambda_1)(A - \lambda_2) \ldots (A-\lambda_n) = 0

onde A é uma transformação linear de um espaço vetorial complexo de dimensão n com autovalores \lambda_1, \lambda_2, \ldots, \lambda_n (com possíveis repetições).

Demonstração. Escolha uma base e_1, e_2, e_3, \ldots na qual a matriz de A é triangular superior de modo que

A =\begin{pmatrix} \lambda_1 & * & * & \cdots \\ & \lambda_2 & * & \cdots \\ & & \lambda_3 & \cdots \\ & & & \ddots \end{pmatrix}

e então

\begin{array}{r}  (A-\lambda_1)(A-\lambda_2) (A-\lambda_3) \ldots = \\  \begin{pmatrix}  0 & * & * & \cdots \\ & * & * & \cdots \\ & & * & \cdots \\ & & & \ddots  \end{pmatrix}  \begin{pmatrix}  * & * & * & \cdots \\ & 0 & * & \cdots \\ & & * & \cdots \\ & & & \ddots  \end{pmatrix}  \begin{pmatrix}  * & * & * & \cdots \\ & * & * & \cdots \\ & & 0 & \cdots \\ & & & \ddots  \end{pmatrix}  \ldots  \end{array}
onde a ordem dos fatores no produto pode ser trocada.

Calculando em e_1 temos que

\begin{array}{rcl}  \ldots (A-\lambda_1) e_1 & = & \\  \begin{pmatrix}  0 & * & * & \cdots \\ & * & * & \cdots \\ & & * & \cdots \\ & & & \ddots  \end{pmatrix} e_1 & = & 0  \end{array}

Calculando em e_2 temos que

\begin{array}{rcl}  \ldots (A-\lambda_1)(A-\lambda_2) e_2 & = & \\  \ldots (A-\lambda_1) \begin{pmatrix} * & * & * & \cdots \\ & 0 & * & \cdots \\ & & * & \cdots \\ & & & \ddots \end{pmatrix} e_2 & = & \\  \ldots (A-\lambda_1) * e_1 & = & 0  \end{array}

Calculando em e_3 temos que

\begin{array}{rcl}  \ldots (A-\lambda_1)(A-\lambda_2)(A-\lambda_3) e_3 & = & \\  \ldots (A-\lambda_1) (A-\lambda_2) \begin{pmatrix} * & * & * & \cdots \\ & * & * & \cdots \\ & & 0 & \cdots \\ & & & \ddots \end{pmatrix} e_3 & = & \\  \ldots (A-\lambda_1)(A-\lambda_2) * e_1 + * e_2 & = & 0  \end{array}

E assim em diante, calculado na base e_1, e_2, e_3, \ldots, e_n esse produto dá zero, logo o produto é a matriz zero. \square

Algumas considerações:

  • A demonstração formal seria por indução e com alguns detalhes a mais, mas acredito que a demonstração acima ilustra bem as ideias e, o mais bacana, deixa claro porque as coisas funcionam!
  • Os dois tipos de demonstração que eu conhecia disso eram: via matriz de cofatores (é feia, se presta a generalizações para matriz sobre anéis, mas é algébrica demais), via densidade de matrizes complexas diagonalizáveis (é bacana, mas usa topologia e continuidade e pressupõe mais maturidade). Essa aqui usa apenas coisas básicas de álgebra linear mas é geral suficiente para matrizes sobre corpos (tomando o fecho algébrico do corpo). É claro que teria que depois argumentar porque o teorema também vale para matrizes reais.
  • Nunca ensinei Álgebra Linear, mas em termos da sequência de assuntos, imagino assim: dentro do tópico de subespaços invariantes e formas normais de transformações 1) definição de autovetor e autovalor, 2) definição de polinômio característico. Daqui em diante num espaço vetorial complexo: 3) existência de $n$ autovalores complexos (raízes do polinômio característico), 4) existência de pelo menos um autovetor para cada autovalor distinto, 5) a existência de uma uma base na qual a matriz de uma transformação é triangular superior: consequência da existência de autovetor, pode ser feita mais concretamente com matrizes ou mais abstratamente com espaços e transformações quocientes, na forma triangular superior os autovalores aparecem na diagonal.
  • A forma triangular superior de uma transformação pode ser  a primeira forma normal (também conhecida como forma de Schür), que depois poderia ser refinada para a forma de Jordan. Note que a forma de Schür pode motivar a definição de autoespaços generalizados.
Anúncios

Base "canônica" para formas simpléticas.

maio 9, 2010

Inspirados nas propriedades dos determinantes de matrizes 2 \times 2, definimos o que seria uma forma simplética.

Definição 1: Dado um espaço vetorial de dimensão finita V, uma forma simplética sobre V é uma aplicação \Omega: V \times V \rightarrow \mathbb{R} que é bilinear, anti-simétrica e não degenerada. Dizemos que (V, \Omega) é um espaço vetorial simplético.

Dizer que \Omega é anti-simétrica, significa dizer que \Omega(x,y) = -\Omega(y,x). E isso implica em particular que \Omega(x,x) = 0. Dizer que \Omega é não degenerada, é o mesmo que dizer que para cada x \in V não nulo fixado, o funcional linear \Omega(x, \cdot): y \mapsto \Omega(x, y) não é identicamente nulo. Em outras palavras, para todo x \in V não nulo, existe y \in V tal que \Omega(x, y) \neq 0.

As formas simpléticas possuem algumas semelhanças com o produto interno (nos reais). Por exemplo, se fixarmos uma das coordenadas obtemos um funcional linear. O produto interno também é não degenerado. Com o produto interno, podemos construir uma base ortonormal. A grande vantagem da base ortonormal, é que o produto interno assume sempre a mesma forma (\sum x_i y_i) quando os vetores estão escritos nesta base. Neste post, mostraremos que as formas simpléticas possuem propriedade semelhante.

Primeiro, para fazer as coisas a la André, vamos para algumas definições, propriedades e caracterizações. 🙂

Uma diferença entre as formas simpléticas e o produto interno, é que no caso do produto interno, dado um subespaço W \subset V, a restrição do produto interno a W \times W continuava sendo um produto interno, desta vez sobre W. No caso de uma forma simplética \Omega, nem sempre temos que \Omega |_{W \times W} é uma forma simplética de W. Quando o for, dizemos que W é simplético.

Definição 2: Seja (V, \Omega) é simplético e W \subset V. Se (W, \Omega|_{W \times W}) é uma forma simplética (ou seja, é não degenerada), dizemos que W é um subespaço simplético.

Definição 3: Dado um espaço vetorial simplético (V, \Omega), defina \tilde{\Omega}: V \rightarrow V^* a aplicação \tilde{\Omega}(x) \mapsto \Omega(x, \cdot).

Note que dizer que \Omega é não degenerado, é o mesmo que dizer que \ker(\tilde{\Omega}) = \{0\}.

Lema 1: A aplicação \tilde{\Omega} é bijetiva.

Demonstração: De fato, pela observação acima, a aplicação é injetiva. Como \dim(V) = \dim(V^*), a aplicação é também sobrejetiva.


Definição 4: Dado um subespaço W \subset V, definimos W^\Omega = \{v \in V | \text{para todo } w \in W,\, \Omega(v,w) = 0\}. Este é o subespaço ortogonal a W.

Note, que diferentemente do caso do produto interno, não é sempre verdade que V = W \oplus W^\Omega, pois é possível que W \cap W^\Omega \neq \{0\}. Nosso primeiro resultado interessante será justamente o fato de que V = W \oplus W^\Omega sempre que, e apenas quando, W for simplético. (proposição 1)

Lema 2: Vale que \dim(V) = \dim(W) + \dim(W^\Omega).

Demonstração: Considere a aplicação \tilde{\Omega}_W: V \rightarrow W^* dada por \tilde{\Omega}_W(v) = \tilde{\Omega}(v)|_{W}. Ou seja, é a composição de \tilde{\Omega} com a restrição em W. Note que \ker(\tilde{\Omega}_W) = W^\Omega. Se mostrarmos que \tilde{\Omega}_W é sobrejetiva, teremos que \dim(V) = \dim(W^*) + \dim(W^\Omega). Como \dim(W^*) = \dim(W), isso concluiria a demonstração.

Sabemos pelo lema 1 que \tilde{\Omega} é sobrejetiva. Assim, dizer que \tilde{\Omega}_W é sobrejetiva é o mesmo que dizer que todo funcional linear em W é a restrição de algum funcional linear em V. Em outras palavras, é o mesmo que dizer que todo funcional em W pode ser estendido a V. Este fato é verdadeiro. De fato, basta estender uma base de W a uma base de V e definir arbitrariamente o funcional nos “novos vetores da base”. (ficou um bocado informal… formalize isso por conta própria :-P)


Observação: Uma das consequências do lema 2, é que (W^\Omega)^\Omega = W. (verifique)

Proposição 1: O subespaço W \subset V é simplético \Leftrightarrow W \cap W^\Omega = \{0\} \Leftrightarrow V = W \oplus W^\Omega \Leftrightarrow V = W + W^\Omega.

Demonstração: A equivalência entre as três últimas condições é consequência direta do lema 2. Observe que dizer que W é simplético é o mesmo que dizer que W \cap W^\Omega = \{0\}. E isso concluí a demonstração! 🙂


E finalmente…

Teorema: Seja (V, \Omega) um espaço vetorial simplético. Então existe uma base de V dada por vetores e_1, \dotsc, e_n, f_1, \dotsc, f_n tais que para todo i, j = 1, \dotsc, n, temos que \Omega(e_i, e_j) = \Omega(f_i, f_j) = 0 e \Omega(e_i, f_j) = \delta_{ij}. Em particular, todo espaço vetorial simplético tem dimensão par.

Demonstração:

Afirmação 1: Se W \subset V é simplético, então W^\Omega também é simplético.

A afirmação é consequência imediata da proposição 1.

Afirmação 2: Dado um espaço vetorial simplético (V', \Omega') qualquer, sempre existem e, f \in V' linearmente independentes, tais que \Omega(e,f) = 1. Neste caso, o subespaço \left<e, f\right> é simplético.

Tome e \in V' não nulo. Pela não degenerescência de \Omega' existe g \in V' tal que \Omega'(e, g) = \alpha \neq 0. Basta então tomar f = \frac{g}{\alpha}. Note que e, f são linearmente independentes, pois caso contrário teríamos \Omega'(e,f) = 0. É fácil ver que o subespaço gerado será simplético.

Afirmação 3: Se W \subset V é simplético e U \subset W^\Omega também é simplético, então W + U é simplético. Neste caso, W + U = W \oplus U, pois W \cap U \subset W \cap W^\Omega = \{0\}.

Tome w + u \in W + U. Então existem w' \in W e u' \in U tais que \Omega(w,w') = \Omega(u,u') = 1. Assim, \Omega(w+u, w'+u') = \Omega(w,w') + \Omega(u,w') + \Omega(w,u') + \Omega(u,u') = \Omega(w,w') + \Omega(u,u') = 2 \neq 0.

Considere a família \mathcal{F} de todos os subespaços V' \subset V simpléticos tais que o teorema vale para V'. Note que essa família é não vazia pela afirmação 2. Tome W \in \mathcal{F} maximal. Basta então mostrar que W = V.

Não fosse o caso, pelo lema 2, teríamos W^\Omega \neq \{0\}. Pela afirmação 1, W^\Omega é simplético. Agora, pela afirmação 2, podemos encontrar e, f \in W^\Omega tais que \Omega(e, f) = 1 e \left<e, f\right> \subset W^\Omega é simplético. No entanto, pela afirmação 3, W' = W \oplus \left<e, f\right> é simplético, contradizendo a maximalidade de W. (verifique que W' satisfaz as condições do teorema)


Normas Equivalentes

março 23, 2010

Novamente, um post sobre um teorema já exposto. No entanto, vou expor aqui uma forma interessante de se provar a equivalência das normas em um espaço vetorial de dimensão fiinita.

Duas normas num espaço vetorial E são chamadas de equivalentes quando as métricas provenientes dessas normas são equivalentes.

Teorema 1: Sejam E,F espaços vetoriais normados. As seguintes afirmações a respeito de uma aplicação linear T:E\to  F são equivalentes:

1) T é uniformemente contínua;

2) T é contínua;

3) T é contínua no ponto 0\in E ;

4) T é Lipschitz.


Demonstração: Com efeito, tem-se que as implicações (1)\Longrightarrow (2) , (2)\Longrightarrow (3) e (4)\Longrightarrow (1) são óbvias.  Provemos a implicação (3)\Longrightarrow (4) .

Com efeito, tem-se, pela hipótese, que existe  \delta >0 tal que

\left| v \right| \leq \delta \Longrightarrow \left\| T(v)  \right\| <1 .

Dado u\in\left\{ x\in E : \left| x\right| = 1 \right\} , tem-se que \left| \delta u \right| = \delta e, então,

\delta \left\| T(u)\right\| = \left\| T( \delta u) \right\|  < 1 , donde segue que

\left\| T(u)\right\| <\frac{ 1 }{ \delta } . Isso provou que \left\{ \left\| Tx\right\| \in F:\left| x\right| =1\right\} é limitado. Denotamos L=sup\left\{ \left\| Tx\right\| \in  F:\left| x\right| =1\right\} .

Dados x,y\in E , segue que \displaystyle \left\| T  \left( \frac{x-y}{ \left| x-y\right| } \right) \right\|\leq L e, portanto,

\displaystyle \frac{1}{ \left| x-y\right| } \left\| T\left(  x-y\right) \right\| \leq L , ou seja, \left\| Tx - Ty\right\|  \leq L\left| x-y\right| .


Corolário 1.1: Sejam \left\| \cdot \right\| _1 e \left\| \cdot \right\| _2 duas normas num espaço vetorial E . Se tais normas são equivalentes, segue que as métricas provenientes dessas normas são uniformemente equivalentes. E, mais precisamente, existem \alpha, \beta > 0 tais que

\alpha \left\| u \right\| _1 \leq \left\| u \right\| _2  \leq \beta \left\| u \right\| _1 para todo u\in E .


Demonstração: Com efeito, se tais normas são equivalentes, segue que

id: (E, \left\| \cdot \right\| _1 ) \to (E, \left\| \cdot  \right\| _2 ) é um homeomorfismo. Pelo teorema precedente, id e sua inversa são lipschitzianas (em particular, id é um homeomorfismo uniforme). Isso implica que existem \alpha , \beta  > 0 tais que

\alpha \left\| x-y \right\| _1 \leq \left\| x-y \right\| _2  \leq  \beta \left\| x-y \right\| _1 para quaisquer x,y\in E .

Em particular,

\alpha \left\| x \right\| _1 \leq \left\| x \right\| _2 \leq    \beta \left\| x \right\| _1 para qualquer x\in E (bastava tomar y=0 ).



Corolário 1.3: Seja E um espaço vetorial normado. Ao trocar a norma de E por uma equivalente, seqüências convergentes são transformadas em seqüências convergentes, e seqüências de Cauchy são transformadas em seqüências de Cauchy. Em particular, se E é completo em relação a uma norma, ele será completo em relação a qualquer norma equivalente.


Demonstração: É consequência imediata do fato de métricas provenientes de normas equivalentes serem uniformemente equivalentes.



Teorema 2: Sejam E um espaço vetorial normado e \mathbb{R}^n munido da norma do máximo (ou uma equivalente). Toda aplicação linear T: \mathbb{R} ^n \to E é contínua.


Demonstração: Com efeito, tem-se que, dado u\in\mathbb{R}^n ,

\displaystyle \left\| T(u)\right\|\leq \sum_{i=1}^n   \left|u_i\right| \left\| T(e_i)\right\|\leq \left| u \right|   \sum_{i=1}^n \left\| T(e_i)\right\| ,

onde \left\{ e_1, \ldots , e_n \right\} \subset \mathbb{R}^n é a base canônica, e onde \left| u \right| é a norma (do máximo) de u em \mathbb{R}^n . Fazendo \displaystyle L= \sum_{i=1}^n \left\| T(e_i) \right\| , segue que

\displaystyle \left\| T(u)\right\|\leq L\left| u \right| .

Isso provou que \displaystyle \left\| T(v)\right\|\leq L\left|   v \right| para todo v\in\mathbb{R}^n . Portanto, isso completa a prova de que T é contínua, afinal, dados x,y\in\mathbb{R}^n , tem-se, pelo provado que

\displaystyle \left\| Tx-Ty\right\| =\left\|   T(x-y)\right\|\leq L\left| x-y \right| .



Teorema 3: Quando \mathbb{R}^n está munido de alguma norma equivalente à norma do máximo, K\subset\mathbb{R}^n é compacto se, e somente se, é limitado e fechado em \mathbb{R} ^n .


Demonstração: Se K\subset \mathbb{R}^n é fechado e limitado, dada uma seqüência em K , segue, pelo teorema de Bolzano-Weierstrass (provado no outro post), que existe uma subseqüência convergente em \mathbb{R}^n . Como K é fechado, segue que essa subseqüência converge em K . Isso completou a prova de que K é compacto.

Reciprocamente, se K é compacto, segue que K é totalmente limitado (em particular, limitado) e fechado.



Leminha: Se \mathbb{R}^m está munido de uma norma equivalente à norma do máximo, segue que

\left\{ x:\left| x\right| =1 \right\} = S^{m-1}\subset\mathbb{R}^m é compacto.


Demonstração: Com efeito, basta provar que S^{m-1} é fechado (afinal, S^{m-1} é obviamente limitado). Note que, dado uma seqüência convergente x_n\to L tem-se que \left| x_n\right| \to \left| L\right| . Logo se (u_n) é uma seqüência convergente de vetores em S^{m-1} , como \left| u_n\right|\to 1 , segue que a norma do limite é 1 . E, portanto, o limite está em S^{m-1} .


Teorema 4: Seja E um espaço vetorial normado de dimensão finita m . Segue que existe um homeomorfismo linear H: \mathbb{R}^m\to E .


Demonstração: Com efeito, dada uma base \left\{u_1, \ldots ,u_m\right\} , define-se H: \mathbb{R} ^m \to E , \displaystyle H(x) = \sum_{i=1}^n x_i u_i .

H é linear. Portanto, pelo teorema 2, é contínua. Além disso, H é obviamente bijetiva. Como S^{m-1}\subset\mathbb{R}^m é compacto, segue que

f: S^{m-1}\to\mathbb{R} , f(u)=\left\| H(u)\right\| ,

assume máximo e mínimo (por ser contínua). Como H é bijetiva (em particular, injetiva), segue que H(x)\neq 0 para todo x\in S^{m-1} . Portanto, o mínimo de f é um número r> 0 .

Tem-se, então, que, dado y\in\mathbb{R}^m ,

\displaystyle \left\| H\left( \frac{y}{ \left| y\right| }\right) \right\| = \frac{1}{\left| y \right| } \left\| H(y)\right\| \geq r . Disso segue que

\left\| H(y)\right\| \geq r \left| y \right| .

Isso provou a continuidade da inversa.



Corolário 4.1: Sejam E e F espaços vetoriais normados de dimensão finita. Toda aplicação linear T: E\to F é contínua.


Demonstração: Com efeito, pelo teorema 4, existe um homeomorfismo linear H:\mathbb{R}^m\to E (onde m é a dimensão de E ).

Tem-se que (T\circ H) : \mathbb{R}^m\to F é uma aplicação linear. Logo, pelo teorema 2, é contínua. Como H é um homemorfismo, segue que

T= (T\circ H)\circ H^{-1} é composição de aplicações contínuas e, portanto, contínua.



Corolário 4.2: Todas normas em espaço vetorial de dimensão finita são equivalentes.


Demonstração: Com efeito, seja E um espaço vetorial de dimensão finita. Dadas duas normas \left\| \cdot \right\| _1 , \left\| \cdot \right\| _2 em E , segue que

id: (E, \left\| \cdot \right\| _1 ) \to (E, \left\| \cdot \right\| _2 )

e sua inversa são aplicações lineares. Portanto, pelo corolário acima, elas são contínuas e, então, as normas são equivalentes.



Observação: Da equivalência das normas em espaços vetoriais de dimensão finita, segue que, para qualquer espaço vetorial normado E de dimensão finita, valem:

1) K\subset E é compacto se, e somente se, K é limitado e fechado em E .

2) Vale o teorema de Bolzano-Weierstrass em E . Ou seja, toda seqüência limitada em E possui subseqüência convergente em E .

Teorema 5: Todo espaço vetorial normado de dimensão finita é completo.


Demonstração: Seja E um espaço vetorial normado de dimensão finita. Segue, pelo provado, que toda seqüência limitada possui subseqüência convergente. Logo, dada uma seqüência de Cauchy (u_n) em E , segue que ela é limitada. Portanto ela possui subseqüência convergente. Mas é fácil de verificar que, se uma seqüência de Cauchy possui uma subseqüência convergente, ela converge: portanto (u_n) converge.



Bolzano-Weierstrass em R^n

março 21, 2010

Bom, eu acho que já fiz um post sobre isso. No entanto, acho que encontrei uma forma mais elegante de expor.

Será usado uma coisa fácil de provar: a topologia de \mathbb{R} ^n munido da norma do máximo é a topologia produto (a norma do máximo induz a topologia produto).

Duas normas num espaço vetorial são chamadas equivalentes, quando as métricas provenientes dessas métricas são equivalentes. Isso implica, por exemplo, que se uma seqüência num espaço vetorial é convergente numa norma específica, então ela é convergente em qualquer norma equivalente a essa norma.

Teorema (Bolzano-Weierstrass): Toda seqüência limitada de vetores em R^n (munido da norma do máximo (ou de qualquer uma equivalente)) possui uma subseqüência convergente.

Demonstração: Com efeito, faz indução sobre n . O teorema de Bolzano-Weierstrass vale para \mathbb{R} (munido da norma do máximo). Supõe-se que o teorema é verdadeiro para n-1 , ou seja, toda seqüência limitada em \mathbb{R}^{n-1} munido da norma do máximo, possui uma subseqüência convergente. Logo, dada uma seqüência limitada (u_m) em \mathbb{R} ^n (munido da norma do máximo), note que (v_m) é limitada em \mathbb{R}^{n-1} , onde, para cada m\in\mathbb{N} , v_m = (u_{m_1}, \ldots , u_{m_{n-1}} )

(as primeiras n-1 coordenadas de u_m ).

Como \max _{i=1}^n \left| u_{m_i}\right| \geq \max _{i=1}^{n-1} \left| u_{m_i}\right| para todo m\in\mathbb{N} , segue que (v_m) é limitada. Pela hipótese, segue que existe um conjunto infinito N_1\subset\mathbb{N} de índices tal que (v_m)_{m\in N_1} converge, portanto cada coordenada converge. Analogamente, pelo teorema de Bolzano-Weierstrass na reta, existe um conjunto N_2\subset N_1 infinito de índices que torna (u_{m_n})_{m\in N_2} convergente em \mathbb{R} .

Logo tem-se que  todas as coordenadas de (u_m)_{m\in N_2} convergem, ou seja, (u_m)_{m\in N_2} converge em \mathbb{R} ^n .

CQD



Curiosidade: Álgebra de Matrizes

agosto 22, 2009

Bom, quando eu notei que faltava a demonstração de que o produto era “preservado” pelo isomorfismo do espaço dos operadores lineares nos espaços das matrizes n \times n no post “Método clássico para Fibonacci“, percebi algumas coisas legais (algumas reflexões legais)! 😀 Então resolvi colocar aqui como curiosidade.

Primeiramente, vou formalizar a questão.

Seja E um espaço vetorial de dimensão finita. O isomorfismo dito é aquele \phi : L(E)\to M_n ( \mathbb{R} ) , onde L(E) é o espaço vetorial dos operadores lineares A:E\to E , dado B:E\to E no espaço vetorial L(E) , \phi (B) é matriz do operador linear B:E\to E .

O ponto que me fez pensar foi o seguinte: o isomorfismo preserva mais do que a estrutura de “espaço vetorial”. Afinal, ele preserva o produto.

Na verdade, há certas estruturas algébricas para descrever essas propriedades… Por exemplo, podemos considerar que tal isomorfismo é, também, um isomorfismo com relação  à estrutura de monóides em ambos os conjuntos (provenientes do produto).

Com efeito, um monóide é um conjunto munido de uma operação no conjunto tal que:

1) o conjunto é fechado para a operação (quando se diz “operação no conjunto”, normalmente já se quer dizer que essa operação é fechada no conjunto.);

2) Operação é associativa;

3) Existência de elemento neutro (em relação à operação).

Como L(E) e M_n ( \mathbb{R} ) são moonóides (em relação ao produto), o isomorfismo (por “preservar” o produto) é um isomorfimo de monóides (e, portanto, eles são monóides isomorfos).

DEFINIÇÃO (GRUPO)

Um grupo é um monóide que possui, para cada elemento, um elemento inverso em relação à operação.

No entanto, não podemos dizer em grupos isomorfos: pois eles não são grupos (nem todo elemento do espaço L(E) (e do espaço M_n ( \mathbb{R} ) ) possui inverso (com relação ao produto). Logo eles não são grupos… Mas se pegarmos apenas o espaço das matrizes invertíveis ( e o espaço dos operadores lineares invertíveis ), eles se tornam grupos. E o isomorfismo restrito a eles se torna um isomorfismo de grupos.

No entanto, isso não nos é interessante, pois, pegando apenas as matrizes invertíveis (grupo linear geral), perde-se a estrutura de “espaço vetorial” ( pois, por exemplo, não há o vetor nulo).

Então, finalmente, vamos ao que, realmente, “significa” aquele isomorfismo. Como eu disse, é óbvio que o isomorfismo vai além do isomorfismo de espaços vetoriais.

Na verdade, esse isomorfismo é um isomorfismo entre estruturas algébricas mais sofisticadas que o “espaço vetorial” (por mais sofisticadas, quero dizer estruturas menos simples).

DEFINIÇÃO (ÁLGEBRA)

Uma \mathbb{R} – Álgebra  M é um \mathbb{R} – espaço vetorial onde está definida uma operação de produto (fechada em M ) tal que:

1) x(y+z)=xy+xz \forall x,y,z\in M

2) (y+z)x =yx+zx \forall x,y,z\in M

3) \beta (xy)= ( \beta x) y=x ( \beta y) \forall x,y\in M e \beta\in\mathbb{R}

E M é chamado de Álgebra unitária se, além de tudo, possui um elemento neutro com relação ao produto. 🙂

No capítulo “Produto de operadores lineares/transformações lineares “, vê-se os resultados suficientes par anotar que, realmente, tanto o espaço das matrizes, quanto o espaço dos operadores lineares L(E) , são, de fato, \mathbb{R} – álgebras .

O isomorfismo \phi : L(E)\to M_n ( \mathbb{R} ) é, de fato, um isomorfismo de álgebras (pois preserva a estrutura de produto, produto por escalar e adição). 😀

Falar que o isomorfismo \phi se trata de um isomorfismo de álgebras descreve de forma bem mais completa as propriedades de \phi .

“Mudando de assunto”:

Vistas essas coisas, voltei-me para procurar subálgebras de L(E) . Em especial, eu queria ver se os subespaços vetoriais que são trabalhados (no livro do Elon) de L(E) são, também, subálgebras.

Por exemplo, o subespaço vetorial das matrizes simétricas (que corresponde ao subespaço vetorial dos operadores auto-adjuntos). Isso forma uma subálgebra? Bom, não! O produto de matrizes simétricas nem sempre é uma matriz simétrica, no entanto, essa matriz produto é simétria se, e somente se, as matrizes fatores comutam.

No entanto, se pegarmos o centro da álgebra das matrizes (matrizes que comutam) e, dentro dessa subálgebra, tomar o conjunto das matrizes simétricas. Então aí sim obtemos uma subálgebra! 😀 😀 😀 😀 😀

(existem outras subálgebras e, também, existem outras formas de restrições para conseguir subálgebras “de operadores auto-adjuntos” )

Bom, acho que já coloquei muito! 🙂

Vou dormir agora!

Até mais


Método clássico para Fibonacci (sem matrizes)

agosto 21, 2009

Podemos fazer o mesmo método para encontrar a fórmula geral da seqüência de Fibonacci, porém sem fazer uso do isomorfismo entre os operadores e matrizes…

Para prosseguir, precisa-se de um leminha fundamental:

“Se \lambda é um autovalor do operador linear B:E\to E e v\in E é um autovetor correspondente, então

B^n v = \lambda ^n v .”

Toma-se o mesmo operador linear A:E\to E , onde A(u_1 , u_2)= (u_2 , u_1+u_2) . Queremos descobrir uma fórmula explícita para A^n (0,1) , pois A^n (0,1) = (F_n , F_{n+1} ) .

Bom, o primeiro passo é encontrar os autovalores do operador linear:

De Au=\lambda u , consegue-se o seguinte sistema:

u_2 = \lambda u_1

u_1+u_2 = \lambda u_2

Disso segue que u_1+\lambda u_1 = \lambda ^2 u_1 .

Supondo u_1\neq 0 , segue que existem dois autovalores \lambda _1 =\phi_1 e \lambda_2 = \phi_2 .

Portanto são autovetores os

v_1 = (1, \phi _1)

v_2 = (1, \phi _2)

Como \left\{v_1 , v_2 \right\} forma uma base de \mathbb{R}^2 , dado w\in \mathbb{R} ^2 , existem \beta_1 , \beta_2\in\mathbb{R} tais que w=\beta_1 v_1 + \beta_2 v_2 . Portanto

A^n w =A^n (\beta _1 v_1 + \beta _2 v_2 )

= \beta _1 A^n v_1 + \beta _ 2 A^n v_2

= \beta_1\lambda_1 ^ n (1, \phi_1 ) + \beta_2 \lambda_2 ^ n (1, \phi_2 )

= \beta_1\phi_1 ^ n (1, \phi_1 )+ \beta_2 \phi_2 ^ n (1, \phi_2 )

Como as coordenadas do vetor (0,1) na base dos autovetores é (1/\sqrt {5} , -1/ \sqrt{5} ), segue que

(F_n , F_{n+1} ) = A^n (0,1)

= \frac{1}{ \sqrt{5}}\phi_1 ^ n (1, \phi_1 )- \frac{1}{ \sqrt{5}} \phi_2 ^ n (1, \phi_2 )

E, em particular, segue que:

F_n = \frac{1}{ \sqrt{5}} ( \phi_1 ^n - \phi_2 ^n )

Nesse post, \phi_1 := \frac{1+\sqrt{5} }{2} e \phi_2 := \frac{1-\sqrt{5}} {2} .

Bom, acho que essa apresentação ficou mais limpinha! 😀

Até mais


Método clássico para Fibonacci

agosto 20, 2009

Eu perdi o livro de álgebra linear do Elon Lages. =(

Acho que foi a primeira vez que perdi um livro… o pior é que os fatos não se encaixam: não lembro onde eu possa ter deixado: para mim, ele estava comigo até determinado momento (e, depois, ele desapareceu).

Mas eu planejava escrever esse post sobre o método clássico de se encontrar a fórmula geral da seqüência de Fibonacci (usando álgebra linear). Se não me engano, ele está exposto (como exercício) no livro do Elon (por isso, o comentário sobre o livro: não pude conferir onde havia essa exposição).

Parece que o Henrique “aprendeu” esse método com o professor dele no colégio. Mas creio que o professor não deve ter apresentado de forma clara (e com detalhes).

Bom, no post sobre polinômios característicos, eu esqueci de comentar que, a cada operador, existe um único polinômio característico associado (não depende da base escolhida para a matriz). Isso é conseqüência dos fatos expostos lá (afinal, as raízes do polinômio são os autovalores (e o polinômio sempre é mônico)).

Eu não me lembro exatamente como é o método que pretendia expor aqui (nem estou com o livro aqui para dar uma olhada =(  ), mas lembro da idéia. E, assim, vou fazer algo que se aproxima da técnica (usando a mesma idéia).

Já definimos seqüência de Fibonacci anteriormente. Mas vou recolocar aqui:

Uma seqüência de fibonacci é uma seqüência real (a_1, ... ,a_n, ...) tal que a_{n+1}=a_n+a_{n-1} . O objetivo aqui é econtrar uma fórmula explícita para o n-ésimo termo da seqüência fibonacci padrão/clássica:

(1,1,2,3,5,8,13,21,34,...).

Uma forma explícita quer dizer uma coisa do tipo a_n=f(n) (o n-ésimo termo é dado em função de n )

Bom, acho que vocês já viram um resultado que diz que, se dim E = n e A:E\to E operador linear com n autovalores, então a matriz de A na base dos autovetores é uma matriz diagonal (cujas entradas não-nulas são exatamente os autovalores) . =)

Seja A: \mathbb{R}^2 \to \mathbb{R}^2 o operador linear tal que A(u_1,u_2)=(u_2,u_1+u_2) . Isso, de fato, é um operador linear (a verificação é rápida).

Note que o que queremos descobrir é uma “forma explícita” (em função de n ) para A^n (1,1), pois

A(0,1)=(F_1,F_2) (onde F_i é o i-ésimo termo da seqüência de Fibonacci “padrão”)

e, por indução, vê-se que

A^n (1,1)= (F_{n},F_{n+1}) .

Bom, calculemos a matriz do operador A na base canônica. Isso ficaria a_{11}=0 , a_{21}=1 , a_{12}=1 , a_{22}=1 .

Logo o polinômio característico é

p_A(x)=det (A-xI)= x^2-trA x +det A=x^2-x-1

Logo os autovalores são

\frac {1+\sqrt{5}}{2} e \frac {1-\sqrt{5}}{2}  (\phi_1 e \phi_2 ).

Os autovetores são:

(1, \frac {\sqrt{5}+1}{2} )

e

(1, \frac {1-\sqrt{5}}{2} )

E  a matriz de A em relação à base dos autovetores é

(b_{ij}) diagonal, onde b_{11}=\frac {1+\sqrt{5}}{2} e b_{22}=\frac {1-\sqrt{5}}{2}.

Logo A^n tem a matriz diagonal acima elevado a n . Ou seja,

(c_{ij} ) diagonal, onde c_{11}=\left(\frac {1+\sqrt{5}}{2}\right)^n e c_{22}=\left(\frac {1-\sqrt{5}}{2}\right)^n.

Isso quer dizer que:

A^n (0,1)= (f_{n},f_{n+1})= \alpha_1 (\frac {1+\sqrt{5}}{2})^n\cdot (1, \frac {1+\sqrt{5}}{2} ) +  \alpha_2 ( \frac {1-\sqrt{5}}{2})^n \cdot (1, \frac {1-\sqrt{5}}{2} ) , onde \alpha_1 e \alpha_2 são as coordenadas do vetor (0,1) na base dos autovetores… =) Essas coordenadas, na verdade, são: (1/\sqrt{5} , -1/ \sqrt{5})

Em particular, segue que

F_n= \frac{1}{\sqrt{5}}((\frac {1+\sqrt{5}}{2})^n-(\frac {1-\sqrt{5}}{2})^n )

🙂