Curiosidade: Álgebra de Matrizes

Bom, quando eu notei que faltava a demonstração de que o produto era “preservado” pelo isomorfismo do espaço dos operadores lineares nos espaços das matrizes n \times n no post “Método clássico para Fibonacci“, percebi algumas coisas legais (algumas reflexões legais)!😀 Então resolvi colocar aqui como curiosidade.

Primeiramente, vou formalizar a questão.

Seja E um espaço vetorial de dimensão finita. O isomorfismo dito é aquele \phi : L(E)\to M_n ( \mathbb{R} ) , onde L(E) é o espaço vetorial dos operadores lineares A:E\to E , dado B:E\to E no espaço vetorial L(E) , \phi (B) é matriz do operador linear B:E\to E .

O ponto que me fez pensar foi o seguinte: o isomorfismo preserva mais do que a estrutura de “espaço vetorial”. Afinal, ele preserva o produto.

Na verdade, há certas estruturas algébricas para descrever essas propriedades… Por exemplo, podemos considerar que tal isomorfismo é, também, um isomorfismo com relação  à estrutura de monóides em ambos os conjuntos (provenientes do produto).

Com efeito, um monóide é um conjunto munido de uma operação no conjunto tal que:

1) o conjunto é fechado para a operação (quando se diz “operação no conjunto”, normalmente já se quer dizer que essa operação é fechada no conjunto.);

2) Operação é associativa;

3) Existência de elemento neutro (em relação à operação).

Como L(E) e M_n ( \mathbb{R} ) são moonóides (em relação ao produto), o isomorfismo (por “preservar” o produto) é um isomorfimo de monóides (e, portanto, eles são monóides isomorfos).

DEFINIÇÃO (GRUPO)

Um grupo é um monóide que possui, para cada elemento, um elemento inverso em relação à operação.

No entanto, não podemos dizer em grupos isomorfos: pois eles não são grupos (nem todo elemento do espaço L(E) (e do espaço M_n ( \mathbb{R} ) ) possui inverso (com relação ao produto). Logo eles não são grupos… Mas se pegarmos apenas o espaço das matrizes invertíveis ( e o espaço dos operadores lineares invertíveis ), eles se tornam grupos. E o isomorfismo restrito a eles se torna um isomorfismo de grupos.

No entanto, isso não nos é interessante, pois, pegando apenas as matrizes invertíveis (grupo linear geral), perde-se a estrutura de “espaço vetorial” ( pois, por exemplo, não há o vetor nulo).

Então, finalmente, vamos ao que, realmente, “significa” aquele isomorfismo. Como eu disse, é óbvio que o isomorfismo vai além do isomorfismo de espaços vetoriais.

Na verdade, esse isomorfismo é um isomorfismo entre estruturas algébricas mais sofisticadas que o “espaço vetorial” (por mais sofisticadas, quero dizer estruturas menos simples).

DEFINIÇÃO (ÁLGEBRA)

Uma \mathbb{R} – Álgebra  M é um \mathbb{R} – espaço vetorial onde está definida uma operação de produto (fechada em M ) tal que:

1) x(y+z)=xy+xz \forall x,y,z\in M

2) (y+z)x =yx+zx \forall x,y,z\in M

3) \beta (xy)= ( \beta x) y=x ( \beta y) \forall x,y\in M e \beta\in\mathbb{R}

E M é chamado de Álgebra unitária se, além de tudo, possui um elemento neutro com relação ao produto.🙂

No capítulo “Produto de operadores lineares/transformações lineares “, vê-se os resultados suficientes par anotar que, realmente, tanto o espaço das matrizes, quanto o espaço dos operadores lineares L(E) , são, de fato, \mathbb{R} – álgebras .

O isomorfismo \phi : L(E)\to M_n ( \mathbb{R} ) é, de fato, um isomorfismo de álgebras (pois preserva a estrutura de produto, produto por escalar e adição).😀

Falar que o isomorfismo \phi se trata de um isomorfismo de álgebras descreve de forma bem mais completa as propriedades de \phi .

“Mudando de assunto”:

Vistas essas coisas, voltei-me para procurar subálgebras de L(E) . Em especial, eu queria ver se os subespaços vetoriais que são trabalhados (no livro do Elon) de L(E) são, também, subálgebras.

Por exemplo, o subespaço vetorial das matrizes simétricas (que corresponde ao subespaço vetorial dos operadores auto-adjuntos). Isso forma uma subálgebra? Bom, não! O produto de matrizes simétricas nem sempre é uma matriz simétrica, no entanto, essa matriz produto é simétria se, e somente se, as matrizes fatores comutam.

No entanto, se pegarmos o centro da álgebra das matrizes (matrizes que comutam) e, dentro dessa subálgebra, tomar o conjunto das matrizes simétricas. Então aí sim obtemos uma subálgebra!😀😀😀😀😀

(existem outras subálgebras e, também, existem outras formas de restrições para conseguir subálgebras “de operadores auto-adjuntos” )

Bom, acho que já coloquei muito!🙂

Vou dormir agora!

Até mais

2 respostas para Curiosidade: Álgebra de Matrizes

  1. andrecaldas disse:

    Eu costumo dizer que matemático tem muita sorte🙂. Mas acho que seria bacana se o nosso isomorfismo \phi fosse um pouco menos de sorte do que parece.

    Dois espaços vetoriais E,F (sobre \mathbb{R}) de mesma dimensão são sempre isomorfos. Por consequência, são também isomorfas as álgebras L(E),L(F). De fato, fixado um isomorfismo \psi: E \to F, a conjugação por \psi fornece um isomorfismo entre L(E) e L(F).

    Sendo assim, podemos sempre enchergar um espaço vetorial E (sobre \mathbb{R}) de dimensão n, como sendo o próprio \mathbb{R}^n. E podemos enchergar L(E) como sendo L(\mathbb{R}^n). E assim como \mathbb{R}^n é o “representante canônico” dos espaços vetoriais sobre \mathbb{R} de dimensão n, M_n(\mathbb{R}) é o “representante canônico” para os endomorfismos dos espaços de dimensão n. Poderíamos fazer as mesmas considerações para M_n^m(\mathbb{R}), ou até mesmo M_n^m(F) onde F é um corpo (ou até anel) qualquer. Mas se nos restringirmos a m = n, então teremos uma álgebra.

    Não é coincidência que L(E) seja isomorfo a álgebra M_n(\mathbb{R}). O que ocorre, é que M_n(\mathbb{R}) é definido de modo a representar os endomorfismos de \mathbb{R}^n. Escolhida a base (com vetores coluna) e_1 = (1,0,\dotsc,0)^t, \dotsc, e_n = (0,\dotsc,0,1)^t para \mathbb{R}^n, um elemento de \alpha \in L(\mathbb{R}^n) é unicamente determinado pela imagem da base. Chamando de A = (\alpha(e_1), \dotsc, \alpha(e_n)) a matriz onde a i-ésima coluna é a imagem de e_i, esta matriz representa \alpha, pois Av = \alpha(v). Desta forma, é fácil entender a “fórmula” para multiplicação de matrizes…

    Se v = (v_1, \dotsc, v_n)^t, então Av = v_1 \alpha(e_1) + \dotsb + v_n \alpha(e_n). Isso é a multiplicação da matriz A pela matriz com uma só coluna v. Seja agora outro endomorfismo \beta \in L(\mathbb{R}^n). Este endomofismo é representado pela matriz B = (\beta(e_1), \dotsc, \beta(e_n)). Queremos definir AB como sendo a matriz que representa \alpha \circ \beta. Para isso, basta determinar qual é a imagem da base canônica por \alpha \circ \beta, pois AB = (\alpha \circ \beta(e_1), \dotsc, \alpha \circ \beta(e_n)). Como a i-ésima coluna de B é \beta(e_i) = (b_{1i}, \dotsc, b_{ni})^t, a i-ésima coluna de AB deve ser a imagem de \beta(e_i) por A. Ou seja, a i-ésima coluna do produto deve ser b_{1i} \alpha(e_1) + \dotsb + b_{ni} \alpha(e_n). Assim, derivamos facilmente a fórmula para o produto de matrizes, que foi definido justamente para representar a composição dos endomorfismos que cada matriz representa. Note que não precisávamos ter tomado e_i como sendo a base canônica. Poderia ser qualquer base. Poderíamos ter uma base para o domínio e uma outra para a imagem (colunas da matriz).

    • Lucatelli disse:

      hehehe…😀😀😀😀😀😀🙂
      Massa, né?🙂🙂😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀😀

      VALEU, ANDRÉ!😀

Deixe uma resposta

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

%d blogueiros gostam disto: