20 votos

El logaritmo matricial está bien definido, pero ¿cómo podemos ver *algebraicamente* que es inverso a la exponencial, como un polinomio finito?

Esta pregunta se inspira en este que he visto hoy. Empecé a escribir mi respuesta, para compartir la idea de que el logaritmo de la matriz se puede definir en matrices que no tienen norma unitaria utilizando una técnica alternativa.

Ahora, Sangchul ha publicado una gran respuesta explicando cómo es que conocemos el mapa $X\mapsto\sum_{n=1}^\infty\frac{(-1)^{n-1}}{n}X^n$ define un logaritmo de $1+X$ siempre que la suma sea convergente, siempre que $\|X\|\lt1$ . Por escalamiento, podemos utilizar este mapa para obtener logaritmos arbitrarios ya que existe una definición fácil $\log(\lambda I)=(\log\lambda)I$ que satisface $\exp(\log(\lambda I))=\lambda I$ trivialmente, y esta matriz también conmutará con todas las demás matrices.

Prefiero un enfoque que elude por completo el cálculo funcional, que aprendí por primera vez en Wikipedia hace más de un año. El argumento procede así, parafraseado por mí:

Para cualquier $n\times n$ matriz compleja $X$ existe una base del espacio $\Bbb C^n$ en el que $X=\bigoplus_{m=1}^kJ_m$ una descomposición en bloques de Jordan con algunos valores propios asociados $\lambda_m$ . Si podemos encontrar una matriz $Y=\bigoplus_{m=1}^nT_m$ donde $\exp(T_m)=J_m$ para todos $m$ entonces una simple inspección de la serie exponencial muestra $\exp(Y)=\bigoplus_{m=1}^n\exp(T_m)=\bigoplus_{m=1}^nJ_m=X$ Así que $Y$ es a logaritmo de $X$ . Muchos existirán por cuestiones de ramificación.

Queda encontrar un logaritmo de cualquier bloque arbitrario de Jordan. Para un bloque $J$ con valor propio $\lambda$ podemos escribir $J=\lambda(I+K)$ donde $K$ es la matriz con todas las entradas nulas, excepto las entradas $\lambda^{-1}$ en la primera superdiagonal ( $\lambda\neq0$ por invertibilidad). Si suponemos que el argumento formal de la serie de potencias es válido podemos decir: $$\begin{align}\log(\lambda(I+K))&=\log(\lambda)I+\log(I+K)\\&=\log(\lambda)I+K-\frac{1}{2}K^2+\frac{1}{3}K^3\\&+\cdots+(-1)^j\frac{1}{j-1}K^{j-1}\end{align}$$ Desde $K$ será nilpotente de orden $j$ si $j$ es la dimensión del bloque de Jordan, los términos de cola de la serie de Mercator desaparecen.

Cualquier rama del logaritmo complejo es adecuada para $(\log(\lambda))I$ - debido a la conmutatividad, la reexponenciación da $\lambda\exp(K-(1/2)K^2+\cdots)\overset{?}{=}\lambda(1+K)$ .

Entonces afirmar que este proceso produce un logaritmo para todos los invertibles $X$ basta con demostrar lo siguiente:

Para todos $\lambda\in\Bbb C$ y todos $n\times n$ matrices cuadradas $K$ de la forma: $$K=\begin{pmatrix}0&\lambda&0&0&\cdots\\0&0&\lambda&0&\cdots\\0&0&0&\lambda&\cdots\\\vdots&\vdots&\vdots&\ddots&\vdots\\0&0&0&\cdots&0\end{pmatrix}$$ Tenemos la identidad (por conmutatividad, las dos son equivalentes): $$\exp\left(\sum_{m=1}^{n-1}\frac{(-1)^{m-1}}{m}K^m\right)=\prod_{m=1}^{n-1}\exp\left(\frac{(-1)^{m-1}}{m}K^m\right)=I_n+K$$

Busco un algebraico (o similar) de este resultado. No me malinterpretes: aprecio las demostraciones indirectas y las encuentro bastante mágicas siempre que surgen, pero nunca he estudiado ningún desarrollo riguroso del cálculo funcional. Las funciones analíticas pueden extenderse a argumentos matriciales mediante diversos métodos: series matriciales de Taylor, Cayley-Hamilton, representaciones integrales extrañas de Cauchy, series de potencias convergentes en el espacio de Banach... y acepto todos ellos. como extensiones tal vez con algunas propiedades convenientes, como las relaciones de derivación, heredadas de la teoría analítica compleja/real.

Sin embargo, parece sospechoso que las propiedades de "orden superior" también deban conservarse en este proceso de ampliación. Aunque podemos dar análogos bien definidos y bien motivados de $\exp$ y $\log$ a las matrices, no veo ninguna razón inmediata, a priori suponer que la extensión refleja relaciones entre ellos como $\exp\log\equiv\mathrm{Id}$ . La razón principal de mi sospecha es la siguiente observación: el análisis tiende a funcionar mediante argumentos limitadores, y las sumas finitas no sirven: sólo dan polinomios. Entonces es bastante impar que una serie analítica mantenga sus propiedades "especiales" a pesar de colapsar en una serie polinómica finita - $\Bbb C$ no tiene elementos nilpotentes distintos de cero, pero el espacio de matrices sí los tiene, y es un ingrediente clave en la construcción anterior del logaritmo.

¿Qué estoy buscando? Estoy buscando una explicación sólida de por qué lo que estoy llamando propiedades de "orden superior" deberían trasladarse en este proceso de extensión, especialmente dado que hay muchas formas diferentes de extender funciones analíticas a argumentos matriciales: por supuesto, cualquier propiedad que pueda deducirse de la serie de potencias se trasladará, p. ej. $\exp(A+B)=\exp(A)\exp(B)$ si $A,B$ conmutar. Sin embargo, $\exp\circ\log$ 's power series no me queda claro aquí, ya que el $\log$ en realidad no es una serie de potencias en este contexto, sino un polinomio finito. Para reiterar, es el uso de elementos nilpotentes lo que me preocupa, ya que esto pone en entredicho el álgebra de $\Bbb C$ Creo que también debería cuestionar las series analíticas que proceden de $\Bbb C$ : al menos, debería necesitar alguna justificación más.

Una prueba algebraica (prueba aritmética matricial directa, o tal vez algún argumento inteligente de álgebra lineal) de por qué este logaritmo nilpotente en particular debe mantenerse, sería muy apreciada. Mis pensamientos sobre este asunto hasta ahora:

$$T:=\sum_{m=1}^{n-1}\frac{(-1)^{m-1}}{m}K^m\\=\begin{pmatrix}0&\lambda&-\frac{1}{2}\lambda^2&\cdots&(-1)^n\frac{1}{n-1}\lambda^{n-1}\\0&0&\lambda&\cdots&(-1)^{n-1}\frac{1}{n-2}\lambda^{n-2}\\0&0&0&\cdots&(-1)^n\frac{1}{n-3}\lambda^{n-3}\\\vdots&\vdots&\vdots&\ddots&\vdots\\0&0&0&\cdots&0\end{pmatrix}$$ Una observación de la forma en que los elementos de esta matriz se "desplazan" hacia arriba por una diagonal cada vez que la matriz se eleva al cuadrado, al cubo, etc. muestra que la superdiagonal principal tiene entradas distintas de cero una y sólo una vez en $I+T+\frac{1}{2}T^2+\cdots$ y podemos fácilmente calcular parcialmente la exponencial: $$\exp(T)=\begin{pmatrix}1&\lambda&?&?&\cdots&?\\0&1&\lambda&?&\cdots&?\\0&0&1&\lambda&\cdots&?\\0&0&0&1&\cdots&?\\\vdots&\vdots&\vdots&\vdots&\ddots&\vdots\\0&0&0&0&\cdots&1\end{pmatrix}$$ Queda por demostrar que la suma de todos los superdiagonales restantes desaparece. Otro punto pertinente es que $T$ es nilpotente de orden $n$ por lo que la serie exponencial termina en $\frac{1}{(n-1)!}T^{n-1}$ . Esto reexplica mi sospecha, ya que ahora estamos afirmando que estos dos polinomios son inversos, lo cual es falso en el mundo complejo en el que empezamos.

¿Cómo podemos rellenar aquí las lagunas algebraicas? Las potencias matriciales parecen bastante difíciles de calcular simbólicamente.

N.B. La respuesta de Sanchul en el post enlazado no necesita ni una sola vez la invertibilidad de $X$ por lo que veo, mientras que esta construcción basada en Wikipedia sí lo hace. ¿Cómo conciliamos las dos?

12voto

Homer Puntos 198

Tú escribiste:

Sin embargo, parece sospechoso que las propiedades de "orden superior" también deban conservarse en este proceso de ampliación.

Esto no es tan sospechoso como parece. Se trata básicamente de una extensión del principio de permanencia de las identidades de polinomios a series de potencias, que se basa únicamente en la unicidad de las expansiones de series de potencias: si $\sum_{n=0}^{\infty} a_n z^n = \sum_{n=0}^{\infty} b_n z^n$ para todos los números complejos $z$ o incluso todos $z \in U$ donde $U$ es cualquier conjunto abierto no vacío, entonces $a_n = b_n$ para todos $n$ .

La idea es que si sabes que $\exp(\log z) = z$ para números complejos $z \in U$ entonces se sabe, por la propiedad anterior, que la expansión en serie de potencias para $\exp(\log z)$ en $\mathbb{C}$ deben anularse todos y dejar sólo $z$ en el lado derecho. Pero el cálculo de la expansión de la serie de potencias es válido también para matrices, ya que el $\exp$ y $\log$ para matrices están definidas por la misma serie de potencias, y sólo hay una variable implicada, por lo que todo conmuta para las matrices igual que para $\mathbb{C}$ . Tampoco hay problemas de convergencia, ya que para cualquier $n$ el coeficiente de $z^n$ (ou $A^n$ para matrices) se determina mediante un cálculo finito.

Esto se explica más detalladamente con un ejemplo (para polinomios) en mi respuesta enlazada sobre el principio de permanencia de las identidades.

7voto

psychotik Puntos 171

He aquí una respuesta basada en el principio de permanencia. Defina $c_{n,m}$ por

$$ c_{n,m} = \sum_{\substack{j_1 \geq 1, \ldots, j_n \geq 1 \\ j_1 + \cdots + j_n = m}} \frac{(-1)^{j_1-1}}{j_1} \cdots \frac{(-1)^{j_n-1}}{j_n}. $$

Entonces, para $|z| < 1$ tenemos $\sum_{n=0}^{\infty} \frac{1}{n!} \left(\sum_{j=1}^{\infty} \frac{1}{j} |z|^j \right)^n < \infty$ . Esto permite reordenar la suma

$$ \sum_{n=0}^{\infty} \frac{1}{n!} \left(\sum_{j=1}^{\infty} \frac{(-1)^{j-1}}{j} z^j \right)^n = 1 + \sum_{n=1}^{\infty} \frac{1}{n!} \left( \sum_{j_1 = 1}^{\infty} \cdots \sum_{j_n = 1}^{\infty} \frac{(-1)^{j_1-1}}{j_1} \cdots \frac{(-1)^{j_n-1}}{j_n} z^{j_1 + \cdots + j_n} \right) $$

como queramos. Así que..,

\begin{align*} \exp(\log(1+z)) &= \sum_{n=0}^{\infty} \frac{1}{n!} \left(\sum_{j=1}^{\infty} \frac{(-1)^{j-1}}{j} z^j \right)^n \\ &= 1 + \sum_{n=1}^{\infty} \frac{1}{n!} \left(\sum_{m=1}^{\infty} c_{n,m} z^m \right) \\ &= 1 + \sum_{m=1}^{\infty} \left(\sum_{n=1}^{\infty} \frac{1}{n!} c_{n,m} \right) z^m. \end{align*}

Si lo comparamos con $\exp(\log(1+z)) = 1+z$ obtenemos

$$ \sum_{n=1}^{\infty} \frac{1}{n!} c_{n,m} = \begin{cases} 1, & m = 1; \\ 0, & m \geq 2. \end{cases} $$

Ahora, dejemos que $K$ sea una matriz nilpotente, de modo que $K^{d+1} = 0$ para algunos $d \geq 1$ . Entonces

\begin{align*} \exp\left(\sum_{j=1}^{\infty} \frac{(-1)^{j-1}}{j} K^j \right) &= \exp\left(\sum_{j=1}^{d} \frac{(-1)^{j-1}}{j} K^j \right) \\ &= \sum_{n=0}^{\infty} \frac{1}{n!} \left(\sum_{j=1}^{d} \frac{(-1)^{j-1}}{j} K^j \right)^n \\ &= 1 + \sum_{n=1}^{\infty} \frac{1}{n!} \left(\sum_{m=1}^{d} c_{n,m} K^m \right) \\ &= 1 + \sum_{m=1}^{d} \left(\sum_{n=0}^{\infty} \frac{1}{n!} c_{n,m}\right) K^m \\ &= 1 + K. \end{align*}

4voto

GmonC Puntos 114

La gente debería aprender las series de potencias formales antes de exponerse a las series de potencias numéricas; las formales son mucho más bonitas.

Creo que su pregunta (que es demasiado larga para mí) se reduce a pedir una prueba directa de que $\exp(\log(1+X))=1+X$ se cumple en el anillo formal de series de potencias $R=\Bbb Q[[X]]$ donde se puede poner $\log(1+X)=\sum_{n>0}(-1)^{n-1}\frac{X^n}n\in\Bbb Q[[X]]$ como el definición del logaritmo (se puede decir más, pero para el propósito actual esto debería ser suficiente). En cuanto a la exponencial, $\exp(S)$ sólo se define para $X\in R$ (y con valor en $R$ ) si no hay ningún término constante, es decir, si $S[X:=0]=0$ . En ese caso se puede definir $\exp(S)$ como única solución $E$ de la ecuación diferencial $\def\d{\mathrm d}\def\D{\frac\d{\d X}}\D E=E\D S$ y con $E[X:=0]=1$ (esto es análogo a definir, para alguna función diferenciable $f$ con $f(0)=0$ la exponencial $\exp(f(x))$ como $g(x)$ donde $g'=gf'$ y $g(0)=1$ ).

Para mostrar esto explícitamente, es un poco más fácil (aunque evitable, lo que dejo como ejercicio) sustituir $X:=-X$ en ambos lados de la ecuación, por lo que tenemos que demostrar para $$ L=\log(1-X)=-\sum_{n>0}\frac{X^n}n\in\Bbb Q[[X]] $$ que $$ \D(1-X)=(1-X)\D L \qquad\text{and}\qquad (1-X)[X:=0]=1. $$ La segunda parte es inmediata, y $\D(1-X)=-1$ también está claro. Queda por calcular $$\D L=-\sum_{n>0}\frac{nX^{n-1}}n=-\sum_{m\in\Bbb N}X^m,$$ que efectivamente cuando se multiplica por $1-X$ en $R$ da la serie constante $-1$ y la prueba está completa.


Un enfoque más computacional de la exponenciación ofrece una perspectiva ligeramente distinta de esta igualdad. Debido a la forma en que el operador $\D$ actúa sobre series de potencias formales, es conveniente escribir elementos de $\Bbb Q[[X]]$ de la forma $\sum_{n\in\Bbb N}a_n\frac{X^n}{n!}$ (la "serie generadora exponencial" de la secuencia $(a_n)_{n\in\Bbb N}$ llamada así porque la de $(1)_{n\in\Bbb N}$ es $\exp(X)$ ); entonces $\D$ sólo elimina el coeficiente constante y desplaza todos los demás coeficientes un grado hacia abajo: $$ \D\left(\sum_{n\in\Bbb N}a_n\frac{X^n}{n!}\right)= \sum_{n\in\Bbb N}a_{n+1}\frac{X^n}{n!}. $$ Por otro lado, la multiplicación es algo más complicada; se tiene $$ \Bigl(\sum_{n\in\Bbb N}a_n\frac{X^n}{n!}\Bigr) \Bigl(\sum_{n\in\Bbb N}b_n\frac{X^n}{n!}\Bigr)= \sum_{n\in\Bbb N}c_n\frac{X^n}{n!} \quad\text{where}\quad c_n=\sum_{i=0}^n\binom nia_ib_{n-i}. $$ Ahora, con una ligera variación de lo anterior, me gustaría demostrar que la exponencial de $$ -L=-\log(1-X)=\sum_{n>0}(n-1)!\frac{X^n}{n!} \qquad\text{is}\qquad \frac1{1-X}=\sum_{n\in\Bbb N}n!\frac{X^n}{n!} $$ como sugiere la expresión. Se puede calcular fácilmente $\D(-L)=\sum_{n\in\Bbb N}n!\frac{X^n}{n!}$ (esto coincide algo confusamente con lo que queremos mostrar es $\exp(-L)$ (aquí sólo sirve para establecer la ecuación diferencial). A continuación, tratamos de encontrar $E=\exp(-L)=\sum_{n\in\Bbb N}e_n\frac{X^n}{n!}$ como la serie con $e_0=1$ y que satisface $\D(E)=E\D(-L)=(\sum_{n\in\Bbb N}e_n\frac{X^n}{n!})(\sum_{n\in\Bbb N}n!\frac{X^n}{n!})$ . El lado izquierdo es $\D(E)=\sum_{n\in\Bbb N}e_{n+1}\frac{X^n}{n!}$ por lo que encontramos la relación de recurrencia $$e_{n+1}=\sum_{i=0}^n\binom nie_i(n-i)!\qquad.$$ Después de utilizar la condición inicial $e_0=1$ se puede resolver para obtener los términos sucesivos $e_1=1$ , $e_2=2$ , $e_3=6$ , .... Ahora es fácil adivinar que $e_n=n!$ y efectivamente sustituyendo esto satisface la relación de recurrencia. Esto da $E=\sum_{n\in\Bbb N}n!\frac{X^n}{n!}=\frac1{1-X}$ que es, de hecho, lo que nos propusimos demostrar que $\exp(-L)$ daría.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X