Esta pregunta se inspira en este que he visto hoy. Empecé a escribir mi respuesta, para compartir la idea de que el logaritmo de la matriz se puede definir en matrices que no tienen norma unitaria utilizando una técnica alternativa.
Ahora, Sangchul ha publicado una gran respuesta explicando cómo es que conocemos el mapa $X\mapsto\sum_{n=1}^\infty\frac{(-1)^{n-1}}{n}X^n$ define un logaritmo de $1+X$ siempre que la suma sea convergente, siempre que $\|X\|\lt1$ . Por escalamiento, podemos utilizar este mapa para obtener logaritmos arbitrarios ya que existe una definición fácil $\log(\lambda I)=(\log\lambda)I$ que satisface $\exp(\log(\lambda I))=\lambda I$ trivialmente, y esta matriz también conmutará con todas las demás matrices.
Prefiero un enfoque que elude por completo el cálculo funcional, que aprendí por primera vez en Wikipedia hace más de un año. El argumento procede así, parafraseado por mí:
Para cualquier $n\times n$ matriz compleja $X$ existe una base del espacio $\Bbb C^n$ en el que $X=\bigoplus_{m=1}^kJ_m$ una descomposición en bloques de Jordan con algunos valores propios asociados $\lambda_m$ . Si podemos encontrar una matriz $Y=\bigoplus_{m=1}^nT_m$ donde $\exp(T_m)=J_m$ para todos $m$ entonces una simple inspección de la serie exponencial muestra $\exp(Y)=\bigoplus_{m=1}^n\exp(T_m)=\bigoplus_{m=1}^nJ_m=X$ Así que $Y$ es a logaritmo de $X$ . Muchos existirán por cuestiones de ramificación.
Queda encontrar un logaritmo de cualquier bloque arbitrario de Jordan. Para un bloque $J$ con valor propio $\lambda$ podemos escribir $J=\lambda(I+K)$ donde $K$ es la matriz con todas las entradas nulas, excepto las entradas $\lambda^{-1}$ en la primera superdiagonal ( $\lambda\neq0$ por invertibilidad). Si suponemos que el argumento formal de la serie de potencias es válido podemos decir: $$\begin{align}\log(\lambda(I+K))&=\log(\lambda)I+\log(I+K)\\&=\log(\lambda)I+K-\frac{1}{2}K^2+\frac{1}{3}K^3\\&+\cdots+(-1)^j\frac{1}{j-1}K^{j-1}\end{align}$$ Desde $K$ será nilpotente de orden $j$ si $j$ es la dimensión del bloque de Jordan, los términos de cola de la serie de Mercator desaparecen.
Cualquier rama del logaritmo complejo es adecuada para $(\log(\lambda))I$ - debido a la conmutatividad, la reexponenciación da $\lambda\exp(K-(1/2)K^2+\cdots)\overset{?}{=}\lambda(1+K)$ .
Entonces afirmar que este proceso produce un logaritmo para todos los invertibles $X$ basta con demostrar lo siguiente:
Para todos $\lambda\in\Bbb C$ y todos $n\times n$ matrices cuadradas $K$ de la forma: $$K=\begin{pmatrix}0&\lambda&0&0&\cdots\\0&0&\lambda&0&\cdots\\0&0&0&\lambda&\cdots\\\vdots&\vdots&\vdots&\ddots&\vdots\\0&0&0&\cdots&0\end{pmatrix}$$ Tenemos la identidad (por conmutatividad, las dos son equivalentes): $$\exp\left(\sum_{m=1}^{n-1}\frac{(-1)^{m-1}}{m}K^m\right)=\prod_{m=1}^{n-1}\exp\left(\frac{(-1)^{m-1}}{m}K^m\right)=I_n+K$$
Busco un algebraico (o similar) de este resultado. No me malinterpretes: aprecio las demostraciones indirectas y las encuentro bastante mágicas siempre que surgen, pero nunca he estudiado ningún desarrollo riguroso del cálculo funcional. Las funciones analíticas pueden extenderse a argumentos matriciales mediante diversos métodos: series matriciales de Taylor, Cayley-Hamilton, representaciones integrales extrañas de Cauchy, series de potencias convergentes en el espacio de Banach... y acepto todos ellos. como extensiones tal vez con algunas propiedades convenientes, como las relaciones de derivación, heredadas de la teoría analítica compleja/real.
Sin embargo, parece sospechoso que las propiedades de "orden superior" también deban conservarse en este proceso de ampliación. Aunque podemos dar análogos bien definidos y bien motivados de $\exp$ y $\log$ a las matrices, no veo ninguna razón inmediata, a priori suponer que la extensión refleja relaciones entre ellos como $\exp\log\equiv\mathrm{Id}$ . La razón principal de mi sospecha es la siguiente observación: el análisis tiende a funcionar mediante argumentos limitadores, y las sumas finitas no sirven: sólo dan polinomios. Entonces es bastante impar que una serie analítica mantenga sus propiedades "especiales" a pesar de colapsar en una serie polinómica finita - $\Bbb C$ no tiene elementos nilpotentes distintos de cero, pero el espacio de matrices sí los tiene, y es un ingrediente clave en la construcción anterior del logaritmo.
¿Qué estoy buscando? Estoy buscando una explicación sólida de por qué lo que estoy llamando propiedades de "orden superior" deberían trasladarse en este proceso de extensión, especialmente dado que hay muchas formas diferentes de extender funciones analíticas a argumentos matriciales: por supuesto, cualquier propiedad que pueda deducirse de la serie de potencias se trasladará, p. ej. $\exp(A+B)=\exp(A)\exp(B)$ si $A,B$ conmutar. Sin embargo, $\exp\circ\log$ 's power series no me queda claro aquí, ya que el $\log$ en realidad no es una serie de potencias en este contexto, sino un polinomio finito. Para reiterar, es el uso de elementos nilpotentes lo que me preocupa, ya que esto pone en entredicho el álgebra de $\Bbb C$ Creo que también debería cuestionar las series analíticas que proceden de $\Bbb C$ : al menos, debería necesitar alguna justificación más.
Una prueba algebraica (prueba aritmética matricial directa, o tal vez algún argumento inteligente de álgebra lineal) de por qué este logaritmo nilpotente en particular debe mantenerse, sería muy apreciada. Mis pensamientos sobre este asunto hasta ahora:
$$T:=\sum_{m=1}^{n-1}\frac{(-1)^{m-1}}{m}K^m\\=\begin{pmatrix}0&\lambda&-\frac{1}{2}\lambda^2&\cdots&(-1)^n\frac{1}{n-1}\lambda^{n-1}\\0&0&\lambda&\cdots&(-1)^{n-1}\frac{1}{n-2}\lambda^{n-2}\\0&0&0&\cdots&(-1)^n\frac{1}{n-3}\lambda^{n-3}\\\vdots&\vdots&\vdots&\ddots&\vdots\\0&0&0&\cdots&0\end{pmatrix}$$ Una observación de la forma en que los elementos de esta matriz se "desplazan" hacia arriba por una diagonal cada vez que la matriz se eleva al cuadrado, al cubo, etc. muestra que la superdiagonal principal tiene entradas distintas de cero una y sólo una vez en $I+T+\frac{1}{2}T^2+\cdots$ y podemos fácilmente calcular parcialmente la exponencial: $$\exp(T)=\begin{pmatrix}1&\lambda&?&?&\cdots&?\\0&1&\lambda&?&\cdots&?\\0&0&1&\lambda&\cdots&?\\0&0&0&1&\cdots&?\\\vdots&\vdots&\vdots&\vdots&\ddots&\vdots\\0&0&0&0&\cdots&1\end{pmatrix}$$ Queda por demostrar que la suma de todos los superdiagonales restantes desaparece. Otro punto pertinente es que $T$ es nilpotente de orden $n$ por lo que la serie exponencial termina en $\frac{1}{(n-1)!}T^{n-1}$ . Esto reexplica mi sospecha, ya que ahora estamos afirmando que estos dos polinomios son inversos, lo cual es falso en el mundo complejo en el que empezamos.
¿Cómo podemos rellenar aquí las lagunas algebraicas? Las potencias matriciales parecen bastante difíciles de calcular simbólicamente.
N.B. La respuesta de Sanchul en el post enlazado no necesita ni una sola vez la invertibilidad de $X$ por lo que veo, mientras que esta construcción basada en Wikipedia sí lo hace. ¿Cómo conciliamos las dos?