Para cualquier holomorphic función $G$, podemos definir una matriz correspondiente de la función $\bar{G}$ a través de (una versión formal de) la Integral de Cauchy Fórmula:
$$\bar{G}. (B) := \frac{1}{2 \pi i} \oint_C G(z) (z I - B)^{-1} dz ,$$
donde $C$ es un (arbitrario) en el sentido contrario de la curva que encierra los valores propios de la (plaza) de la matriz $B$. Tenga en cuenta que la condición en $C$ significa que las restricciones en el dominio de $G$ determinar las restricciones en el dominio de $\bar{G}$.
Ahora, para todos los números enteros no negativos $n$, $n!$ coincide con el valor de $F(n)$ de la holomorphic función $$F: x \mapsto \Gamma(x + 1)$$ $n$, donde $\Gamma$ denota la función Gamma. Así, podemos tener sentido de que el factorial de un (plaza) de la matriz $B$ formando $\bar{F}$ como el anterior y declarar $B! := \bar{F}(B)$.
Esto coincide, por cierto, con la evaluación formal de $\sum_{i = 0}^{\infty} a_k (B - z_0 I)^k$ de la alimentación de la serie $\sum_{i = 0}^{\infty} a_k (z - z_0)^k$ de $G$, al menos en un conjunto donde la serie tiene la adecuada convergencia de comportamiento (pero tenga en cuenta que este conjunto puede estar vacío!). De hecho, no creo que el poder de la serie puede ser usado directamente para evaluar $A!$ en este caso: La función $F$ tiene un polo en el segmento de línea en $\Bbb C$ con los extremos de los autovalores de $A$, así que no hay punto de base $z_0$ para los cuales la serie converge en $Un$.
Podemos definir $B!$ de otra manera, que coincide adecuadamente con la Integral de Cauchy definición de Fórmula y es más susceptible de cálculo explícito: Si $B$ es diagonalizable, por lo que podemos descomponer $$B = P \pmatrix{\lambda_1 & & \\ & \ddots & \\ & & \lambda_n} P^{-1} ,$$
para autovalores $(\lambda_a)$ a $B$ y algunos de la matriz $P$, definimos
$$\bar{G}. (B) := P \pmatrix{G(\lambda_1) & & \\ & \ddots & \\ & & G(\lambda_n)} P^{-1} .$$ En efecto, sustituyendo y reorganizar, podemos ver que esto coincide, al menos formalmente, con el poder de la serie de la caracterización. (Hay una similar, pero de forma más complicada para nondiagonalizable $B$ que no voy a escribir aquí, pero que se da en el artículo de Wikipedia de la Matriz de función; no necesitamos aquí de todos modos.)
En nuestro ejemplo, $A$ tiene distintos autovalores $\lambda_{\pm} = 1 \pm \sqrt{6}$, y puede por lo tanto puede ser diagonalized $$P \pmatrix{1 - \sqrt{6} & 0 \\ 0 & 1 + \sqrt{6}} P^{-1} ;$$, de hecho, podemos tomar $$P = \pmatrix{\tfrac{1}{2} & \tfrac{1}{2} \\ -\frac{1}{\sqrt{6}} & \frac{1}{\sqrt{6}}}.$$
Ahora, $F(\lambda_{\pm}) = \Gamma(\lambda_{\pm} + 1) = \Gamma (2 {\pm} \sqrt{6}),$
y poniendo todo esto junto nos da que
\begin{align*}\pmatrix{1 & 3 \\ 2 & 1} ! = \bar{F}(a) Y= P \pmatrix{F(\lambda_-) & 0 \\ 0 & F(\lambda_+)} P^{-1} \\ &= \pmatrix{\tfrac{1}{2} & \tfrac{1}{2} \\ -\frac{1}{\sqrt{6}} & \frac{1}{\sqrt{6}}} \pmatrix{\Gamma (2 - \sqrt{6}) & 0 \\ 0 & \Gamma (2 + \sqrt{6})} \pmatrix{1 & -\frac{\sqrt{3}}{\sqrt{2}} \\ 1 & \frac{\sqrt{3}}{\sqrt{2}}} .\end{align*}
Multiplicando esto da
$$\color{#bf0000}{\boxed{\pmatrix{1 & 3 \\ 2 & 1} ! = \pmatrix{\frac{1}{2} \alpha_+ & \frac{\sqrt{3}}{2 \sqrt{2}} \alpha_- \\ \frac{1}{\sqrt{6}} \alpha_- & \frac{1}{2} \alpha_+}}} ,$$
donde $$\alpha_{\pm} = \Gamma(2 + \sqrt{6}) \pm \Gamma(2 - \sqrt{6}). $$
(Opcionalmente, se puede utilizar el factorial-como la identidad $\Gamma(z + 1) = z \Gamma(z)$ a escribir
$$\Gamma(2 \pm \sqrt{6}) = (1 \pm \sqrt{6}) \Gamma(1 \pm \sqrt{6}) = (6 \pm \sqrt{6}) \Gamma(\pm \sqrt{6})$$ y la reflexión de la fórmula $$-z \Gamma(z) \Gamma(-z) = \frac{\pi}{\sin \pi z}$$ para escribir las entradas como las expresiones algebraicas en $\pi$ y $\Gamma(\sqrt{6})$).
Quizás no es muy esclarecedor, pero $A!$ tiene valor numérico
$$
\pmatrix{1 & 3 \\ 2 & 1}! \aprox \pmatrix{3.62744 & 8.84231 \\ 5.89488 & 3.62744} .
$$
Para llevar a cabo estos cálculos, escribí el siguiente sencillo de Arce procedimiento (en particular, se implementa la fórmula anterior y, por tanto, sólo funciona en el diagonalizable caso):
with(LinearAlgebra):
MatrixFactorial := proc(A) local P, lambda;
P := JordanForm(A, output = 'Q');
lambda := Diagonal(JordanForm(A, output = 'J'));
DiagonalMatrix(map(u -> GAMMA(u + 1), lambda));
P.%.MatrixInverse(P);
end proc;
Después de ejecutar lo anterior, uno de replicar el cálculo de $A!$ mediante la ejecución de
A := Matrix([[1, 3], [2, 1]]);
MatrixFactorial(A);
evalf(%);
Por el camino, no tenemos necesidad de tener que $\det B \neq 0$ en el fin de definir $B!$. De hecho, proceder como anteriormente, encontramos que el factorial de la matriz cero es de $$0! = I .$$ Del mismo modo (y sorprendentemente), usando la fórmula de nondiagonalizable matrices mencionadas anteriormente junto con una identidad especial que da el factorial de los $2 \times 2$ Jordania bloque de autovalor cero es
$$\pmatrix{0 & 1\\0 & 0} ! = \pmatrix{1 & -\gamma \\ 0 & 1} ,$$ donde $\gamma$ es el de Euler-Mascheroni constante.