204 votos

¿Cómo podríamos definir el factorial de una matriz?

Supongamos que tenemos una matriz cuadrada $\mathsf{A}$ $\det \mathsf{A}\neq 0 $.

¿Cómo podríamos definir la siguiente operación? $$ \mathsf{A}!$$

Tal vez podríamos hacer un simple ejemplo, admitió hace algún sentido, con

$$ \mathsf{A} = \left (\begin{matrix} 1 & 3 \\ 2 & 1 \end{matrix} \right) $$

297voto

Travis Puntos 30981

Para cualquier holomorphic función $G$, podemos definir una matriz correspondiente de la función $\bar{G}$ a través de (una versión formal de) la Integral de Cauchy Fórmula: $$\bar{G}. (B) := \frac{1}{2 \pi i} \oint_C G(z) (z I - B)^{-1} dz ,$$ donde $C$ es un (arbitrario) en el sentido contrario de la curva que encierra los valores propios de la (plaza) de la matriz $B$. Tenga en cuenta que la condición en $C$ significa que las restricciones en el dominio de $G$ determinar las restricciones en el dominio de $\bar{G}$.

Ahora, para todos los números enteros no negativos $n$, $n!$ coincide con el valor de $F(n)$ de la holomorphic función $$F: x \mapsto \Gamma(x + 1)$$ $n$, donde $\Gamma$ denota la función Gamma. Así, podemos tener sentido de que el factorial de un (plaza) de la matriz $B$ formando $\bar{F}$ como el anterior y declarar $B! := \bar{F}(B)$.

Esto coincide, por cierto, con la evaluación formal de $\sum_{i = 0}^{\infty} a_k (B - z_0 I)^k$ de la alimentación de la serie $\sum_{i = 0}^{\infty} a_k (z - z_0)^k$ de $G$, al menos en un conjunto donde la serie tiene la adecuada convergencia de comportamiento (pero tenga en cuenta que este conjunto puede estar vacío!). De hecho, no creo que el poder de la serie puede ser usado directamente para evaluar $A!$ en este caso: La función $F$ tiene un polo en el segmento de línea en $\Bbb C$ con los extremos de los autovalores de $A$, así que no hay punto de base $z_0$ para los cuales la serie converge en $Un$.

Podemos definir $B!$ de otra manera, que coincide adecuadamente con la Integral de Cauchy definición de Fórmula y es más susceptible de cálculo explícito: Si $B$ es diagonalizable, por lo que podemos descomponer $$B = P \pmatrix{\lambda_1 & & \\ & \ddots & \\ & & \lambda_n} P^{-1} ,$$ para autovalores $(\lambda_a)$ a $B$ y algunos de la matriz $P$, definimos $$\bar{G}. (B) := P \pmatrix{G(\lambda_1) & & \\ & \ddots & \\ & & G(\lambda_n)} P^{-1} .$$ En efecto, sustituyendo y reorganizar, podemos ver que esto coincide, al menos formalmente, con el poder de la serie de la caracterización. (Hay una similar, pero de forma más complicada para nondiagonalizable $B$ que no voy a escribir aquí, pero que se da en el artículo de Wikipedia de la Matriz de función; no necesitamos aquí de todos modos.)

En nuestro ejemplo, $A$ tiene distintos autovalores $\lambda_{\pm} = 1 \pm \sqrt{6}$, y puede por lo tanto puede ser diagonalized $$P \pmatrix{1 - \sqrt{6} & 0 \\ 0 & 1 + \sqrt{6}} P^{-1} ;$$, de hecho, podemos tomar $$P = \pmatrix{\tfrac{1}{2} & \tfrac{1}{2} \\ -\frac{1}{\sqrt{6}} & \frac{1}{\sqrt{6}}}.$$

Ahora, $F(\lambda_{\pm}) = \Gamma(\lambda_{\pm} + 1) = \Gamma (2 {\pm} \sqrt{6}),$ y poniendo todo esto junto nos da que \begin{align*}\pmatrix{1 & 3 \\ 2 & 1} ! = \bar{F}(a) Y= P \pmatrix{F(\lambda_-) & 0 \\ 0 & F(\lambda_+)} P^{-1} \\ &= \pmatrix{\tfrac{1}{2} & \tfrac{1}{2} \\ -\frac{1}{\sqrt{6}} & \frac{1}{\sqrt{6}}} \pmatrix{\Gamma (2 - \sqrt{6}) & 0 \\ 0 & \Gamma (2 + \sqrt{6})} \pmatrix{1 & -\frac{\sqrt{3}}{\sqrt{2}} \\ 1 & \frac{\sqrt{3}}{\sqrt{2}}} .\end{align*} Multiplicando esto da $$\color{#bf0000}{\boxed{\pmatrix{1 & 3 \\ 2 & 1} ! = \pmatrix{\frac{1}{2} \alpha_+ & \frac{\sqrt{3}}{2 \sqrt{2}} \alpha_- \\ \frac{1}{\sqrt{6}} \alpha_- & \frac{1}{2} \alpha_+}}} ,$$ donde $$\alpha_{\pm} = \Gamma(2 + \sqrt{6}) \pm \Gamma(2 - \sqrt{6}). $$ (Opcionalmente, se puede utilizar el factorial-como la identidad $\Gamma(z + 1) = z \Gamma(z)$ a escribir $$\Gamma(2 \pm \sqrt{6}) = (1 \pm \sqrt{6}) \Gamma(1 \pm \sqrt{6}) = (6 \pm \sqrt{6}) \Gamma(\pm \sqrt{6})$$ y la reflexión de la fórmula $$-z \Gamma(z) \Gamma(-z) = \frac{\pi}{\sin \pi z}$$ para escribir las entradas como las expresiones algebraicas en $\pi$ y $\Gamma(\sqrt{6})$). Quizás no es muy esclarecedor, pero $A!$ tiene valor numérico $$ \pmatrix{1 & 3 \\ 2 & 1}! \aprox \pmatrix{3.62744 & 8.84231 \\ 5.89488 & 3.62744} . $$

Para llevar a cabo estos cálculos, escribí el siguiente sencillo de Arce procedimiento (en particular, se implementa la fórmula anterior y, por tanto, sólo funciona en el diagonalizable caso):

with(LinearAlgebra):

MatrixFactorial := proc(A) local P, lambda;
    P      := JordanForm(A, output = 'Q');
    lambda := Diagonal(JordanForm(A, output = 'J'));
    DiagonalMatrix(map(u -> GAMMA(u + 1), lambda));
    P.%.MatrixInverse(P);
end proc;

Después de ejecutar lo anterior, uno de replicar el cálculo de $A!$ mediante la ejecución de

A := Matrix([[1, 3], [2, 1]]);
MatrixFactorial(A);
evalf(%);

Por el camino, no tenemos necesidad de tener que $\det B \neq 0$ en el fin de definir $B!$. De hecho, proceder como anteriormente, encontramos que el factorial de la matriz cero es de $$0! = I .$$ Del mismo modo (y sorprendentemente), usando la fórmula de nondiagonalizable matrices mencionadas anteriormente junto con una identidad especial que da el factorial de los $2 \times 2$ Jordania bloque de autovalor cero es $$\pmatrix{0 & 1\\0 & 0} ! = \pmatrix{1 & -\gamma \\ 0 & 1} ,$$ donde $\gamma$ es el de Euler-Mascheroni constante.

42voto

Steven Lu Puntos 866

La función gamma es analítica. Utilizar la serie de energía de la misma.

EDIT: ya hecho: algunas propiedades de las funciones de matriz Gamma y Beta (quizá paywalled).

25voto

Alex Peter Puntos 78

Yo comenzaría a partir de la definición lógica de la matriz factorial, sin asumir que queremos cubrir todas las propiedades que conocemos desde factorial conjunto de los reales.

Podemos definir la norma factorial como $1 \cdot (1+1) \cdot (1+1+1) \cdot ... \cdot (1+1+...+1+1)$

Así que primero vamos a definir $[n]!$ utilizando la misma lógica de la sustitución de 1 con la matriz identidad. La manera obvia para definir es

$$[n]!=\prod\limits_{k=1}^{n}\begin{bmatrix} k & 0\\ 0 & k \end{bmatrix}=\begin{bmatrix} n! & 0\\ 0 & n! \end{bmatrix}$$

Todas las propiedades de la norma factorial están ahí. Ahora, hemos sido la definición de la función Gamma por simple extensión de $\Gamma (x+1)=x\Gamma (x)$, donde $n!=\Gamma (n+1)$. Eso es todo lo que se requiere. Así queremos encontrar la matriz Gamma $\Gamma ([x]+I)=[x]\Gamma ([x])$

Si definimos

$$\Gamma (\begin{bmatrix} x & 0\\ 0 & x \end{bmatrix})=\begin{bmatrix} \Gamma (x) & 0\\ 0 & \Gamma (x) \end{bmatrix}$$

estamos totalmente bien porque

$$\begin{bmatrix} x & 0\\ 0 & x \end{bmatrix}\begin{bmatrix} \Gamma (x) & 0\\ 0 & \Gamma (x) \end{bmatrix}=\begin{bmatrix} x\Gamma (x) & 0\\ 0 & x\Gamma (x) \end{bmatrix}=\begin{bmatrix} \Gamma (x+1) & 0\\ 0 & \Gamma (x+1) \end{bmatrix}$$

No hay nada fuera de lugar, si partimos de $\begin{bmatrix} x & 0\\ 0 & y \end{bmatrix}$, por

$$\begin{bmatrix} x & 0\\ 0 & y \end{bmatrix}\begin{bmatrix} \Gamma (x) & 0\\ 0 & \Gamma (y) \end{bmatrix}=\begin{bmatrix} x\Gamma (x) & 0\\ 0 & y\Gamma (y) \end{bmatrix}=\begin{bmatrix} \Gamma (x+1) & 0\\ 0 & \Gamma (y+1) \end{bmatrix}$$

La parte restante es la otra diagonal. Qué hacer con $A=\begin{bmatrix} x_{0} & x_{1}\\ x_{2} & x_{3} \end{bmatrix}$?

Así que partimos de lo que nos gustaría tener $\Gamma([A]+I)=[A]\Gamma([A])$.

Si somos capaces de diagonalize $A=P^{-1}\overline{A}P$ y expresar en la misma forma $\Gamma([A]) = P^{-1}\Gamma(\overline{A})P$ entonces tenemos

$$\Gamma([A]+I) = P^{-1} \overline{A} P P^{-1} \Gamma(\overline{A}) P = P^{-1} \overline{A} \Gamma(\overline{A}) P = P^{-1} \Gamma(\overline{A+I}) P=\Gamma(a+I)$$

así que todo debería estar bien.

Desde $\overline{A}$ es la diagonal con los valores propios de la diagonal principal de $\lambda_{1},\lambda_{2}$ y sabemos cómo lidiar con ese tipo de matriz, tenemos la definición completa de $\Gamma(Una)$ incluso para las matrices.

$$\Gamma(A)=P^{-1}\begin{bmatrix} \Gamma (\lambda_{1}) & 0\\ 0 & \Gamma (\lambda_{2}) \end{bmatrix}P$$

y ahora $A!=\Gamma(a+I)$ lo que es de todos

$$A!=P^{-1}\begin{bmatrix} \Gamma (\lambda_{1}+1) & 0\\ 0 & \Gamma (\lambda_{2}+1) \end{bmatrix}P$$

23voto

hans Puntos 121

No tengo suficientes puntos de reputación para comentar sobre la respuesta de Travis, pero su resultado numérico es incorrecta.

Con Julia me sale

A = [1 3; 2 1]
EVD = eigfact(A)
V = EVD [: vectores]
g = gamma(EVD[:values])
gammaA = V * diagm(g) * inv(V)
factA = A * gammaA

 3.62744  8.84231
 5.89488  3.62744

Como cond(V) no es demasiado terrible, he encontrado el procedimiento anterior para ser una forma práctica de evaluar funciones arbitrarias de la matriz.

4voto

Nikos M. Puntos 1031

Travis respuesta es muy agradable.

Sería bueno mencionar que (casi) cualquier matriz de función puede ser hecho en un poder de expansión de la serie, que finalmente implica los valores de la función en los valores propios de la matriz se multiplica por los vectores propios.

En otras palabras, la matriz de la función es completamente caracterizada por los valores que toma los valores propios de la matriz (incluso si un poder de expansión de la serie puede ser necesario).

Los anteriores mantienen para matrices que son diagonalisable (es decir, el número de vectores propios linealmente independientes es igual a la matriz de dimensión). Hay maneras de expandir una matriz arbitraria en lo que se conoce como vectores propios generalizados, pero esto no va a ser perseguido más aquí.

Además, como en cualquier plaza, finito-dimensional, la matriz satisface su polinomio característico de la ecuación (si se considera como una matriz de función), también conocido como de Cayley-Hamilton teorema, los poderes de $A^k$ para $k \ge n$ ($$n es la dimensión) puede ser expresada como una función de los poderes de $Un$ a $n$. Así que, finalmente, la matriz de función de energía de expansión de la serie se derrumba a la expansión polinomial (para matrices cuadradas). Por último, esta expansión polinomial, para una función dada, puede ser encontrado más fácilmente por métodos tales como la variación de los parámetros o polinomio de modelado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X