24 votos

$\sin(A)$ donde $A$ es una matriz

Si $A$ $n\times n$ matriz con elementos $a_{ij}$ $i=$i-esima fila, $j=$j-esima columna. A continuación, $e^A$ es también una matriz como puede verse por la expansión en una potencia de la serie.Es $e^A$ siempre convergentes y definido para cualquier $n\times n$ de la matriz? ¿Cuáles son los elementos de la $e^A_{ij}$ en términos de $a_{ij}$ ?

$\sin(x)$ para los números reales $x$ puede ser interpretado fácilmente geométricamente mirando el círculo unidad. Es allí cualquier interpretación geométrica de $\sin(A)$ al $A$ es una matriz? ¿Qué aplicaciones tiene?

Ligero, además de:
Es $\sin(A)$ periódico en cualquier sentido, es decir, hay una matriz de $B$ $0$ tal que $\sin(A+B)=\sin(A)$ para todas las matrices $A$?
Qué$\sin(A)^2+\cos(A)^2=I$?

Y hacer todas las reglas habituales de álgebra de la transferencia, es decir $e^Ae^B=e^{(A+B)}$ ?
Hay una definición coherente de $M/N$ para las matrices de $M,N$, de tal manera que $e^A/e^B=e^{(A-B)}$ se mantiene?

18voto

Stephan Aßmus Puntos 16

Sí, $e^A$ siempre converge para una matriz cuadrada $A.$ En la práctica, $e^A$ se encuentra por escrito la forma normal de Jordan de a $A,$ llamémoslo $J,$ con una base de características de los vectores de $A$ escrito como las columnas de la otra matriz, se $P.$, Entonces tenemos $$ J = P^{-1} A \; P.$$ It is possible that $J$ is diagonal, and this is guaranteed if the eigenvalues of $$ are distinct. Otherwise, there are a few 1's in the diagonal immediately above the main diagonal of $J.$

Ah, antes que me olvide, $$ \sin x = \frac{e^{ix}- e^{-ix}}{2 i}$$ and the same formula gives you $\el pecado A.$

Mientras tanto, no es difícil encontrar a $e^J$ $J$ es diagonal o, al menos, de Jordan en la forma, y la matriz con sólo los elementos de la diagonal de a $J$ conmutan con la matriz que solo tiene la diagonal de los elementos de $J.$ a Continuación, por último, utilizamos la identidad de $$ e^A = e^{P J P^{-1}} = P \; e^J P^{-1}$$, que sigue fácilmente de propiedades formales de la definición de potencia de la serie.

EDIT: el hecho fundamental de la vida es que, SI $A,B$ viaje, a continuación, $e^{A+B} = e^A e^B = e^B e^A.$ Si $A,B$ no conmutan, no existe ninguna garantía. Mientras tanto, para la matriz de identidad $I$ y un real o un número complejo $z,$ conseguimos $e^{zI} = e^z I.$ Puesto que, obtendrá $e^{A + 2 \pi i I} = e^A.$, $e^{0I} = I,$ $e^{-A} = \left( e^A \right)^{-1}.$

12voto

Bill Cook Puntos 17167

En primer lugar, no es agradable fórmula directa para las entradas de la matriz exponencial. Se pone bastante complicado calcular para no diagonalizable matrices.

Elige tu favorito de la analítica de la función: $f(x) = \sum\limits_{j=0}^\infty a_jx^j$. Deje $A$ $n \times n$ matriz y deje $\|A\|=\max\limits_{1 \leq i,j \leq n} |a_{ij}|$.

No es difícil mostrar que $\|A^j\| \leq \|A\|^j$. Por lo tanto $\|\sum_{j=0}^k a_jA^j\| \leq \sum_{j=0}^k |a_j|\|A\|^j$ si $f(\|A\|) =\sum\limits_{j=0}^\infty a_j\|A\|^j$ es absolutamente convergente, entonces la serie de $f(A)=\sum\limits_{j=0}^\infty a_jA^j$ es convergente.

Ahora sabemos que la serie de $\sin$, $\cos$, $\exp$ son absolutamente convergentes en todas partes, así $\sin(A)$, $\cos(A)$, $e^A$ están definidos para todas las matrices cuadradas.

Si sólo se ocupan de diagonalizable matrices, entonces la vida es mucho más simple. Supongamos $P^{-1}AP=D=\mathrm{diag}(\lambda_1,\dots,\lambda_n)$. El dado (toda) la función $f(x)$, se puede definir $$f(D) = \begin{pmatrix} f(\lambda_1) & 0 & \cdots & 0 \\ 0 & f(\lambda_2) & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & f(\lambda_n) \end{pmatrix}$$ A continuación, defina $f(A)=Pf(D)P^{-1}$.

Para diagonalizable matrices de esta definición da los mismos resultados que el de la serie de la definición de sen, cos, y exp. Pero también permite que usted defina $\sqrt{A}$ (cuando todos los autovalores son no negativos) y muchas otras funciones matriciales.

$\sin^2(A)+\cos^2(A)=I_n$ para diagonalizable matrices. Yo también creo que tiene en general, pero no puedo pensar en una prueba ahora mismo.

Funciones de matrices son muy importantes. La matriz exponencial aparece todo las matemáticas. Se conecta Lie y álgebras de Lie grupos. Yo no soy consciente de que cualquiera de los usos obvios o interpretación geométrica de la matriz del seno y del coseno. He visto la raíz cuadrada de una matriz aparecen varias veces en el contexto del álgebra lineal numérica.

4voto

Andrew Puntos 140

Para extender la Factura de la respuesta: como ya he mencionado aquí, uno puede usar el Jordán descomposición en lugar de la eigendecomposition cuando se calcula el seno de una matriz (o un coseno, o cualquier matriz de función, la verdad). Por tanto, se necesita un método para calcular el seno de escalares y Jordania bloques; para el bloque de Jordan

$$\mathbf J=\begin{pmatrix}\lambda&1&&\\&\lambda&\ddots&\\&&\ddots&1\\&&&\lambda\end{pmatrix}$$

con (algebraica) de la multiplicidad $k$ (es decir, $\mathbf J$ $k\times k$ de la matriz), la fórmula aplicable es

$$f(\mathbf J)=\begin{pmatrix}f(\lambda)&f^\prime(\lambda)&\cdots&\frac{f^{(k-1)}(\lambda)}{(k-1)!}\\&f(\lambda)&\ddots&\vdots\\&&\ddots&f^\prime(\lambda)\\&&&f(\lambda)\end{pmatrix}$$

(véase aquí para una prueba). Ya tenemos la ordenada de la cadena de derivados

$$\sin^{(p)}(x)=\begin{cases}\sin\,x&\text{if }p\bmod 4=0\\\cos\,x&\text{if }p\bmod 4=1\\-\sin\,x&\text{if }p\bmod 4=2\\-\cos\,x&\text{if }p\bmod 4=3\end{cases}$$

o, más sencillamente, $\sin^{(p)}(x)=\sin\left(x+p\frac{\pi}{2}\right)$, es muy fácil calcular el seno de un bloque de Jordan.


En la inexactitud de la aritmética, el Jordán, la descomposición es muy difícil de calcular de forma estable. Uno tiene que emplear diferentes métodos en este caso. Es una manera de reemplazar la descomposición de Jordan con una descomposición de Schur; no es un método debido a Beresford Parlett para calcular la matriz de funciones generales triangular matrices, pero no voy a discutir más, y en lugar de concentrarse en un diferente método de evaluación. La clave es que el seno y coseno de satisfacer una casa de la duplicación de la fórmula:

$$\begin{align*}\sin\,2x&=2\sin\,x\cos\,x\\\cos\,2x&=2\cos^2 x-1\end{align*}$$

Por lo tanto, al igual que en el escalares caso, uno puede emplear el argumento de la reducción: reducir a la mitad la matriz de un número suficiente de veces, hasta que su norma es pequeña (y recordar el número de veces $m$ esta mitad fue realizado), evaluar algunos buena aproximación para el seno y coseno en la que transforma la matriz (truncar la serie de Maclaurin o Padé hace muy bien, con una ligera ventaja para Padé approximants), y, finalmente, aplicar las dos duplicación de fórmulas en tándem $m$ los tiempos para llegar al seno y coseno de la partida matriz. Este tiene más detalles.


Nick Higham discute mucho sobre estos métodos en su libro; véase el capítulo he ligado y las referencias allí contenidas.

3voto

codemac Puntos 689

Primera versión de la respuesta

Deje $A$ $n$ $n$ matriz compleja, vamos a $$ M(X)=\prod\ (X\lambda_j)^{m_j}\ \in\mathbb C[X] $$ ser su polinomio mínimo ($\lambda_j$ siendo distintos y el $m_j$ positivo), vamos a $U\subset\mathbb C$ ser un conjunto abierto que contiene el $\lambda_j$, vamos a $B$ $\mathbb C[X]$- álgebra de holomorphic funciones en $U$.

Entonces existe un único continuo $\mathbb C[X]$-álgebra de morfismos de$B$$\mathbb C[A]$.

Denota por $f\mapsto f(A)$.

Para cada una de las $f$$B$, existe un único polinomio $P(X)\in\mathbb C[X]$ de grado menor que $\deg M(X)$ que satisface $P(A)=f(A)$.

Por otra parte $P(X)$ está dado por la fórmula $$ P(X)=\sum_j\ T_j\left(T_j(f)\ \frac{(X-\lambda_j)^{m_j}}{P(X)}\right)\frac{P(X)}{(X-\lambda_j)^{m_j}}\quad, $$ donde $T_j(g)$ o $T_j(g(X))$ denota el grado menos de $m_j$ el polinomio de Taylor de $g$$\lambda_j$, considerado como un elemento de $\mathbb C[X]$.

La matriz $A$ es diagonalizable si y sólo si todas las $m_j$ son igual a $1$. En este caso, tenemos $$ P(X)=\sum_j\ \prod_{k\neq j}\ \frac{X-\lambda_k}{\lambda_j-\lambda_k}\quad. $$

Misma respuesta con menos índices de

Deje $A$ $n$ $n$ matriz compleja, vamos a $$ M(X)=\prod_{\lambda\en\Lambda}\ (X-\lambda)^{m_\lambda}\ \in\mathbb C[X] $$ ser su polinomio mínimo ($m_\lambda$ positivo), vamos a $U\subset\mathbb C$ ser un conjunto abierto que contiene a $\Lambda$, vamos a $B$ $\mathbb C[X]$- álgebra de holomorphic funciones en $U$.

Entonces existe un único continuo $\mathbb C[X]$-álgebra de morfismos de$B$$\mathbb C[A]$.

Denota por $f\mapsto f(A)$.

Para cada una de las $f$$B$, existe un único polinomio $P(X)\in\mathbb C[X]$ de grado menor que $\deg M(X)$ que satisface $P(A)=f(A)$.

Por otra parte $P(X)$ está dado por la fórmula $$ P(X)=\sum_{\lambda\en\Lambda}\ T_\lambda\left(T_\lambda(f)\ \frac{(X-\lambda)^{m_\lambda}}{P(X)}\right)\frac{P(X)}{(X-\lambda)^{m_\lambda}}\quad, $$ donde $T_\lambda(g)$ o $T_\lambda(g(X))$ denota el grado menos de $m_\lambda$ el polinomio de Taylor de $g$$\lambda$, considerado como un elemento de $\mathbb C[X]$.

La matriz $A$ es diagonalizable si y sólo si todas las $m_\lambda$ son igual a $1$. En este caso, tenemos $$ P(X)=\sum_{\lambda\en\Lambda}\ \ \prod_{\mu\en\Lambda\setminus\{\lambda\}}\ \frac{X-\mu}{\lambda\mu}\quad. $$

2voto

MiDiMaN Puntos 81

Sí, $e^A$ es siempre convergente y bien definido. Deje $a = \max_{i,j} \{ | a_{i,j}| \}$. A continuación, el valor máximo posible de cualquier entrada de $A^k$ $a^k n^{k-1}$ (os dejo la prueba de esto para el lector). Esto aumenta por un factor constante de $an$ para cada término en el poder de expansión de la serie de $e^A$, mientras que el $k!$ término en el denominador se disminuye en $k$, una cantidad cada vez mayor. No es difícil mostrar que el poder de la serie, por tanto, deben converger. Los elementos de $e^A$ sin embargo no son tan fáciles de determinar, a menos que $A$ es diagonalizable.

Hasta donde yo sé, $\sin (A)$ no tiene interpretación geométrica.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X