221 votos

¿Por qué esta matriz de dar la derivada de una función?

Me pasó a tropezar con la siguiente matriz: $$ A = \begin{bmatrix} a & 1 \\ 0 & a \end{bmatrix} $$

Y después de probar un montón de diferentes ejemplos, me di cuenta de los siguientes patrones notable. Si $P$ es un polinomio, entonces: $$ P(a)=\begin{bmatrix} P(a) y P'(a) \\ 0 y P(a) \end{bmatrix}$$

Donde $P'(a)$ es la derivada evaluada en $un$.

Además, traté de extender esto a otros de la matriz de funciones, por ejemplo la matriz exponencial, y wolfram alpha me dice: $$ \exp(A)=\begin{bmatrix} e^a & e^a \\ 0 & e^un \end{bmatrix}$$ y esto no en el hecho de seguir el patrón, ya que la derivada de la $e^x$ es en sí mismo!

Además, me decidí a buscar en la función $P(x)=\frac{1}{x}$. Si interpretamos la inversa de una matriz para ser su inversa, entonces tenemos: $$ P(a)=\begin{bmatrix} \frac{1}{a} & -\frac{1}{a^2} \\ 0 & \frac{1}{a} \end{bmatrix}$$ Y puesto que $f'(a)=-\frac{1}{a^2}$, el patrón todavía tiene!

Después de probar un par de ejemplos más, parece que este patrón se mantiene siempre que $P$ es cualquier función racional.

Tengo dos preguntas:

1) ¿por Qué está sucediendo esto?

2) ¿hay algún otro conocido de la matriz de funciones (que también puede ser aplicado a los números reales) para que esta propiedad se mantiene?

156voto

Martin R Puntos 7826

Si $$ A = \begin{bmatrix} a & 1 \\ 0 & a \end{bmatrix} $$ luego, por inducción, se puede demostrar que $$ A^n = \begin{bmatrix} a^n & n a^{n-1} \\ 0 & a^n \end{bmatrix} \tag 1 $$ para $n \ge 1 $. Si $f$ puede ser convertido en una potencia de la serie $$ f(z) = \sum_{n=0}^\infty c_n z^n $$ entonces $$ f'(z) = \sum_{n=1}^\infty n c_n z^{n-1} $$ y de ello se sigue que $$ f(A) = \sum_{n=0}^\infty c_n A^n = I + \sum_{n=1}^\infty c_n \begin{bmatrix} a^n & n a^{n-1} \\ 0 & a^n \end{bmatrix} = \begin{bmatrix} f(a) y f'(a) \\ 0 y f(a) \end{bmatrix} \tag 2 $$ De $(1)$ y $$ A^{-1} = \begin{bmatrix} a^{-1} y^{-2} \\ 0 & a^{-1} \end{bmatrix} $$ uno se $$ A^{-n} = \begin{bmatrix} a^{-1} y^{-2} \\ 0 & a^{-1} \end{bmatrix}^n = (-a^2)^{n} \begin{bmatrix} -un & 1 \\ 0 & -un \end{bmatrix}^n \\ = (-1)^n^{2n} \begin{bmatrix} (-a)^n & n (-a)^{n-1} \\ 0 & (-a)^n \end{bmatrix} = \begin{bmatrix} a^{-n} & -n a^{n-1} \\ 0 & a^{-n} \end{bmatrix} $$ lo que significa que $(1)$ tiene para exponentes negativos así. Como consecuencia, $(2)$ se puede generalizar a funciones de admitiendo una de la serie de Laurent de la representación: $$ f(z) = \sum_{n=-\infty}^\infty c_n z^n $$

70voto

Dac0 Puntos 1191

Es una declaración general si $J_{k}$ es un bloque de Jordan y f una función de la matriz, a continuación, \begin{ecuación} f(J)=\left(\begin{array}{ccccc} f(\lambda_{0}) & \frac{f'(\lambda_{0})}{1!} & \frac{f"(\lambda_{0})}{2!} & \ldots & \frac{f^{(n-1)}(\lambda_{0})}{(n-1)!}\\ 0 y f(\lambda_{0}) & \frac{f'(\lambda_{0})}{1!} & & \vdots\\ 0 & 0 & f(\lambda_{0}) & \ddots & \frac{f"(\lambda_{0})}{2!}\\ \vdots & \vdots & \vdots & \ddots & \frac{f'(\lambda_{0})}{1!}\\ 0 & 0 & 0 & \ldots & f(\lambda_{0}) \end{array}\right) \end{ecuación} donde \begin{ecuación} J=\left(\begin{array}{ccccc} \lambda_{0} & 1 & 0 & 0\\ 0 & \lambda_{0} & 1& 0\\ 0 & 0 & \ddots & 1\\ 0 & 0 & 0 & \lambda_{0} \end{array}\right) \end{ecuación} Esta declaración puede ser demostrado de diversas maneras (ninguno de ellos), pero es muy conocida fórmula. Creo que se puede encontrar en diversas libro, tal vez en el Cuerno, Johnson, la Matriz de Análisis.

28voto

Ashley Steel Puntos 405

$$ A =\mathbb{I}+M $$ donde $$M = \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix}$$

de manera más relevante, $M$ es una triangular superior de la matriz de satisfacción de $ M^n=0;n>1$

$$ A^n=\left (\mathbb{I}+M \right)^n $$ Puesto que todas estas matrices ( $ \mathbb{I}$ y $M$ ) commute podemos escribir la fórmula binominal ... $$A^n = \sum_{i=0}^n\binom ni un^i \mathbb{I}^iM^{n-i}$$ El único no-cero términos será de $i=n$ y $i=n-1$ $$A^n= a^n \mathbb{I}+na^{n-1}M $$

23voto

Barney Puntos 1

Aquí está uno para el álgebra de los amantes. Esto probablemente puede ser mejorado sustancialmente, ya que yo no soy un álgebra de amante a mí mismo. Para simplificar, voy a usar las funciones racionales con coeficientes racionales; sofisticados lectores podrán sustituir a sus favoritos coeficiente de campos.

Una función racional en la variable $x$ es un elemento del campo $\mathbb{Q}(x)$. Usted puede pensar en $\mathbb{Q}(x)$ como un espacio vectorial sobre sí mismo. La multiplicación por $x$ es $\mathbb{Q}(x)$-lineal mapa de $\mathbb{Q}(x)$ para sí mismo, que puede ser escrito como el de $1 \1$ matriz $$X_0 = \left[ \begin{array}{c} x \end{array} \right].$$ La derivada, lamentablemente, no es un $\mathbb{Q}(x)$-lineal mapa. Sin embargo, podemos representar con un $\mathbb{Q}(x)$-lineal mapa recurriendo al engaño. Si llegamos a saber la derivada $f'$ de una función $f$, podemos agrupar los dos juntos en un elemento de $\mathbb{Q}(x)^2$: $$\left[ \begin{array}{c} f' \\ f \end{array} \right].$$ La multiplicación por $x$ envía este "derivado de la pareja" $$\left[ \begin{array}{c} (xf)' \\ xf \end{array} \right] = \left[ \begin{array}{c} xf' + f \\ xf \end{array} \right] = \left[ \begin{array}{cc} x & 1 \\ 0 & x \end{array} \right] \left[ \begin{array}{c} f' \\ f \end{array} \right].$$ En otras palabras, la multiplicación por $x$ de los actos derivados de los pares en $\mathbb{Q}(x)^2$ por la matriz $$X_1 = \left[ \begin{array}{cc} x & 1 \\ 0 & x \end{array} \right].$$


El conjunto de derivados pares no es muy agradable. En particular, no es un subespacio de $\mathbb{Q}(x)^2$. Podemos decir una cosa acerca de esto, a pesar de que sabemos que contiene $$\left[ \begin{array}{c} 1' \\ 1 \end{array} \right] = \left[ \begin{array}{c} 0 \\ 1 \end{array} \right].$$ El uso de la matriz $X_1$, podemos desarrollar este hecho en una comprensión completa de los derivados de los pares.

Para ver cómo, recordemos que la multiplicación por$x operador de$ en $\mathbb{Q}(x)$ es invertible. De hecho, el uso de la multiplicación por$x$ operador a cualquier función racional da una bien definida de $\mathbb{Q}(x)$-operador lineal en $\mathbb{Q}(x)$. Cada función racional puede ser construido a partir de $1 \in \mathbb{Q}(x)$ mediante la aplicación de una función racional de la multiplicación por$x$ operador. En las matrices, $$\left[ \begin{array}{c} f \end{array} \right] = f(X_0) \left[ \begin{array}{c} 1 \end{array} \right].$$ Del mismo modo, cualquier derivado de par en $\mathbb{Q}(x)^2$ puede ser construido a partir de $$\left[ \begin{array}{c} 0 \\ 1 \end{array} \right] \in \mathbb{Q}(x)^2$$ mediante la aplicación de una función racional de $X_1$: $$\left[ \begin{array}{c} f' \\ f \end{array} \right] = f(X_1) \left[ \begin{array}{c} 0 \\ 1 \end{array} \right].$$ Que explica el desconcertante comportamiento notado.


Esta idea puede extenderse a más de derivados. Por ejemplo, la multiplicación por $x$ actúa sobre los "derivados cuádruples" $$\left[ \begin{array}{c} f"' \\ f" \\ f' \\ f \end{array} \right] \in \mathbb{Q}(x)^4$$ por la matriz $$X_4 = \left[ \begin{array}{cc} x & 3 & 0 & 0 \\ 0 & x & 2 & 0 \\ 0 & 0 & x & 1 \\ 0 & 0 & 0 & x \end{array} \right],$$ dando la fórmula $$\left[ \begin{array}{c} f"' \\ f" \\ f' \\ f \end{array} \right] = f(X_4) \left[ \begin{array}{c} 0 \\ 0 \\ 0 \\ 1 \end{array} \right].$$ Estoy seguro de que todo este asunto está relacionado con el Mismo del comentario acerca de la doble números, pero no he trabajado cómo.

22voto

CR Drost Puntos 854

Sólo para ampliar el comentario de @Mí mismo de arriba...

Contiguo algebraics como matriz de las matemáticas

A veces, en las matemáticas o el cálculo usted puede conseguir lejos con junto a una algebraica de números de $\alpha$ a algunos más simple anillo $R$ de números, como los números enteros o racionales de $\mathbb Q$, y estos caracterizar todas sus soluciones. Si este número obedece a la ecuación algebraica $$\alpha^n = \sum_{k=0}^{n-1} q_k \alpha^k$$ para todo $q_k \in R,$ llamamos la anterior ecuación polinómica $Q(\alpha) = 0$, y luego podemos adhieren a este número mediante el uso de polinomios de grado $n - 1$, con coeficientes de $R$ y evaluado en $\alpha$: el anillo es formalmente denota $R[\alpha]/P(\alpha),$ "el grupo cociente de los polinomios con coeficientes en $R$ de algún parámetro $\alpha$, dada su equivalencia modulo división de polinomios por $Q(\alpha).$"

Si usted escriba la acción de la multiplicación $(\alpha\cdot)$ en el vector en $R^n$ correspondiente a un polinomio en este anillo, se verá como en la matriz $$\alpha \leftrightarrow A = \begin{bmatrix}0 & 0 & 0 & \dots & 0 & q_0\\ 1 & 0 & 0 & \dots & 0 & q_1 \\ 0 & 1 & 0 & \dots & 0 & q_2 \\ \dots & \dots & \dots & \dots & \dots & \dots \\ 0 & 0 & 0 & \dots & 0 & q_{n-2} \\ 0 & 0 & 0 & \dots & 1 & q_{n-1} \\ \end{bmatrix},$$ y poner una matriz en la fila reducido y de forma escalonada en realidad es tan simple que podemos fortalecer nuestro derecho a decir que el de arriba anillo $R[\alpha]/P(\alpha)$ es un campo al $R$ es un campo y $q_0 \ne 0.$ La matriz $\sum_k p_k A^k$ es entonces una representación de la matriz del polinomio $\sum_k p_k \alpha^k$ que implementa todas las operaciones necesarias como operaciones de matriz.

Un ejemplo sencillo antes de \$#!& obtiene verdadero.

Por ejemplo, hay un famoso "O(1)" la solución a la generación de la $k^\text{th}$ de Fibonacci, el número que viene de la observación de que la recurrencia de $F_k = F_{k-1} + F_{k-2}$ puede ser resuelto por otras funciones para otras condiciones de contorno de $F_{0,1} = 0,1$, y uno muy especial conjunto de soluciones se parece a $F_k = \phi^k$ $\phi$. Conectar y el traqueteo obtenemos los números algebraicos $\phi^2 = \phi + 1,$ que podemos resolver para el cociente de oro $\varphi = (1 + \sqrt{5})/2$ y su negativa recíproca $\bar\varphi = -\varphi^{-1}= (1-\sqrt{5})/2.$ Sin embargo, desde el Fibonacci de la recurrencia de la relación es lineal, esto significa que cualquier combinación lineal $$F_n = \varphi^n + B \bar\varphi^n$$obedece a la de Fibonacci de la recurrencia, y podemos, de hecho, acaba de elegir a $A = \sqrt{1/5},\; B = -\sqrt{1/5}$ para obtener el estándar de $F_{0,1} = 0,1$ puntos de partida: esta es la secuencia de Fibonacci se define en términos puramente de exponenciación.

Pero, hay un problema con el uso de esta en un equipo: el Double tipo de que un equipo tenga acceso a la cuenta única de precisión finita y las expresiones anteriores se completan salvajemente. Lo que realmente quieres es usar nuestro precisión arbitraria Integer tipo para el cálculo de este. Podemos hacer esto con la matriz de la exponenciación en un par de maneras diferentes. La primera sería la de unirse a la cantidad de $\sqrt{5}$ para los números enteros, la solución de $\alpha^2 = 5.$ A continuación, nuestro anillo se compone de los números $a + b \sqrt{5}$, que son las matrices: $$\begin{bmatrix}a & 5b\\b & \end{bmatrix}.$$ Y eso es muy fácil de programar. Su "unidad de vectores" puede asimismo ser elegido como $1$ y $\varphi$ sin embargo, y que conduce a la "sin sentido" de la matriz $$a + b \varphi = \begin{bmatrix}a & b\\ b & a + b\end{bmatrix}$$, que voy a llamar "sin sentido" porque para $a = 0, b = 1$ de esta realidad es la de Fibonacci de la recurrencia de la relación de los vectores $[F_{n-1}, F_{n}],$, que es un camino para llegar a este resultado sin tener que pasar por encima de los aros. También hay un interesante "simétrico" versión donde $\varphi$ y $\bar\varphi$ son nuestros "vectores unitarios" y la matriz es (creo) $\varphi + b \bar\varphi \leftrightarrow [2a-b,\; -a+b;\;a - b,\; -a + 2b].$

(En cualquier caso, resulta que la supuesta "O(1)" algoritmo no es: incluso cuando exponentiate por el cuadrado tenemos que realizar $\log_2(k)$ multiplicaciones de números de $m_i = F_{2^i}$, que están creciendo asintóticamente como $F_k \approx \varphi^k/\sqrt{5},$ tomar $O(k^2)$ tiempo, así como la adición de los números directamente. La gran ganancia de velocidad es que la adición de-bignums código "naturalmente" asignar memoria nueva para cada bignum y por lo tanto, escribir algo como $S(k^2)$ bits en la memoria si no especialmente hará inteligente; la exponenciación mejora de este a $O(k~\log(k))$ y, posiblemente, incluso a $O(k)$ desde el peor de estos sólo se producen en el final.)

Ir fuera de la algebraics en los números complejos

Curiosamente, no tenemos que limitarnos a los números reales, cuando hacemos la anterior. Sabemos que en $\mathbb R$ no hay $x$ satisfacer $x^2 = -1,$ por lo que la anterior, se prescribe que ampliamos nuestro campo para el campo $$ a + b \sqrt{-1} \leftrightarrow \begin{bmatrix}a & b\\b & \end{bmatrix}.$$Cuando reemplazamos $a$ con $r\cos\theta$ y $b$ con $r\sin\theta$ nos enteramos de que en realidad estos "números complejos" son todos sólo a escala de las matrices de rotación:$$ r (\cos\theta + i~\sin\theta) = r \begin{bmatrix}\cos\theta & -\sin\theta\\\sin\theta & \cos\theta\end{bmatrix} = r~R_\theta,$$que nos da una inmediata comprensión geométrica de un número complejo como un modelo a escala de la rotación (y, a continuación, funciones analíticas que son los únicos a los que localmente ven como un modelo a escala de la rotación).

Yendo de camino fuera de la algebraics en infinitesimals.

Otra forma interesante para ir con esto es considerar junto a un plazo $\epsilon$ que no es cero, sino que las plazas a cero. Esta idea se formaliza la idea de un "infinitesimal" sin ningún esfuerzo, aunque como se mencionó antes, la resultante de álgebra está condenada a ser un anillo. (Podríamos contiguos a una inverso $\infty = \epsilon^{-1}$ también, pero presumiblemente nos gustaría entonces $\infty^2 = \infty$, que rompe la asociatividad, $(\epsilon\cdot\infty)\cdot\infty \ne \epsilon\cdot(\infty\cdot\infty),$ a menos que inserte más infinitos para empujar el problema hasta el infinito.)

De todos modos, tenemos la matriz: $$a + b \epsilon \leftrightarrow a I + b E = \begin{bmatrix} & 0\\ b & \end{bmatrix}.$$ Es precisamente la transposición de lo que estás buscando. Siguiendo las reglas, $(a + b \epsilon)^n = a^n + n~a^{n-1}~b~\epsilon$ con todos los otros términos de desaparecer. La expansión de él nos encontramos por la expansión de Taylor que $f(x + \epsilon) = \sum_n f^{(n)}(x) \epsilon^n = f(x) + f'(x) \epsilon,$ y esta es la propiedad que usted ha visto en su propio examen.

Podemos igualmente mantener infinitesimals a segundo orden con una matriz de 3x3 $$a + b \epsilon + c \epsilon^2 \leftrightarrow \begin{bmatrix} & 0 & 0\\ b & un & 0\\ c & b & \end{bmatrix}$$, Entonces $f(x I + E) = f(x) I + f'(x) E + f"(x) E^2 / 2$ de principio a fin.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X