Sólo para ampliar el comentario de @Mí mismo de arriba...
Contiguo algebraics como matriz de las matemáticas
A veces, en las matemáticas o el cálculo usted puede conseguir lejos con junto a una algebraica de números de $\alpha$ a algunos más simple anillo $R$ de números, como los números enteros o racionales de $\mathbb Q$, y estos caracterizar todas sus soluciones. Si este número obedece a la ecuación algebraica $$\alpha^n = \sum_{k=0}^{n-1} q_k \alpha^k$$ para todo $q_k \in R,$ llamamos la anterior ecuación polinómica $Q(\alpha) = 0$, y luego podemos adhieren a este número mediante el uso de polinomios de grado $n - 1$, con coeficientes de $R$ y evaluado en $\alpha$: el anillo es formalmente denota $R[\alpha]/P(\alpha),$ "el grupo cociente de los polinomios con coeficientes en $R$ de algún parámetro $\alpha$, dada su equivalencia modulo división de polinomios por $Q(\alpha).$"
Si usted escriba la acción de la multiplicación $(\alpha\cdot)$ en el vector en $R^n$ correspondiente a un polinomio en este anillo, se verá como en la matriz
$$\alpha \leftrightarrow A = \begin{bmatrix}0 & 0 & 0 & \dots & 0 & q_0\\
1 & 0 & 0 & \dots & 0 & q_1 \\
0 & 1 & 0 & \dots & 0 & q_2 \\
\dots & \dots & \dots & \dots & \dots & \dots \\
0 & 0 & 0 & \dots & 0 & q_{n-2} \\
0 & 0 & 0 & \dots & 1 & q_{n-1} \\
\end{bmatrix},$$
y poner una matriz en la fila reducido y de forma escalonada en realidad es tan simple que podemos fortalecer nuestro derecho a decir que el de arriba anillo $R[\alpha]/P(\alpha)$ es un campo al $R$ es un campo y $q_0 \ne 0.$ La matriz $\sum_k p_k A^k$ es entonces una representación de la matriz del polinomio $\sum_k p_k \alpha^k$ que implementa todas las operaciones necesarias como operaciones de matriz.
Un ejemplo sencillo antes de \$#!& obtiene verdadero.
Por ejemplo, hay un famoso "O(1)" la solución a la generación de la $k^\text{th}$ de Fibonacci, el número que viene de la observación de que la recurrencia de $F_k = F_{k-1} + F_{k-2}$ puede ser resuelto por otras funciones para otras condiciones de contorno de $F_{0,1} = 0,1$, y uno muy especial conjunto de soluciones se parece a $F_k = \phi^k$ $\phi$. Conectar y el traqueteo obtenemos los números algebraicos $\phi^2 = \phi + 1,$ que podemos resolver para el cociente de oro $\varphi = (1 + \sqrt{5})/2$ y su negativa recíproca $\bar\varphi = -\varphi^{-1}= (1-\sqrt{5})/2.$ Sin embargo, desde el Fibonacci de la recurrencia de la relación es lineal, esto significa que cualquier combinación lineal $$F_n = \varphi^n + B \bar\varphi^n$$obedece a la de Fibonacci de la recurrencia, y podemos, de hecho, acaba de elegir a $A = \sqrt{1/5},\; B = -\sqrt{1/5}$ para obtener el estándar de $F_{0,1} = 0,1$ puntos de partida: esta es la secuencia de Fibonacci se define en términos puramente de exponenciación.
Pero, hay un problema con el uso de esta en un equipo: el Double
tipo de que un equipo tenga acceso a la cuenta única de precisión finita y las expresiones anteriores se completan salvajemente. Lo que realmente quieres es usar nuestro precisión arbitraria Integer
tipo para el cálculo de este. Podemos hacer esto con la matriz de la exponenciación en un par de maneras diferentes. La primera sería la de unirse a la cantidad de $\sqrt{5}$ para los números enteros, la solución de $\alpha^2 = 5.$ A continuación, nuestro anillo se compone de los números $a + b \sqrt{5}$, que son las matrices: $$\begin{bmatrix}a & 5b\\b & \end{bmatrix}.$$ Y eso es muy fácil de programar. Su "unidad de vectores" puede asimismo ser elegido como $1$ y $\varphi$ sin embargo, y que conduce a la "sin sentido" de la matriz $$a + b \varphi = \begin{bmatrix}a & b\\ b & a + b\end{bmatrix}$$, que voy a llamar "sin sentido" porque para $a = 0, b = 1$ de esta realidad es la de Fibonacci de la recurrencia de la relación de los vectores $[F_{n-1}, F_{n}],$, que es un camino para llegar a este resultado sin tener que pasar por encima de los aros. También hay un interesante "simétrico" versión donde $\varphi$ y $\bar\varphi$ son nuestros "vectores unitarios" y la matriz es (creo) $\varphi + b \bar\varphi \leftrightarrow [2a-b,\; -a+b;\;a - b,\; -a + 2b].$
(En cualquier caso, resulta que la supuesta "O(1)" algoritmo no es: incluso cuando exponentiate por el cuadrado tenemos que realizar $\log_2(k)$ multiplicaciones de números de $m_i = F_{2^i}$, que están creciendo asintóticamente como $F_k \approx \varphi^k/\sqrt{5},$ tomar $O(k^2)$ tiempo, así como la adición de los números directamente. La gran ganancia de velocidad es que la adición de-bignums código "naturalmente" asignar memoria nueva para cada bignum y por lo tanto, escribir algo como $S(k^2)$ bits en la memoria si no especialmente hará inteligente; la exponenciación mejora de este a $O(k~\log(k))$ y, posiblemente, incluso a $O(k)$ desde el peor de estos sólo se producen en el final.)
Ir fuera de la algebraics en los números complejos
Curiosamente, no tenemos que limitarnos a los números reales, cuando hacemos la anterior. Sabemos que en $\mathbb R$ no hay $x$ satisfacer $x^2 = -1,$ por lo que la anterior, se prescribe que ampliamos nuestro campo para el campo $$
a + b \sqrt{-1} \leftrightarrow \begin{bmatrix}a & b\\b & \end{bmatrix}.$$Cuando reemplazamos $a$ con $r\cos\theta$ y $b$ con $r\sin\theta$ nos enteramos de que en realidad estos "números complejos" son todos sólo a escala de las matrices de rotación:$$ r (\cos\theta + i~\sin\theta) = r \begin{bmatrix}\cos\theta & -\sin\theta\\\sin\theta & \cos\theta\end{bmatrix} = r~R_\theta,$$que nos da una inmediata comprensión geométrica de un número complejo como un modelo a escala de la rotación (y, a continuación, funciones analíticas que son los únicos a los que localmente ven como un modelo a escala de la rotación).
Yendo de camino fuera de la algebraics en infinitesimals.
Otra forma interesante para ir con esto es considerar junto a un plazo $\epsilon$ que no es cero, sino que las plazas a cero. Esta idea se formaliza la idea de un "infinitesimal" sin ningún esfuerzo, aunque como se mencionó antes, la resultante de álgebra está condenada a ser un anillo. (Podríamos contiguos a una inverso $\infty = \epsilon^{-1}$ también, pero presumiblemente nos gustaría entonces $\infty^2 = \infty$, que rompe la asociatividad, $(\epsilon\cdot\infty)\cdot\infty \ne \epsilon\cdot(\infty\cdot\infty),$ a menos que inserte más infinitos para empujar el problema hasta el infinito.)
De todos modos, tenemos la matriz: $$a + b \epsilon \leftrightarrow a I + b E = \begin{bmatrix} & 0\\ b & \end{bmatrix}.$$ Es precisamente la transposición de lo que estás buscando. Siguiendo las reglas, $(a + b \epsilon)^n = a^n + n~a^{n-1}~b~\epsilon$ con todos los otros términos de desaparecer. La expansión de él nos encontramos por la expansión de Taylor que $f(x + \epsilon) = \sum_n f^{(n)}(x) \epsilon^n = f(x) + f'(x) \epsilon,$ y esta es la propiedad que usted ha visto en su propio examen.
Podemos igualmente mantener infinitesimals a segundo orden con una matriz de 3x3 $$a + b \epsilon + c \epsilon^2 \leftrightarrow \begin{bmatrix} & 0 & 0\\
b & un & 0\\
c & b & \end{bmatrix}$$, Entonces $f(x I + E) = f(x) I + f'(x) E + f"(x) E^2 / 2$ de principio a fin.