12 votos

¿Para qué sirve la regla de Cramer?

La regla de Cramer aparece en los cursos de introducción al álgebra lineal sin que se comente su utilidad. Es un defecto de nuestro sistema pedagógico que uno aprenda las respuestas a preguntas de este tipo en los cursos sólo si toma un curso sobre algo en el que se utiliza el tema.

En la página de discusión del artículo de Wikipedia sobre la regla de Cramer, encontramos esta detallada acusación de inutilidad publicado en diciembre de 2009.

Pero en la actualidad, encontramos en el propio artículo la afirmación de que es útil para

  • resolver problemas de geometría diferencial;
  • demostrar un teorema en programación de números enteros;
  • derivar la solución general de una ecuación diferencial lineal no homogénea por el método de variación de parámetros;
  • (una sorpresa) resolver pequeños sistemas de ecuaciones lineales. Este es lo que superficialmente pretende ser en los textos de álgebra lineal, pero luego las operaciones elementales de fila resultan ser lo que realmente se utiliza.

En algún momento de su historia, el artículo de la Wikipedia afirmaba que se utiliza para probar la Teorema de Cayley-Hamilton pero eso no existe ahora. Para mí el teorema de Cayley-Hamilton siempre ha sido un enunciado muy memorable, pero en este momento no recuerdo nada de la demostración.

¿Qué ampliaciones esclarecedoras de estas respuestas parciales a esta pregunta puede ofrecer la presente empresa?

0 votos

¿Preguntas por otras aplicaciones de la regla de Cramer?

0 votos

Puede utilizarse para ajustar polinomios a un conjunto de puntos. Es ideal para tratar de encontrar los coeficientes de un polinomio que se desconoce pero del que se conocen ciertos valores.

0 votos

@Alizter : ¿Puedes ser explícito sobre esto?

7voto

Geoff Robinson Puntos 17610

Un lugar donde la regla de Cramer suele ser útil desde un punto de vista teórico es que si una matriz cuadrada $M$ con entradas en un anillo conmutativo $R$ tiene ${\rm det}(M)$ invertible en $R,$ entonces la inversa $M^{-1}$ todavía tiene entradas en $R$ . Por ejemplo, una matriz cuadrada con entradas enteras tiene una inversa con entradas enteras si y sólo si su determinante es $\pm 1.$ No creo que esto sea tan evidente si pasamos a las operaciones elementales de fila en el campo de las fracciones de $R$ (en el caso $R$ es un dominio integral). Aunque en cualquier cálculo (correcto), al final surgirá una integral inversa si el determinante es una unidad del anillo.

5voto

max Puntos 172

La regla de Cramer es útil para demostrar la "fórmula de Jacobi", una identidad de derivación de matrices: $$\frac{\mathrm{d}}{\mathrm{d}t} \det A(t) = \operatorname{tr} \left (\operatorname{adj}(A(t)) \, \frac{\mathrm{d}A(t)}{\mathrm{d}t}\right )$$

Para más información, consulte Wikipedia . La fórmula de Jacobi se utiliza en el análisis vectorial, por ejemplo, para el teorema de la divergencia. En la página 2 de este documento sobre el teorema de la divergencia , puede ver cómo se hace en detalle.

AÑADIDO MÁS TARDE (mayo de 2019):

Otro ejemplo para la aplicación de la regla de Cramer -o al menos la fórmula sobre su inversa- aparece también en el cálculo de variaciones para demostrar que el determinante tiene estructura de divergencia y, por tanto, se puede pasar a límites débiles. Esto es bastante mágico, ya que no se espera y ciertamente no es un ejemplo introductorio.

En concreto, la fórmula

$$\mathrm{det}(A) A^{-1} = \mathrm{cof}(A)^{T},$$

con $\mathrm{cof}(A)$ siendo la matriz de cofactores y $T$ denotando la transposición, es el punto de partida de la demostración de este lema tan útil y se enuncia como:

Supongamos que $n < q < \infty$ y $u_k \rightharpoonup u$ débilmente en $W^{1,q}(U;\mathbb{R}^n)$ .

Entonces $$\mathrm{det}(Du_k) \rightharpoonup \mathrm{det}(Du) \text{ weakly in } L^{\tfrac{q}{n}}(U).$$

Este lema y su demostración se pueden encontrar en el libro de Evans "Ecuaciones diferenciales parciales" en el capítulo 8.2.4.

2voto

AlexMax Puntos 366

En la teoría de control, la regla estrechamente relacionada $$A^{-1} = \frac{1}{\det A} \operatorname{Adj}(A)$$ donde $\operatorname{Adj}(A)$ es el matriz adjunta se utiliza para pasar de una representación del espacio de estados a una descripción de la función de transferencia (haciendo todos los cálculos a mano).

Explícitamente, si se nos da un representación del espacio de estado de un sistema $$\begin{align} \dot x &= Ax + Bu \\ y &= Cx + Du \end{align}$$ y queremos encontrar la función de transferencia desde la entrada $u$ a la salida $y$ podemos transformar las ecuaciones de Laplace a: $$\begin{align} sX &= AX + BU \\ Y &= CX + DU \end{align}$$ y de la primera ecuación obtenemos $X = (sI-A)^{-1}BU$ que insertada en la segunda ecuación da como resultado $Y = (C(sI - A)^{-1}B +D)U$ por lo que la función de transferencia $G(s)$ es $$G(s) = C(sI-A)^{-1}B + D$$ y utilizamos la regla de inversión anterior para calcular $(sI-A)^{-1}$ .

Por supuesto, ya que podemos escribir $$G(s) = C\frac{\operatorname{Adj}(sI-A)}{\det (sI - A)}B + D$$ podemos observar directamente que los polos del sistema son los mismos que los valores propios de $A$ que proporciona información sobre la estabilidad del sistema.

Ejemplo

Queremos que la función de transferencia $G(s)$ de $u$ a $y$ en este sistema: $$\begin{align} \dot x &= \begin{pmatrix} 1 & 3 \\ 1 & 6 \end{pmatrix} + \begin{pmatrix} 1 \\ 0 \end{pmatrix} u \\ y &= \begin{pmatrix} 3 & 1 \end{pmatrix} x \end{align}$$ por lo que al computar $G(s)$ tenemos que calcular: $$(sI-A)^{-1} = \begin{pmatrix} s - 1 & -3 \\ -1 & s - 6 \end{pmatrix} = \frac{1}{s^2-7s+3} \begin{pmatrix} s - 6 & 3 \\ 1 & s - 1 \end{pmatrix}$$ por lo que nuestra función de transferencia se convierte: $$\begin{align} G(s) &= \begin{pmatrix} 3 & 1 \end{pmatrix}\frac{1}{s^2-7s+3} \begin{pmatrix} s - 6 & 3 \\ 1 & s - 1 \end{pmatrix} \begin{pmatrix}1 \\ 0\end{pmatrix} = \\ &= \frac{1}{s^2-7s+3}\begin{pmatrix} 3 & 1 \end{pmatrix}\begin{pmatrix} s - 6 \\ 1 \end{pmatrix} = \\ &= \frac{3s-5}{s^2-7s+3} \end{align}$$

1voto

Amr Puntos 12840

Si preguntas por otras aplicaciones de la regla de Cramer, aquí tienes una aplicación que aprendí hace poco en el libro de Harold Teoría de Galois:

En el libro de Harold, la regla de Cramer se utiliza para demostrar el teorema de Lagrange (no el de los grupos).

Dejemos que $K$ sea un campo, $n$ sea un número entero positivo. El siguiente teorema se formulará utilizando la acción obvia de $S_n$ en $K[x_1,\ldots,x_n]$ .

Teorema de Lagrange: Dejemos que $P,Q\in K[x_1,\ldots,x_n]$ entonces: $\operatorname{Stab}(P)\subseteq \operatorname{Stab}(Q)$ (Stab es el subgrupo estabilizador) si existen polinomios simétricos $s_0,s_1,\ldots,s_a,t_0,t_1,\ldots,t_b\in K[x_1,x_2,\ldots,x_n]$ tal que: $$Q=\frac{s_aP^a+s_{a-1}P^{a-1}+\cdots+s_0}{t_bP^b+t_{b-1}P^{b-1}+\cdots+t_0}$$

0 votos

Así que estás diciendo que cada $s_k$ es un polinomio simétrico en $x_1,\ldots,x_n\,{}$ ? (Y en cuanto a $s$ Así pues, para $t\,{}$ ?) ¿Tienes esta gran función racional, pero resulta que en realidad es un polinomio (no simétrico)?

0 votos

@MichaelHardy La gran función racional que tengo puede resultar no simétrica si P es no simétrica. La verdad es que no veo dónde está el problema o puede que no haya entendido tu pregunta.

0 votos

@MichaelHardy En caso de que te preguntes que el cociente del numerador y el denominador en mi fracción es en realidad un polinomio.. Esto sucede para algunas $s,t$ y no para todos $s,t$ .

1voto

simao Puntos 2906

La regla de Cramer puede utilizarse para ajustar polinomios a un conjunto de puntos.

Digamos que tenemos $n$ pares ordenados $(x_k, y_k)$ con $0<k\le n$ sin $y_k$ el mismo y queremos encontrar el polinomio $P(x)$ que se ajuste a estos puntos. Ahora queremos encontrar los coeficientes de este polinomio pero sabemos $n$ diferentes valores que tiene para $n$ diferentes valores de $x$ .

$$ \left( \begin{matrix} x_n^{n-1}&x_n^{n-2}&\cdots&x_n&1\\ x_{n-1}^{n-1}&x_{n-1}^{n-2}&\cdots&x_{n-1}&1\\ \vdots&\vdots&\ddots&\vdots&\vdots\\ x_1^{n-1}&x_1^{n-2}&\cdots&x_1&1 \end{matrix} \right) \left( \begin{matrix} a_1 \\ a_2 \\ \vdots \\a_n \end{matrix} \right) = \left( \begin{matrix} y_1\\y_2\\ \vdots \\ y_n \end{matrix} \right) $$

Recuerda que un polinomio de grado $n$ tiene $n-1$ puntos de inflicción. En la primera matriz que avanza tenemos el mismo valor de $x_k$ en las diferentes potencias terminando finalmente en $0$ . Cuando se multiplica con el vector columna los coeficientes de $P$ se distribuyen a lo largo de las columnas, siendo la primera columna $a_1x_k^{n-1}$ y así sucesivamente. Ahora esta es una forma que se puede utilizar directamente con la regla de Cramer y los coeficientes $a_1, ...,a_n$ componen el polinomio $P(x)=\sum^n_{k=1}a_kx^{n-k}$ .

0 votos

Algo he hecho mal pero lo guardaré como referencia. Algo aquí está bien. Hace tiempo que no juego con esto. Si alguien puede ayudarme a arreglar esto sería genial. Pero hacedme caso, la regla de Cramer es útil.

1 votos

Cramer ( $O(n^3)$ en el mejor de los casos) no es la mejor vía para construir polinomios interpoladores. Sin duda, existen métodos más eficaces ( $O(n^2)$ o incluso $O(n\log n)$ si los puntos están en posiciones especiales) métodos para resolver los sistemas de Vandermonde.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X