8 votos

Un límite con determinantes

Agradecería que alguien me explicara por qué es cierta la segunda igualdad... No puedo entenderlo. ¿Quizás es algo muy simple que se me escapa?

$\displaystyle\lim_{\epsilon\to0}\frac{\det(Id+\epsilon H)-\det(Id)}{\epsilon}=\displaystyle\lim_{\epsilon\to0}\frac{1}{\epsilon}\left[\det \begin{pmatrix} 1+\epsilon h_{11} & \epsilon h_{12} &\cdots & \epsilon h_{1n} \\ \epsilon h_{21} & 1+\epsilon h_{22} &\cdots \\ \vdots & & \ddots \\ \epsilon h_{n1} & & &1+\epsilon h_{nn} \end{pmatrix}-1\right]$

$\qquad\qquad\qquad\qquad\qquad\qquad=\displaystyle\sum_{i=1}^nh_{ii}=\text{trace}(H)$

0 votos

Supongo que no te refieres realmente a la último ¿Igualdad?

0 votos

Oh oops, el anterior

1 votos

@angryavian: Un poco confuso pero $Id$ es la abreviatura de Identidad.

16voto

Sheldon Axler Puntos 964

He aquí una prueba conceptual que evita la expansión de un determinante complicado:

El determinante de un operador lineal (o de una matriz cuadrada) es el producto de los valores propios, contando la multiplicidad. La traza de un operador lineal (o de una matriz cuadrada) es la suma de los valores propios, contando la multiplicidad.

Supongamos ahora que $\lambda_1, \dots, \lambda_n$ son los valores propios de $H$ , contando la multiplicidad. Entonces los valores propios de $I + \epsilon H$ son $$ 1 + \epsilon \lambda_1, \dots, 1 + \epsilon \lambda_n, $$ contando la multiplicidad. Así, $$ \det(1 + \epsilon H) = (1 + \epsilon \lambda_1) \cdots (1 + \epsilon \lambda_n). $$ Ahora está claro que \begin{align*} \lim_{\epsilon\to 0} \frac{ \det(1 + \epsilon H) - 1}{\epsilon} &= \lambda_1 + \dots + \lambda_n\\ &= \text{trace } H, \end{align*} como se desee.

0 votos

Un enfoque alternativo muy bonito para esta cuestión (y mucho más fácil de expresar con rigor que usar la Expansión de Leibniz a posteriori).

0 votos

Gracias, este es un buen enfoque, pero H no tiene que ser una matriz diagnosticable

3 votos

Mi prueba anterior no requiere $H$ sea diagonalizable porque cada operador (o matriz cuadrada) en un $n$ -espacio vectorial complejo tiene exactamente $n$ valores propios, contando la multiplicidad.

7voto

Narcélio Filho Puntos 111

Como he sugerido en mi comentario, procedemos a ampliar $$|Id + \varepsilon H| = |A| = \left| \begin{array}{cccc} 1+\varepsilon h_{11} & \varepsilon h_{12} & \cdots & \varepsilon h_{1n}\\ \varepsilon h_{21} & 1+\varepsilon h_{22} & \cdots & \ \\ \vdots & \ & \ddots & \ &\\ \varepsilon h_{n1} & \ & \ & 1+\varepsilon h_{nn} \end{array} \right|$$ en los poderes de $\varepsilon$ . Primero, tenemos: $$|A| = (1+\varepsilon h_{11}) \left| \begin{array}{cccc} 1+\varepsilon h_{22} & \varepsilon h_{23} & \cdots & \varepsilon h_{2n}\\ \varepsilon h_{32} & 1+\varepsilon h_{33} & \cdots & \ \\ \vdots & \ & \ddots & \ &\\ \varepsilon h_{n2} & \ & \ & 1+\varepsilon h_{nn} \end{array} \right| + \varepsilon\sum_{j=2}^n (-1)^{1+j} h_{1j} \det(A_{1j})$$ donde $\det(A_{1j}) = O(\varepsilon)$ (en este caso, utilizo la notación habitual $A_{1j}$ para ser la matriz obtenida borrando la primera fila y $j$ columna de $A$ ).

Justificación de esta parte: La potencia mínima de $\varepsilon$ se produce cuando se incluye el número máximo de términos diagonales. En este caso (tratándose de $(n-1)\times (n-1)$ menores, esto significaría $n-2$ términos diagonales, ya que todos los términos de la expansión del cofactor a lo largo de la primera fila (a excepción del primero, que estoy separando del resto del cálculo) excluirían el $1+\varepsilon h_{11}$ así como la entrada diagonal que se encuentra en el $j$ columna. Por último, si hay $n-2$ términos diagonales multiplicados entre sí (en el caso mínimo), entonces debe haber un término no diagonal, introduciendo el factor (reclamado) de $\varepsilon$ .

Por lo tanto, concluimos que $$|A| = (1+\varepsilon h_{11}) \left| \begin{array}{cccc} 1+\varepsilon h_{22} & \varepsilon h_{23} & \cdots & \varepsilon h_{2n}\\ \varepsilon h_{32} & 1+\varepsilon h_{33} & \cdots & \ \\ \vdots & \ & \ddots & \ &\\ \varepsilon h_{n2} & \ & \ & 1+\varepsilon h_{nn} \end{array} \right| + O(\varepsilon^2)$$

Continuando (inductivamente) la expansión del determinante de esta manera, vemos que \begin{align} |A| &= \prod_{j=1}^n (1+\varepsilon h_{jj}) + O(\varepsilon^2)\\ &= 1+\varepsilon \sum_{j=1}^n h_{jj} + O(\varepsilon^2) \end{align} lo que produce exactamente la igualdad deseada, ya que esto dice inmediatamente $$|A|-1 = \varepsilon \sum_{j=1}^n h_{jj} + O(\varepsilon^2),$$ por lo que \begin{align} \lim_{\varepsilon \to 0} \frac{1}{\varepsilon}(|A|-1) &= \lim_{\varepsilon\to 0} \frac{1}{\varepsilon} \left( \varepsilon \sum_{j=1}^n h_{jj} + O(\varepsilon^2) \right)\\ &= \lim_{\varepsilon\to 0} \left( \sum_{j=1}^n h_{jj} + O(\varepsilon) \right)\\ &= \sum_{j=1}^n h_{jj} = \text{Trace}(H) \end{align}

2 votos

¡Muchas gracias! Exactamente lo que estaba buscando

4voto

Yves Daoust Puntos 30126

Sugerencia :

$$\left|\begin{matrix} 1+\epsilon h_{11}&\epsilon h_{12}\\ \epsilon h_{21}&1+\epsilon h_{22}\\ \end{matrix}\right|=1+\epsilon h_{11}+\epsilon h_{22}+\epsilon^2\left(h_{11}h_{22}-h_{12}h_{21}\right).$$

Sólo la diagonal principal genera términos en $\epsilon$ . Esto se generaliza a un orden superior, por ejemplo utilizando la expansión por menores.

1voto

Laurent.C Puntos 66

En realidad, estás tratando de calcular el diferencial $\phi$ de la función $\det : M_n(\mathbb{R}) \rightarrow \mathbb{R}$ en $I_n$ que se define como $$\forall H \in M_n(\mathbb{R}), \phi(H) = \lim\limits_{t \to 0} \dfrac{\det(I_n+tH)-\det(I_n)}{t}= \dfrac{d}{dt}_{t=0} \det(I_n+tH) $$

En primer lugar, ya que $\det$ es un polinomio, es diferenciable en cualquier punto y $\phi$ es una forma lineal en $M_n(\mathbb{R})$ . Por lo tanto, basta con calcular su valor en la base canónica de $M_n(\mathbb{R})$ .

  • Para $H=E_{i,i}$ , $\det(I_n+tE_{i,i})=1+t$ Así que $\phi(E_{i,i})=1$ .
  • Para $H=E_{i,j},$ donde $i \neq j, \det(I_n+tE_{i,j})=1$ Así que $\phi(E_{i,j})=0$ .

Así que, $\phi=\textrm{Trace}$ ya que estas dos formas lineales coinciden en una base de $M_n(\mathbb{R})$ .

1 votos

Tal vez estoy entendiendo mal, pero, ¿cómo concluyó usted $\phi$ ¿es una forma lineal? El determinante es multilineal en columnas. Resulta que la respuesta es efectivamente lineal.

0voto

Chris Ballance Puntos 17329

Comentarios tardíos.

  1. Este es un caso especial de Fórmula de Jacobi .
  2. Una forma de demostrar el enunciado del problema utilizando la expansión de Laplace/cofactor, pero más fácil de entender que otros enfoques similares y sin crear un lío, es utilizar la derivada total. Sea $$ g(t_{11},t_{12},\ldots,t_{nn})=\det\pmatrix{ 1+t_{11}h_{11}&t_{12}h_{12}&\cdots&t_{1n}h_{1n}\\ t_{21}h_{21}&1+t_{22}h_{22}&\cdots&t_{2n}h_{2n}\\ \vdots&&\ddots&\vdots\\ t_{n1}h_{n1}&t_{n2}h_{n2}&\cdots&1+t_{nn}h_{nn}}, $$ donde cada $t_{ij}=t_{ij}(\epsilon)=\epsilon$ (sí, aquí cada $t_{ij}$ s es en realidad idéntica a $\epsilon$ pero nos gustaría verlo como una función de $\epsilon$ ). Dejemos también $f(\epsilon)=g\left(t_{11}(\epsilon),t_{12}(\epsilon),\ldots,t_{nn}(\epsilon)\right)$ . Entonces $$ f'(\epsilon)=\sum_{i,j}\frac{\partial g}{\partial t_{ij}}\frac{\partial t_{ij}}{\partial \epsilon}=\sum_{i,j}\frac{\partial g}{\partial t_{ij}} $$ y a su vez $$ f'(0)=\sum_{i,j}\left.\frac{\partial g}{\partial t_{ij}}\right|_{t_{ij}=0}. $$ Sin embargo, para evaluar $\left.\frac{\partial g}{\partial t_{ij}}\right|_{t_{ij}=0}$ , todos los demás $t_{rs}$ se tratan como cero y estamos encontrando efectivamente la derivada de $g$ con respecto a una única variable $t_{ij}$ . Por expansión de Laplace a lo largo de la $i$ -fila, vemos que $$ \left.\frac{\partial g}{\partial t_{ij}}\right|_{t_{ij}=0}= \begin{cases} h_{ii}&\text{ if } i=j,\\ 0&\text{ otherwise}. \end{cases} $$ Por lo tanto, $f'(0)=\sum_i h_{ii}=\operatorname{trace}(H)$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X