158 votos

Mostrar que el determinante de $A$ es igual al producto de sus valores propios.

Muestra que el determinante de una matriz $A$ es igual al producto de sus valores propios $ \lambda_i $ .

Así que me está costando mucho trabajo entender esto. Sé que tengo que trabajar con el polinomio característico de la matriz $ \det (A- \lambda I)$ .

Pero cuando se considera un $n \times n$ matriz que no sé cómo elaborar la prueba. ¿Debería usar la fórmula determinante para cualquier $n \times n$ ¿Matriz? (Supongo que no, porque ese tipo es bastante complicado)

Cualquier idea sería genial

4 votos

Esto sólo es cierto si hay $n$ valores propios distintos. En ese caso, se tendrá una diagonalización de la matriz, por lo que es inmediato a partir de la propiedad multiplicativa de $\det$ .

1 votos

@user1537366 ¿dices que esto no es necesariamente cierto en los casos en que los valores propios tienen multiplicidad > 1?

1 votos

@user1537366, ¿es el producto de todos los valores propios, o sólo el producto del conjunto de valores propios distintos? gracias.

246voto

phresus Puntos 1048

Supongamos que $\lambda_1, \ldots, \lambda_n$ son los valores propios de $A$ . Entonces el $\lambda$ s son también las raíces del polinomio característico, es decir

$$\begin{array}{rcl} \det (A-\lambda I)=p(\lambda)&=&(-1)^n (\lambda - \lambda_1 )(\lambda - \lambda_2)\cdots (\lambda - \lambda_n) \\ &=&(-1) (\lambda - \lambda_1 )(-1)(\lambda - \lambda_2)\cdots (-1)(\lambda - \lambda_n) \\ &=&(\lambda_1 - \lambda )(\lambda_2 - \lambda)\cdots (\lambda_n - \lambda) \end{array}$$

La primera igualdad se desprende de la factorización de un polinomio dadas sus raíces; el coeficiente principal (de mayor grado) $(-1)^n$ se puede obtener expandiendo el determinante a lo largo de la diagonal.

Ahora, al establecer $\lambda$ a cero (simplemente porque es una variable) obtenemos en el lado izquierdo $\det(A)$ y en el lado derecho $\lambda_1 \lambda_2\cdots\lambda_n$ es decir, obtenemos efectivamente el resultado deseado

$$ \det(A) = \lambda_1 \lambda_2\cdots\lambda_n$$

Así que el determinante de la matriz es igual al producto de sus valores propios.

16 votos

Interesante, pero ¿no hay que demostrar también que el coeficiente principal del polinomio es 1? ¿O eso es obvio?

21 votos

$\det(A-\lambda I)=(\lambda_1 - \lambda)^{m_1}(\lambda_2 - \lambda)^{m_2}\cdots (\lambda_n - \lambda)^{m_n}.$ así que $\det(A) = \lambda_1^{m_1} \lambda_2^{m_2}\cdots\lambda_n^{m_n}.$ con $m_i$ es la multiplicidad de $\lambda_i$

0 votos

No entiendo esto. ¿Cómo/por qué está configurando el $\lambda$ a 0 para empezar?

15voto

CodeBreaker Puntos 176

Soy un principiante en Álgebra Lineal y esto es sólo mi humilde opinión.

Una de las ideas presentadas anteriormente es que

Supongamos que $\lambda_1,\ldots \lambda_2$ son valores propios de $A$ .

Entonces el $\lambda$ s son también las raíces del polinomio característico, es decir

$$\det(A−\lambda I)=(\lambda_1-\lambda)(\lambda_2−\lambda)\cdots(\lambda_n−\lambda)$$ .

Ahora, al establecer $\lambda$ a cero (simplemente porque es una variable) obtenemos en el lado izquierdo $\det(A)$ y en el lado derecho $\lambda_1\lambda_2\ldots \lambda_n$ es decir, obtenemos efectivamente el resultado deseado

$$\det(A)=\lambda_1\lambda_2\ldots \lambda_n$$ .

No creo que esto funcione en general, sino sólo para el caso en que $\det(A) = 0$ .

Porque, cuando escribimos la ecuación característica, utilizamos la relación $\det(A - \lambda I) = 0$ Siguiendo la misma lógica, el único caso en el que $\det(A - \lambda I) = \det(A) = 0$ es que $\lambda = 0$ . La relación $\det(A - \lambda I) = 0$ debe cumplirse incluso para el caso especial $\lambda = 0$ lo que implica.., $\det(A) = 0$

POST ACTUALIZADO

Aquí propongo una forma de demostrar el teorema para un caso de 2 por 2. Sea $A$ sea una matriz de 2 por 2.

$$ A = \begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\\end{pmatrix}$$

La idea es utilizar una cierta propiedad de los determinantes,

$$ \begin{vmatrix} a_{11} + b_{11} & a_{12} \\ a_{21} + b_{21} & a_{22}\\\end{vmatrix} = \begin{vmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\\end{vmatrix} + \begin{vmatrix} b_{11} & a_{12}\\b_{21} & a_{22}\\\end{vmatrix}$$

Dejemos que $ \lambda_1$ y $\lambda_2$ sean los 2 valores propios de la matriz $A$ . (Los valores propios pueden ser distintos, o repetidos, reales o complejos, no importa).

Los dos valores propios $\lambda_1$ y $\lambda_2$ debe satisfacer la siguiente condición :

$$\det (A -I\lambda) = 0 $$ Dónde $\lambda$ es el valor propio de $A$ .

Por lo tanto, $$\begin{vmatrix} a_{11} - \lambda & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = 0 $$

Por lo tanto, utilizando la propiedad de los determinantes proporcionada anteriormente, intentaré descomponer el determinante en partes.

$$\begin{vmatrix} a_{11} - \lambda & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} - \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} - \lambda\\\end{vmatrix}= \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22}\\\end{vmatrix} - \begin{vmatrix} a_{11} & a_{12} \\ 0 & \lambda \\\end{vmatrix}-\begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} - \lambda\\\end{vmatrix}$$

El determinante final puede reducirse aún más.

$$ \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} \\\end{vmatrix} - \begin{vmatrix} \lambda & 0\\ 0 & \lambda\\\end{vmatrix} $$

Sustituyendo el determinante final, tendremos

$$ \begin{vmatrix} a_{11} - \lambda & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22}\\\end{vmatrix} - \begin{vmatrix} a_{11} & a_{12} \\ 0 & \lambda \\\end{vmatrix} - \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} \\\end{vmatrix} + \begin{vmatrix} \lambda & 0\\ 0 & \lambda\\\end{vmatrix} = 0 $$

En un polinomio $$ a_{n}\lambda^n + a_{n-1}\lambda^{n-1} ........a_{1}\lambda + a_{0}\lambda^0 = 0$$ Tenemos que el producto de la raíz es el coeficiente del término con la potencia 0, $a_{0}$ .

Del determinante descompuesto, el único término que no implica $\lambda$ sería el primer término

$$ \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\\end{vmatrix} = \det (A) $$

Por lo tanto, el producto de las raíces aka producto de los valores propios de $A$ es equivalente al determinante de $A$ .

Tengo dificultades para generalizar esta idea de prueba a la $n$ por $$ caso sin embargo, ya que es complejo y consume tiempo para mí.

9 votos

En la prueba anterior, no se utilizó el hecho de que p() = 0. Por tanto, es válida para todo A y no sólo para det(A) = 0

0 votos

La primera parte parece correcta siempre y cuando el polinomio característico pueda ser factorizado en términos lineales como hiciste. Esto siempre ocurre sobre $\mathbb{C}$ (debido al Teorema Fundamental del Álgebra), pero no siempre sobre $\mathbb{R}$ . ¿Qué pasa si $p(\lambda)$ no puede ser factorizado en términos lineales? ¿Sigue siendo válida la fórmula?

0 votos

Tyg ya lo ha aclarado, pero quiero añadir una reflexión más. Si Av = v, entonces (A-I)v=0. Cuando una matriz transforma cualquier vector v en 0, significa que es singular. Así que aquí (A-I) es singular, lo que significa que det de (A-I) es 0. Esto es cierto para TODOS los A que tienen como su valor propio. Aunque la brillante deducción de Onimoni no utilizó el hecho de que el determinante =0, podría haberlo usado y cualquier resultado/teorema que saliera de él se mantendría para todo A. (por ejemplo, dada la situación anterior, demostrar que al menos uno de esos valores propios debería ser 0)

5voto

DanielV Puntos 11606

El enfoque que yo utilizaría es Descomponer la matriz en 3 matrices a partir de los valores propios.

Entonces sabe que el $det(A*B) = det(A)*det(B)$ y que $det(inv(A)) = \dfrac{1}{det(A)}$ .

Probablemente puedas completar el resto de los detalles del artículo, dependiendo de lo rigurosa que deba ser tu prueba.

Edición: Me acabo de dar cuenta de que esto no funcionará en todas las matrices, pero puede darte una idea de un enfoque.

1 votos

¿Por qué no? Cualquier matriz tiene alguna "eigendecomposición": Schur, Jordan,...

2 votos

Me gustó esto. Lo hice así, pero ¿es una prueba correcta? a) Si la matriz $A$ tiene columnas linealmente independientes. $$A=SDS^{-1}$$ ahora toma $\det$ de ambas partes $$\det(A)=\det(SDS^{-1})=\det(S)\det(D)\det(S^{-1})=\det(D)$$ y $\det(D)$ es sólo el producto de todos los $\lambda_i$ . b) Si la matriz $A$ tiene linealmente de columnas colgantes. A continuación, $$\det(A)=0$$ pero ¿cuáles son sus valores propios?

2 votos

@jacob Tener columnas linealmente independientes no implica ser diagonalizable...

3voto

DonAntonio Puntos 104482

Debes saber lo siguiente:

\== Si tomamos una extensión del campo base, tanto el determinante como la traza de una matriz (cuadrada) permanecen inalterados al evaluarlos en el nuevo campo

\== Tomar un campo de división del polinomio característico de $\;A\;$ y calcular la forma canónica de Jordan de esta matriz. Como esta última es una matriz triangular su determinante es el producto de los elementos de su diagonal principal, y sabemos que en esta diagonal aparecen los valores propios de $\;A\;$ así que hemos terminado.

0voto

user194449 Puntos 69

Debería seguirse de la similitud con la forma canónica de Jordania.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X