Soy un principiante en Álgebra Lineal y esto es sólo mi humilde opinión.
Una de las ideas presentadas anteriormente es que
Supongamos que $\lambda_1,\ldots \lambda_2$ son valores propios de $A$ .
Entonces el $\lambda$ s son también las raíces del polinomio característico, es decir
$$\det(A−\lambda I)=(\lambda_1-\lambda)(\lambda_2−\lambda)\cdots(\lambda_n−\lambda)$$ .
Ahora, al establecer $\lambda$ a cero (simplemente porque es una variable) obtenemos en el lado izquierdo $\det(A)$ y en el lado derecho $\lambda_1\lambda_2\ldots \lambda_n$ es decir, obtenemos efectivamente el resultado deseado
$$\det(A)=\lambda_1\lambda_2\ldots \lambda_n$$ .
No creo que esto funcione en general, sino sólo para el caso en que $\det(A) = 0$ .
Porque, cuando escribimos la ecuación característica, utilizamos la relación $\det(A - \lambda I) = 0$ Siguiendo la misma lógica, el único caso en el que $\det(A - \lambda I) = \det(A) = 0$ es que $\lambda = 0$ . La relación $\det(A - \lambda I) = 0$ debe cumplirse incluso para el caso especial $\lambda = 0$ lo que implica.., $\det(A) = 0$
POST ACTUALIZADO
Aquí propongo una forma de demostrar el teorema para un caso de 2 por 2. Sea $A$ sea una matriz de 2 por 2.
$$ A = \begin{pmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\\end{pmatrix}$$
La idea es utilizar una cierta propiedad de los determinantes,
$$ \begin{vmatrix} a_{11} + b_{11} & a_{12} \\ a_{21} + b_{21} & a_{22}\\\end{vmatrix} = \begin{vmatrix} a_{11} & a_{12}\\ a_{21} & a_{22}\\\end{vmatrix} + \begin{vmatrix} b_{11} & a_{12}\\b_{21} & a_{22}\\\end{vmatrix}$$
Dejemos que $ \lambda_1$ y $\lambda_2$ sean los 2 valores propios de la matriz $A$ . (Los valores propios pueden ser distintos, o repetidos, reales o complejos, no importa).
Los dos valores propios $\lambda_1$ y $\lambda_2$ debe satisfacer la siguiente condición :
$$\det (A -I\lambda) = 0 $$ Dónde $\lambda$ es el valor propio de $A$ .
Por lo tanto, $$\begin{vmatrix} a_{11} - \lambda & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = 0 $$
Por lo tanto, utilizando la propiedad de los determinantes proporcionada anteriormente, intentaré descomponer el determinante en partes.
$$\begin{vmatrix} a_{11} - \lambda & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} - \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} - \lambda\\\end{vmatrix}= \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22}\\\end{vmatrix} - \begin{vmatrix} a_{11} & a_{12} \\ 0 & \lambda \\\end{vmatrix}-\begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} - \lambda\\\end{vmatrix}$$
El determinante final puede reducirse aún más.
$$ \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} \\\end{vmatrix} - \begin{vmatrix} \lambda & 0\\ 0 & \lambda\\\end{vmatrix} $$
Sustituyendo el determinante final, tendremos
$$ \begin{vmatrix} a_{11} - \lambda & a_{12} \\ a_{21} & a_{22} - \lambda\\\end{vmatrix} = \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22}\\\end{vmatrix} - \begin{vmatrix} a_{11} & a_{12} \\ 0 & \lambda \\\end{vmatrix} - \begin{vmatrix} \lambda & 0 \\ a_{21} & a_{22} \\\end{vmatrix} + \begin{vmatrix} \lambda & 0\\ 0 & \lambda\\\end{vmatrix} = 0 $$
En un polinomio $$ a_{n}\lambda^n + a_{n-1}\lambda^{n-1} ........a_{1}\lambda + a_{0}\lambda^0 = 0$$ Tenemos que el producto de la raíz es el coeficiente del término con la potencia 0, $a_{0}$ .
Del determinante descompuesto, el único término que no implica $\lambda$ sería el primer término
$$ \begin{vmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \\\end{vmatrix} = \det (A) $$
Por lo tanto, el producto de las raíces aka producto de los valores propios de $A$ es equivalente al determinante de $A$ .
Tengo dificultades para generalizar esta idea de prueba a la $n$ por $$ caso sin embargo, ya que es complejo y consume tiempo para mí.
4 votos
Esto sólo es cierto si hay $n$ valores propios distintos. En ese caso, se tendrá una diagonalización de la matriz, por lo que es inmediato a partir de la propiedad multiplicativa de $\det$ .
1 votos
@user1537366 ¿dices que esto no es necesariamente cierto en los casos en que los valores propios tienen multiplicidad > 1?
1 votos
@user1537366, ¿es el producto de todos los valores propios, o sólo el producto del conjunto de valores propios distintos? gracias.
1 votos
La afirmación de la pregunta era correcta. El producto de todos los valores propios (los repetidos contados varias veces) es igual al determinante de la matriz.
1 votos
@inavda ¿Por qué puedes decir que el determinante es el producto de los valores propios? considera $\begin{pmatrix} 0 & -1 \\ 0 & 1 \end{pmatrix}$ en $\mathbb{R}$ que no tiene ningún valor propio sino el determinante 1. Supongo que hay que exigir que el campo subyacente sea algebraicamente cerrado.
2 votos
@inavda Quería decir $\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$ .