8 votos

Valores propios del operador lineal $F(A) = AB + BA$

Sea $B$ sea el $n \times n$ matriz cuadrada; $\lambda_1, \lambda_2, \dots, \lambda_n$ son sus valores propios distintos por pares. Para todos los $n \times n$ matriz $A$ permítanme definir $F(A) = AB + BA$ . Podemos considerar $F$ como operador lineal, porque $F(\alpha X + \beta Y) = \alpha F(x) + \beta F(y)$ .

¿Qué valores propios $F$ ¿Tener?

Agradecería cualquier ayuda.

0 votos

He intentado encontrar los vectores propios resolviendo la ecuación $F(x) = XB + BX = \lambda X \Rightarrow XB = (\lambda I - B) X$ Sin embargo, no sirvió de mucho. También me he dado cuenta de que B es una matriz diagonalizable ya que tiene valores propios distintos por pares, pero ¿cómo puedo usarla? Por último, he compuesto la matriz $n^2 \times n^2$ matriz, correspondiente a este operador lineal, también era inútil.

0 votos

Su problema está relacionado con la "suma de Kronecker" de matrices y la "ecuación de Sylvester". Véase la referencia dada en la respuesta a ( mathoverflow.net/questions/219471/ )

6voto

PhilB Puntos 2029

Sea $e_i$ sean los vectores propios de $B$ es decir $$Be_i=\lambda_ie_i$$ y que $E_{ij}=e_i e_j^T$ sean las matrices elementales en esta base, es decir $$E_{ij}e_k=\delta_{jk}e_i.$$ Resulta que, $F$ ya es diagonal en el $E_{ij}$ -base: \begin{align} &BE_{ij}e_k=\delta_{jk}Be_i=\lambda_i\delta_{jk}e_i=\lambda_iE_{ij}e_k\\ \Rightarrow&F(E_{ij})e_k=BE_{ij}e_k+E_{ij}Be_k=(\lambda_i+\lambda_j)E_{ij}e_k \end{align} Por tanto, los valores propios son $\lambda_i+\lambda_j$ . (Algunos de ellos pueden coincidir, por ejemplo si se aplica la permutación $i\leftrightarrow{}j$ .)

0 votos

Oh eso funciona solo para simetrico $B$ . La solución de @Batominovski es mejor.

6voto

wujj123456 Puntos 171

En esta solución, sólo suponemos que $B$ es diagonalizable (es decir, los autovalores $\lambda_i$'s no necesitan ser distintas). Si $v_1,v_2,\ldots,v_n$ son los vectores propios de a $B$ $w_1,w_2,\ldots,w_n$ son de la izquierda vectores propios de a $B$ donde$Bv_i=\lambda_iv_i$$w_i^\top B=\lambda_i w_i^\top$$i=1,2,\ldots,n$. Entonces, $$ \begin{align} F\left(v_i w_j^\top\right)&= \left(v_iw_j^\top\right)B+B\left(v_i w_j^\top\right)=v_i\left(w_j^\top B\right)+\left(Bv_i\right)w_j^\top \\ &=v_i\left(\lambda_j w_j^\top\right)+\left(\lambda_iv_i\right)w_j^\top=\left(\lambda_i+\lambda_j\right)v_iw_j^\top\,. \end{align}$$ Since the $n^2$ matrices $v_iw_j^\cima$, where $i,j=1,2,\ldots,n$, are linearly independent, we have found all eigenvectors of $F$.

EDITAR (Debido a la Solicitud):

Vamos a probar que las matrices $v_iw_j^\top$$i,j=1,2,\ldots,n$, son linealmente independientes. Deje $K$ ser el campo base. Supongamos que no existe $\kappa_{i,j}\in K$ $i,j=1,2,\ldots,n$ tal que $\sum_{i=1}^n\sum_{j=1}^n\kappa_{i,j}v_iw_j^\top=\boldsymbol{0}_{n\times n}$. Escribir $w_j=\left(w_j^1,w_j^2,\ldots,w_j^n\right)$$j=1,2,\ldots,n$. Por lo tanto, $v_iw_j^\top=\begin{bmatrix} w_j^1v_i&w_j^2v_i&\cdots&w_j^nv_i\end{bmatrix}$. Por lo tanto, $\sum_{i=1}\sum_{j=1}^n\kappa_{i,j}v_iw_j^\top=\boldsymbol{0}_{n\times n}$ implica que $$\begin{bmatrix}\displaystyle\sum_{i=1}^n\left(\sum_{j=1}^n\kappa_{i,j}w_j^1\right)v_i & \displaystyle\sum_{i=1}^n\left(\sum_{j=1}^n\kappa_{i,j}w_j^2\right)v_i & \cdots & \displaystyle\sum_{i=1}^n\left(\sum_{j=1}^n\kappa_{i,j}w_j^n\right)v_i \end{bmatrix}=\boldsymbol{0}_{n\times n}\,.$$ En consecuencia, para$i=1,2,\ldots,n$$k=1,2,\ldots,n$, debemos tener $\sum_{j=1}^n\kappa_{i,j}w_j^k=0$, puesto que el $v_i$'s son linealmente independientes. Es decir,$\sum_{j=1}^n\kappa_{i,j}w_j=\boldsymbol{0}_{n\times 1}$$i=1,2,\ldots,n$. Como los vectores $w_j$'s son linealmente independientes, $\kappa_{i,j}=0$ todos los $i,j=1,2,\ldots,n$, y el resultado se sigue inmediatamente.

P. S.:

(1) creo que mi solución es idéntica a la himbrom.

(2) Esta solución funciona de manera similar si $F$ se define a través de $F(A)=\alpha AB+\beta BA$ por cada matriz $A\in\text{Mat}_{n\times n}(K)$ donde $\alpha,\beta \in K$ son cero. Para $i,j=1,2,\ldots,n$, la matriz $v_iw_j^\top$ todavía es un autovector de a $F$, pero con el autovalor $\alpha \lambda_j+\beta \lambda_i$.

(3) sería un problema interesante para ver si el converso tiene. Supongamos, para fijar la $\alpha,\beta \in K \setminus\{0\}$ y por un determinado matriz$B\in\text{Mat}_{n\times n}(K)$, $F(A)=\alpha AB+\beta BA$ por cada matriz $A\in\text{Mat}_{n\times n}(K)$. Si $F$ es diagonalizable operador lineal, entonces se sigue que la $B$ una matriz diagonalizable? La respuesta depende de $K$, $\alpha$, y/o $\beta$? Por ejemplo, en el caso de que $K$ es algebraicamente cerrado de característica $0$, $\alpha=1$, y $\beta=-1$, diagonalizability de $F$ es equivalente a la de $B$ (este es un resultado conocido en el Álgebra de la Mentira). Si $\alpha=0$ o $\beta=0$, pero no ambas son cero, $F$ es diagonalizable si y sólo si $B$ es así.

0 votos

Gracias ¿Podría explicar por favor, por qué son todos $n^2$ matricies $v_iw_j^T$ ¿independientes linealmente?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X