En esta solución, sólo suponemos que $B$ es diagonalizable (es decir, los autovalores $\lambda_i$'s no necesitan ser distintas). Si $v_1,v_2,\ldots,v_n$ son los vectores propios de a $B$ $w_1,w_2,\ldots,w_n$ son de la izquierda vectores propios de a $B$ donde$Bv_i=\lambda_iv_i$$w_i^\top B=\lambda_i w_i^\top$$i=1,2,\ldots,n$. Entonces, $$
\begin{align}
F\left(v_i w_j^\top\right)&= \left(v_iw_j^\top\right)B+B\left(v_i w_j^\top\right)=v_i\left(w_j^\top B\right)+\left(Bv_i\right)w_j^\top
\\
&=v_i\left(\lambda_j w_j^\top\right)+\left(\lambda_iv_i\right)w_j^\top=\left(\lambda_i+\lambda_j\right)v_iw_j^\top\,.
\end{align}$$ Since the $n^2$ matrices $v_iw_j^\cima$, where $i,j=1,2,\ldots,n$, are linearly independent, we have found all eigenvectors of $F$.
EDITAR (Debido a la Solicitud):
Vamos a probar que las matrices $v_iw_j^\top$$i,j=1,2,\ldots,n$, son linealmente independientes. Deje $K$ ser el campo base. Supongamos que no existe $\kappa_{i,j}\in K$ $i,j=1,2,\ldots,n$ tal que $\sum_{i=1}^n\sum_{j=1}^n\kappa_{i,j}v_iw_j^\top=\boldsymbol{0}_{n\times n}$. Escribir $w_j=\left(w_j^1,w_j^2,\ldots,w_j^n\right)$$j=1,2,\ldots,n$. Por lo tanto, $v_iw_j^\top=\begin{bmatrix} w_j^1v_i&w_j^2v_i&\cdots&w_j^nv_i\end{bmatrix}$. Por lo tanto, $\sum_{i=1}\sum_{j=1}^n\kappa_{i,j}v_iw_j^\top=\boldsymbol{0}_{n\times n}$ implica que $$\begin{bmatrix}\displaystyle\sum_{i=1}^n\left(\sum_{j=1}^n\kappa_{i,j}w_j^1\right)v_i & \displaystyle\sum_{i=1}^n\left(\sum_{j=1}^n\kappa_{i,j}w_j^2\right)v_i
&
\cdots
&
\displaystyle\sum_{i=1}^n\left(\sum_{j=1}^n\kappa_{i,j}w_j^n\right)v_i
\end{bmatrix}=\boldsymbol{0}_{n\times n}\,.$$
En consecuencia, para$i=1,2,\ldots,n$$k=1,2,\ldots,n$, debemos tener $\sum_{j=1}^n\kappa_{i,j}w_j^k=0$, puesto que el $v_i$'s son linealmente independientes. Es decir,$\sum_{j=1}^n\kappa_{i,j}w_j=\boldsymbol{0}_{n\times 1}$$i=1,2,\ldots,n$. Como los vectores $w_j$'s son linealmente independientes, $\kappa_{i,j}=0$ todos los $i,j=1,2,\ldots,n$, y el resultado se sigue inmediatamente.
P. S.:
(1) creo que mi solución es idéntica a la himbrom.
(2) Esta solución funciona de manera similar si $F$ se define a través de $F(A)=\alpha AB+\beta BA$ por cada matriz $A\in\text{Mat}_{n\times n}(K)$ donde $\alpha,\beta \in K$ son cero. Para $i,j=1,2,\ldots,n$, la matriz $v_iw_j^\top$ todavía es un autovector de a $F$, pero con el autovalor $\alpha \lambda_j+\beta \lambda_i$.
(3) sería un problema interesante para ver si el converso tiene. Supongamos, para fijar la $\alpha,\beta \in K \setminus\{0\}$ y por un determinado matriz$B\in\text{Mat}_{n\times n}(K)$, $F(A)=\alpha AB+\beta BA$ por cada matriz $A\in\text{Mat}_{n\times n}(K)$. Si $F$ es diagonalizable operador lineal, entonces se sigue que la $B$ una matriz diagonalizable? La respuesta depende de $K$, $\alpha$, y/o $\beta$? Por ejemplo,
en el caso de que $K$ es algebraicamente cerrado de característica $0$, $\alpha=1$, y $\beta=-1$, diagonalizability de $F$ es equivalente a la de $B$ (este es un resultado conocido en el Álgebra de la Mentira). Si $\alpha=0$ o $\beta=0$, pero no ambas son cero, $F$ es diagonalizable si y sólo si $B$ es así.
0 votos
He intentado encontrar los vectores propios resolviendo la ecuación $F(x) = XB + BX = \lambda X \Rightarrow XB = (\lambda I - B) X$ Sin embargo, no sirvió de mucho. También me he dado cuenta de que B es una matriz diagonalizable ya que tiene valores propios distintos por pares, pero ¿cómo puedo usarla? Por último, he compuesto la matriz $n^2 \times n^2$ matriz, correspondiente a este operador lineal, también era inútil.
0 votos
Su problema está relacionado con la "suma de Kronecker" de matrices y la "ecuación de Sylvester". Véase la referencia dada en la respuesta a ( mathoverflow.net/questions/219471/ )