14 votos

Mínima y características de los polinomios sobre el producto tensor espacios

Dadas dos finito-dimensional espacios vectoriales $V$ $W$ sobre un campo común $k$ $k$- transformaciones lineales $\varphi \colon V \to V$$\psi \colon W \to W$, lo que puede decirse, en general, acerca de la mínima y características de los polinomios del tensor producto de las transformaciones lineales? Es decir, se puede describir la mínima y características de los polinomios de $\varphi \otimes \psi \colon V \otimes W \to V \otimes W$ en términos de la mínima y características de los polinomios de $\varphi$$\psi$?

Por otra parte, ¿qué podemos espigar en adición dejando $\psi$ ser la matriz identidad? (Edit 1: en el caso de que $\psi$ es la matriz identidad por tanto la característica y un mínimo de polinomios es explicado por @darij grinberg en los comentarios.)

Edit 2: @darig grinbeg comentarios del esquema que el polinomio característico de a $\varphi \otimes \psi$ es de hecho determinado por la característica de los polinomios de $\varphi$$\psi$, aunque aún no tenemos un `bonito' relación. No se ha dicho nada sobre el polinomio mínimo.

2voto

msteve Puntos 4328

Esta es una compilación de @darij grinberg comentarios, que proporcionan una respuesta parcial a la pregunta.

No es una operación que toma un monic polinomio $P$ grado $n$ y un monic polinomio $Q$ grado $m$ y devuelve un monic polinomio $R$ grado $nm$ cuyas raíces son los productos de cada raíz de $P$ con cada raíz de $Q$ (en una adecuada extensión de $k$). Si $P$ es el polinomio característico de a $\varphi$, e $Q$ es de $\psi$, $R$ es de $\varphi \otimes \psi$. La escritura de la $\ell$-ésimo coeficiente de $R$ en términos de los de $P$ $Q$ (sin hablar de las raíces) se reduce a la expansión de la interna subproducto $\Delta_{\times} e_{\ell}$ de los de primaria simétrica de la función $e_{\ell} \in \Lambda$ (donde $\Lambda$ es el anillo de simétrica funciones en infinidad de variables) en la base $(e_{\lambda} \otimes e_{\mu})$ ( $\lambda$ $\mu$ van más de particiones) del producto tensor $\Lambda \otimes \Lambda$. Esto se puede hacer: $$\Delta_{\times} e_{\ell} = \sum_{\lambda \vdash \ell} s_{\lambda} \otimes s_{\lambda^t},$$ donde $\lambda^t$ denota la transpuesta de un entero partición $\lambda$, e $s_{\lambda}$ es el Schur función correspondiente a ${\lambda}$.

Las funciones de Schur puede ser escrito en términos de la primaria symmetrics el uso de los von Nägelsbach-Kostka identidades. Esta es, probablemente, va a ser un bocado de palabras nuevas para usted si usted no tiene una combinatoria algebraica de fondo, creo que no nada más sencillo que funciona, aunque. He esbozado una prueba de la fórmula para $\Delta_{\times} e_{\ell}$ en la solución de Ejercicios 2.74(b) en Vic Reiner notas sobre álgebras de Hopf en la combinatoria, pero esto probablemente no es una buena fuente interna comultiplication.) Esto fue sobre el polinomio característico; yo no puedo decir nada sobre el polinomio mínimo.

Sobre tu pregunta acerca de $\psi$ siendo la matriz de identidad... bueno, eso hace las cosas más simples. Tensoring $\varphi$ $m \times m$ matriz identidad es equivalente (en el sentido de que los resultados van a ser conjugado a cada uno de los otros) como tomar el "bloque-diagonal" suma directa de $\varphi^{\oplus m} \colon V^{\oplus m} \to V^{\oplus m}$. Así que el polinomio característico será el $m$-ésima potencia de la de $\varphi$, y el mínimo de polinomio será la de $\varphi$ (como $m \not= 0$).

En realidad, mi toma de interna co-productos era excesivo. Es suficiente con mirar el doble de Cauchy de identidad: $$ \prod_{i=1}^n\prod_{j=1}^m (1+x_iy_j)=\sum_{\lambda} s_{\lambda}(x_1,x_2,...,x_n)s_{\lambda^t} (y_1,y_2,...,y_m),$$ donde la suma es sobre todas las particiones $\lambda$. (Si lo desea, puede restringir a las particiones $\lambda$, cuya mayor parte es $\leq m$ y cuya longitud es de $\leq n$; el resto de las particiones contribuir de fuga sumandos.) Si sustituye $y_j t$$y_j$, se puede obtener $$ \prod_{i=1}^n\prod_{j=1}^m (1+x_iy_jt)=\sum_{\lambda} s_{\lambda}(x_1,x_2,...,x_n)s_{\lambda^t} (y_1,y_2,...,y_m)t^{|\lambda|},$$ y usted debe reconocer el lado izquierdo como el "invertido" polinomio característico del tensor producto de una matriz cuya "invertido" polinomio característico es $\prod_{i=1}^n (1+x_i t)$ y una matriz cuyos "invertido" polinomio característico es $\prod_{j=1}^m (1+ y_j t)$.

Por "invertir" polinomio característico, me refiero a $\det(I_n+At)$ (donde $A$ es la matriz y $n$ es su tamaño), como contraposición a la habitual polinomio característico $\det(tI_n−A)$. El $x_i$'s y $y_j$'s son los coeficientes de las respectivas invertido característica polinomios, o (hasta el signo y el orden) con las de la costumbre característica de polinomios, de $\varphi$$\psi$.

0voto

s7orm Puntos 455

Asumir $\dim(V)=m$, $\dim(W)=n$, $\lambda_1,\ldots,\lambda_m$ a los autovalores de a$\varphi$$\mu_1,\ldots,\mu_n$$\psi$. Como notado en los comentarios, la idea es que los autovalores de a $\varphi\otimes\psi$ son los productos de $\lambda_i\mu_j$ (ver, por ejemplo, este enlace).

Mi respuesta cubre un caso simple: si los autovalores de a $\varphi$ (o, equivalentemente, los de $\psi$) son conocidos y diferente de cero, entonces el polinomio característico de a $\varphi\otimes\psi$ es $$ p_{\varphi \otimes \psi} = \prod_{i=1}^m \prod_{j=1}^n (x-\lambda_i \mu_j) = \prod_{i=1}^m \lambda_i \prod_{j=1}^n \left(\frac{x}{\lambda_i}- \mu_j\right) = \prod_{i=1}^m \lambda_i p_{\psi}\left(\frac{x}{\lambda_i}\right), $$ donde $p_{\psi}$ es el polinomio característico de a $\psi$.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X