Esta es una compilación de @darij grinberg comentarios, que proporcionan una respuesta parcial a la pregunta.
No es una operación que toma un monic polinomio $P$ grado $n$ y un monic polinomio $Q$ grado $m$ y devuelve un monic polinomio $R$ grado $nm$ cuyas raíces son los productos de cada raíz de $P$ con cada raíz de $Q$ (en una adecuada extensión de $k$). Si $P$ es el polinomio característico de a $\varphi$, e $Q$ es de $\psi$, $R$ es de $\varphi \otimes \psi$. La escritura de la $\ell$-ésimo coeficiente de $R$ en términos de los de $P$ $Q$ (sin hablar de las raíces) se reduce a la expansión de la interna subproducto $\Delta_{\times} e_{\ell}$ de los de primaria simétrica de la función $e_{\ell} \in \Lambda$ (donde $\Lambda$ es el anillo de simétrica funciones en infinidad de variables) en la base $(e_{\lambda} \otimes e_{\mu})$ ( $\lambda$ $\mu$ van más de particiones) del producto tensor $\Lambda \otimes \Lambda$. Esto se puede hacer:
$$\Delta_{\times} e_{\ell} = \sum_{\lambda \vdash \ell} s_{\lambda} \otimes s_{\lambda^t},$$
donde $\lambda^t$ denota la transpuesta de un entero partición $\lambda$, e $s_{\lambda}$ es el Schur función correspondiente a ${\lambda}$.
Las funciones de Schur puede ser escrito en términos de la primaria symmetrics el uso de los von Nägelsbach-Kostka identidades. Esta es, probablemente, va a ser un bocado de palabras nuevas para usted si usted no tiene una combinatoria algebraica de fondo, creo que no nada más sencillo que funciona, aunque. He esbozado una prueba de la fórmula para $\Delta_{\times} e_{\ell}$ en la solución de Ejercicios 2.74(b) en Vic Reiner notas sobre álgebras de Hopf en la combinatoria, pero esto probablemente no es una buena fuente interna comultiplication.) Esto fue sobre el polinomio característico; yo no puedo decir nada sobre el polinomio mínimo.
Sobre tu pregunta acerca de $\psi$ siendo la matriz de identidad... bueno, eso hace las cosas más simples. Tensoring $\varphi$ $m \times m$ matriz identidad es equivalente (en el sentido de que los resultados van a ser conjugado a cada uno de los otros) como tomar el "bloque-diagonal" suma directa de $\varphi^{\oplus m} \colon V^{\oplus m} \to V^{\oplus m}$. Así que el polinomio característico será el $m$-ésima potencia de la de $\varphi$, y el mínimo de polinomio será la de $\varphi$ (como $m \not= 0$).
En realidad, mi toma de interna co-productos era excesivo. Es suficiente con mirar el doble de Cauchy de identidad:
$$
\prod_{i=1}^n\prod_{j=1}^m (1+x_iy_j)=\sum_{\lambda} s_{\lambda}(x_1,x_2,...,x_n)s_{\lambda^t} (y_1,y_2,...,y_m),$$
donde la suma es sobre todas las particiones $\lambda$. (Si lo desea, puede restringir a las particiones $\lambda$, cuya mayor parte es $\leq m$ y cuya longitud es de $\leq n$; el resto de las particiones contribuir de fuga sumandos.) Si sustituye $y_j t$$y_j$, se puede obtener
$$
\prod_{i=1}^n\prod_{j=1}^m (1+x_iy_jt)=\sum_{\lambda} s_{\lambda}(x_1,x_2,...,x_n)s_{\lambda^t} (y_1,y_2,...,y_m)t^{|\lambda|},$$
y usted debe reconocer el lado izquierdo como el "invertido" polinomio característico del tensor producto de una matriz cuya "invertido" polinomio característico es $\prod_{i=1}^n (1+x_i t)$ y una matriz cuyos "invertido" polinomio característico es $\prod_{j=1}^m (1+ y_j t)$.
Por "invertir" polinomio característico, me refiero a $\det(I_n+At)$ (donde $A$ es la matriz y $n$ es su tamaño), como contraposición a la habitual polinomio característico $\det(tI_n−A)$. El $x_i$'s y $y_j$'s son los coeficientes de las respectivas invertido característica polinomios, o (hasta el signo y el orden) con las de la costumbre característica de polinomios, de $\varphi$$\psi$.