Editar: En primer lugar, recordamos el definición : $T$ es un operador de clase de rastreo si $$||T||_1:=tr((T^*T)^{1/2})<\infty.$$ Demostramos que $H\otimes H$ es denso en la clase de traza, con respecto a esa norma.
Tenga en cuenta que la definición es realmente todo lo que vamos a utilizar sobre la clase trace. En particular: No está claro para el OP por qué un operador de clase de rastro realmente tiene un rastro finito. Eso es totalmente irrelevante para la prueba que sigue, que muestra que $H\otimes H$ es denso. Pero a mí tampoco me quedó claro durante mucho tiempo; damos una prueba en el bono sección de abajo.
Original:
No sé nada sobre la teoría de los operadores. He inventado un lema; si el lema es correcto, es increíblemente estándar; quizá quieras intentar comprobarlo. El resultado es inmediato a partir del lema.
Lema Si $A$ es un operador acotado de clase de traza positiva, entonces existe una base ortonormal para $H$ que consiste en vectores propios para $A$ .
Prueba Por mi versión favorita del Teorema Espectral podemos suponer que $H=L^2(\mu)$ donde $\mu$ es una medida sobre $X$ y $A$ es un operador de multiplicación $$Af=mf$$ para algunos $m\in L^\infty(\mu)$ ; por supuesto $A$ definida positiva implica $m\ge0$ casi en todas partes.
Dejemos que $$F=\{m=0\},$$ $$E_n=\{2^{-n}\le m<2^{-n+1}\}.$$ Dejemos que $B^*$ sea una base ortonormal para $L^2(F)$ y que $B_n$ sea una base ortonormal para $L^2(E_n)$ (así $B_n=\emptyset$ si $\mu(E_n)=0$ ). Entonces $B=B_*\cup\bigcup_{n\in\Bbb Z}B_n$ es una base ortonormal para $L^2(\mu)$ .
Así que $$\int_Xm\sum_{f\in B}|f|^2\,d\mu=\sum_{f\in B}\langle Af,f\rangle<\infty.$$ Desde $m$ está acotado fuera de $0$ en $E_n$ tenemos $$|B_n|=\int_{E_n}\sum_{f\in B_n}|f|^2\,d\mu<\infty.$$ En particular $L^2(E_n)$ es de dimensión finita, por lo que $E_n$ es la unión de un número finito de átomos (quizás cero) disjuntos. Sea $B_n'$ sea la base ortonómica de $L^2(E_n)$ que consiste en las funciones indicadoras normalizadas de esos átomos.
Entonces $B'=B_*\cup\bigcup_{n\in\Bbb Z}B_n'$ es una base ortonormal para $L^2(\mu)$ que consiste en vectores propios para $A$ . QED.
Ahora diga $T$ es un operador de clase de rastreo. Sea $$A=(T^*T)^{1/2},$$ y que $(e_n)$ sea una base ortonormal para $H$ tal que $$Ae_n=\lambda_ne_n.$$ Así que $\sum\lambda_n=||T||_1<\infty$ .
Dejemos que $P_N$ sea la proyección ortogonal sobre el tramo de $e_1,\dots,e_N$ : $$P_Ne_n=\begin{cases}e_n,&(1\le n\le N), \\0,&(n>N).\end{cases}$$ Definir $$T_N=TP_n,$$ $$A_N=AP_N=P_NA.$$ Ahora $$T_Nx=\sum_{n=1}^N\langle x,e_n\rangle T_Ne_n,$$ así que $T_N$ se encuentra en (el espacio de operadores correspondiente a) $H\otimes H$ . Y ahora ocurre un milagro: $$(T-T_N)^*(T-T_N)=(I-P_N)AA(I-P_N)=(A-A_N)^2.$$ Eso es, $\left((T-T_N)^*(T-T_N)\right)^{1/2}=A-A_N,$ así que $$||T-T_N||_1=\sum_{n=N+1}^\infty\lambda_n\to0\quad(N\to\infty).$$
$\newcommand\ip[2]{\langle#1,#2\rangle}$
Bonificación: Diga $A=(T^*T)^{1/2}$ como en el caso anterior. Durante algún tiempo me quedé atascado en por qué $tr(A)<\infty$ debería implicar que $\sum|\ip{Te_n}{e_n}|<\infty$ para cualquier base ortonormal $(e_n)$ . Resulta que intentaba demostrar demasiado poco. Una afirmación más fuerte es más fácil de probar, porque está claro que esto o aquello no puede funcionar para la afirmación más fuerte.
Propuesta Si $T$ es un operador de clase de rastreo, entonces $$\sum\left|\ip{Te_n}{f_n}\right|\le||T||_1$$ para dos bases ortonormales cualesquiera $(e_n)$ y $(f_n)$ .
Prueba: Digamos que $A=(T^*T)^{1/2}$ como siempre. Está claro que $$||Tx||=||Ax||;$$ por lo que existe $U:H\to H$ tal que $$T=UA$$ y $$||Ux||\le||x||\quad(x\in H).$$ (De hecho, podemos tomar $U$ para ser una "isometría parcial": $||Ux||=||x||$ para $x$ en el rango de $A$ y $Ux=0$ para $x$ en el complemento ortogonal del rango de $A$ .)
Dejemos que $(v_n)$ sea una base ortonormal con $$Av_n=\lambda_nv_n,$$ y que $u_n=Uv_n$ . Ahora $x=\sum\ip{x}{v_n}v_n$ implica que $$Ax=\sum\lambda_n \ip{x}{v_n}v_n,$$ así que $$Tx=\sum\lambda_n \ip{x}{v_n}u_n.$$ Así que $$\begin{aligned}\sum\left|\ip{Te_n}{f_n}\right| &=\sum_n\left|\ip{\sum_j\lambda_j\ip{e_n}{v_j}u_j}{f_n}\right| \\&\le\sum_j\lambda_j\sum_n\left|\ip{e_n}{v_j}\ip{u_j}{f_n}\right| \\&\le\sum_j\lambda_j\left(\sum_n\left|\ip{e_n}{v_j}\right|^2\right)^{1/2} \left(\sum_n\left|\ip{u_j}{f_n}\right|^2\right)^{1/2} \\&=\sum_j\lambda_j||v_j||\,||u_j|| \\&\le\sum_j\lambda_j \\&=||T||_1. \end{aligned}$$