Nota técnica: Esta página hace un uso intensivo de MathJax, dar tiempo a que se cargue .
$ %some shortcuts \newcommand{\op}[1]{\mathbf{#1}} \newcommand{\ve}[1]{\mathbf{#1}} \newcommand{\id}[1]{\mathrm{#1}} \newcommand{\bra}[1]{\left\langle#1\right|} \newcommand{\ket}[1]{\left|#1\right\rangle} \newcommand{\bracket}[2]{\left\langle#1\middle|#2\right\rangle} \newcommand{\diff}{\mathrm{d}} \newcommand{\eps}[1]{\varepsilon_{#1}} $
Preámbulo
Primero tengo que quitarme esto de encima. Aunque creo que los ejercicios de Szabo-Ostlund son una forma estupenda de aprender matemáticas y de entender lo perezosos que son los químicos y los físicos a la hora de escribir, los considero todos penosos y sin ningún valor pedagógico en particular. No creo que sea especialmente útil explicarlo todo con el modelo del dihidrógeno y dejar la generalización al usuario. Desde mi punto de vista personal, debería ser al revés. Dicho esto, le admiro por haber trabajado con este manuscrito.
Me llevó bastante tiempo volver a meterme en este tema y gasté varios lápices y mucho papel en ello. Como usted ha mencionado, ha estado haciendo lo mismo. También has comprobado que en la página 352 de S.O. se vuelve a dar el mismo ejercicio (6.8). Como has pedido pistas, primero te daré el paso clave como fórmula única, para que tengas la oportunidad de encontrarlo sin ayuda. Al final del post explicaré también el razonamiento.
El objetivo
Reconsideremos cuál era nuestro ejercicio:
Ejercicio 2.18 (p. 85) En el capítulo 6, donde consideramos la teoría de perturbaciones, mostramos que la corrección principal a $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bra{ab}\ket{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \end{align}$$ Demuestre que para un sistema de concha cerrada (donde $\eps{i}=\eps{\bar{\imath}}$ ) $$\begin{align} E_0^{(2)} &= \sum_{a,b=1}^{N/2}\quad \sum_{r,s=N/2+1}^{K} \frac{\bracket{ab}{rs} \left(2 \bracket{rs}{ab} -\bracket{rs}{ba}\right)} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \end{align}$$
Y porque es lo mismo pero diferente:
Ejercicio 6.8 (p 352) Derivar las Ecs. (6.73) y (6.74) $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bra{ab}\ket{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{6.72}\\ E_0^{(2)} &= \frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} -\frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{6.73}\\ E_0^{(2)} &= 2 \sum_{abrs}^{N/2} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} - \sum_{abrs}^{N/2} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{6.74}\\ \end{align}$$
Anotación: En realidad es sólo notación de Dirac simplificada. No hay nada especialmente "físico" en ella. Y aunque afirman lo contrario, lo considero una pereza. (p. 350)
La notación $\bracket{ij}{kl}$ se refiere a la ordenación de electrones 1,2,1,2.
Lo que SO denomina notación química se conoce mejor como notación de carga-nube, ya que la ordenación de los electrones es 1,1,2,2. Se suele denotar como $\left[ij\middle|kl\right]$ .
Por lo tanto $\bracket{ij}{kl}=\left[ik\middle|jl\right]$ .
Primero necesitamos lo siguiente $$\bra{ij}\ket{kl} = \bracket{ij}{kl}-\bracket{ij}{lk}.$$
También tenemos que considerar que los índices al principio del alfabeto $a,b,\dots\in\mathbb{N}$ se refieren a orbitales ocupados, por lo que $a,b,\dots<N$ con $N$ siendo el número total de electrones. Entonces $r,s,\dots\in\mathbb{N}$ pertenecen a orbitales virtuales.
Se implica además que los signos de suma sin límite superior se consideran orbitales de espín y para tener $N$ como límite superior de ocupados y un número arbitrario $K$ (número total de funciones de base) para virtual.
Una suma con varios índices hace referencia a otros tantos signos de suma. $$\sum_{ijkl} \text{terms} = \sum_i\sum_j\sum_k\sum_l \text{terms}$$
Integrales regulares de dos electrones
No tengo ni idea de lo que esto significa en realidad, así que he supuesto que sólo consideramos funciones reales. Por lo tanto muchas integrales serán simétricas. $$\bracket{ij}{kl} = \bracket{kj}{il} = \bracket{il}{kj} = \bracket{kl}{ij} = \bracket{ji}{lk} = \bracket{li}{jk} = \bracket{jk}{li} = \bracket{lk}{ji} $$
En primer lugar, descodificamos la taquigrafía y ampliamos el cuadrado $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bra{ab}\ket{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \\ E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bracket{ab}{rs}-\bracket{ab}{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{1}\\ E_0^{(2)} &= \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \\&\qquad\qquad \left\{ \frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} + \frac{\bracket{ab}{sr}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} -2\frac{\bracket{ab}{rs}\bracket{ab}{sr}}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} \right\} \tag{2}\\ \end{align}$$
Podemos demostrar además que $$\begin{multline} \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}}\\ = \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{sr}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}}\tag{3} \end{multline}$$ porque $a,b=1$ y $r,s=N+1$ y las permutaciones integrales se vuelven idénticas. Lo explicaré al final con un ejemplo. Esta es la clave. Por lo tanto, podemos reducirlo a $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} 2\frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} \\&\qquad - \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} 2\frac{\bracket{ab}{rs}\bracket{ab}{sr}}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} .\tag{4}\\ \end{align}$$ Usamos la simetría y encontramos (6.73) $$\begin{align} E_0^{(2)} &= \frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} -\frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{5 $\equiv$ 6.73}\\ \end{align}$$
Carcasa cerrada
Esto es lo que intentaste primero, yo también. Aquí es donde la notación corta te pateará suavemente en tu derrière, perdona mi francés.
Veamos las definiciones de orbitales de espín y orbitales espaciales: \begin{align} \chi_1(\ve{x}_1) &=\psi_1(\ve{r}_1)\alpha(s_1)\\ \chi_2(\ve{x}_2) &=\psi_1(\ve{r}_2)\beta(s_2)\\ \chi_3(\ve{x}_3) &=\psi_2(\ve{r}_3)\alpha(s_3)\\ \chi_4(\ve{x}_4) &=\psi_2(\ve{r}_4)\beta(s_4)\\ \vdots &\qquad\vdots\\ \chi_{N-1}(\ve{x}_{N-1}) &=\psi_{N/2}(\ve{r}_{N-1})\alpha(s_{N-1})\\ \chi_{N}(\ve{x}_{N}) &=\psi_{N/2}(\ve{r}_{N})\beta(s_{N})\\ \vdots &\qquad\vdots\\ \end{align}
Desde $a,b,\dots,r,s,\dots$ son números naturales arbitrarios no importa realmente qué índice elijamos, pero puede llevar a una gran confusión si en el lado izquierdo $a$ se refiere a un número diferente al de la derecha.
Por lo tanto elijo, para un número completamente arbitrario $酒$ de spinfunctions $\chi$ para representarlos como producto de una función espacial $\psi$ con un componente de espín $\alpha,\beta$ . El conjunto de funciones es, por tanto, la mitad del número del conjunto completo. $$\sum_{a}^{(酒)} \chi_a = \sum_{c}^{(酒/2)}\psi_c\alpha + \sum_{c}^{(酒/2)}\psi_c\beta,$$ Básicamente estamos introduciendo sólo un nuevo nombre de índices para evitar confusiones. Ahora abreviaré $\psi_c\alpha$ a $c$ y $\psi_c\beta$ a $\bar{c}$ . Y esto se aplicará análogamente a todos los demás tipos de índices. Por lo tanto escribimos simbólicamente: $$\sum_{a}^{(酒)} a = \sum_{c}^{(酒/2)}c + \sum_{\bar{c}}^{(酒/2)}\bar{c}$$
Ahora necesitamos expandir la ecuación 5 en este formalismo. Veremos entonces que se simplifica bastante. Sin estropear la sorpresa, podemos ver que el número de integrales que sobreviven a la integración por espín es exactamente el doble en el primer término que en el segundo, simplemente porque es simétrico.
En general sabemos que cualquier integral donde el electrón uno tiene $alpha$ girar a la izquierda y $beta$ spin en el lado derecho será cero, por lo tanto desaparecerá. Por lo tanto, las integrales de la forma $$ \bracket{\bar{i}j}{kl}; \bracket{i\bar{j}}{kl}; \bracket{ij}{\bar{k}l}; \bracket{ij}{k\bar{l}};\\ \bracket{\bar{i}\bar{j}}{kl}; \bracket{ij}{\bar{k}\bar{l}}; \bracket{\bar{i}j}{k\bar{l}}; \bracket{i\bar{j}}{\bar{k}l};\\ \bracket{i\bar{j}}{\bar{k}\bar{l}}; \bracket{\bar{i}j}{\bar{k}\bar{l}}; \bracket{\bar{i}\bar{j}}{k\bar{l}}; \bracket{\bar{i}\bar{j}}{\bar{k}l}; $$ desaparecerán.
Proporcionaré los términos completos al final, para que puedas comprobar tu propio intento, pero aquí está la ecuación 5 con todos los términos no evanescentes. Ten en cuenta que tenemos que incluir los límites de la suma aquí, porque hemos ampliado los spinorbitals en orbitales espaciales. Debido a que estamos teniendo un sistema de cáscara cerrada, el número de electrones $N$ es par, mientras que el número total de funciones de base $M$ podría ser cualquier cosa. Tenga en cuenta también que no incluyo los números iniciales de los índices, porque quedaría un poco feo. Por lo tanto, está implícito en la notación, que $a,b,c,d=1$ , $r,s=N+1$ y $t,u=N/2+1$ . (Si nos da pereza, vamos las nueve yardas completas .) $$\begin{align} E_0^{(2)} &= \frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} -\frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{5 $\equiv$ 6.73}\\ &=\phantom{-}\Bigg( \frac{1}{2} \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{cd}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} +\frac{1}{2} \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}u}^M \frac{\bracket{\bar{c}d}{\bar{t}u}\bracket{\bar{t}u}{\bar{c}d}} {\eps{\bar{c}} +\eps{d} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\Bigg(} +\frac{1}{2} \sum_{c\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\bracket{c\bar{d}}{t\bar{u}}\bracket{t\bar{u}}{c\bar{d}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} +\frac{1}{2} \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{c}\bar{d}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \Bigg)\\&\phantom{=} -\left( \frac{1}{2} \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{dc}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} +\frac{1}{2} \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{d}\bar{c}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \right)\tag{6} \end{align}$$
Ahora podemos deshacernos del giro y notar, que todas las integrales en el primer paréntesis son iguales, al igual que en el segundo. $$\begin{align} E_0^{(2)} &= 2 \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{cd}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{dc}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \tag{7}\end{align}$$
Si ahora reetiquetamos $c,d\to a,b$ y $t,u\to s,r$ obtendremos (6.74) y cuando movamos $\bracket{cd}{tu}\bracket{tu}{cd}$ delante del paréntesis tenemos nuestra ecuación deseada para el ejercicio 2.18. $$\begin{align} E_0^{(2)} &= \sum_{ab}^{N/2}\quad \sum_{rs}^{M} \frac{\bracket{ab}{rs} \left(2 \bracket{rs}{ab} -\bracket{rs}{ba}\right)} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \end{align}$$
Notas adicionales
Después de hacer este ejercicio, al que también dediqué bastantes horas, sigo teniendo la sensación de no haber aprendido nada nuevo. Sin duda, ahora entiendo mejor la notación perezosa. También puedo ver por qué introducir la restricción de orbitales de cáscara cerrada es una idea bastante buena desde el punto de vista computacional. Pero eso ya lo sabía y parece más que lógico si se tiene en cuenta que se corta la base completa por la mitad.
Bueno, como me gustan los crucigramas y cosas así, la verdad es que me ha gustado pensar en esto. Aparte de esto, no creo que este ejercicio ayude a entender la química cuántica.
Mientras leía algo al respecto, encontré un libro en la estantería de mi sensei, que también se centra en la aplicación. Creo que no está de más echarle un vistazo, si tienes acceso a él: David B. Cook; Hondbook of Computational Chemistry; Oxford University Press: Oxford, Nueva York, Tokio, 1998. (Nueva edición 2005 @ Publicaciones Dover )
Prueba (deducción) de (3)
Recuerda lo que usé antes, ya tiré el $\frac{1}{4}$ : $$\small \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} = \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{sr}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}}\tag{3'} $$ No soy matemático. La única manera que sabía de abordar esto era expandir realmente cada término (completamente). Y sí, eso es bastante trabajo.
Para facilitar un poco las cosas, podemos reducir los términos un poco más, porque el denominador de ambos lados es igual cuando $a,b,r,s\in\mathbb{N}$ ; $a=[1,N]$ ; $b=[1,N]$ ; $r=[N+1,M]$ ; $s=[N+1,M]$ y $N,M$ son iguales en el lado izquierdo y en el derecho.
Por lo tanto, "simplemente" tenemos que demostrar que $$ \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{rs}^2 = \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{sr}^2\tag{A1} $$
Ahora tenemos que simplificar nuestra notación o no llegaremos a ninguna parte. Para $a=1$ escribimos simplemente $1$ y para $r=N+1$ también escribimos simplemente $1$ donde la posición del número implica si forma parte del primer conjunto o del segundo. (No me puedo creer que esté escribiendo esto.) En la integral utilizaremos a partir de ahora punto y coma para separar las funciones. Como hay tantos cuadrados y no los necesitamos, también nos deshacemos de eso. Hagamos un ejemplo práctico: $$\text{For} a=1,b=2,r=N+1,s=N+2: \bracket{ab}{rs}^2:=\bracket{1;2}{1;2}$$
Abordemos primero el lado izquierdo: $$\small\begin{align} \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{rs}^2 &= \begin{array}{l} \color{\green}{ \phantom{+} \bracket{1;1}{1;1} +\bracket{2;1}{1;1} +\bracket{1;2}{1;1} +\bracket{2;2}{1;1} +\cdots+\bracket{N;N}{1;1}}\\ \color{\red}{ +\bracket{1;1}{2;1} +\bracket{2;1}{2;1} +\bracket{1;2}{2;1} +\bracket{2;2}{2;1} +\cdots+\bracket{N;N}{2;1}}\\ \color{\navy}{ +\bracket{1;1}{1;2} +\bracket{2;1}{1;2} +\bracket{1;2}{1;2} +\bracket{2;2}{1;2} +\cdots+\bracket{N;N}{1;2}}\\ \color{\green}{ +\bracket{1;1}{2;2} +\bracket{2;1}{2;2} +\bracket{1;2}{2;2} +\bracket{2;2}{2;2} +\cdots+\bracket{N;N}{2;2}}\\ +\qquad\vdots\\ +\bracket{1;1}{M;M} +\bracket{2;1}{M;M} +\bracket{1;2}{M;M} +\bracket{2;2}{M;M} +\cdots+\bracket{N;N}{M;M}\\ \end{array} \end{align}$$
Esto no ayuda mucho, porque también necesitamos el lado derecho. $$\small\begin{align} \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{sr}^2 &= \begin{array}{l} \color{\green}{ \phantom{+} \bracket{1;1}{1;1} +\bracket{2;1}{1;1} +\bracket{1;2}{1;1} +\bracket{2;2}{1;1} +\cdots+\bracket{N;N}{1;1}}\\ \color{\navy}{ +\bracket{1;1}{1;2} +\bracket{2;1}{1;2} +\bracket{1;2}{1;2} +\bracket{2;2}{1;2} +\cdots+\bracket{N;N}{1;2}}\\ \color{\red}{ +\bracket{1;1}{2;1} +\bracket{2;1}{2;1} +\bracket{1;2}{2;1} +\bracket{2;2}{2;1} +\cdots+\bracket{N;N}{2;1}}\\ \color{\green}{ +\bracket{1;1}{2;2} +\bracket{2;1}{2;2} +\bracket{1;2}{2;2} +\bracket{2;2}{2;2} +\cdots+\bracket{N;N}{2;2}}\\ +\qquad\vdots\\ +\bracket{1;1}{M;M} +\bracket{2;1}{M;M} +\bracket{1;2}{M;M} +\bracket{2;2}{M;M} +\cdots+\bracket{N;N}{M;M}\\ \end{array} \end{align}$$
Por el código de colores, probablemente ya te habrás dado cuenta de a dónde quiero llegar. Ahora podemos ver fácilmente que las sumas son equivalentes, ya que $a,b$ y $r,s$ sobre los mismos índices en ambos casos. La única diferencia que tenemos es en qué orden aparecerán las integrales. Así que las líneas verdes son idénticas en ambos casos (y cero, por cierto), mientras que las rojas y las azules sólo intercambian posiciones.
Expansión completa de (6)
Tenga en cuenta que realmente aprecio lo loco que es esto. Lo incluyo porque me he dado cuenta de que su ampliación estaba incompleta. Todavía conduce a la conclusión correcta, porque los términos que no incluyó están desapareciendo. $$%\require{cancel} \newcommand{\cancel}[1]{\color{\red}{#1}} \begin{align} E_0^{(2)} &= \phantom{-}\frac{1}{2}\Bigg( %all alpha \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{cd}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %three alpha one beta + \sum_{\bar{c}d}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}d}{tu}} \cancel{\bracket{tu}{\bar{c}d}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{c\bar{d}}{tu}} \cancel{\bracket{tu}{c\bar{d}}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{cd}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{cd}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{u}} + \sum_{cd}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{cd}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{cd}}} {\eps{c} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %two alpha two beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{tu}} \cancel{\bracket{tu}{\bar{c}\bar{d}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{c\bar{d}}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{cd}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{cd}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}u}^M \frac{\bracket{\bar{c}d}{\bar{t}u}\bracket{\bar{t}u}{\bar{c}d}} {\eps{\bar{c}} +\eps{d} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{c\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\bracket{c\bar{d}}{t\bar{u}}\bracket{t\bar{u}}{c\bar{d}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{\bar{c}d}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %one alpha three beta + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{c\bar{d}}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{\bar{c}d}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{\bar{c}\bar{d}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{\bar{c}\bar{d}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %all beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{c}\bar{d}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \Bigg)\\ &\phantom{=} -\frac{1}{2}\Bigg( %all alpha \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{dc}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %three alpha one beta + \sum_{\bar{c}d}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}d}{tu}} \cancel{\bracket{tu}{d\bar{c}}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{c\bar{d}}{tu}} \cancel{\bracket{tu}{\bar{d}c}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{cd}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{dc}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{u}} + \sum_{cd}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{cd}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{dc}}} {\eps{c} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %two alpha two beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{tu}} \cancel{\bracket{tu}{\bar{d}\bar{c}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}u}} \bracket{\bar{t}u}{\bar{d}c}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{cd}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{dc}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}u}^M \frac{\bracket{\bar{c}d}{\bar{t}u} \cancel{\bracket{\bar{t}u}{d\bar{c}}}} {\eps{\bar{c}} +\eps{d} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{c\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\bracket{c\bar{d}}{t\bar{u}} \cancel{\bracket{t\bar{u}}{\bar{d}c}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{t\bar{u}}} \bracket{t\bar{u}}{d\bar{c}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %one alpha three beta + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{\bar{d}c}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{d\bar{c}}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{\bar{d}\bar{c}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{\bar{d}\bar{c}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %all beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{d}\bar{c}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \Bigg)\tag{6} \end{align}$$
Señalé con rojo los elementos que desaparecían.
Si le queda alguna pregunta, no dude en visitar la página asociada chat . (Si este chat ya no está disponible, ve al chat principal y pregunta allí, por favor).
Y como eso fue bastante tedioso, tengo una mancha de café para llevar:
La imagen es cortesía de Roger Karlsson ( http://www.free-photo-gallery.org/photos/coffee-stain/ ) obtenido a partir de parpadeo . (Supongo que ahora está bastante cerca de mi prueba más larga .)