18 votos

¿Cómo convertir de orbitales de espín a orbitales espaciales en la aproximación Hartree-Fock?

Necesito calcular algunos de los términos de autoenergía más complicados del capítulo 7 de "Química Cuántica Moderna" de Szabo y Ostlund, y estoy teniendo problemas para convertir las sumas de orbitales de espín a orbitales espaciales.

El ejercicio 2.18 (página 85) es indicativo de lo que estoy haciendo mal, ya que no puedo obtener la respuesta correcta.

El ejercicio consiste en demostrar que la corrección principal de la energía del estado fundamental de Hartree-Fock

$$ E_0^2 = \frac{1}{4} \sum_{abrs} \frac{|\langle ab || rs \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} $$

donde la suma es sobre los orbitales de espín ( $a$ , $b$ sobre ocupados, $r$ , $s$ sobre virtuales), puede convertirse en la siguiente suma sobre orbitales espaciales:

$$ E_0^2 = \sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ \langle ab | rs \rangle (2 \langle rs | ab \rangle - \langle rs | ba \rangle)} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} $$

Las integrales están en "notación física", lo que significa que

$$ \langle ij|kl \rangle = \int \chi_{i}^*(\mathbf{x}_1) \chi_{j}^*(\mathbf{x}_2) r_{12}^{-1} \chi_{k}(\mathbf{x}_1) \chi_{l}(\mathbf{x}_2) \,\mathrm{d}\mathbf{x}_1 \,\mathrm{d}\mathbf{x}_2 $$

et

$$ \langle ij||kl \rangle = \langle ij | kl \rangle - \langle ij | lk \rangle $$

donde el $\chi_i$ son orbitales de espín y las variables $\mathbf{x}$ comprenden coordenadas espaciales y de espín.

Lo siguiente es lo que tengo, agradecería cualquier indicación para llegar a la respuesta correcta.

En primer lugar, descomponga la suma en las distintas permutaciones posibles del espín para los distintos orbitales ( $a$ y $\bar{a}$ son orbitales con espín opuesto), y utilizar la definición de $\langle ab || rs \rangle$ :

$$\begin{align} E_0^2 &=\frac{1}{4}\Bigg( \sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle ab|rs \rangle - \langle ab|sr \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} +\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle \bar{a}\bar{b}|rs \rangle - \langle \bar{a}\bar{b}|sr \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} \\&\qquad\quad +\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle \bar{a}b|\bar{r}s \rangle - \langle \bar{a}b|s\bar{r} \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} +\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle \bar{a}b|r\bar{s} \rangle - \langle \bar{a}b|\bar{s}r \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} \\&\qquad\quad +\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle a\bar{b}|\bar{r}s \rangle - \langle a\bar{b}|s\bar{r} \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} +\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle a\bar{b}|r\bar{s} \rangle - \langle a\bar{b}|\bar{s}r \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} \\&\qquad\quad +\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle ab|\bar{r}\bar{s} \rangle - \langle ab|\bar{s}\bar{r} \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} +\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle \bar{a}\bar{b}|\bar{r}\bar{s} \rangle - \langle \bar{a}\bar{b}|\bar{s}\bar{r} \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} \Bigg) \end{align}$$

Nótese que no necesitamos considerar términos con números Impares de orbitales de cualquiera de los espines, ya que los términos de la forma $\langle \bar{i}j|kl \rangle$ y $\langle i\bar{j}|\bar{k}\bar{l}\rangle$ son cero.

A continuación, utilizamos las reglas adicionales $\langle \bar{i}j|k\bar{l}\rangle$ = $\langle i\bar{j}|\bar{k}l \rangle$ = $\langle \bar{i}\bar{j}|kl \rangle$ = $\langle ij|\bar{k}\bar{l}\rangle$ = $0$ .

Vemos que en los ocho sumandos anteriores, el segundo y el séptimo se anulan completamente, mientras que en los cuatro del medio, sólo se conserva un término.

Entonces, expandiendo los cuadrados y juntando términos, obtenemos

$$\begin{align} E_0^2 &=\frac{1}{4}\Bigg(\quad 4\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle ab|rs \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} \\&\qquad\quad -4\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ \langle ab|rs \rangle \langle ab|sr \rangle } {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} \\&\qquad\quad +4\sum_{a,b=1}^{N/2} \sum_{r,s=N/2+1}^{K} \frac{ |\langle ab|sr \rangle |^2} {\varepsilon_a + \varepsilon_b - \varepsilon_r - \varepsilon_s} \Bigg) \end{align}$$

que es donde estoy atascado (además por supuesto de anular el factor 4). Cualquier ayuda para llegar a la respuesta correcta será muy apreciada.

18voto

maccullt Puntos 1555

Nota técnica: Esta página hace un uso intensivo de MathJax, dar tiempo a que se cargue .

$ %some shortcuts \newcommand{\op}[1]{\mathbf{#1}} \newcommand{\ve}[1]{\mathbf{#1}} \newcommand{\id}[1]{\mathrm{#1}} \newcommand{\bra}[1]{\left\langle#1\right|} \newcommand{\ket}[1]{\left|#1\right\rangle} \newcommand{\bracket}[2]{\left\langle#1\middle|#2\right\rangle} \newcommand{\diff}{\mathrm{d}} \newcommand{\eps}[1]{\varepsilon_{#1}} $

Preámbulo

Primero tengo que quitarme esto de encima. Aunque creo que los ejercicios de Szabo-Ostlund son una forma estupenda de aprender matemáticas y de entender lo perezosos que son los químicos y los físicos a la hora de escribir, los considero todos penosos y sin ningún valor pedagógico en particular. No creo que sea especialmente útil explicarlo todo con el modelo del dihidrógeno y dejar la generalización al usuario. Desde mi punto de vista personal, debería ser al revés. Dicho esto, le admiro por haber trabajado con este manuscrito.

Me llevó bastante tiempo volver a meterme en este tema y gasté varios lápices y mucho papel en ello. Como usted ha mencionado, ha estado haciendo lo mismo. También has comprobado que en la página 352 de S.O. se vuelve a dar el mismo ejercicio (6.8). Como has pedido pistas, primero te daré el paso clave como fórmula única, para que tengas la oportunidad de encontrarlo sin ayuda. Al final del post explicaré también el razonamiento.

El objetivo

Reconsideremos cuál era nuestro ejercicio:

Ejercicio 2.18 (p. 85) En el capítulo 6, donde consideramos la teoría de perturbaciones, mostramos que la corrección principal a $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bra{ab}\ket{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \end{align}$$ Demuestre que para un sistema de concha cerrada (donde $\eps{i}=\eps{\bar{\imath}}$ ) $$\begin{align} E_0^{(2)} &= \sum_{a,b=1}^{N/2}\quad \sum_{r,s=N/2+1}^{K} \frac{\bracket{ab}{rs} \left(2 \bracket{rs}{ab} -\bracket{rs}{ba}\right)} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \end{align}$$

Y porque es lo mismo pero diferente:

Ejercicio 6.8 (p 352) Derivar las Ecs. (6.73) y (6.74) $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bra{ab}\ket{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{6.72}\\ E_0^{(2)} &= \frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} -\frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{6.73}\\ E_0^{(2)} &= 2 \sum_{abrs}^{N/2} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} - \sum_{abrs}^{N/2} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{6.74}\\ \end{align}$$

Anotación: En realidad es sólo notación de Dirac simplificada. No hay nada especialmente "físico" en ella. Y aunque afirman lo contrario, lo considero una pereza. (p. 350)

La notación $\bracket{ij}{kl}$ se refiere a la ordenación de electrones 1,2,1,2.
Lo que SO denomina notación química se conoce mejor como notación de carga-nube, ya que la ordenación de los electrones es 1,1,2,2. Se suele denotar como $\left[ij\middle|kl\right]$ .
Por lo tanto $\bracket{ij}{kl}=\left[ik\middle|jl\right]$ .

Primero necesitamos lo siguiente $$\bra{ij}\ket{kl} = \bracket{ij}{kl}-\bracket{ij}{lk}.$$

También tenemos que considerar que los índices al principio del alfabeto $a,b,\dots\in\mathbb{N}$ se refieren a orbitales ocupados, por lo que $a,b,\dots<N$ con $N$ siendo el número total de electrones. Entonces $r,s,\dots\in\mathbb{N}$ pertenecen a orbitales virtuales.

Se implica además que los signos de suma sin límite superior se consideran orbitales de espín y para tener $N$ como límite superior de ocupados y un número arbitrario $K$ (número total de funciones de base) para virtual.

Una suma con varios índices hace referencia a otros tantos signos de suma. $$\sum_{ijkl} \text{terms} = \sum_i\sum_j\sum_k\sum_l \text{terms}$$

Integrales regulares de dos electrones

No tengo ni idea de lo que esto significa en realidad, así que he supuesto que sólo consideramos funciones reales. Por lo tanto muchas integrales serán simétricas. $$\bracket{ij}{kl} = \bracket{kj}{il} = \bracket{il}{kj} = \bracket{kl}{ij} = \bracket{ji}{lk} = \bracket{li}{jk} = \bracket{jk}{li} = \bracket{lk}{ji} $$

En primer lugar, descodificamos la taquigrafía y ampliamos el cuadrado $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bra{ab}\ket{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \\ E_0^{(2)} &= \frac{1}{4} \sum_{abrs} \frac{\left|\bracket{ab}{rs}-\bracket{ab}{rs}\right|^2} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{1}\\ E_0^{(2)} &= \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \\&\qquad\qquad \left\{ \frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} + \frac{\bracket{ab}{sr}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} -2\frac{\bracket{ab}{rs}\bracket{ab}{sr}}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} \right\} \tag{2}\\ \end{align}$$

Podemos demostrar además que $$\begin{multline} \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}}\\ = \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{sr}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}}\tag{3} \end{multline}$$ porque $a,b=1$ y $r,s=N+1$ y las permutaciones integrales se vuelven idénticas. Lo explicaré al final con un ejemplo. Esta es la clave. Por lo tanto, podemos reducirlo a $$\begin{align} E_0^{(2)} &= \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} 2\frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} \\&\qquad - \frac{1}{4} \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} 2\frac{\bracket{ab}{rs}\bracket{ab}{sr}}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} .\tag{4}\\ \end{align}$$ Usamos la simetría y encontramos (6.73) $$\begin{align} E_0^{(2)} &= \frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} -\frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{5 $\equiv$ 6.73}\\ \end{align}$$

Carcasa cerrada

Esto es lo que intentaste primero, yo también. Aquí es donde la notación corta te pateará suavemente en tu derrière, perdona mi francés.

Veamos las definiciones de orbitales de espín y orbitales espaciales: \begin{align} \chi_1(\ve{x}_1) &=\psi_1(\ve{r}_1)\alpha(s_1)\\ \chi_2(\ve{x}_2) &=\psi_1(\ve{r}_2)\beta(s_2)\\ \chi_3(\ve{x}_3) &=\psi_2(\ve{r}_3)\alpha(s_3)\\ \chi_4(\ve{x}_4) &=\psi_2(\ve{r}_4)\beta(s_4)\\ \vdots &\qquad\vdots\\ \chi_{N-1}(\ve{x}_{N-1}) &=\psi_{N/2}(\ve{r}_{N-1})\alpha(s_{N-1})\\ \chi_{N}(\ve{x}_{N}) &=\psi_{N/2}(\ve{r}_{N})\beta(s_{N})\\ \vdots &\qquad\vdots\\ \end{align}

Desde $a,b,\dots,r,s,\dots$ son números naturales arbitrarios no importa realmente qué índice elijamos, pero puede llevar a una gran confusión si en el lado izquierdo $a$ se refiere a un número diferente al de la derecha.

Por lo tanto elijo, para un número completamente arbitrario $酒$ de spinfunctions $\chi$ para representarlos como producto de una función espacial $\psi$ con un componente de espín $\alpha,\beta$ . El conjunto de funciones es, por tanto, la mitad del número del conjunto completo. $$\sum_{a}^{(酒)} \chi_a = \sum_{c}^{(酒/2)}\psi_c\alpha + \sum_{c}^{(酒/2)}\psi_c\beta,$$ Básicamente estamos introduciendo sólo un nuevo nombre de índices para evitar confusiones. Ahora abreviaré $\psi_c\alpha$ a $c$ y $\psi_c\beta$ a $\bar{c}$ . Y esto se aplicará análogamente a todos los demás tipos de índices. Por lo tanto escribimos simbólicamente: $$\sum_{a}^{(酒)} a = \sum_{c}^{(酒/2)}c + \sum_{\bar{c}}^{(酒/2)}\bar{c}$$

Ahora necesitamos expandir la ecuación 5 en este formalismo. Veremos entonces que se simplifica bastante. Sin estropear la sorpresa, podemos ver que el número de integrales que sobreviven a la integración por espín es exactamente el doble en el primer término que en el segundo, simplemente porque es simétrico.

En general sabemos que cualquier integral donde el electrón uno tiene $alpha$ girar a la izquierda y $beta$ spin en el lado derecho será cero, por lo tanto desaparecerá. Por lo tanto, las integrales de la forma $$ \bracket{\bar{i}j}{kl}; \bracket{i\bar{j}}{kl}; \bracket{ij}{\bar{k}l}; \bracket{ij}{k\bar{l}};\\ \bracket{\bar{i}\bar{j}}{kl}; \bracket{ij}{\bar{k}\bar{l}}; \bracket{\bar{i}j}{k\bar{l}}; \bracket{i\bar{j}}{\bar{k}l};\\ \bracket{i\bar{j}}{\bar{k}\bar{l}}; \bracket{\bar{i}j}{\bar{k}\bar{l}}; \bracket{\bar{i}\bar{j}}{k\bar{l}}; \bracket{\bar{i}\bar{j}}{\bar{k}l}; $$ desaparecerán.

Proporcionaré los términos completos al final, para que puedas comprobar tu propio intento, pero aquí está la ecuación 5 con todos los términos no evanescentes. Ten en cuenta que tenemos que incluir los límites de la suma aquí, porque hemos ampliado los spinorbitals en orbitales espaciales. Debido a que estamos teniendo un sistema de cáscara cerrada, el número de electrones $N$ es par, mientras que el número total de funciones de base $M$ podría ser cualquier cosa. Tenga en cuenta también que no incluyo los números iniciales de los índices, porque quedaría un poco feo. Por lo tanto, está implícito en la notación, que $a,b,c,d=1$ , $r,s=N+1$ y $t,u=N/2+1$ . (Si nos da pereza, vamos las nueve yardas completas .) $$\begin{align} E_0^{(2)} &= \frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ab}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} -\frac{1}{2} \sum_{abrs} \frac{\bracket{ab}{rs}\bracket{rs}{ba}} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \tag{5 $\equiv$ 6.73}\\ &=\phantom{-}\Bigg( \frac{1}{2} \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{cd}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} +\frac{1}{2} \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}u}^M \frac{\bracket{\bar{c}d}{\bar{t}u}\bracket{\bar{t}u}{\bar{c}d}} {\eps{\bar{c}} +\eps{d} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\Bigg(} +\frac{1}{2} \sum_{c\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\bracket{c\bar{d}}{t\bar{u}}\bracket{t\bar{u}}{c\bar{d}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} +\frac{1}{2} \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{c}\bar{d}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \Bigg)\\&\phantom{=} -\left( \frac{1}{2} \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{dc}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} +\frac{1}{2} \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{d}\bar{c}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \right)\tag{6} \end{align}$$

Ahora podemos deshacernos del giro y notar, que todas las integrales en el primer paréntesis son iguales, al igual que en el segundo. $$\begin{align} E_0^{(2)} &= 2 \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{cd}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{dc}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \tag{7}\end{align}$$

Si ahora reetiquetamos $c,d\to a,b$ y $t,u\to s,r$ obtendremos (6.74) y cuando movamos $\bracket{cd}{tu}\bracket{tu}{cd}$ delante del paréntesis tenemos nuestra ecuación deseada para el ejercicio 2.18. $$\begin{align} E_0^{(2)} &= \sum_{ab}^{N/2}\quad \sum_{rs}^{M} \frac{\bracket{ab}{rs} \left(2 \bracket{rs}{ab} -\bracket{rs}{ba}\right)} {\eps{a} +\eps{b} -\eps{r} -\eps{s}} \end{align}$$

Notas adicionales

Después de hacer este ejercicio, al que también dediqué bastantes horas, sigo teniendo la sensación de no haber aprendido nada nuevo. Sin duda, ahora entiendo mejor la notación perezosa. También puedo ver por qué introducir la restricción de orbitales de cáscara cerrada es una idea bastante buena desde el punto de vista computacional. Pero eso ya lo sabía y parece más que lógico si se tiene en cuenta que se corta la base completa por la mitad.
Bueno, como me gustan los crucigramas y cosas así, la verdad es que me ha gustado pensar en esto. Aparte de esto, no creo que este ejercicio ayude a entender la química cuántica.
Mientras leía algo al respecto, encontré un libro en la estantería de mi sensei, que también se centra en la aplicación. Creo que no está de más echarle un vistazo, si tienes acceso a él: David B. Cook; Hondbook of Computational Chemistry; Oxford University Press: Oxford, Nueva York, Tokio, 1998. (Nueva edición 2005 @ Publicaciones Dover )


Prueba (deducción) de (3)

Recuerda lo que usé antes, ya tiré el $\frac{1}{4}$ : $$\small \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{rs}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}} = \sum_{a=1}\sum_{b=1}\sum_{r=N+1}\sum_{s=N+1} \frac{\bracket{ab}{sr}^2}{\eps{a} +\eps{b} -\eps{r} -\eps{s}}\tag{3'} $$ No soy matemático. La única manera que sabía de abordar esto era expandir realmente cada término (completamente). Y sí, eso es bastante trabajo.
Para facilitar un poco las cosas, podemos reducir los términos un poco más, porque el denominador de ambos lados es igual cuando $a,b,r,s\in\mathbb{N}$ ; $a=[1,N]$ ; $b=[1,N]$ ; $r=[N+1,M]$ ; $s=[N+1,M]$ y $N,M$ son iguales en el lado izquierdo y en el derecho.
Por lo tanto, "simplemente" tenemos que demostrar que $$ \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{rs}^2 = \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{sr}^2\tag{A1} $$

Ahora tenemos que simplificar nuestra notación o no llegaremos a ninguna parte. Para $a=1$ escribimos simplemente $1$ y para $r=N+1$ también escribimos simplemente $1$ donde la posición del número implica si forma parte del primer conjunto o del segundo. (No me puedo creer que esté escribiendo esto.) En la integral utilizaremos a partir de ahora punto y coma para separar las funciones. Como hay tantos cuadrados y no los necesitamos, también nos deshacemos de eso. Hagamos un ejemplo práctico: $$\text{For} a=1,b=2,r=N+1,s=N+2: \bracket{ab}{rs}^2:=\bracket{1;2}{1;2}$$

Abordemos primero el lado izquierdo: $$\small\begin{align} \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{rs}^2 &= \begin{array}{l} \color{\green}{ \phantom{+} \bracket{1;1}{1;1} +\bracket{2;1}{1;1} +\bracket{1;2}{1;1} +\bracket{2;2}{1;1} +\cdots+\bracket{N;N}{1;1}}\\ \color{\red}{ +\bracket{1;1}{2;1} +\bracket{2;1}{2;1} +\bracket{1;2}{2;1} +\bracket{2;2}{2;1} +\cdots+\bracket{N;N}{2;1}}\\ \color{\navy}{ +\bracket{1;1}{1;2} +\bracket{2;1}{1;2} +\bracket{1;2}{1;2} +\bracket{2;2}{1;2} +\cdots+\bracket{N;N}{1;2}}\\ \color{\green}{ +\bracket{1;1}{2;2} +\bracket{2;1}{2;2} +\bracket{1;2}{2;2} +\bracket{2;2}{2;2} +\cdots+\bracket{N;N}{2;2}}\\ +\qquad\vdots\\ +\bracket{1;1}{M;M} +\bracket{2;1}{M;M} +\bracket{1;2}{M;M} +\bracket{2;2}{M;M} +\cdots+\bracket{N;N}{M;M}\\ \end{array} \end{align}$$

Esto no ayuda mucho, porque también necesitamos el lado derecho. $$\small\begin{align} \sum_{a=1}^N\sum_{b=1}^N\sum_{r=N+1}^M\sum_{s=N+1}^M \bracket{ab}{sr}^2 &= \begin{array}{l} \color{\green}{ \phantom{+} \bracket{1;1}{1;1} +\bracket{2;1}{1;1} +\bracket{1;2}{1;1} +\bracket{2;2}{1;1} +\cdots+\bracket{N;N}{1;1}}\\ \color{\navy}{ +\bracket{1;1}{1;2} +\bracket{2;1}{1;2} +\bracket{1;2}{1;2} +\bracket{2;2}{1;2} +\cdots+\bracket{N;N}{1;2}}\\ \color{\red}{ +\bracket{1;1}{2;1} +\bracket{2;1}{2;1} +\bracket{1;2}{2;1} +\bracket{2;2}{2;1} +\cdots+\bracket{N;N}{2;1}}\\ \color{\green}{ +\bracket{1;1}{2;2} +\bracket{2;1}{2;2} +\bracket{1;2}{2;2} +\bracket{2;2}{2;2} +\cdots+\bracket{N;N}{2;2}}\\ +\qquad\vdots\\ +\bracket{1;1}{M;M} +\bracket{2;1}{M;M} +\bracket{1;2}{M;M} +\bracket{2;2}{M;M} +\cdots+\bracket{N;N}{M;M}\\ \end{array} \end{align}$$

Por el código de colores, probablemente ya te habrás dado cuenta de a dónde quiero llegar. Ahora podemos ver fácilmente que las sumas son equivalentes, ya que $a,b$ y $r,s$ sobre los mismos índices en ambos casos. La única diferencia que tenemos es en qué orden aparecerán las integrales. Así que las líneas verdes son idénticas en ambos casos (y cero, por cierto), mientras que las rojas y las azules sólo intercambian posiciones.


Expansión completa de (6)

Tenga en cuenta que realmente aprecio lo loco que es esto. Lo incluyo porque me he dado cuenta de que su ampliación estaba incompleta. Todavía conduce a la conclusión correcta, porque los términos que no incluyó están desapareciendo. $$%\require{cancel} \newcommand{\cancel}[1]{\color{\red}{#1}} \begin{align} E_0^{(2)} &= \phantom{-}\frac{1}{2}\Bigg( %all alpha \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{cd}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %three alpha one beta + \sum_{\bar{c}d}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}d}{tu}} \cancel{\bracket{tu}{\bar{c}d}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{c\bar{d}}{tu}} \cancel{\bracket{tu}{c\bar{d}}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{cd}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{cd}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{u}} + \sum_{cd}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{cd}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{cd}}} {\eps{c} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %two alpha two beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{tu}} \cancel{\bracket{tu}{\bar{c}\bar{d}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{c\bar{d}}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{cd}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{cd}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}u}^M \frac{\bracket{\bar{c}d}{\bar{t}u}\bracket{\bar{t}u}{\bar{c}d}} {\eps{\bar{c}} +\eps{d} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{c\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\bracket{c\bar{d}}{t\bar{u}}\bracket{t\bar{u}}{c\bar{d}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{\bar{c}d}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %one alpha three beta + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{c\bar{d}}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{\bar{c}d}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{\bar{c}\bar{d}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{\bar{c}\bar{d}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %all beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{c}\bar{d}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \Bigg)\\ &\phantom{=} -\frac{1}{2}\Bigg( %all alpha \sum_{cd}^{N/2}\sum_{tu}^M \frac{\bracket{cd}{tu}\bracket{tu}{dc}} {\eps{c} +\eps{d} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %three alpha one beta + \sum_{\bar{c}d}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}d}{tu}} \cancel{\bracket{tu}{d\bar{c}}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{c\bar{d}}{tu}} \cancel{\bracket{tu}{\bar{d}c}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{cd}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{dc}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{u}} + \sum_{cd}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{cd}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{dc}}} {\eps{c} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %two alpha two beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{tu}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{tu}} \cancel{\bracket{tu}{\bar{d}\bar{c}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{u}} + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}u}} \bracket{\bar{t}u}{\bar{d}c}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{cd}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{cd}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{dc}}} {\eps{c} +\eps{d} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}u}^M \frac{\bracket{\bar{c}d}{\bar{t}u} \cancel{\bracket{\bar{t}u}{d\bar{c}}}} {\eps{\bar{c}} +\eps{d} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{c\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\bracket{c\bar{d}}{t\bar{u}} \cancel{\bracket{t\bar{u}}{\bar{d}c}}} {\eps{c} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{t\bar{u}}} \bracket{t\bar{u}}{d\bar{c}}} {\eps{\bar{c}} +\eps{d} -\eps{t} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} %one alpha three beta + \sum_{c\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{c\bar{d}}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{\bar{d}c}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} + \sum_{\bar{c}d}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\cancel{\bracket{\bar{c}d}{\bar{t}\bar{u}}} \cancel{\bracket{\bar{t}\bar{u}}{d\bar{c}}}} {\eps{c} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \\&\phantom{=-\frac{1}{2}\Bigg(} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{t\bar{u}}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{t\bar{u}}} \cancel{\bracket{t\bar{u}}{\bar{d}\bar{c}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{t} -\eps{\bar{u}}} + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}u}^M \frac{\cancel{\bracket{\bar{c}\bar{d}}{\bar{t}u}} \cancel{\bracket{\bar{t}u}{\bar{d}\bar{c}}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{u}} \\&\phantom{=-\frac{1}{2}\Bigg(} %all beta + \sum_{\bar{c}\bar{d}}^{N/2}\sum_{\bar{t}\bar{u}}^M \frac{\bracket{\bar{c}\bar{d}}{\bar{t}\bar{u}} \bracket{\bar{t}\bar{u}}{\bar{d}\bar{c}}} {\eps{\bar{c}} +\eps{\bar{d}} -\eps{\bar{t}} -\eps{\bar{u}}} \Bigg)\tag{6} \end{align}$$

Señalé con rojo los elementos que desaparecían.

Si le queda alguna pregunta, no dude en visitar la página asociada chat . (Si este chat ya no está disponible, ve al chat principal y pregunta allí, por favor).

Y como eso fue bastante tedioso, tengo una mancha de café para llevar:
obligatory coffee stain courtesy of Roger Karlsson
La imagen es cortesía de Roger Karlsson ( http://www.free-photo-gallery.org/photos/coffee-stain/ ) obtenido a partir de parpadeo . (Supongo que ahora está bastante cerca de mi prueba más larga .)

1voto

DRF Puntos 114

En cuanto a su derivación. Hay que tener en cuenta que la norma-cuadrado no es lo mismo que el cuadrado. $$ |f(x)|^2=|\langle x|f \rangle|^2= (\langle x|f \rangle )^* \langle x|f \rangle =\langle f|x \rangle \langle x|f \rangle \neq \langle x|f \rangle \langle x|f \rangle $$

Por lo tanto, espero que el siguiente conjunto de ecuaciones aclare las cosas a quien busque respuestas.

$$E_{0}^{(2)}=\frac{1}{4}\sum_{a,b=1}^{n}\sum_{r,s=n+1}^{m}\frac{|\langle ab||rs \rangle |^2}{(\epsilon_a+\epsilon_b)-(\epsilon_r+\epsilon_s)}$$

$$ E_{0}^{(2)} = \frac{1}{4} \sum_{a,b=1}^{n}\sum_{r,s=n+1}^{m} \frac{\langle ab||rs \rangle \langle rs||ab \rangle} {(\epsilon_a+\epsilon_b)-(\epsilon_r+\epsilon_s)}$$

$$ E_{0}^{(2)} = \frac{1}{4} \sum_{a,b=1}^{n}\sum_{r,s=n+1}^{m} \frac{(\langle ab|rs \rangle - \langle ab|sr \rangle)(\langle rs|ab \rangle - \langle rs|ba \rangle)} {(\epsilon_a+\epsilon_b)-(\epsilon_r+\epsilon_s)}$$

$$ E_{0}^{(2)} = \frac{1}{4} \sum_{a,b=1}^{n}\sum_{r,s=n+1}^{m} \frac {\langle ab|rs \rangle \langle rs|ab \rangle + \langle ab|sr \rangle\langle rs|ba \rangle - \langle ab|rs \rangle\langle rs|ba \rangle - \langle ab|sr \rangle\langle rs|ab \rangle} {(\epsilon_a+\epsilon_b)-(\epsilon_r+\epsilon_s)}$$

$$ E_{0}^{(2)} = \frac{1}{4} \sum_{a,b=1}^{n}\sum_{r,s=n+1}^{m} \frac {2\langle ab|rs \rangle \langle rs|ab \rangle - 2\langle ab|rs \rangle \langle rs|ba \rangle } {(\epsilon_a+\epsilon_b)-(\epsilon_r+\epsilon_s)}$$

El paso final es el único que requiere el uso de la simetría. Observa que la suma sobre a y b es simétrica y que la suma sobre r y s es simétrica (esto se ve claramente en las ecuaciones).

Reorganizar la ecuación resultante en la ecuación (6.73) es trivial.

En cuanto a la variante de la ecuación en envoltura cerrada, no diré mucho, ya que la única diferencia real es que la suma cambia ya que no es necesario considerar explícitamente el espín (por lo que se pueden considerar sólo espaciales) ya que todos los electrones se consideran apareados en las MO de estado básico.

Espero que esto tenga sentido. Avísame si hay algún error.

INFORMACIÓN ADICIONAL

La respuesta dada por @Martin y en la pregunta tiene un punto de partida incorrecto . Aquí explicaré por qué mostrando que: $$|\langle ab||rs \rangle|^2 \neq \langle ab||rs \rangle^2 $$ $$|\langle ab||rs \rangle|^2 \neq \langle ab||rs \rangle \langle ab||rs \rangle $$ La primera cosa que debería ser evidente es que la norma al cuadrado y al cuadrado tienen diferentes sintaxis - esto debería dar a entender que hay una diferencia entre los dos ... De hecho, son iguales si se trabaja exclusivamente con real números, sin embargo, $\Psi$ puede ser real o complejo Por lo tanto, al trabajar con $\Psi$ es importante señalar que cualquier derivación debe ser general tanto para real Y complejo números. Así que voy a escribir la verdadera forma de la norma al cuadrado para una función $\Psi$ que es general tanto para real y complejo números: $$ |\Psi|^2 = \int\langle \Psi |x \rangle\langle x|\Psi\rangle dx = \int \Psi^{*}(x)\Psi(x)dx = \langle \Psi | \Psi \rangle$$ También sabemos que, conjugados complejos en Dirac notación están relacionados por: $$ \langle A | = ( |A \rangle )^* $$ $$ |A \rangle = ( \langle A | )^* $$

Por lo tanto, $$ |\langle ab || rs \rangle |^2 = (\langle ab || rs \rangle )^*\langle ab || rs \rangle = \langle rs || ab \rangle \langle ab || rs \rangle = \langle ab || rs \rangle \langle rs || ab \rangle \neq \langle ab || rs \rangle \langle ab || rs \rangle $$ La desigualdad final es cierta para complejo cifras a pesar de que no es cierto para real números. Sin embargo, como ya se ha dicho, si $\Psi$ puede ser complejo o real entonces $a,b,r$ y $s$ también puede ser complejo o real .

Lo mismo puede demostrarse utilizando matrices en lugar de real y complejo números, cuando lo sepas: $$\langle a | a \rangle = \bar{\mathbf{a}}^{T}\mathbf{a}$$ Dónde, $a$ puede ser un real o complejo matriz. Este es el poder de la notación de Dirac (braket), da un formalismo general que se relaciona con matrices e integrales. Si vas a trabajar con QM en química, te recomiendo encarecidamente que utilices la notación de Dirac en lugar de la notación de los químicos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X