Cuando se realizan cálculos de DFT, algunas integraciones se hacen comúnmente de forma numérica en mallas. [De hecho, más de una sola malla se puede utilizar al mismo tiempo para diferentes integrales, por ejemplo aproximaciones como la resolución de la identidad (RIJCOSX, RIJK, etc., ver por ejemplo J. Chem. Phys. 118, 9136 (2003)) también utilizan esquemas de malla (creo que algunos programas llaman a esta aproximación density fitting).]
El inconveniente es que esos esquemas de malla introducen una fuente de error. De hecho, descubro que solo aumentando la calidad de la malla puedo eliminar algunas frecuencias imaginarias. ¿Puedo comparar rigurosamente valores de energía entre cálculos que utilizaron esquemas de malla ligeramente diferentes?
Pienso que sí y razoné de la siguiente manera. Dado que me interesan las diferencias de energía, imaginemos dos estructuras con energías verdaderas $E^*_1$ y $E^*_2$. Ambas energías son aproximadas por las energías calculadas $E_i = E^*_i + \epsilon_i$, donde $\epsilon_i$ es el error introducido por los cálculos (incluyendo mallas, etc.). Ahora la diferencia de energía $\Delta E^* = E^*_2 - E^*_1$ es aproximada por $\Delta E = E_2 - E_1 = \Delta E^* + \Delta \epsilon$, donde $\Delta \epsilon = \epsilon_2 - \epsilon_1$. Dado que los esquemas de malla introducen errores que son más pequeños que otras fuentes de error (por ejemplo, la solvatación implícita), todo debería estar bien siempre y cuando $\Delta \epsilon$ sea aceptablemente pequeño para la aplicación particular en cuestión.
¿Parece razonable esto? Si no, ¿qué hay de malo con lo anterior?