El potencial aleatorio es un modelo para pequeñas fluctuaciones en la energía local de un electrón, cuando hay defectos o impurezas que elevan un poco la energía de un electrón en ciertos puntos y la bajan en otros. Es un buen modelo, aunque no lo parezca al principio, porque la solución mecánica cuántica no es sensible a los detalles más finos del potencial aleatorio V (en dimensiones bajas), sino que el electrón mecánico cuántico sólo nota el valor medio de V que varía lentamente de una región a otra.
Se trata de un campo enorme, y sólo estoy dando una visión muy superficial. Es uno de los problemas más estudiados del último medio siglo, y merece la atención que recibe.
El potencial aleatorio parece superficialmente intimidante, porque la definición habitual es que el potencial V es aleatorio gaussiano en cada punto, y generado por la distribución de probabilidad
$$ e^{-{1\over 2}\int V^2 d^dx} $$
en las dimensiones D. Se trata de una gaussiana independiente en cada punto x del espacio d-dimensional, y la función de correlación estadística de V para diferentes recogidas de esta distribución de probabilidad es
$$ \langle V(x)V(y)\rangle = \delta^d(x-y) $$
Hay que pensar en esto de la siguiente manera: el espacio se convierte en un entramado de tamaño $\epsilon$ la integral se sustituye por una suma y la función delta por una protuberancia discreta de tamaño $1\over \epsilon^d$ . Esta es probablemente la aproximación discreta que viste. Entonces la afirmación es que en el límite que $\epsilon$ va a cero, se obtiene una teoría sensata. La teoría es el valor propio del operador de Schrodinger
$$ (\Delta + \lambda V)\psi = E\psi $$
Donde $\lambda$ es la fuerza del desorden te dice lo fuerte que es la aleatoriedad.
La cuestión es que la energía potencial en cada sitio de la red es una gaussiana de anchura $\lambda\over \epsilon^{d\over 2}$ . La gaussiana tiene una varianza enorme, y el potencial pasa de un valor positivo enorme a un valor negativo enorme cada pocas celdas vecinas. No parece una noción sensata de potencial superficialmente.
Los potenciales así de locos no tienen ningún sentido clásico, ya que tienes puntos de inflexión por todas partes, y clásicamente, sólo oscilas alrededor del mínimo más profundo, y no puedes, porque hay baches por todas partes bloqueando tu camino. Para este problema, tienes que dejar de pensar clásicamente por completo. En la mecánica cuántica la partícula está haciendo un túnel alrededor de los mínimos, pasando por otros mínimos, y suprimiéndose un poco cada vez que tiene que pasar por una región de alto potencial.
La cuestión principal aquí es si la partícula puede llegar hasta el infinito, de modo que la función de onda se extienda, o si la función de onda de cada estado decae exponencialmente a grandes distancias. Esta es la cuestión de si el material aleatorio localiza los electrones, por lo que es un aislante, o deslocaliza los electrones, por lo que es un conductor.
La referencia clásica para esto es el trabajo ganador del Premio Nobel "Absence of diffusion in random lattices" de P.W. Anderson. A pesar del título, no habla de la difusión estadística, sino de esto de la mecánica cuántica.
Autoconsistencia en dimensiones < 4
Lo primero que hay que hacer es asegurarse de que el problema tiene un límite de espacio pequeño autoconsistente. Esto es probablemente lo que te interesa hacer rigurosamente, pero la heurística es instructiva.
Considere la posibilidad de colocar una pequeña protuberancia de la función de onda de ancho a sobre el potencial aleatorio. Lo que hay que comprobar es que (casi seguro) no se puede ganar una cantidad infinita de energía colocando el bulto en el lugar adecuado, en un punto en el que la media de V sobre el bulto va a ser muy negativa. Dividiendo la región de tamaño $a^d$ a $\epsilon^d$ cubos, se encuentra que hay $N=(a/\epsilon)^d$ de ellos, cada uno al azar, por lo que por la ley de la raíz cuadrada, el valor negativo típico de V en esta protuberancia tendrá el tamaño $1\over \sqrt{N}$ mientras que las fluctuaciones de V en la escala $\epsilon$ estallar como $1\over \epsilon^{d\over 2}$ . El $\epsilon$ partes se cancelan, y se encuentra la escala a de la energía potencial típica en una región de tamaño a:
$$ V_\mathrm{typ} = - {\lambda\over\epsilon^{d\over 2}} ({\epsilon\over a})^{d\over 2} = {\lambda\over a^{d\over 2}}$$
A medida que a se hace más grande, se promedia sobre más V aleatorias independientes, y se obtiene un promedio más pequeño, y se reduce como esta ley de potencia. A medida que a se hace más pequeño, se puede hacer una energía potencial cada vez más negativa sin límite, porque las fluctuaciones se hacen más grandes (y se busca la región más negativa). Pero hay un coste por hacer a más pequeño, la pequeña anchura significa que hay una incertidumbre de momento del orden $1/a$ y esto hace una energía cinética que va como $1/a^2$ . Así que mientras la energía cinética supere a la energía potencial en la forma de estallar, habrá un buen límite. De lo contrario, los estados de la partícula colapsarán hasta un punto. Probablemente se le pida que demuestre esto rigurosamente.
La condición es que d<4. Así que el problema tiene sentido en 1,2,3 dimensiones, y tal vez en 4. También tiene sentido en formas fractales de la dimensión fractal apropiada estrictamente inferior a 4. El caso de 4 dimensiones es marginal, y no estoy seguro de si el problema está bien planteado allí, si depende de los detalles de la red, o si hay diferentes fractales de 4 dimensiones donde funciona y otros donde no. Este es el caso límite.
Hacer esto riguroso podría ser algo difícil, porque hay que demostrar que con probabilidad 1, no se puede ganar energía encontrando lugares muy especiales en una configuración de V donde la energía potencial es mucho más pequeña que el tamaño típico de la fluctuación de energía. Puede que no haya buenos métodos en matemáticas para hacer esto de forma rigurosa ahora mismo, pero es completamente obvio por motivos físicos (el número de posiciones sólo crece polinomialmente con la reducción de la malla, mientras que el número de configuraciones en la malla que se reduce crece exponencialmente. El número mucho mayor de posibilidades para los valores microscópicos de V hace evidente que la búsqueda a través de un número polinómico de posiciones no va a conseguir más que un pequeño factor sobre la estimación ingenua anterior).
1 dimensión es exactamente solucionable
El problema unidimensional puede resolverse con exactitud, y así lo hizo Bert Halperin en http://prola.aps.org/abstract/PR/v139/i1A/pA104_1 . Una forma de tratar esto es utilizar la llamada "matriz R", que es una matriz de reflexión/transmisión unidimensional que indica cómo las ondas planas se dispersan/reflejan en una protuberancia.
El producto de las matrices R en una serie es la matriz R para el problema del potencial aleatorio, y en este caso, puedes analizar el producto numéricamente, y ver que obtienes atenuación para todas las V. Esto significa que todas las funciones de onda en 1d están localizadas, todas caen exponencialmente a grandes distancias.
Una predicción sorprendente (pero cierta) es que todos los cables acaban siendo aislantes. Dado que todos los materiales tienen un poco de potencial aleatorio, todos los hilos unidimensionales acabarán localizándose. La razón por la que no se ve esto es porque los alambres metálicos largos tienen un desorden relativamente pequeño y un gran grosor, por lo que la longitud de localización es mucho mayor de lo que se puede medir.
2 dimensiones es crítico
El problema bidimensional es fascinante, porque es el punto crítico para un análisis del grupo de renormalización del problema de la localización. En dos dimensiones, el problema del potencial aleatorio es marginalmente de localización. Se trata de un análisis complicado, y no estoy preparado para escribir sobre él en este momento.
Una cosa que esto sugirió es que 2d es como 1d, en que cada $\lambda$ localiza. Sin embargo, hubo simulaciones que sugirieron que esto no es así, que hay una transición de localización en 2d. Este debate se prolongó durante 20 años en la física de la materia condensada, y he oído que ahora se considera resuelto, aunque no sabría decir en qué sentido y con qué métodos (numéricos o RG).
3 dimensiones: Transición de Anderson y localización débil
El caso tridimensional es muy interesante, ya que tiene una transición de fase de segundo orden entre estados localizados y deslocalizados a medida que se sintoniza el parámetro $\lambda$ .
En $\lambda=0$ Si se tiene una deslocalización completa, todos los estados son estados de momento, están dispersos y no decaen en el infinito. Cuando $\lambda$ es débil, se puede tratar el potencial aleatorio como una pequeña perturbación, y calcular las correcciones a las propiedades del material a partir de unos pocos órdenes de la teoría de perturbaciones. Esto no es tan bueno desde una perspectiva matemática, porque la perturbación no está localizada en un punto, por lo que las funciones propias son completamente diferentes para un matemático, pero para un físico, la transmisión de la corriente en el conductor sólo se ve alterada por una secuencia de dispersiones de la aleatoriedad.
Estas dispersiones tienen la propiedad de que si se dispersa k veces, y se dispersa exactamente al revés k veces, se tiene la misma fase para ambos procesos. Esto hace que la partícula quiera quedarse más de lo que se espera, debido a la interferencia constructiva entre las trayectorias y su inversión temporal. Si se rompe la simetría de la inversión temporal, introduciendo un campo magnético, se permite que los electrones fluyan mejor, porque se elimina la interferencia constructiva.
Este efecto se denomina localización débil y conduce a materiales que tienen un pico de resistividad a 0 campo magnético aplicado. Esta magnetorresistencia fue un tema muy activo en los años 80 y 90, al igual que la localización débil en general. Uno de los aspectos agradables de esto es que permite averiguar cuánto tiempo mantienen los electrones la coherencia de fase en un material, ya que el efecto requiere la interferencia constructiva de trayectorias que se extienden de forma significativa dentro del metal.
Pero la historia estándar es sólo la localización . A un nivel extremadamente alto $\lambda$ sabemos por el escalamiento de localización que las funciones de onda se escurrirán pequeñas, pero sabemos por el escalamiento dimensional que no pueden bajar a $\epsilon$ pero debe ocupar alguna escala intermedia.
Anderson sugirió estudiar esto a partir de estados completamente localizados. El
Enfoques
Los problemas de desorden son interesantes porque requieren que se promedie el desorden, pero no como una variable dinámica que fluctúa térmicamente, sino como algo estático. Los físicos llaman a esto desorden "apagado", ya que es análogo a apagar rápidamente un material caliente como el acero en el agua y congelar las impurezas y el desorden en su lugar, sin permitir que lleguen al equilibrio térmico y se planchen.
Para el desorden apagado, se desea calcular las funciones de correlación y luego promediar sobre el desorden,
$$ \langle \phi \phi \rangle_V = \sum_V P(v) \langle \phi\phi\rangle = \sum_V P(V) {\partial\over \partial J}{\partial\over \partial J} \log[Z(J)]|_{J=0} $$
La cantidad $Z$ es también una suma sobre configuraciones, es la integral cuántica de trayectoria (o la integral estadística cuántica de trayectoria). La diferencia es que la media sobre $V$ tiene que hacerse después de se toma el registro de $Z$ , ya que no quieres $V$ para convertirse en un campo cuántico dinámico, o en un campo clásico que fluctúa estadísticamente, pero sólo se quiere promediar los resultados del cálculo sobre todos los valores de $V$ .
Tradicionalmente, hay dos maneras de hacer la media sobre $V$ . El primero es el truco de la réplica de Parisi: la idea aquí es realizar la suma sobre $V$ con $N$ copias del sistema:
$$ \sum_{V\phi_1...\phi_N} e^{-S(\phi_1) - S(\phi_2) ... - S(\phi_N)} $$
Esto da
$$ \langle Z^N\rangle $$
entonces se toma el límite formal $N\rightarrow 0$ en el que la escala principal es $$\langle \log(Z)\rangle $$ . Esta idea es probablemente la más difícil de imaginar para hacerla rigurosa, pero esta réplica ha sido inmensamente fructífera para la física. Se asemeja a la noción de Entropía de Renyi en matemáticas, pero es más formal, ya que las funciones de partición reales sólo están completamente definidas para entero $N$ mayor que 1.
Este es un campo muy amplio, y puedes buscar en Google "truco de réplica" y "ruptura de simetría de réplica" para saber más. Este método es indispensable para la física moderna de la materia condensada.
El segundo método es el enfoque de la supersimetría, y se basa en el siguiente hecho: en un sistema SUSY, ¡la función de partición es exactamente 1! Esto puede parecer sorprendente, pero es obvio en un sistema estocástico con un mapa de Nicolai (ver esta respuesta: Un cierto $\cal{N}=2$ teoría superconforme (¿o no?) ) . Cuando se tiene un sistema estocástico, la función de partición es constante - sólo depende de la selección de la variable de ruido, no de los valores del campo.
Si se utiliza este hecho, junto con el hecho de que las derivadas de $\log(Z) $ con respecto a las fuentes es el recíproco de Z por la derivada de $Z$ con respecto a las fuentes, se obtiene que para un sistema SUSY, se puede promediar $\log(Z)$ sólo con la media $Z$ . Esta es la otra forma de tratar el desorden.
El método SUSY y el método de las réplicas son complementarios, y han aportado información sobre diferentes problemas. El método de la réplica ha sido más general aunque menos riguroso, y más cargado de preocupaciones sobre su funcionamiento.