3 votos

El concepto de nivel de Fermi

He leído y utilizado el concepto de Nivel de Fermi anteriormente y esto es simplemente un intento por mi parte de mejorar mi comprensión de la misma haciéndome varias preguntas. Tengo entendido que la distribución de fermi se define como $$f(E)=\frac{1}{1+e^{\frac{E-E_F}{kT}}},$$ por lo que la energía de Fermi se define como $f(E_F)=0.5$ .

Sin embargo, esta definición no define que el nivel de fermi sea un valor constante y entiendo que es una propiedad material. Por ejemplo en los cristales, debido a los enlaces covalentes o iónicos que constituyen el material monocristalino, las funciones de onda atómicas que componen los átomos dentro de los cristales, se enfrentan a la degeneración, y esto conduce a la formación de bandas (estados muy espaciados) dentro del cristal. En este caso, el nivel de Fermi se define como el borde o el extremo hasta el que los electrones llenan estos estados a cero kelvin.

Evidentemente, al tratarse de bandas continuas (o de un continuo de estados energéticos con muy pocas brechas energéticas entre estados consecutivos), definir el nivel de Fermi hasta el último estado dentro de la banda o el siguiente estado no rellenado a cero kelvin daría muy poco error, pero ¿qué pasa con los semiconductores en los que toda la banda de valencia está rellenada hasta cero kelvin y luego comienza una brecha considerable donde reside el nivel de Fermi, o con los átomos individuales (por ejemplo un átomo de Si, donde la diferencia entre el estado 3p y el 4s es considerable)?

¿Cómo podemos fijar un valor definido de $E_F$ en esas circunstancias? O incluso moléculas como $C_{60}$ donde tenemos estados discretos. La diferencia entre los niveles HOMO y LUMO es mucho más evidente en este caso. ¿Cómo podemos grabar el valor del nivel de Fermi en estos casos?

5voto

MW99 Puntos 1

Así que no sé si alguna de las siguientes 3 secciones va a ser revisada o no, así que las he escrito como una especie de revisión completa de lo que estamos hablando - la energía de Fermi es un contribuyente a la potencial químico y una vez que lo sabes, estás preparado para tratar con semiconductores.

¿Qué es el potencial químico?

Demos un paso atrás en la termodinámica: existe un sistema con energía interna $U$ , volumen $V$ , la entropía $S$ , y formado por partículas con números $N_i$ y supongamos que estas son todas las cantidades macroscópicas que nos interesan. Por lo tanto, existe una ecuación de estado que las relaciona y nos permite comprenderlas todas de una sola vez, $$dU = T~dS - P~dV + \sum_i \mu_i~dN_i,$$ donde hemos introducido algunas otras variables a las que damos nombres muy familiares -- la "temperatura" $T$ la "presión" $P$ y este nombre ligeramente desconocido de "potencial químico para especies de partículas". $i$ ", $\mu_i.$ Uno puede "justificar" estos nombres también, dado el siguiente argumento: en sistemas aislados tratan de maximizar su entropía; suponiendo que dos sistemas $A$ y $B$ comparten reversiblemente el volumen, la energía y las partículas, con la restricción de que, por ejemplo $dU^A + dU^B = 0$ entonces encontramos que el cambio total de entropía es $$\begin{align}dS = dS^A + dS^B = \left(\frac{1}{T^A} - \frac{1}{T^B}\right)dU^A + \left(\frac{P^A}{T^A} - \frac{P^B}{T^B}\right) dV^A\\-\sum_i\left(\frac{\mu_i^A}{T^A} - \frac{\mu_i^B}{T^B}\right) dN_i^A.\end{align}$$ La energía fluirá espontáneamente hacia $A$ (en otras palabras, $dU^A > 0$ ) si el cambio de entropía es positivo, lo que ocurre si $T^B > T^A.$ A la misma temperatura, el volumen fluirá espontáneamente en $A$ si $P^A > P^B.$ Y finalmente, de nuevo a la misma temperatura, las partículas fluirán espontáneamente hacia $A$ si $\mu_i^B > \mu_i^A.$

También podemos ver en la definición anterior, la idea central de que $\mu_i$ es la energía para añadir una partícula más de la especie $i$ si mantenemos constantes la entropía y el volumen. (Equivalentemente podríamos intercambiar $N_i$ para $n_i$ y tienen un potencial químico molar, si lo prefieres).

¿Qué es la superficie de Fermi? ¿Qué tiene que ver con el potencial químico?

Recordemos que la presión aglutina cualquier efecto arbitrario que tienen la capacidad de hacer trabajo cuando se cambia el volumen del objeto -- la energía cinética "de cara al exterior" y las fuerzas intermoleculares repulsivas y demás. Las causas reales de la presión pueden ser muy complicadas; la presión en sí es muy sencilla: "para apretar esto se necesita cierta energía".

Lo mismo ocurre con el potencial químico. Agrupa potencialmente un montón de causas diferentes que, en última instancia, hacen que añadir un electrón (o un electrón-hueco o lo que sea) cueste energía.

Esta es la forma más fácil de desplazar un potencial químico para los electrones: ponerle un voltaje. El nuevo potencial químico consiste en la energía para llevar un electrón desde 0V hasta el voltaje objetivo y luego la energía residual para llevarlo al sistema.

Pero la energía cinética interna también tiene su papel. Tienes un entramado de cristales en $\vec r$ -que tiene alguna red dual en $\vec k$ -y cada uno de esos puntos de la red está disponible para exactamente dos electrones de conducción con espines opuestos. Si se tiene $N$ electrones de conducción entonces tenemos que llenar $N/2$ sitios de red recíproca, y esperaríamos llenarlos primero con la energía más baja. Pues bien, el efecto de campo medio de este potencial periódico puede ser resuelto prácticamente en su totalidad reescalando la masa del electrón en una "masa efectiva" $m_e$ Por lo tanto, hay tablas de estos que se pueden buscar en varias redes. Todo lo que queda es la energía cinética que va como $\hbar^2 k^2/(2 m_e),$ y tomando la $N/2$ estados de energía mínima equivale, por tanto, a llenar una bola en $k$ -espacio con algún radio $k_\text F$ el número de onda de Fermi. Todo "Fermi" tiene que ver con esta bola. Así, por ejemplo, la energía de Fermi es sólo la energía para añadir un electrón a la superficie de esta bola, $\hbar^2 k_\text F^2/(2 m_e).$ O si escuchas a alguien hablar de una "longitud de onda Fermi" puedes pensar: "oh, seguro que $k_\text F = 2\pi/\lambda_\text F$ " y probablemente tendrás razón.

Así que: La exclusión de Pauli obliga a que el potencial químico de los electrones en un metal sea distinto de cero, incluso cuando el cristal es eléctricamente perfecto y neutro, ya que cualquier nuevo electrón debe añadirse con una determinada energía cinética, porque simplemente no hay más estados de conducción disponibles con $\|\vec k\| < k_\text F.$ Este conjunto de circunstancias se denomina energía de Fermi.

¿Cómo entra la distribución de Fermi en todo esto?

La distribución de Fermi no es más que un ligero desplazamiento de la imagen anterior para una temperatura distinta de cero. Lo anterior sugiere que todos los estados con $\|\vec k\| < k_\text F$ están ocupados y todos los demás estados están desocupados, pero en un metal real con cierta temperatura $T$ habrá vibraciones de la red cristalina -- fonones -- que se dispersan de los electrones y al principio sólo pueden patear los electrones en algunos $\vec k$ tal que $\|\vec k\| > k_\text F$ pero después de que algunos de estos suceden hay "agujeros" con $\|\vec k\| < k_\text F$ hasta que los dos lleguen a una especie de distribución en estado estacionario.

En realidad, las leyes de la mecánica estadística ya son suficientes para especificar perfectamente lo que ocurre en el equilibrio térmico. Volvemos a la expresión anterior y suponemos que uno de los sistemas, $A$ es muy grande, y que los volúmenes $V$ no están cambiando, sino que el sistema más pequeño $B$ puede intercambiar electrones y energía con el más grande. Pues bien, el más grande tiene una entropía que podemos expandir de Taylor a primer orden como $$S^A(E, N) = S_0 + \Delta E/T - \Delta N\mu/T.$$ Suponiendo que el otro sistema es más o menos irrelevante y utilizando la ecuación de Boltzmann $S = k_\text B~\ln \Omega,$ se encuentra que la probabilidad $P$ de un estado del sistema más pequeño, que es proporcional a la multiplicidad $\Omega$ de la misma, se ve ahora que es proporcional a $\exp((\Delta E - \Delta N \mu)/(k_\text B~T)).$ Por supuesto, estos son los $\Delta E$ y $\Delta N$ para el sistema más grande, así que para corregirlo insertamos un signo negativo global, y tenemos los famosos "factores Boltzmann".

Ahora cualquier pequeño punto individual de la red dual (con un espín particular) tiene que estar exactamente en uno de los dos estados, ya sea $N=0$ y $E=0$ (factor de Boltzmann =1) o tenemos $N=1, E=E$ por lo que el factor de Boltzmann es $\exp(-(E-\mu)/k_\text B T)$ . Por lo tanto, su probabilidad de llenarse en el equilibrio es exactamente justa, $$ f_{\mu, T}(E) = \frac{e^{-(E-\mu)/k_\text B T}}{1 + e^{-(E-\mu)/k_\text B T}} = \frac{1}{e^{+(E-\mu)/k_\text B T} + 1}.$$

Por supuesto, esto es sólo para un estado; en la práctica también se tiene una función de "densidad de estados" y ambas deben multiplicarse para obtener el número total de electrones disponibles en un determinado nivel de energía. Pero ahora finalmente llegamos a tu conclusión: el potencial químico tiene una comprensión secundaria para los fermiones como la energía exacta tal que la probabilidad de que un estado fermiónico con esa energía esté ocupado, es 1/2.

Ahora bien, si conectamos un gran depósito de electrones a un cierto voltaje a un pequeño cable, los electrones fluirán hacia o desde ese cable dándole una ligera carga, y el voltaje en el cable cambiará desproporcionadamente a la cantidad de carga que fluyó, llegando al mismo voltaje que nuestra fuente de voltaje. En cierto modo, también se trata de que el cable alcance el mismo potencial químico que la fuente a la que lo conectamos. Tienes una opción: puedes definir el nuevo potencial químico como una nueva "superficie de Fermi", y así hacer equivalentes los dos términos (y ahora la energía de Fermi es no una propiedad material, ya que puedo cambiarla modificando el voltaje en el objeto), o puedes definir la superficie de Fermi como el potencial químico cuando la cosa es totalmente neutra en cuanto a carga y tiene un voltaje nulo con respecto al infinito -- en cuyo caso es una propiedad material, pero normalmente tenemos que pensar en potenciales químicos, que a menudo hacen subir o bajar el nivel de Fermi por algún voltaje.

Voy a elegir la segunda, porque la terminología redundante quizás no sea una gran idea.

¿Cómo responde esto a su pregunta?

Bueno, para el C-60, vamos a pedir las definiciones: ¿Cuál es el potencial químico de algún nanosistema? Es la energía que se obtiene al añadir un electrón, por tanto es la energía LUMO menos la energía HOMO. (Para la gente que lea esto de forma casual y no esté familiarizada con la jerga: esto es "orbital molecular más ocupado", "orbital molecular más bajo desocupado"). En cierto sentido, es así de sencillo.

Pero en el caso de los semiconductores nos encontramos con un problema más claro. Volvemos a tener un tipo similar de "muchos electrones en una red de cristal", pero existe esta brecha de banda $\Delta$ donde la densidad de estados cae a 0, y así se hace muy difícil decir "oh, estos están ocupados con probabilidad tal y tal". La definición anterior de potencial químico en realidad dice que estamos en una especie de lugar donde el potencial químico es discontinuo en la banda de valencia el coste de añadir nuevos electrones era $E$ y ahora ha saltado de forma discontinua a $E+\Delta.$ Así que eso apesta, ¿qué podemos hacer para "elegir un número" intermedio que represente su energía de Fermi cuando es neutral?

Pues bien, estas brechas de banda en la práctica están en la escala de electrones voltios o algo así, mientras que la temperatura ambiente está más cerca de $\text{26 meV}$ , por lo que el régimen $k_\text B T\ll E$ se mantiene en algo así como un orden y medio de magnitud. Pero todavía habrá ocasionalmente algunos electrones térmicos en la banda de conducción y algunos agujeros térmicos en la banda de valencia. Utilicemos estas probabilidades para encontrar un "nivel de Fermi" significativo en el medio, $E < \mu < E+\Delta.$

Comencemos con los electrones de conducción; la gran brecha de banda nos permite aproximar que $f_{\mu,T}(E+\Delta)\approx e^{-(E+\Delta-\mu)/k_\text B T}.$ Simple, ¿verdad? Para los electrones de valencia, podemos ver que necesitamos mirar el número de agujeros para obtener un número similar, $$1 - f_{\mu, T}(E) = 1/(1 + e^{-(E-\mu)/k_\text B T} \approx e^{(E - \mu)/k_\text B T}.$$ Estas dos probabilidades, al multiplicarse, se combinan para formar una constante, $e^{-\Delta/k_\text B T}$ . De nuevo, tenemos que multiplicar por la densidad de estados por encima y por debajo de la banda prohibida para obtener los números reales, pero aún así se encuentra que $N_e~N_h = N_i^2$ para alguna constante $N_i$ conocida como la "densidad intrínseca de portadores", esto es sin importar el nivel de Fermi. Esto se llama la "ley de acción de la masa".

Así que lo que hacemos en la práctica con los semiconductores es medir el número de electrones y de huecos a cierta temperatura y esta diferencia nos permite resolver $\mu$ , que tomamos como la "energía intrínseca de Fermi". Por lo general, ésta resulta ser cercana a la energía de la brecha media $E+(\Delta/2),$ pero como utilizamos el dopaje podemos desplazar dónde está exactamente en relación con esos dos bordes.

Entonces, cuando conectamos dos de estos sistemas entre sí, por ejemplo, en una unión PN, pensamos que sus energías de Fermi son las mismas (ya que sólo se trata de un potencial químico) y, por tanto, sus bandas se desplazan una respecto a la otra.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X