La velocidad de las ondas electromagnéticas en un medio es menor que su valor en el vacío: $$v=\frac{1}{\sqrt{\mu\epsilon}}=c/n<c$$ with the refractive index $n=\sqrt{\frac{\mu\epsilon}{\mu_0\epsilon_0}}\approx \sqrt{\epsilon_r}>1$ siempre. ¿Por qué es este el caso?
Ingenuamente y cualitativamente, creo que, cuando la ola cae en un medio, es absorbido por las partículas del medio, que luego oscilar y re-emiten la radiación, y esto puede provocar un retraso en la propagación. Sin embargo, estoy en busca de un clásico modelo matemático (en términos de microscópicas de la interacción entre los átomos y campos similares en espíritu a la de Lorentz teoría de la dispersión) de la propagación de la onda electromagnética en un medio que explica físicamente ¿por qué la disminución de la velocidad y permite derivar la relación $v=c/n$.
EDIT: En esta pregunta, el OP habla de la absorción de fotones de(re)emisión de la teoría, y cualitativamente explica cómo cambia la "velocidad de arrastre". Quiero un cuantitativa versión de este modelo/teoría que me permite definir $v$, y muestran que la $v<c$. La respuesta aquí es agradable, pero todavía cualitativa.