De vez en cuando oigo algo sobre Entropía de Tsallis , Sq({pi})=1q−1(1−∑ipqi), y decidí finalmente investigarlo. No he profundizado mucho en la literatura (sólo he hojeado ligeramente la Wikipedia y algunos textos introductorios), pero estoy completamente confundido sobre la motivación de su uso en la física estadística.
Como medida similar a la entropía aplicada a las distribuciones de probabilidad, la entropía de Tsallis tiene la propiedad de que, para dos independiente variables aleatorias A y B , Sq(A,B)=Sq(A)+Sq(B)+(1−q)Sq(A)Sq(B). En el límite como q tiende a 1 la entropía de Tsallis se convierte en la entropía habitual de Gibbs-Shannon H y recuperamos la relación H(A,B)=H(A)+H(B) para los independientes A y B .
Como propiedad matemática está perfectamente bien, pero la motivación para su uso en física parece completamente extraña, a no ser que la haya malinterpretado fundamentalmente. Por lo que he leído, el argumento parece es que para los sistemas que interactúan fuertemente, como los ligados a la gravedad, ya no podemos suponer que la entropía es extensiva (hasta aquí es justo) y por tanto necesitamos una medida de entropía que se comporte de forma no extensiva para independiente subsistemas, como en la ecuación 2 anterior, para un valor adecuado de q .
La razón por la que esto parece extraño es la suposición de independencia de los dos subsistemas. Seguramente la misma razón por la que no podemos suponer que la entropía es extensa es que los subsistemas están fuertemente acoplados, y por tanto no independiente.
La mecánica estadística habitual de Boltzmann-Gibbs parece estar bien equipada para hacer frente a esta situación. Consideremos un sistema compuesto por dos subsistemas, A y B . Si el subsistema A está en el estado i y B está en el estado j y que la energía del sistema venga dada por Eij=E(A)i+E(B)j+E(interaction)ij . Para un conjunto canónico tenemos entonces pij=1Ze−βEij=1Ze−β(E(A)i+E(B)j+E(interaction)ij). Si los valores de E(interaction)ij son pequeños en comparación con los de E(A)i y E(B)j entonces esto se factoriza aproximadamente en pij=pipj con pi y pj también están dadas por las distribuciones de Boltzmann, calculadas para A y B de forma independiente. Sin embargo, si E(interaction)ij es grande, entonces no podemos factorizar pij y ya no podemos considerar la distribución conjunta como el producto de dos distribuciones independientes.
Cualquiera que esté familiarizado con la teoría de la información sabrá que la ecuación 3 no es válida para variables aleatorias no independientes. La relación más general es H(A,B)=H(A)+H(B)−I(A;B), donde I(A;B) es la información mutua, una medida simétrica de la correlación entre dos variables, que siempre es no negativa y sólo se hace cero cuando A y B son independientes. La entropía termodinámica de un sistema físico no es más que la entropía de Gibbs-Shannon de un conjunto de Gibbs, por lo que si A y B se interpretan como subsistemas que interactúan fuertemente, entonces la mecánica estadística habitual de Boltzmann-Gibbs ya nos dice que la entropía no es extensiva, y la información mutua obtiene una interpretación física como el grado de no extensividad de la entropía termodinámica.
Esto parece no dejar lugar a modificaciones especiales "no extensivas" de la fórmula de entropía como la ecuación 1 . La entropía de Tsallis es no extensiva para subsistemas independientes, pero parece que los casos en los que necesitamos una entropía no extensiva son exactamente los casos en los que los subsistemas no son independientes, y por tanto la entropía de Gibbs-Shannon ya es no extensiva.
Después de esta larga explicación, mis preguntas son: (i) ¿Es correcta la caracterización anterior de la motivación de la entropía de Tsallis, o existen casos en los que las partes de un sistema pueden ser estadísticamente independientes y aun así necesitamos una entropía no extensiva? (ii) ¿Cuál es el consenso actual sobre la validez de los enfoques de la mecánica estadística basados en la entropía de Tsallis? Sé que ha sido objeto de debate en el pasado, pero la Wikipedia parece dar a entender que esto ya está resuelto y que la idea es ahora ampliamente aceptada. Me gustaría saber hasta qué punto esto es cierto. Por último, (iii) ¿se puede encontrar en la literatura el argumento que he esbozado anteriormente? He echado un vistazo rápido a algunas opiniones discrepantes sobre la entropía de Tsallis, pero sorprendentemente no he visto inmediatamente el punto sobre la información mutua y la no extensividad de la entropía de Gibbs-Shannon.
(Soy consciente de que también hay una justificación más pragmática para utilizar la entropía de Tsallis, que es que maximizarla tiende a conducir a distribuciones de tipo ley de potencia de "cola larga". Para esta pregunta me interesa menos esa justificación. Además, soy consciente de que ya hay algunas preguntas similares en el sitio <a href="https://physics.stackexchange.com/questions/16804/motivation-for-maximum-renyi-tsallis-entropy?rq=1">[1 </a>, <a href="https://physics.stackexchange.com/questions/19133/renyi-entropy-in-physical-systems?rq=1">2] </a>pero estos no cubren el argumento de la no-extensividad que me preocupa aquí las respuestas sólo tratan de la entropía de Rényi).