Vale la pena señalar que su definición de un cambio elemental en la entropía de un sistema, a saber:
$dS=\displaystyle\frac{\delta Q}{T}$
Sólo es válido para un _cambio internamente reversible_ . No se trata de un tecnicismo que pueda omitirse; creo que parte de tu pregunta podría estar relacionada con la noción de calor (una cantidad medible de energía transferida) y la incertidumbre estadística (que es, hasta interpretaciones alternativas y equivalentes, el significado intrínseco de la entropía).
En un proceso internamente reversible que implica la adición o sustracción de calor de un sistema, ese T bajo de calor ( inexacto ) debe haber una temperatura uniforme en toda la extensión espacial del sistema hasta sus límites, de modo que en todo momento la temperatura de los límites del sistema sea igual a su temperatura global (y única). Esto significa que no hay gradientes de temperatura en el interior del sistema de interés, y debido a ese mismo hecho, no hay posibles intercambios de calor dentro de los límites del sistema. Esto se debe a que, para que un sistema intercambie calor con otro, debe haber una diferencia de temperatura entre ellos, y si la diferencia es cero (son iguales) entonces no se transferirá calor. Si lo pensamos bien, este es un argumento sólido: un vaso de agua fría se calienta cada vez más cuando lo dejamos en una habitación, pero cuando alcanza la misma temperatura del aire que lo rodea, ya no hay más cambios y se queda ahí indefinidamente.
Volviendo a la ecuación original, ahora se puede interpretar que el lado derecho nos dice que, en situaciones en las que la temperatura del sistema es uniforme en todo momento La relación entre la cantidad infinitesimal de calor añadido o sustraído al sistema por su entorno, y la temperatura única en cada punto del sistema (que no es más que una medida de la energía cinética media de las moléculas individuales que lo componen), es igual a su cambio de entropía. ¿Y qué es la entropía? Pues, hablando macroscópicamente Puedes tomar lo que he escrito arriba como una definición de la entropía, y se puede deducir termodinámicamente que es, efectivamente, una función de estado (sólo depende de las propiedades puntuales del sistema, como su presión y temperatura) y no depende de la cadena de acontecimientos por la que se llegó a ese estado.
Por otro lado, la mecánica estadística (que es una forma más reciente de abordar lo que vemos macroscópicamente como propiedades termodinámicas, como la entropía, a partir de una descripción mecánica a nivel molecular) nos da más detalles sobre la naturaleza de la entropía. Creo que es mejor pensar en ella no como una medida de la aleatoriedad, sino como la incertidumbre del estado (microscópico) del sistema.
Te pongo un ejemplo sencillo: imagina que tienes una mesa de billar con el tablero totalmente cubierto por una tela opaca, con un solo extremo abierto para introducir el taco. Supongamos ahora que ya sabes (por algún medio) que las ocho bolas se distribuyan en la mesa formando una línea recta con un espacio igual entre ellas, pero no sabes donde se encuentra exactamente esta línea en el área rectangular de la mesa; y que, a efectos del experimento, la blanca está justo al lado del agujero (y por supuesto lo sabes). Ahora, coges el taco, lo introduces en el agujero de la tela que se ha dejado abierto, y golpeas la bola blanca. Tras unos segundos de colisiones (auditivas), puedes estar seguro de que el movimiento se ha detenido bajo la tela. ¿Qué ha pasado con sus conocimientos sobre el sistema?
Bueno, no sabes dónde ha ido a parar cada bola (¡hemos sellado las bolsas, por supuesto!) pero no lo sabías antes del golpe, ¿verdad? Pero entonces, al menos sabías que estaban formando una línea, y que la información ha desaparecido. Desde su punto de vista exterior, su información previa sobre las posiciones de las bolas y la energía y el impulso que introdujo en el sistema a través del golpe no es suficiente para descartar un gran número de posibles distribuciones reales de las bolas. Al principio del experimento, podías al menos anotar el número de posiciones posibles de la línea de bolas (quizás dibujando una cuadrícula sobre el área de la mesa, con la longitud de los lados de cada celda igual al diámetro de una bola, y contando el número de líneas longitudinales de las celdas), pero ahora el número de posiciones posibles tiene multiplicado . Antes y después sólo tienes parcial conocimiento de la configuración del sistema (lo único que se puede hacer es contar las posibles, en base a lo que se conoce del sistema desde el exterior, que restringen las posibilidades) pero ese conocimiento tiene disminuido después del experimento. No tiene nada que ver con la física de las colisiones entre las bolas: tiene que ver con el hecho de que no se ven las pelotas desde su punto de vista, y todo lo que puede hacer es recuperar información parcial a través de mediciones indirectas.
La analogía con el ejemplo anterior en un sistema estadístico es que mediante las mediciones de los observables macroscópicos (como la temperatura, la presión, la densidad, etc.) sólo medimos propiedades microscópicas medias . Por ejemplo, la temperatura es una medida de la energía cinética molecular media, y la presión es una medida de la tasa media de impulso transferida por las moléculas en movimiento por unidad de superficie. Medirlas nos da un conocimiento parcial de su configuración microscópica (como la información original que tenías sobre las posiciones de las bolas de billar). Y cualquier cambio en los observables macroscópicos se correlaciona con un cambio en las configuraciones microscópicas posibles (es decir, no descartadas), y entonces eso provoca un cambio en nuestro conocimiento al respecto. Resulta que esos cambios pueden ser medidos, y eso sí es variación de entropía, en el sentido de que un aumento de la entropía se correlaciona con un aumento de la incertidumbre, o una disminución del conocimiento . Demostrar que esta relación se mantiene, partiendo de un marco mecánico, es el objetivo de mecánica estadística .
Por último, espero que puedas ver ahora que lo que $\displaystyle\frac{\delta Q}{T}$ es sólo análogo a la energía introducida por el golpe en el experimento en relación con el conocimiento previo de la posición de las bolas (las temperaturas más bajas implican menos movimientos moleculares traslacionales, rotacionales y vibracionales, y viceversa, por lo que en realidad es una "medida parcial" de sus posiciones). Así pues:
-
No contiene la información sobre la aleatoriedad del sistema, es sólo una medida del aumento de la incertidumbre desde una perspectiva macroscópica, y sólo es válida para los procesos reversibles (en general, la entropía puede aumentar sin añadir energía a un sistema).
-
Como se ha dicho en otras respuestas, la entropía es necesaria para definir algunos de los términos de cualquier ecuación de estado (como la ley de los gases ideales), y por cierto, las ecuaciones de estado son simplemente aproximaciones al comportamiento real de las sustancias reales (algo bastante claro en la parte "ideal" de la ley que citas), por lo que es natural que se basen en conceptos más fundamentales (como la entropía).
EDITAR: Como Nathaniel señaló acertadamente más abajo, mi afirmación original de que la validez de la definición macroscópica de entropía en términos de calor y temperatura dependía de la (tácitamente) total reversibilidad del proceso, era defectuoso. El único requisito para que sea válido es que el proceso de intercambio de calor sea internamente reversible, ya que sólo estamos midiendo de esta manera el cambio de entropía dentro del sistema (y por lo tanto las irreversibilidades externas asociadas al proceso son irrelevantes).