En una implicación como $p \implies q$, ¿hay alguna medida de la cantidad de información que se pierde en la implicación? Por ejemplo, considere las siguientes implicaciones, donde $x \in \{0,1,\ldots,9\}$:
\begin{align} P &: (x = 6) \implies (x \equiv 0 \pmod{2}) \\ Q &: (x = 6) \implies (x \equiv 0 \pmod{3}) \\ R &: (x = 6) \implies (x \equiv 6 \pmod{8}) \\ \end{align}
Yo diría que menos información acerca de $x$ se pierde en la implicación $Q$ que en implicación $P$:$x \equiv 0 \pmod{3}$$x \in \{0,1,\ldots,9\}$, hay menos posibilidades de $x$ que si le dieran $x \equiv 0 \pmod{2}$.
En implicación $R$, yo diría que no hay información acerca de $x$ se ha perdido, ya que si $x \equiv 6 \pmod{8}$$x \in \{0,1,\ldots,9\}$, entonces se puede concluir $x=6$. En general, cualquier "si y sólo si" relación no pierde información en la implicación.
Estoy familiarizado con los conceptos de entropía de Shannon y (vagamente) la complejidad de Kolmogorov. Hay una medida análoga de la pérdida de información de una implicación? Tal vez uno de los dos podría ser utilizada de manera natural aquí?
(Nota: no estoy preguntando por el teorema del resto Chino. Estoy usando aritmética modular como un ejemplo.)