Usted está pidiendo, si entiendo bien, por la cantidad de información que se pierde durante la asignación de dos elementos a otro símbolo que indica la relación. En tu ejemplo, la función de la división de mapas de $a,b$ $\frac ab$, lo que usted elige $c$ a representar a la relación de $a,b$.
Desafortunadamente, no podemos decir nada sobre la pérdida de la información para que, fundamentalmente porque no contienen información. En el área de teoría de la información, hablamos de información sólo de las posibilidades. Posibilidad significa uncertaint. La incertidumbre implica la información. Que es cómo Boltzmann define la entropía como una medida para obtener información.
$$S=k_B\ln\Omega$$
donde $\Omega$ es el número total de posibilidades, $k_B$ es una constante. El punto es que, en lugar de medir la pérdida de información de los elementos, que es la única de las posibilidades, se puede medir por los conjuntos en los que los elementos pertenecen. Los Conjuntos de aquí son, por supuesto, el dominio y el rango de la función.
Siga la idea anterior, podemos introducir algunas notaciones. La asignación de $\Phi$ tiene el dominio de $\mathcal D$ y el rango de $\mathcal R$. El tamaño de un conjunto $A$ es denotado por $||$ y la información que contiene por $S_A$. Suponga tanto $\mathcal D$ y $\mathcal R$ es finito. Podemos definir la información de $\mathcal$ D contiene es el logaritmo del número total de posibilidades de $\mathcal D$, es decir, $$S_{\mathcal D}:=\ln|\mathcal D|$$
A veces la función $\Phi=\Phi(x_1,\ldots,x_n)$ es un $n$-función de variable donde $x_i\en X_i$, entonces $\mathcal D=X_1\times\cdots\times X_n$ es el producto cartesiano de cada dominio, en cuyo caso $|\mathcal D|=|X_1|\cdots|x_n|$. Por otro lado, no queremos definir $S_\mathcal R=\ln|\mathcal R|$ porque $\mathcal R$ no es dependiente de la con $\mathcal D$. Están conectados por función $\Phi$. Así se denota $n_y=|\Phi^{-1}(y)|$ y $\displaystyle p_y=\frac{n_y}{\sum_{y\in\mathcal R}n_y}=\frac{n_y}{|\mathcal D|}$por cada $y\in\mathcal R$, donde $\Phi^{-1}(y)\in\mathcal D$ es la preimagen de $y$. Ahora la definición de la información de $\mathcal R$ con respecto a $\Phi$ es definido como
$$S_\mathcal R:=\sum_{y\in\mathcal R}p_y\ln\frac{1}{p_y}$$
Por lo tanto la pérdida de información
$$\Delta S=S_\mathcal D-S_\mathcal R\geq0$$
La desigualdad sigue la máxima de cóncava de la función $S_\mathcal R$ es $S_\mathcal D$ donde $n_y=$ 1 por cada $y$. En otras palabras, la información que se mantiene invariante si y sólo si la función es uno a uno. Esta definición es coherente con la definición de la entropía en la teoría de la información y, lo que es más importante, nuestra intuición de la pérdida de información.
Fácilmente podemos generalizar este método para los casos en que tanto el dominio y el rango son compactos, sólo a través de la sustitución de suma por la integración y el tamaño de la medida.
Como en otros casos, este método no funciona más, pero todavía tenemos algunas maneras para aproximan más o menos a la pérdida.
Nota la función $\Phi$ define por sí misma una relación equivalente de $\sim$ y podemos definir más el cociente del espacio
$$\mathcal Q=\mathcal D/\sim$$
y
$$\Delta=\dim\mathcal D-\dim\mathcal Q$$
Esto también ha correspondencia en muchas áreas, tales como álgebra lineal, teoría de grupos, topología, etc. A veces llamamos el espacio de $\sim$ kernel. Cuando el núcleo es cero espacio, decimos que dos espacios son isomorfos.
En el pasado, para dar una explicación por su ejemplo $c=\Phi(a,b)=ab$, si $a,b\in\mathbb Q$, tenemos $\Delta S^\mathbb Q=\dim_\mathbb Q(\mathbb Q\times\mathbb Q)-\dim_\mathbb Q(\mathbb Q)=2-1=1$, mientras que si $a,b\in\mathbb R$, tenemos $\Delta S^\mathbb R=1$. A pesar de tanto valor igual a 1, a sabiendas de que el cardenal de 1 dimensiones número racional menor que el de un número real, la pérdida de información de racionales multiplicación es menor que la de real de la multiplicación.
Espero que esto ayude aunque esto puede no ser lo que usted desea.