27 votos

La teoría de la información de los aspectos de los sistemas matemáticos?

Se me ocurrió que al realizar la división en algunos algebraica del sistema, tales como $\frac a b = c$ en $\mathbb R$, la división en sí mismo representa una relación de clase entre $a$ y $b$, y una vez que calcular esta relación, el elemento resultante $c$, siendo 'simplemente' la relación o algún tipo de representación de la misma, ha perdido la información acerca de lo que $a$ o $b$.

Así que la división destruye o debilita la información. Otras operaciones similares peculiaridades. La multiplicación como $a b = c$ es muy 'pérdida' en $\mathbb R$, pero no como pérdida en $\mathbb N$ ya que el conjunto de posibles divisores de $c$ es finito.

Así que mi pregunta es, ¿hay alguna formalizaciones que cuenta (o puede ser capaz de tomar en cuenta) este aspecto particular de operaciones matemáticas (o funciones de los/las relaciones en general)?

6voto

Shuchang Puntos 7562

Usted está pidiendo, si entiendo bien, por la cantidad de información que se pierde durante la asignación de dos elementos a otro símbolo que indica la relación. En tu ejemplo, la función de la división de mapas de $a,b$ $\frac ab$, lo que usted elige $c$ a representar a la relación de $a,b$.

Desafortunadamente, no podemos decir nada sobre la pérdida de la información para que, fundamentalmente porque no contienen información. En el área de teoría de la información, hablamos de información sólo de las posibilidades. Posibilidad significa uncertaint. La incertidumbre implica la información. Que es cómo Boltzmann define la entropía como una medida para obtener información. $$S=k_B\ln\Omega$$ donde $\Omega$ es el número total de posibilidades, $k_B$ es una constante. El punto es que, en lugar de medir la pérdida de información de los elementos, que es la única de las posibilidades, se puede medir por los conjuntos en los que los elementos pertenecen. Los Conjuntos de aquí son, por supuesto, el dominio y el rango de la función.


Siga la idea anterior, podemos introducir algunas notaciones. La asignación de $\Phi$ tiene el dominio de $\mathcal D$ y el rango de $\mathcal R$. El tamaño de un conjunto $A$ es denotado por $||$ y la información que contiene por $S_A$. Suponga tanto $\mathcal D$ y $\mathcal R$ es finito. Podemos definir la información de $\mathcal$ D contiene es el logaritmo del número total de posibilidades de $\mathcal D$, es decir, $$S_{\mathcal D}:=\ln|\mathcal D|$$ A veces la función $\Phi=\Phi(x_1,\ldots,x_n)$ es un $n$-función de variable donde $x_i\en X_i$, entonces $\mathcal D=X_1\times\cdots\times X_n$ es el producto cartesiano de cada dominio, en cuyo caso $|\mathcal D|=|X_1|\cdots|x_n|$. Por otro lado, no queremos definir $S_\mathcal R=\ln|\mathcal R|$ porque $\mathcal R$ no es dependiente de la con $\mathcal D$. Están conectados por función $\Phi$. Así se denota $n_y=|\Phi^{-1}(y)|$ y $\displaystyle p_y=\frac{n_y}{\sum_{y\in\mathcal R}n_y}=\frac{n_y}{|\mathcal D|}$por cada $y\in\mathcal R$, donde $\Phi^{-1}(y)\in\mathcal D$ es la preimagen de $y$. Ahora la definición de la información de $\mathcal R$ con respecto a $\Phi$ es definido como $$S_\mathcal R:=\sum_{y\in\mathcal R}p_y\ln\frac{1}{p_y}$$ Por lo tanto la pérdida de información $$\Delta S=S_\mathcal D-S_\mathcal R\geq0$$ La desigualdad sigue la máxima de cóncava de la función $S_\mathcal R$ es $S_\mathcal D$ donde $n_y=$ 1 por cada $y$. En otras palabras, la información que se mantiene invariante si y sólo si la función es uno a uno. Esta definición es coherente con la definición de la entropía en la teoría de la información y, lo que es más importante, nuestra intuición de la pérdida de información.

Fácilmente podemos generalizar este método para los casos en que tanto el dominio y el rango son compactos, sólo a través de la sustitución de suma por la integración y el tamaño de la medida.


Como en otros casos, este método no funciona más, pero todavía tenemos algunas maneras para aproximan más o menos a la pérdida.

Nota la función $\Phi$ define por sí misma una relación equivalente de $\sim$ y podemos definir más el cociente del espacio $$\mathcal Q=\mathcal D/\sim$$ y $$\Delta=\dim\mathcal D-\dim\mathcal Q$$ Esto también ha correspondencia en muchas áreas, tales como álgebra lineal, teoría de grupos, topología, etc. A veces llamamos el espacio de $\sim$ kernel. Cuando el núcleo es cero espacio, decimos que dos espacios son isomorfos.


En el pasado, para dar una explicación por su ejemplo $c=\Phi(a,b)=ab$, si $a,b\in\mathbb Q$, tenemos $\Delta S^\mathbb Q=\dim_\mathbb Q(\mathbb Q\times\mathbb Q)-\dim_\mathbb Q(\mathbb Q)=2-1=1$, mientras que si $a,b\in\mathbb R$, tenemos $\Delta S^\mathbb R=1$. A pesar de tanto valor igual a 1, a sabiendas de que el cardenal de 1 dimensiones número racional menor que el de un número real, la pérdida de información de racionales multiplicación es menor que la de real de la multiplicación.

Espero que esto ayude aunque esto puede no ser lo que usted desea.

5voto

Brian Rushton Puntos 10407

Su particular ejemplo de la información que se pierde en la multiplicación o la división es realmente la razón por la que uno de los estudios de los ideales en el anillo de la teoría, normal subgrupos en teoría de grupos, y granos en general. Pero creo que el primer ideales explicarlo mejor.

La factorización en primos de un número que representa la cantidad de información que se perdió en la creación. Un número primo sólo tiene una factorización, por lo que si es un producto, sabemos que los factores. El más factores primos de un elemento, más la información que se pierde en la creación.

Los matemáticos generalizada a 'prime ideales", donde una clase de productos (que se llama un ideal) tiene pérdida de información se mide por el número de de primer ideales en su descomposición.

Los campos tienen el mayor pérdida de información, ya que cada elemento puede producirse a partir de un producto con cualquier de los factores.

Ideales también puede ser utilizado de otra manera para destruir la información. Quotienting por un ideal hace que perder la información en proporción al tamaño de la ideal. Quotienting los enteros por el ideal de múltiplos de 10 que dice el último dígito de un número, mientras que quotienting hy múltiplos de 2 sólo te dice si un número es par o impar.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X