Processing math: 0%

11 votos

No entiendo el concepto de "Contenido informativo de una frase"

Me encontré con este concepto en la literatura de mi curso. He aquí un fragmento de ese capítulo:

"Un componente esencial en el razonamiento lógico es la cantidad de información que contiene una frase. Si S es una frase, el número de 1's en la tabla de verdad de S puede verse como una medida del contenido de información de la frase. Cuantos más 1's tenga una frase, menos información contiene la frase"

Gracias por su ayuda.

23voto

5xum Puntos 41561

Supongo que está pidiendo una explicación intuitiva.

Imagina que la policía busca a un asesino y que sólo quedan 20 sospechosos, a uno de los cuales le falta un brazo. Hay varios testigos. Uno dice:

El asesino tenía dos brazos.

Esta frase no es muy informativa, ¿verdad? ¿Por qué no lo es? Porque es cierta para 19 de 20 sospechosos (tiene 19 en la tabla de verdad).

Por otro lado, si el testigo dice

El asesino era un hombre

y la mitad de los sospechosos son hombres, entonces es un sentene más informativo (tiene 10 en su tabla de verdad), y si un testigo dice

El asesino medía 180 cm, era pelirrojo, llevaba gafas y un anillo en la mano derecha

entonces es bastante probable que sólo haya una en la tabla de verdad de esa frase, que por lo tanto es muy informativa.

4voto

Mauro ALLEGRANZA Puntos 34146

Ver Ludwig Wittgenstein 's Tractatus Logico-Philosophicus (1921) :

4.46 Entre los posibles grupos de condiciones de verdad [es decir, líneas en la tabla de verdad] hay dos casos extremos.

En uno de estos casos la proposición es verdadera para todos los posibilidades de verdad de las proposiciones elementales. Decimos que las condiciones de verdad son tautológico .

En el segundo caso la proposición es falsa para todas las posibilidades de verdad: las condiciones de verdad son contradictorias.

En el primer caso llamamos a la proposición una tautología; en el segundo, una contradicción.

4.461 Las proposiciones muestran lo que dicen: las tautologías y contradicciones muestran que no dicen nada.

Una tautología no tiene condiciones de verdad, ya que es incondicionalmente verdadera: y una contradicción es verdadera bajo ninguna condición.

Las tautologías y las contradicciones carecen de sentido [es decir, no transmiten ninguna "información"].

[...] (Por ejemplo, no sé nada del tiempo cuando sé que llueve o no llueve).

1voto

Acccumulation Puntos 13

Se trata de una reclamación de impar. Si tiene una declaración S que depende de n entradas x_1,x_2, ... x_n , entonces una tabla de verdad tendrá n+1 columnas (una para cada x y una para S ), y tendrá 2^n filas, una para cada combinación de x valores. Cada x será Verdadero la mitad de las veces y Falso la otra mitad. Así que habrá (n+1)2^n entradas totales, de las cuales n2^{n-1} será definitivamente Verdadero, y n2^{n-1} será definitivamente Falso. El resto 2^n las entradas dependerán de S . Así que, en primer lugar, sólo \frac1{n+1} de las entradas dependerá incluso de S para empezar.

De esos 2^n entradas, la cantidad de información es simétrica con respecto a Verdadero y Falso; teniendo a Verdadero y b Falso es tan informativo como tener b Verdadero y a Falso. Si S_1 es siempre Verdadero, y S_2 es siempre Falso, entonces sabiendo que S_2 que resulta ser Falso en una circunstancia concreta es tan poco informativo como saber que S_1 es cierto.

La "información" se define generalmente en términos de entropía. La entropía de una posibilidad concreta es el logaritmo negativo de la probabilidad de esa posibilidad. La entropía total de una variable aleatoria es la suma de las entropías individuales, ponderada por las probabilidades. Así pues,

entropía = -\sum p_i\log(p_i)

Si sólo hay dos posibilidades, entonces si representamos la probabilidad de una como p entonces la probabilidad de la otra es 1-p por lo que la entropía es -p\log(p)-(1-p)\log(1-p) . Esto se maximiza cuando p=\frac 12 y se minimiza cuando p=0 o p=1 .

Por tanto, una afirmación es más informativa, por término medio, cuando la probabilidad de que sea cierta es del 50%. Si la probabilidad de que sea verdadera es muy baja, el contenido informativo cuando es Verdadero es muy alta, pero como eso no ocurre muy a menudo, su contenido medio de información es bajo. Por ejemplo, una afirmación con una probabilidad del 50% tiene una entropía de 1 bit. Una afirmación con probabilidad \frac 1{16} de ser Verdadero tiene 4 bits de entropía cuando es Verdadero, y 0,093 bits cuando es Falso. Como el Falso ocurre más veces, esa entropía se pondera más, por lo que la entropía total (media ponderada) es de 0,223 bits, menos de una cuarta parte de la entropía de una afirmación que es Verdadera la mitad de las veces.

Así que si interpretamos "número de 1's en la tabla de verdad" como "número de veces que aparece Verdadero en la columna S de la tabla de verdad" y "información que contiene la frase" como "entropía cuando la afirmación es Verdadera", entonces esta afirmación tiene sentido. Pero podría ser mucho más clara.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X