Se trata de una reclamación de impar. Si tiene una declaración S que depende de n entradas x_1,x_2, ... x_n , entonces una tabla de verdad tendrá n+1 columnas (una para cada x y una para S ), y tendrá 2^n filas, una para cada combinación de x valores. Cada x será Verdadero la mitad de las veces y Falso la otra mitad. Así que habrá (n+1)2^n entradas totales, de las cuales n2^{n-1} será definitivamente Verdadero, y n2^{n-1} será definitivamente Falso. El resto 2^n las entradas dependerán de S . Así que, en primer lugar, sólo \frac1{n+1} de las entradas dependerá incluso de S para empezar.
De esos 2^n entradas, la cantidad de información es simétrica con respecto a Verdadero y Falso; teniendo a Verdadero y b Falso es tan informativo como tener b Verdadero y a Falso. Si S_1 es siempre Verdadero, y S_2 es siempre Falso, entonces sabiendo que S_2 que resulta ser Falso en una circunstancia concreta es tan poco informativo como saber que S_1 es cierto.
La "información" se define generalmente en términos de entropía. La entropía de una posibilidad concreta es el logaritmo negativo de la probabilidad de esa posibilidad. La entropía total de una variable aleatoria es la suma de las entropías individuales, ponderada por las probabilidades. Así pues,
entropía = -\sum p_i\log(p_i)
Si sólo hay dos posibilidades, entonces si representamos la probabilidad de una como p entonces la probabilidad de la otra es 1-p por lo que la entropía es -p\log(p)-(1-p)\log(1-p) . Esto se maximiza cuando p=\frac 12 y se minimiza cuando p=0 o p=1 .
Por tanto, una afirmación es más informativa, por término medio, cuando la probabilidad de que sea cierta es del 50%. Si la probabilidad de que sea verdadera es muy baja, el contenido informativo cuando es Verdadero es muy alta, pero como eso no ocurre muy a menudo, su contenido medio de información es bajo. Por ejemplo, una afirmación con una probabilidad del 50% tiene una entropía de 1 bit. Una afirmación con probabilidad \frac 1{16} de ser Verdadero tiene 4 bits de entropía cuando es Verdadero, y 0,093 bits cuando es Falso. Como el Falso ocurre más veces, esa entropía se pondera más, por lo que la entropía total (media ponderada) es de 0,223 bits, menos de una cuarta parte de la entropía de una afirmación que es Verdadera la mitad de las veces.
Así que si interpretamos "número de 1's en la tabla de verdad" como "número de veces que aparece Verdadero en la columna S de la tabla de verdad" y "información que contiene la frase" como "entropía cuando la afirmación es Verdadera", entonces esta afirmación tiene sentido. Pero podría ser mucho más clara.