Me parece Borel del teorema que afirma que casi todos los números reales son normales muy contra intuitivo. Si pienso en el intervalo [0,1) y me imagino que el número representado por infinitos dígitos decimales [supongamos base 10] 0.xxxxxxx..... donde cada x es un dígito de la infinita representación decimal de un número en el intervalo. (x es un dígito del 0..9)
Entonces, parece muy obvio para mí que la mayoría de los números en el intervalo no tienen las propiedades de distribución de un número normal (como todos los dígitos 0..9 se muestran 1/10ª de la época, 00..99 mostrar hasta 1/100 de la hora,etc).
A ver, un simple experimento, utilizando digamos sólo 10 dígitos decimales de 0.xxxxxxxxxx y llenando los dígitos decimales con todos los valores posibles obtenemos los números 0.00000000001, 0.00000000002, etc, hasta que 0.9999999999. Por simple conteo, vemos que el número de los que tienen la propiedad de ser normal son un subconjunto muy pequeño de todos los números posibles (que sólo se las permutaciones de 0.0123456789).
Esto es aún más fácil para ver si nos tomamos la base 2, por ejemplo. Supongamos que podemos experimentar con todas las combinaciones posibles de 2 dígitos en la base 2. Disponemos de 0.xx, por lo que tenemos 4 posibilidades: 0.00, 0.01, 0.10, 0.11
Sólo la mitad de los números (de 0,01 y 0,10) 'está en el modo de producir un número normal'.
Sé que es normal, tenemos que tener un número infinito de dígitos, pero no puedo ver cómo lo que el número de dígitos infinito superar este fenómeno se describe anteriormente. Es decir, 0.xxxxxxx..... no debe tener bien distribuidos dígitos mayor parte del tiempo.
Podría usted por favor punto en que estoy mal?