He usado Math.random()*2-1+Math.random()*2-1+Math.random()*2-1
muchas veces en el pasado para obtener normalmente distribuida de números aleatorios con una desviación estándar de 1. Por supuesto, es un poco de un aproximado, pero funciona, y por lo general no desea que los números fuera de la tercera desviación estándar de todos modos. Y en cierta forma de entender por qué esto funciona de la manera que lo hace (como en la que tiene sentido en mi cabeza ¿por qué los números de más de cero son mucho menos probable), pero no tengo idea de cómo probar legítimamente.
¿Por qué es que la adición aleatorios en el intervalo [-1,1] tres veces específicamente produce una desviación estándar de 1? Hice algunas pruebas y encontró que la adición de cuatro veces da una ets. dev. de acerca de 1,155, y la adición de dos veces al da alrededor de 0,813. ¿Por qué es esto?
Quiero entender el verdadero matemáticas que hay detrás de esto.