Pido disculpas si la pregunta es un poco off-topic y no estrictamente matemáticos.
Para ser claro, estoy hablando de la clásica de probabilidad, la cual es definida de la siguiente forma: Dado un espacio muestral finito $S$, y un subconjunto de a $S$ a que llamamos evento $E$, la probabilidad de $P(E)$ evento $E$ $$P(E)=\dfrac{N(E)}{N(S)}$$
Donde $N$ denota el número de elementos de un conjunto.
Quiero entender qué noción tratamos de capturar a la hora de definir la probabilidad. Bernoulli, Laplace y otros, por cierto, había un cierto concepto en mente que quería describir y, por tanto, que formalizó dentro de esta definición.
Para explicar mi punto, considere el siguiente ejemplo: Tenemos un conjunto de datos, por ejemplo, un montón de números reales y queremos representar mediante un único número real. Así que la noción queremos capturar aquí es encontrar un número real que es el mejor representante de un grupo de números reales. Resulta que la media de los números es el mejor representante para ellos en el sentido de que minimiza la suma de los cuadrados de las diferencias(distancias) entre la media y cada número real en ese conjunto de datos.
Entonces, ¿qué noción queremos capturar por la definición de probabilidad? Me dijeron que si la probabilidad de un evento $E$ en un experimento, es decir, $0.3$, a continuación, si el experimento se realizó $n$ número de veces, $0.3n$ de los tiempos de evento $E$ va a suceder. Así que esta es la noción $P(E)$ supone para la captura.
Esta definición, tan lejos como la captura de este concepto hace perfecto sentido para mí en lo siguiente:
-Si un evento tiene una $P(E)=0$, entonces nunca va a suceder.
-Si un evento tiene una $P(E)=1$ entonces siempre va a pasar, o si realizamos el experimento $n$ veces $E$ se producirá $n$ veces.
Sin embargo, para $P(E)$ que tiene un valor entre 0 y 1, no sé cómo funciona. Por ejemplo, si lanzamos una moneda al aire 10 veces, no se garantiza en absoluto que la mitad de los tiros le dará a usted la cabeza, peor aún, todos los lanzamientos a veces puede darte colas. Entonces, ¿qué está pasando aquí?
Cuando le pregunté por la justificación de que $P(E)$ realmente capta esta idea, he leído este es justificado por la ley de los grandes números: Se realiza un experimento determinado número de veces, digamos, por ejemplo, arrojar una moneda. Cuando se calcula la probabilidad de un lanzamiento de estar de la cabeza, se le asigna el número de $0.5$ a ese evento. Esto significa(Según mi comprensión de la ley de los grandes números) que a medida que el número de tirar la moneda se pone arbitrariamente grandes(número de ensayos aproxima a infinito), Cabezas de maquillaje $0.5$ del número total de monedas que dejan a un lado, o a un número que está muy cerca de a $0.5$ y que el número de ensayos aumento, se acercará a $0.5$.
Sin embargo hay algo circular acerca de esto: Cuando me preguntan ¿qué significa "justo" de la moneda significa? Es una moneda que, como nos sacude número arbitrariamente grande de veces, el número de sus cabezas enfoque de $0.5$.
Así que alguien puede aclarar las cosas para mí, y justificar por qué $P(E)$ capta lo que captura?