En la teoría de la probabilidad, es (según tengo entendido) universal para equiparar la "probabilidad" con un probabilística de la medida en el sentido de la teoría de la medida (posiblemente un particular portado bien medida, pero no importa). En particular, se da por $\sigma$-aditividad, pero no es nada más (es decir, de la suma con respecto a las familias con cardinalidad $\mathfrak{c}$ [que sería, por supuesto, hacer que las cosas se descomponen]).
Para mí, como un matemático, esto es completamente satisfactorio, y hasta hace poco casi ni me di cuenta de que no puede ser completamente obvio que la probabilidad debe comportarse así. Una suficientemente convincente justificación para trabajar con la adopción de las medidas que la integración de la teoría es preciosa, y queremos ser capaces de hacer uso de las integrales para calcular los valores esperados, las variaciones, los momentos y así sucesivamente. Y que no podemos exigir a cualquier "más fuerte" tipo de aditividad, desde entonces las cosas se deterioran ya con el uniforme de distribución aleatoria en $[0,1]$.
Sin embargo, recientemente he tenido algunas interacciones con los no-matemáticos, que se acercan de "alto" matemáticas con algunos comprensible incertidumbre, pero que todavía encontrar la noción de probabilidad relevante. Una de las cosas que me hizo darse cuenta de que no soy yo plenamente consciente de por qué, en principio, podríamos definir las cosas así y no de otra manera. Por lo tanto, después de este extralargo introducción, aquí está la pregunta. Hay una razón fundamental por la teoría de la medida es el "único camino correcto" para lidiar con las probabilidades (en contraposición a, por ejemplo, declarando probabilidades de ser sólo finitely aditivo)? Si es así, hay un "espectacular" el ejemplo que muestra por qué cualquier otro enfoque que no iba a funcionar? Si no, entonces hay un enfoque alternativo (con cualquier investigación detrás de él)?