26 votos

¿Por qué las variables aleatorias se definen como funciones?

Tengo problemas para entender el concepto de variable aleatoria como función. Entiendo la mecánica (creo) pero no entiendo la motivación....

Diga $(\Omega, B, P) $ es un triple de probabilidad, donde $\Omega = [0,1]$ , $B$ es el Borel- $\sigma$ -en ese intervalo y $P$ es la medida regular de Lebesgue. Sea $X$ sea una variable aleatoria de $B$ a $\{1,2,3,4,5,6\}$ tal que $X([0,1/6)) = 1$ , $X([1/6,2/6)) = 2$ , ..., $X([5/6,1]) = 6$ Así que $X$ tiene una distribución uniforme discreta en los valores 1 a 6.

Todo eso está muy bien, pero no entiendo la necesidad de la triple probabilidad original... podríamos haber construido directamente algo equivalente como $(\{1,2,3,4,5,6\}, S, P_x)$ donde $S$ es todo lo apropiado $\sigma$ -del espacio, y $P_x$ es una medida que asigna a cada subconjunto la medida (# de elementos)/6. Además, la elección de $\Omega=[0,1]$ era arbitraria podría haber sido $[0,2]$ o cualquier otro conjunto.

Así que mi pregunta es, ¿por qué molestarse en construir un $\Omega$ con un $\sigma$ -y una medida, y definimos una variable aleatoria como un mapa desde la $\sigma$ -a la recta real?

25voto

Eran Medan Puntos 193

Si se pregunta por qué se utiliza toda esta maquinaria cuando podría bastar con algo mucho más sencillo, tiene razón, para la mayoría de las situaciones habituales. Sin embargo, la versión teórico-medida de la probabilidad fue desarrollada por Kolmogorov con el propósito de establecer una teoría de tal generalidad que pudiera manejar, en algunos casos, espacios de probabilidad muy abstractos y complicados. De hecho, los fundamentos teóricos de la medida de Kolmogorov para la probabilidad permitieron en última instancia que las herramientas probabilísticas se aplicaran mucho más allá de su ámbito de aplicación original en áreas como el análisis armónico.

Al principio parece más sencillo omitir cualquier "subyacente" $\sigma$ -álgebra $\Omega$ y simplemente asignar masas de probabilidad a los sucesos que componen el espacio muestral directamente, como usted ha propuesto. De hecho, los probabilistas hacen efectivamente lo mismo cada vez que eligen trabajar con la "medida inducida" en el espacio muestral definido por $P \circ X^{-1}$ . Sin embargo, las cosas empiezan a complicarse cuando nos adentramos en espacios de dimensiones infinitas. Supongamos que queremos demostrar la ley fuerte de los grandes números para el caso concreto de lanzar monedas justas (es decir, que la proporción de caras tiende arbitrariamente a 1/2 a medida que el número de lanzamientos de monedas se eleva hasta el infinito). Podría intentar construir un $\sigma$ -sobre el conjunto de secuencias infinitas de la forma $(H,T,H,...)$ . Pero aquí se puede encontrar que es mucho más conveniente tomar el espacio subyacente a ser $\Omega = [0,1)$ y, a continuación, utilizar las representaciones binarias de los números reales (p. ej. $0.10100...$ ) para representar secuencias de lanzamientos de monedas (1 es cara, 0 es cruz). En los primeros capítulos del libro de Billingsley Probabilidad y medida .

0voto

Dada Puntos 11

Hace poco me topé con esta nueva forma de pensar sobre la Variable Aleatoria $X$ así como sobre el espacio de fondo $\Omega$ . No estoy seguro de si ésta es la pregunta que estabas buscando, ya que no es una razón matemática, pero creo que proporciona una forma muy ordenada de pensar en las VR.

Imaginemos una situación en la que lanzamos una moneda. Este montaje experimental consiste en un conjunto de posibles condiciones iniciales que incluyen la descripción física de cómo se lanza la moneda. El espacio de fondo consiste en todas esas posibles condiciones iniciales. Para simplificar, podríamos suponer que el lanzamiento de la moneda sólo varía en velocidad, entonces pondríamos $\Omega = [0,v_{max}]$

La variable aleatoria $X$ puede considerarse como una función que asigna cada estado inicial $\omega \in \Omega $ con el resultado correspondiente del experimento, es decir, si es cruz o cara.

Para la caravana: $X:([0,v_{max}], B\cap [0,v_{max}], Q)\to (\{0,1\}, 2^{\{0,1\}})$ la medida $Q$ correspondería entonces a la medida de probabilidad sobre las condiciones iniciales, que junto con la dinámica del experimento representada por $X$ determina la distribución de probabilidad sobre los resultados.

Como referencia de esta idea puedes consultar los capítulos de Tim Maudlin o Micheal Strevens en "Probabilties in Physics" (2011)

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X