Considere la posibilidad de una vida real experimento (tal vez escrito como un problema en un libro de texto): Una moneda es continuamente sacudido hasta dos periodos consecutivos de cabezas que se observan. Asume que los resultados de la tira son mutuamente independientes y la moneda es justo. ¿Cuál es el número esperado de lanzamientos antes de que el experimento termina?
Ahora, ¿cómo se podía resolver este problema? En primer lugar, sería necesario definir un espacio de probabilidad para modelar el experimento. El problema es que hay muchas posibilidades:
Podríamos definir el espacio muestral a ser una multitud innumerable de todas las infinitas cadenas de longitud de $H$$T$. Este espacio muestral ya no parecen cumplir el experimento de la condición: que se termina una vez que dos consecutivos cabezas son observados. E. g. $HHTTTTT...$ $HHHHHHH...$ son los diferentes resultados en el espacio muestral, pero en realidad son considerados de la misma en el experimento (ya damos por terminado después de dos cabezas). Por tanto, decir que un espacio muestral consiste de todos los posibles resultados distintos de un experimento parece mal para mí. Y, sin embargo, de acuerdo a varias fuentes, este es un espacio natural para su uso. También, puede haber infinidad de $\sigma$-álgebras así que surge la pregunta de cual usar. Por último, para la probabilidad de medida que podemos utilizar la hipótesis de que la moneda es justa y los resultados de los lanzamientos son independientes por lo $P(\text{outcome starts with }TH) = P(\text{first toss is }T)P(\text{second toss is }H) = 0.25$, por ejemplo.
Podemos tomar los resultados de la experimentación, la totalidad de la cadena de cabezas y colas desde el inicio hasta la terminación del experimento. Así que nuestro espacio muestral tiene todos finito de cadenas de longitud de $T$ $H$ terminando con $HH$, así como de longitud infinita cadenas que no contienen $HH$ como una subcadena. Este espacio es incontable, así que de nuevo hay infinitamente muchos $\sigma$-álgebras. Ahora, ¿cómo se define una medida de probabilidad? Debemos tener $P(\text{outcome starts with }HHH) = P(\text{first toss is }H)P(\text{second toss is }H)P(\text{third toss is }H) = 0.125$ ya que las monedas son independiente y justa, pero no hay resultados comenzando con $HHH$ en este espacio muestral, por lo que esta probabilidad en realidad debería ser $0$. Así que mi conjetura es que, en lugar suponemos que $P(\text{$k$-th toss is heads | outcome starts with $s$}) = 0.5$ donde $s$ cualquier $(k-1)$-longitud de la cadena que contiene no $HH$. Ahora esto está dicho en ninguna parte en el problema dado, y sin embargo es muy intuitivo en el sentido convencional de la "independencia" en el mundo real. Es esto correcto?
Sólo podíamos tomar el finito de cadenas de longitud de $T$ $H$ que terminan con $HH$, e ignorar las infinitas cadenas de longitud. Ahora la pregunta es: ¿cómo sabemos que esto es de hecho el conjunto de todos los resultados? ¿Cómo sabemos que esto es una suposición válida? Por supuesto, esto simplifica mucho las cosas ya que el espacio es ahora discretos.
Incluso podríamos tomar el último 4 (o menos) coin flips de finito también funciona como infinito se ejecuta como el espacio muestral, por lo $$\Omega = \{HH, THH, \text{ends with }TTHH, \text{ends with }HTHH\}\cup \{s : s\text{ is an infinite string of $H$ and $T$}\}.$$ Now independence is defined only in the context of a probability space. So in this space we have $$\begin{eqnarray*}P(HH) &=& P(\text{last toss is }H \cap \text{2nd last toss is }H) \\&=& P(\text{last toss is }H)P(\text{2nd last toss is }H) \\&=& 0.25\\ P(THH) &=& 0.125\\ P(\text{ends with }TTHH) = P(\text{ends with }HTHH) &=& 0.0625.\end{eqnarray*}$$ So $P(\text{infinita cadena de $H$ y $T$}) = 1 - 0.25 - 0.125 - 0.0625 - 0.0625 = 0.5$. Pero es evidente que esto no se ajustan a las anteriores 3 modelos. Así, podemos utilizar esto como un espacio de probabilidad? ¿Cuál es el problema aquí?
Intuitivamente puedo ver cómo la probabilidad de espacios de 1 a 3 calcular la misma expectativa. También hay un sinnúmero de otros espacios que también lo hacen. La pregunta es, ¿es posible rigorize todo esto? Parece que cada espacio de arriba tiene algunos problemas que plantea la cuestión de si es apropiado. Estoy en lo cierto al decir que esta parte se basa completamente en la intuición y no puede ser rigorized? Es decir, la teoría y la matemática rigor sólo se inicia después de haber definido la probabilidad de espacio. Por supuesto, entonces surge la pregunta: ¿cómo sabemos que nuestra probabilidad de espacio "obras" a un lado de la intuición? Podemos saber que dos de probabilidad diferentes espacios nos va a dar la misma respuesta a una pregunta?
También, estoy en lo cierto de que no hay manera más suposiciones en la probabilidad de que, aparte de la probabilidad de espacio? Por ejemplo:
- La independencia en el contexto matemático es sólo $P(A \cap B) = P(A)P(B)$, pero en la vida real nos dicen que esto significa que la aparición de $A$ no afecta a la probabilidad de $B$ -- esto es una suposición?
- $P(A | B) = P(A \cap B)/P(B)$ , pero en la vida real, nos dice $P(A | B)$ es la probabilidad de que $A$ se produce, dado que el $B$ ha sucedido -- esto es una suposición?
- El valor esperado de la variable aleatoria $X$ es definido como: $E(X) = \sum_{\omega\in\Omega}P(\omega)X(\omega)$ en espacios discretos, pero en la vida real, nos dicen que es la media de $X$ si el experimento se repite muchas veces, se trata de una presunción?
Así que en definitiva, parece ser que muchos de los supuestos de la probabilidad. Así que cuando hace la teoría de inicio y fin?
EDIT: he leído un poco más sobre este tema y encontró que la razón por la probabilidad de espacios de dar la misma respuesta, es probable que debido a las extensiones de cada uno de los otros. Terence Tao escribió acerca de esto de una vez y si no me equivoco, la extensión de habla esencialmente se muestra la equivalencia de los 3 primeros probabilidad de espacios que he mencionado. Es esto correcto?
De acuerdo a esto, la independencia, a continuación, se conservarán en extensión, por lo que no tiene sentido que la independencia ($P(A \cap B) = P(A)P(B)$) no funciona bajo probabilidad space 2 pero funciona bajo 1. Lo que estoy pensando que podría ser la resolución es que cuando decimos que "los resultados de lanzar una moneda son mutuamente independientes", estamos suponiendo que cada uno de estos independiente lanzar una moneda se realizan en cada uno de los resultados. Así que en el espacio de probabilidad 2, a pesar de que un resultado de la cadena puede ser de longitud finita, suponemos que la otra infinidad de lanzar una moneda también se han realizado (aunque sus resultados son irrelevantes para este resultado). Es esta forma de pensar correcta?
Pero ahora parece extraño que $P(\text{the $100$-th coin is heads}) = 0.5$, ya que después de todo el $100$-ésimo de la moneda es sólo tiró en el caso de que el $99$ monedas antes de que no contienen consecutivos cabezas. ¿Qué está mal aquí?