No entiendo la derivación de la distribución geométrica aleatoria variables aleatorias como se hace ici (sólo la primera $10$ líneas - todo hasta el ejercicio $2$ - son relevantes para mí).
Por favor, tened en cuenta que probablemente necesito una explicación muy formal y exhaustiva, ya que ya he mirado en diferentes sitios web y libros, que utilizan explicaciones de manera similar al enlace que he proporcionado y no he entendido ninguna de ellas. (Tengo mi "propia" derivación, que tiene sentido para mí, que se puede encontrar a continuación)
En el curso que tomé, no estaban rigurosamente definidos, así que más o más o menos traté de averiguar lo que el profesor hizo y me parece que lo que está escrito a continuación es cómo los derivamos. Pero la derivación ¡en el enlace es diferente! Y el problema central parece ser, que en el enlace hay una conexión matemática entre las variables aleatorias variables aleatorias $X_{k}:\left\{ s,f\right\} \rightarrow\mathbb{R},\ \omega\mapsto\omega$ (donde nuestro espacio muestral Bernoulli está modelado por $\Omega:\left\{ s,f\right\} $ , para el "éxito" y el "fracaso" y todo el experimento es $\Omega^{\mathbb{N}}$ y $k\in\mathbb{N}$ ), ya que allí se utilizaron de alguna manera que el $X_{k}$ son independientes -- lo que no tiene sentido en absoluto para mí: Si $s$ tiene probabilidad $1>p>0$ , entonces los conjuntos $\left\{ X_{1}=s\right\} $ y $\left\{ X_{2}=s\right\} $ no son independientes, porque $$ P\left(\left\{ X_{1}=s\right\} \cap\left\{ X_{2}=s\right\} \right)=P\left\{ s\right\} =p\neq p^{2}=P\left(\left\{ X_{1}=s\right\} \right)P\left(\left\{ X_{2}=s\right\} \right). $$
Al contrario, en mi derivación no hay un vínculo matemático entre la variable aleatoria que tiene la distribución geométrica y el $X_{k}$ .
Mi derivación: Considere una secuencia de ensayos Bernoulli de longitud finita $n$ (donde el espacio para cada experimento es, por ejemplo $\Omega:\left\{ s,f\right\} $ ). Si $p$ es la probabilidad de obtener éxito, $p(1-p)^{k-1}$ es la probabilidad de tener el primer éxito en el $k$ de la prueba, en la que $n\geqslant k\left(\geqslant0\right)$ . Ahora queremos saber cuál es la probabilidad de tener el primer éxito en el $k$ de la prueba, en la que no tenemos un límite superior $n$ .
Ya que no tenemos una forma de definir en el espacio de todas las secuencias infinitas, es decir $\left(\omega_{1},\omega_{2},\ldots\right)$ mit $\omega_{i}\in\Omega$ una distribución de probabilidad adecuada a partir de nuestro $\Omega$ (al menos menos, no sé cómo hacerlo y el uso de maquinaria teórica de la medida avanzada no cuenta, ya que estoy interesado en cómo se define la distribución geométrica distribución geométrica en el entorno "de pregrado"). Pero sabemos sabemos que $p(1-p)^{k-1}$ es independiente de $n$ Así que definir un nuevo $\hat{\Omega}:=\mathbb{N}$ y $\hat{p}\left(k\right):=p\left(1-p\right)^{k}$ modelamos el hecho de que tenemos el primer éxito en el $k$ de la prueba. Entonces podemos definir $X:\hat{\Omega}\rightarrow\mathbb{R},\ x\mapsto x$ como la variable aleatoria cuya distribución es la que nos dice, cuando obtenemos el primer éxito - pero matemáticamente no hay conexión entre esta variable aleatoria, y las variables aleatorias $X_{k}:\left\{ s,f\right\} ^{n}\rightarrow\mathbb{R},\ \left(\omega_{1},\omega_{2},\ldots,\omega_{n}\right)\mapsto\omega_{k}$ o las variables aleatorias $X_{k}:\left\{ s,f\right\} \rightarrow\mathbb{R},\ \omega\mapsto\omega$ .