16 votos

Demostrando la Ley del Estadístico Inconsciente

La prueba parece un poco demasiado fácil. Me pregunto si malinterpreté algo.

Deja que $Y = g(X)$. Demuestra que $$\mathbb E(Y) = \sum_x g(x)f_x(x)$$ siempre y cuando la suma converja absolutamente.

Por definición: $\mathbb E(Y) = \sum_y yf_y(y)$. Dado que $g^{-1}(y) = \{x_1, x_2,\dots\}$ $$f_y(y) = \mathbb P(Y=y) = \sum_i \mathbb P(X=x_i)$$ donde $g(x_i) = y$. Por lo tanto $$\mathbb E(Y) = \sum_y y \sum_i \mathbb P(x_i) = \sum_y \sum_i g(x_i) \mathbb P(x_i) = \sum_i g(x_i) \mathbb P(x_i) = \sum_x g(x)f_x(x)$$ Mi entendimiento es que necesitas capturar cada $x_i \in g^{-1}(y)$. Repite el proceso para cada $y$ y luego suma los términos.

0 votos

¿Cómo es que nadie ha respondido aquí?

0 votos

¿Cuál es la ley del estadístico inconsciente? Suena interesante para alguien que no conoce estadística.

0 votos

Creo que el nombre proviene del hecho de que los estadísticos lo utilizan tan comúnmente que generalmente se usa "inconscientemente", en lugar de ser nombrado explícitamente como una ley.

14voto

Donkey Kong Puntos 2121

La respuesta breve es que no, no malinterpretaste, de hecho tu prueba y razonamiento son correctos.

Dicho esto, yo utilizaría una notación de conjunto un poco más explícita para hacer la prueba aún más clara (al menos para mí), aunque no es del todo necesario. Prefiero esta notación porque es más claro respecto a sobre qué estás sumando exactamente:

Supongamos que $X$ tiene una distribución discreta en un conjunto contable $S$ y sea $Q \subseteq \mathbb{R}$ el rango de $g$. Entonces $Q$ es contable, por lo tanto $Y$ tiene una distribución discreta. Se sigue que $$E(Y) = \sum_{y \in Q} y \cdot P(Y=y) = \sum_{y \in Q} y \sum_{x \in g^{-1}(y)} f(x) = \sum_{y \in Q} \sum_{x \in g^{-1}(y)}g(x)f(x) = \sum_{x \in S} g(x)f(x)$$

0 votos

¿$Q$ denota el rango de $g$, o solo el rango de $g$ cuando se restringe a elementos de $X$?

0 votos

No has explicado por qué puedes sacar términos de las sumatorias cómo lo has hecho aquí: $$\sum_{y \in Q} y \sum_{x \in g^{-1}(y)} f(x) = \sum_{y \in Q} \sum_{x \in g^{-1}(y)}g(x)f(x)$$ No es para nada obvio.

1 votos

@Nagdalf La razón principal por la que reescribí la prueba de esta manera fue para hacer eso más claro... distribuye $y$ a través de la suma interna. Luego, como estamos sumando donde $x \in g^{-1}(y)$, $y= g(x)$.

6voto

Math1000 Puntos 8099

Esto es cierto en el caso de que $\mathbb P(X\in C)=1$ para algún conjunto numerable $C\subset\mathbb R$. Más generalmente, si $X$ es una variable aleatoria con $\mathbb E[|X|]<\infty$ y $Y=g(X)$ donde $g:\mathbb R\to\mathbb R$ es una función medible tal que $\mathbb E[|g(X)|]<\infty$, tenemos $$F_Y(y):=\mathbb P(Y\leqslant y) = \mathbb P(g(X)\leqslant y)=\mathbb P(X\in g^{-1}(-\infty,y]) $$ para cada $y\in\mathbb R$. El conjunto $g^{-1}(-\infty,y]$ es medible como la preimagen de un conjunto medible bajo una función medible, por lo que podemos definir para todos los conjuntos de Borel $A$ $$\widetilde{\mathbb P}(A)=\int_A\ \mathsf d F_X(x). $$ Entonces $$\widetilde{\mathbb P}(\varnothing) = \int_\varnothing \mathsf dF_X(x)=0,\quad \widetilde{\mathbb P}(\mathbb R)=\int_{\mathbb R}\ \mathsf dF_X(x)=1$$ y para una secuencia disjunta $\{A_n\}$ de conjuntos de Borel tenemos \begin{align} \widetilde{\mathbb P}\left(\bigcup_{n=1}^\infty A_n\right) &= \int_{\bigcup_{n=1}^\infty A_n} \mathsf d F_X(x)\\ &= \int_{\mathbb R}\sum_{n=1}^\infty \mathsf 1_{A_n}(x)\ \mathsf dF_X(x)\\&=\sum_{n=1}^\infty\int_{A_n}\ \mathsf dF_X(x)\\ &= \sum_{n=1}^\infty \widetilde{\mathbb P}(A_n), \end{align} así que $\widetilde{\mathbb P}$ es una medida de probabilidad en $\mathcal B(\mathbb R)$. Dado que $$F_Y(y)=\widetilde{\mathbb P}(g^{-1}(-\infty,y])=\int_{g^{-1}(\infty,y]}\ \mathsf dF_X(x), $$ se sigue que (por la definición de esperanzas matemáticas)

$$\mathbb E[Y] = \int_{\mathbb R}\ y\ \mathsf dF_Y(y) = \int_{\mathbb R} g(x)\mathsf d\widetilde{\mathbb P}(x) = \int_{\mathbb R} g(x)\ \mathsf dF_X(x). $$

0 votos

¿Es $F_X(x)$ la función de distribución acumulada y dF_X(x) la función de densidad de probabilidad?

0 votos

@convxy No todas las funciones integrables de una variable aleatoria integrable necesitan ser continuas (y por lo tanto la notación $\ \mathsf dF_X$ hace referencia a una densidad de probabilidad). Como ejemplo trivial, toma $g\equiv0$.

5voto

Me resultó bastante confuso hasta que lo expliqué lenta y detenidamente (usando corchetes de Iverson para simplificar los límites de las sumatorias):

\begin{align} \mathbb EY &= \mathbb Eg(X)\\ &= \sum_y y \cdot \mathbb P(g(X) = y) &&\text{Definición de valor esperado}\\ &=\sum_y y\sum_x \mathbb P(X=x)[g(x) = y] &&\text{Suma de probabilidad de eventos básicos tal que $g(x) = y$}\\ &=\sum_y\sum_x y\cdot \mathbb P(X=x)[g(x)=y] &&\text{Distribuir la $y$}\\ &=\sum_x\sum_y y\cdot \mathbb P(X=x)[g(x)=y] &&\text{Asociatividad: intercambiar orden de sumatorias}\\ &=\sum_x\sum_{y = g(x)}g(x)\cdot \mathbb P(X=x) &&\text{La suma interna no es cero cuando $y = g(x)$}\\ &=\sum_x g(x)\cdot \mathbb P(X=x)\sum_{y = g(x)}1 &&\text{El producto interno depende solo de $x$; factorícelo}\\ &=\sum_x g(x)\cdot \mathbb P(X=x) &&\text{$g(x)$ toma un solo valor, por lo que la suma interna es trivialmente 1} \end{align}

0 votos

¿$w$ y $z$ denotan realizaciones de $X$ e $Y$?

1 votos

Sí. Mirando atrás ahora, no estoy segura de por qué no emparejé simplemente con y con (también conocido como ()), aparte quizás de tener la (en lugar de ) con apariencia similar grabada en mi mente como un evento básico de y de alguna manera pensar en ese momento que era menos confuso elegir diferentes variables de índice al usar este estilo Knuth/Iverson.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X