13 votos

Valor esperado - variable aleatoria continua

Previamente había hecho la pregunta en las Estadísticas SE, pero creo que se ajusta a las Matemáticas SE mejor. Es posible rigurosamente derivar la fórmula para el valor esperado de la variable aleatoria continua comenzando con la espera de la variable en el caso discreto, es decir,

$$E[X] = \sum_{i=1}^{n}p_i x_i$$

para obtener

$$E[X]=\int_{-\infty}^{\infty}xf(x)dx$$

A la hora de formular la definición de caso continuo, la intención era, creo yo, hacer lo 'equivalente' para el caso discreto. Así, por ejemplo, me gustaría $E[X]$ de una variable aleatoria continua $X$ a ser igual a la suma de todos los valores posibles de a $X$ veces la probabilidad de que un valor particular.

El problema es que la probabilidad de cualquier valor de $X$$0$, y el valor esperado calculado de esa manera siempre se $0$. Pero algunas personas trataron de convencerme de que es posible superar estos problemas con la ayuda de la integral de Lebesgue. Podría alguien explicar de forma intuitiva cómo es eso posible? Estoy convencido de que no importa lo que la integración utilizamos, no podemos de alguna manera por arte de magia asignar distinto de cero probabilidades para los valores individuales de la variable aleatoria $X$ podría tomar. Ellos siempre van a ser $0$!

O tal vez no hay nada mágico en ello y lo mejor que podemos hacer es trabajar con finas intervalos de $X$? De lo que he podido averiguar (no tengo tiempo para estudiar toda la teoría de la medida y la integración de Lebesgue en el momento de averiguarlo por mi cuenta) se trata de aproximar el original de la variable aleatoria continua $X$ con función de paso, y el más pasos haya, mejor es la aproximación. Pero aún así, todo lo que tenemos es el cálculo de la probabilidad de los intervalos (que son infinitamente delgada, pero ellos son los intervalos de todos modos).

El hecho de que algo se acerca más a la función original en el límite no significa que se comporta de la misma como la función original (verificación de la muy popular ejemplo aquí).

En el 'muy popular ejemplo", incluso a pesar de que la curva se aproxima al círculo, su longitud no será el mismo que el perímetro del círculo. Del mismo modo, aquí, en 'La de Riemann-Stieltjes integral: la intuición. dicen que los discretos r.v. $X_n$ converge a continua r.v. $X$ $n \to \infty$ , en el límite se convierte en la misma variable. Así que es importante preguntarse si es razonable esperar que la aproximación de la cont. r.v. $X$ a comportarse de la misma como el original de la variable aleatoria $X$, aunque en el límite de el son "indistinguibles" en el límite de lo que la palabra significa en matemáticas. La curva y el círculo son indistinguibles, pero todavía tienen propiedades diferentes.

Así que al parecer es la de que el continuo caso es que no derivada de caso discreto, pero es una generalización de la discreta caso. Supongo que en cada teoría matemática, no hay tal cosa como "el único correcto" generalización, por lo que el contunous fórmula podría tener un aspecto diferente. Si usted reclama que este es el único 'válido', ¿por qué no la llamamos una derivación de la fórmula?

18voto

Pierre Lebeaupin Puntos 729

Usted está un poco falta el punto. El 'camino correcto' no es para definir continua de r.v. la expectativa para que coincida con el caso discreto, pero encontrar una estructura que ambos comparten. Lebesgue de integración define tanto continuos y discretos expectativas, al mismo tiempo, basando todo en la probabilidad de establecer la función de $P$, que normalmente se llama una medida de probabilidad, o sólo una probabilidad. $P$ mide el tamaño de los conjuntos en el espacio para el evento, por ejemplo, $P(\text{$X$ is a heads}) = 1/2$. También podemos hablar de la inducida por la probabilidad de medir(o la ley, o distribución) de $X$, $\mu_X = P\circ X^{-1}$. El mismo ejemplo es $P(X^{-1}(\text{heads})) = 1/2$.

Supongamos que una variable aleatoria $X$ toma sólo un número finito de valores, $X = \sum_{i=1}^N x_i\Bbb 1_{A_i}$. Esto se conoce como una 'función'. Aquí $\Bbb 1_A$ es la función $$ \Bbb 1_A(ω) := \begin{cases} 1 & ω ∈ A \\ 0 & ω \not∈ A \end{cases}$$ y de ello se sigue que los conjuntos de $A_i = [X = x_i]$ mientras la $A_i$ son conjuntos disjuntos.

A continuación definimos la expectativa, la integral de $X$ con respecto a la probabilidad de $P$

$$\Bbb E X:= ∫_Ω X(ω) dP(ω) := \sum_{i=1}^N x_i P(A_i) $$

($∫_Ω X(ω) dP(ω)$ escrito $∫_Ω X dP, ∫_Ω X(ω) P(dω),\dots$)

Tenga en cuenta que si la probabilidad de que un singleton por ejemplo, $A_i = \{\text{heads}\}$ es positivo, $P(\{\text{heads}\}) > 0$, esto significa que vamos a asignar un único punto, algunos de probabilidad positiva con este método de integración global, que creo que soluciona uno de los problemas.

Para una variable aleatoria que puede tomar más de un número finito de valores, hemos aproximado por funciones simples, y tomar límites, $$\Bbb E X:=∫_Ω X(ω) dP(ω) := \lim_{n→∞}∫_Ω X_n(ω) dP(ω)$$

Una vez que esto está fuera de la forma, podemos distinguir discretos y continuos (o combinaciones de) variables aleatorias mirando su distribución (inducida por medidas). Para un discretos $X$, tendríamos la distribución de $\mu_X = \sum_{i=1}^∞ P(X=x_i)δ_{x_i}$ donde $δ_x$ son el punto de Dirac masas,

$$ \Bbb δ_x(A) := \begin{cases} 1 & x ∈ A \\ 0 & x \not∈ A \end{cases}$$

No es difícil comprobar que

$$\Bbb E X = ∫_{-∞}^∞ x d\mu_X(x)$$

En el caso de una variable aleatoria continua, esto significa que tenemos una función de densidad de $f$ tal que $f(x) dx = d\mu_X$. De nuevo, es sólo un poco más difícil para comprobar que

$$\Bbb E X = ∫_{-∞}^∞ x d\mu_X(x)$$


A partir de los comentarios-

es que la estructura única, o tal vez es posible encontrar otra estructura en la que ambos comparten, con diferentes fórmula para el caso continuo?

Esa pregunta es muy amplia, y no sé si un día se nos descubrirá una mejor base para la Probabilidad de que la teoría de la medida. Sin embargo, otra cosa buena acerca de la integración de Lebesgue es que tenemos algunas muy poderosas teoremas de convergencia: por ejemplo,

Monotono Teorema De Convergencia. Si $f_n,f$ $\mu$- medible(es decir, 'bueno') funciones que $f_n$ aumenta a $f$ es decir $f_n(x)\uparrow f(x)$ por cada $x$, $$∫_Ω f_n \ d\mu \uparrow ∫_Ω f \ d\mu$$

y

Teorema De Convergencia Dominada. Si las funciones medibles $f_n,f$ son tales que $f_n$ converge pointwise a $f$ y hay un medibles $g>0$ tal que $∫_Ω g \ d\mu <∞ $$|f_n|<g$, $$∫_Ω f_n\ d\mu → ∫_Ω f\ d\mu $$

De la OMI, estos resultados son muy intuitivos, y trabajo para cualquier medida (discreta y continua!) así que si de alguna manera nos había una manera diferente de integración que se viola uno de estos, creo que estaría de vista de aquellos como el " mal " camino de la integración. Pero si el nuevo método de integración no se violen estos, en realidad es una fórmula diferente?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X