8 votos

Regla de Darth Vader: ¿cuál es la razón de su nombre, y una prueba formal?

A menudo escucho el término " Regla de Darth Vader " al calcular el valor esperado utilizando la función de supervivencia y tomando la integral donde está definida.

No sé muy bien por qué se llama así (¿es costumbre?) y también me gustaría conocer una prueba formal de ello. He intentado buscar, pero tengo la sensación de que el nombre de esta norma no es oficial y no consigo encontrarlo de inmediato.

11voto

Ben Puntos 236

Sobre la cuestión del nombre:

Este resultado de la expectativa ha existido durante mucho tiempo (por ejemplo, se puede encontrar en los viejos libros de probabilidad de Feller), y parece haber sido designado como la "regla de Darth Vader" sólo muy recientemente. La primera referencia que he encontrado a este nombre en la literatura es en Muldowney, Ostaszewski y Wojdows (2012) que parecen ser los que acuñaron el nombre. En una nota a pie de página dan una explicación del nombre, diciendo que la "...designación puede captar la impresión algo contraintuitiva -si no ligeramente inquietante y surrealista- que el resultado puede evocar al primer encuentro" (p. 53, nota a pie de página 1).

Sinceramente, me parece una razón extremadamente tenue para el nombre, en primer lugar porque casi todos los teoremas matemáticos parecen inquietantes y misteriosos cuando no estás familiarizado con ellos, y en segundo lugar porque hay muchos otros villanos de películas que son más inquietantes y surrealistas que Darth Vader (¿la "regla de la bruja de Blair" quizás?). Así que creo que la respuesta correcta es: no hay ninguna razón sensata por la que la regla se llame así, algunos matemáticos simplemente pensaron que sería un nombre genial porque son nerds de la Guerra de las Galaxias .

A pesar de que no parece haber ninguna base lógica sensata para el nombre, eso no importa demasiado en matemáticas. El objetivo principal de nombrar las reglas matemáticas es que tengamos un lenguaje compartido para referirnos a ellas fácilmente, y un nombre tonto es tan bueno para esto como un nombre sensato. Por esa razón, no tengo ningún problema en referirme a la regla con ese nombre, y espero que se extienda lo suficiente como para que contribuya al lenguaje compartido de las matemáticas.

5voto

Una prueba básica utiliza la integración de Lebesgue.

Dejemos que $S(x)$ sea una función de supervivencia en $x\in [0,\infty]$ entonces $S(x)$ es una función monotónicamente decreciente que comienza en $S(0)=1$ y $\lim\limits_{x\rightarrow \infty} S(x)= 0$ .

Ahora, vamos a calcular el área bajo la curva utilizando un Suma de Lebesgue de $S(x)$ .

$L_S:= \sum\limits_{\eta_i\in \chi_S} \Delta(\eta_i)\mu(S^{-1}(\eta_i))$

Dónde:

  • $\chi_S$ es una partición del gama de $S(x)$ en un conjunto de intervalos.
  • $\Delta(\eta_i)$ es la longitud del intervalo $\eta_i \in \chi_S$
  • $\mu(S^{-1}(\eta_i))$ es la medida de Lebesgue $\mu$ (es decir, la longitud total) del intervalo en el eje x donde $S(x)\geq \inf \eta_i$

Esta integral puede ser difícil de interpretar. Sin embargo, como $S(x)$ es monótona-decreciente, sabemos que el conjunto de $x$ los valores de cada término de la suma tendrán una propiedad especial: $\mu(S^{-1}(\eta_i))=x_i:S(x)=\inf \eta_i$ lo que significa que podemos prescindir de la medida de Lebesgue y utilizar simplemente la inversa real de la función:

$L_S := \sum\limits_{\eta_i\in \chi_S} \Delta(\eta_i)S^{-1}(\eta_i)$

Ahora, tomemos el límite de la suma de Lebesgue para obtener una integral de Lebesgue:

$\lim\limits_{\Delta(\eta_i)\rightarrow 0} \sum\limits_{\eta_i\in\chi_S} \eta_i\mu(S^{-1}(\eta_i)) = \int_0^1 S^{-1}(z)dz$ [Esto puede verse como el límite de una serie de rectángulos apilados (es decir, una suma de Riemann en la inversa de S)].

Sin embargo, tenga en cuenta que $dz = dS = dP$ Por lo tanto, un intervalo en el eje y representa una probabilidad, y el límite de este intervalo representa un densidad por lo que podemos reescribir la integral utilizando el hecho de que $\int f(x) dx = \int f^{-1}(y) dy$ :

$\int_0^1 S^{-1}(z)dz = \int_0^{\infty} xdS=\int_0^{\infty} xdP = E[X]\;\;\text{ where } F_X(x)=1-S(x)$

3voto

grand_chat Puntos 4103

En una prueba formal:

Hay muchas pruebas de esta regla en math.SE. Las solicitudes duplicadas de pruebas son redirigidas aquí . La intuición sobre esta regla puede encontrarse en este puesto . IMO la prueba más hábil argumenta lo siguiente:


Reclamación: Dejemos que $X$ sea una variable aleatoria no negativa. Entonces $$ E[X]=\int_0^\infty P(X>t). $$

Prueba: Escriba $X$ como la integral de la constante $1$ de $0$ a $X$ : $$ X = \int_0^X1\,dt=\int_0^\infty H(t)dt $$ donde $$H(t) = \begin{cases}1&\text{if $t<X$}\\ 0&\text{otherwise}\end{cases}$$ Para calcular la expectativa de $X$ , intercambiar el orden de expectativa e integración (Fubini-Tonelli): $$ E[X] = E\left[\int_0^\infty H(t)dt\right]\stackrel{\text{Fubini}}=\int_0^\infty E[H(t)]dt$$ Pero para cada $t>0$ , $H(t)$ es una variable aleatoria cero-uno, por lo que su expectativa es la probabilidad de que sea igual a $1$ : $$ E[H(t)] = P(H(t)=1) = P(t<X) = P(X>t).$$


El mismo argumento demuestra la forma alternativa $E[X]=\int_0^\infty P(X\ge t)$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X