70 votos

¿Por qué la suma de dos variables aleatorias es una convolución?

Durante mucho tiempo no entendí por qué la "suma" de dos variables aleatorias es su convolución mientras que una función de densidad de la mezcla suma de $f(x)$ y $g(x)$ es $p\,f(x)+(1-p)g(x)$ la suma aritmética y no su convolución. La frase exacta "la suma de dos variables aleatorias" aparece en google 146.000 veces, y es elíptica como sigue. Si se considera que una VR da un valor único, entonces ese valor único puede sumarse a otro valor único de la VR, lo que no tiene nada que ver con la convolución, al menos no directamente, todo lo que es una suma de dos números. Sin embargo, un resultado RV en estadística es una colección de valores y, por tanto, una frase más exacta sería algo así como "el conjunto de sumas coordinadas de pares de valores individuales asociados de dos RV es su convolución discreta"... y puede aproximarse por la convolución de las funciones de densidad correspondientes a esos RV. Lenguaje aún más sencillo: 2 RV's de $n$ -las muestras son, en efecto, dos vectores de n dimensiones que se suman como su suma vectorial.

Muestra los detalles de cómo la suma de dos variables aleatorias es una convolución y una suma.

0 votos

Aquí hay una visualización en youtube: youtube.com/watch?v=Ma0YONjMZLI&feature=youtu.be

1 votos

En cierta medida, esta cuestión puede duplicar la existente ¿Por qué funciona la convolución?

0 votos

@Silverfish Para la frase "El oro es raro" la pregunta "¿Qué es el oro?" tendría poco que ver con "¿Qué quieres decir con 'raro'?"

53voto

jldugger Puntos 7490

Los cálculos de convolución asociados a las distribuciones de variables aleatorias son todas las manifestaciones matemáticas de la Ley de la probabilidad total .


En el lenguaje de mi post en ¿Qué se entiende por "variable aleatoria"? ,

Un par de variables aleatorias $(X,Y)$ consiste en una caja de billetes en la que están escritos dos números, uno designado $X$ y el otro $Y$ . La suma de estas variables aleatorias se obtiene sumando los dos números encontrados en cada billete.

He publicado una foto de dicha caja y sus billetes en Aclaración del concepto de suma de variables aleatorias .

enter image description here

Este cálculo es, literalmente, una tarea que podría asignarse a una clase de tercer grado. (Hago este punto para enfatizar tanto la simplicidad fundamental de la operación como para mostrar lo fuertemente conectada que está con lo que todo el mundo entiende que es una "suma").

La forma de expresar matemáticamente la suma de variables aleatorias depende de cómo se represente el contenido de la caja:

Los dos primeros son especiales en la medida en que la caja puede no tener un pmf, pdf o mgf, pero siempre tiene una cdf, cf y cgf.


Para ver por qué la convolución es el método adecuado para calcular la pmf o pdf de una suma de variables aleatorias, considerar el caso en que las tres variables $X,$ $Y,$ y $X+Y$ tienen un pmf: por definición, el pmf de $X+Y$ en cualquier número $z$ da la proporción de billetes en la caja donde la suma $X+Y$ es igual a $z,$ escrito $\Pr(X+Y=z).$

El pmf de la suma se encuentra desglosando el conjunto de billetes según el valor de $X$ escrito en ellos, siguiendo la Ley de la Probabilidad Total, que afirma las proporciones (de subconjuntos disjuntos) se suman. Más técnicamente,

La proporción de billetes encontrados dentro de una colección de subconjuntos disjuntos de la caja es la suma de las proporciones de los subconjuntos individuales.

Se aplica así:

La proporción de billetes en los que $X+Y=z$ , escrito $\Pr(X+Y=z),$ debe ser igual a la suma de todos los valores posibles $x$ de la proporción de billetes en los que $X=x$ y $X+Y=z,$ escrito $\Pr(X=x, X+Y=z).$

Porque $X=x$ y $X+Y=z$ implica $Y=z-x,$ esta expresión se puede reescribir directamente en términos de las variables originales $X$ y $Y$ como

$$\Pr(X+Y=z) = \sum_x \Pr(X=x, Y=z-x).$$

Esa es la convolución.


Editar

Ten en cuenta que, aunque las convoluciones están asociadas a sumas de variables aleatorias, ¡las convoluciones no son convoluciones de las propias variables aleatorias!

De hecho, en la mayoría de los casos no es posible convulsionar dos variables aleatorias. Para que esto funcione, sus dominios tienen que tener una estructura matemática adicional. Esta estructura es una grupo topológico continuo.

Sin entrar en detalles, baste decir que la convolución de dos funciones cualesquiera $X, Y:G \to H$ debe tener un aspecto abstracto similar a

$$(X\star Y)(g) = \sum_{h,k\in G\mid h+k=g} X(h)Y(k).$$

(La suma podría ser una integral y, si esto va a producir nuevas variables aleatorias a partir de las existentes, $X\star Y$ debe ser medible siempre que $X$ y $Y$ son; ahí es donde debe entrar alguna consideración de topología o mensurabilidad).

Esta fórmula invoca dos operaciones. Una es la multiplicación en $H:$ debe tener sentido multiplicar los valores $X(h)\in H$ y $Y(k)\in H.$ La otra es la adición en $G:$ debe tener sentido para añadir elementos de $G.$

En la mayoría de las aplicaciones de probabilidad, $H$ es un conjunto de números (reales o complejos) y la multiplicación es la habitual. Pero $G,$ el espacio muestral, a menudo no tiene ninguna estructura matemática. Por eso, la convolución de variables aleatorias no suele estar ni siquiera definida. Los objetos que intervienen en las convoluciones en este hilo son representaciones matemáticas de las distribuciones de las variables aleatorias. Se utilizan para calcular la distribución de una suma de variables aleatorias, dada la distribución conjunta de esas variables aleatorias.


Referencias

Stuart y Ord, Teoría avanzada de la estadística de Kendall, volumen 1. Quinta edición, 1987, capítulos 1, 3 y 4 ( Distribuciones de frecuencia, momentos y acumulantes, y Funciones características ).

0 votos

Asociatividad con multiplicación escalar de propiedades algebraicas relata que $$a ( f g ) = ( a f ) g$$ para cualquier número real (o complejo) $a$ . Mientras que una buena propiedad es que la convolución de dos funciones de densidad es una función de densidad, uno no está restringido a convolucionar funciones de densidad, y la convolución no es en general un tratamiento de probabilidad, claro que puede serlo, pero puede ser un tratamiento de series de tiempo, por ejemplo, un tratamiento de la escorrentía de agua en los lagos después de una lluvia, un modelo de concentración de drogas después de la dosificación, etc.

0 votos

@Carl ¿Cómo se compagina ese comentario con tu pregunta original, que pregunta sobre sumas de variables aleatorias ? En el mejor de los casos es tangencial.

0 votos

Te pido que no generalices en exceso. Empezar una frase con "la convolución es" sin decir "la convolución de las VR es" es elíptico. Todo mi problema aquí fue con la notación elíptica. La adición vectorial de dos $n$ -es la convolución, independientemente de que esos vectores estén o no normalizados. Si están normalizados, no es necesario que sean probabilidades, Esa es toda la verdad, no sólo parte de ella.

50voto

user164061 Puntos 281

Notación, mayúsculas y minúsculas

https://en.wikipedia.org/wiki/Notation_in_probability_and_statistics

  • Las variables aleatorias suelen escribirse en letras romanas mayúsculas: $X$ , $Y$ etc.
  • Las realizaciones particulares de una variable aleatoria se escriben con las correspondientes letras minúsculas. Por ejemplo $x_1$ , $x_2$ , , $x_n$ podría ser una muestra correspondiente a la variable aleatoria $X$ y una probabilidad acumulada se escribe formalmente $P ( X > x )$ para diferenciar la variable aleatoria de la realización.

$Z=X+Y$ significa $z_i=x_i+y_i \qquad \forall x_i,y_i$


Mezcla de variables $ \rightarrow $ suma de pdf's

https://en.wikipedia.org/wiki/Mixture_distribution

Se utiliza una suma de las funciones de densidad de probabilidad $f_{X_1}$ y $f_{X_2}$ cuando la probabilidad (de decir Z) es una definida por un solo suma de diferentes probabilidades.

Por ejemplo, cuando $Z$ es una fracción $s$ del tiempo definido por $X_1$ y una fracción $1-s$ del tiempo definido por $X_2$ , entonces se obtiene $$\mathbb{P}(Z=z) = s \mathbb{P}(X_1=z) + (1-s) \mathbb{P}(X_2=z)$$ y $$f_Z(z) = s f_{X_1}(z) + (1-s) f_{X_2}(z)$$

. . . un ejemplo es la elección entre tiradas de dados de 6 caras o de 12 caras. Digamos que usted hace el 50-50 por ciento de las veces un dado o el otro. Entonces $$f_{mixed roll}(z) = 0.5 \, f_{6-sided}(z) + 0.5 \, f_{12-sided}(z)$$


Suma de variables $ \rightarrow $ convolución de pdf's

https://en.wikipedia.org/wiki/Convolution_of_probability_distributions

Se utiliza una convolución de las funciones de densidad de probabilidad $f_{X_1}$ y $f_{X_2}$ cuando la probabilidad (de decir Z) es una definida por múltiples sumas de diferentes probabilidades (independientes).

Por ejemplo, cuando $Z = X_1 + X_2$ (es decir, ¡una suma!) y varios pares diferentes $x_1,x_2$ se suman a $z$ con cada una de las probabilidades $f_{X_1}(x_1)f_{X_2}(x_2)$ . Entonces se obtiene la convolución $$\mathbb{P}(Z=z) = \sum_{\text{all pairs }x_1+x_2=z} \mathbb{P}(X_1=x_1) \cdot \mathbb{P}(X_2=x_2)$$

y $$f_Z(z) = \sum_{x_1 \in \text{ domain of }X_1} f_{X_1}(x_1) f_{X_2}(z-x_1)$$

o para variables continuas

$$f_Z(z) = \int_{x_1 \in \text{ domain of }X_1} f_{X_1}(x_1) f_{X_2}(z-x_1) d x_1$$

. . . un ejemplo es la suma de dos tiradas de dados $f_{X_2}(x) = f_{X_1}(x) = 1/6$ para $x \in \lbrace 1,2,3,4,5,6 \rbrace$ y $$f_Z(z) = \sum_{x \in \lbrace 1,2,3,4,5,6 \rbrace \\ \text{ and } z-x \in \lbrace 1,2,3,4,5,6 \rbrace} f_{X_1}(x) f_{X_2}(z-x)$$

nota elijo integrar y sumar $x_1 \in \text{ domain of } X_1$ que me parece más intuitivo, pero no es necesario y se puede integrar desde $-\infty$ a $\infty$ si se define $f_{X_1}(x_1)=0$ fuera del dominio.

Ejemplo de imagen

example of 'sum of variables' resulting in 'convolution of pdfs'

Dejemos que $Z$ sea $X+Y$ . Para saber $\mathbb{P}(z-\frac{1}{2}dz<Z<z+\frac{1}{2}dz)$ tendrá que integrar sobre las probabilidades para todas las realizaciones de $x,y$ que conducen a $z-\frac{1}{2}dz<Z=X+Y<z+\frac{1}{2}dz$ .

Así que esa es la integral de $f(x)g(y)$ en la región $\pm \frac{1}{2}dz$ a lo largo de la línea $x+y=z$ .

0 votos

La mejor explicación hasta ahora. ¿Sería tan amable de incluir también las definiciones continuas, por favor?

0 votos

Bueno, está bien, creo. Esto es sólo una suma, creo, en el sentido de sumar cada dato incremental o individual de una variable sobre todo el rango de la otra. Es decir, hay un montón de sumas.

0 votos

No es necesario, sé cómo convulsionar casi todo. Sólo me costó entender la utilización jargosa de la palabra "suma". Es, en el mejor de los casos, una suma de sumas. Mi preferencia sería decir que las variables aleatorias combinar por convolución.

46voto

ejgottl Puntos 2178

Tu confusión parece surgir al confundir las variables aleatorias con sus distribuciones.

Para "desaprender" esta confusión, puede ser útil dar un par de pasos atrás, vaciar la mente por un momento, olvidarse de cualquier formalismo extravagante como los espacios de probabilidad y las álgebras sigma (si te sirve de ayuda, haz como si estuvieras en la escuela primaria y nunca hubieras oído hablar de ninguna de esas cosas) y simplemente pensar en lo que representa fundamentalmente una variable aleatoria: un número de cuyo valor no estamos seguros .

Por ejemplo, digamos que tengo un dado de seis caras en la mano. (De hecho, tengo una bolsa entera de ellos.) Todavía no lo he tirado, pero estoy a punto de hacerlo, y decido llamar a el número que aún no he rodado en ese troquel con el nombre de " $X$ ".

¿Qué puedo decir de esto? $X$ , sin ¿Realmente lanzar el dado y determinar su valor? Bueno, puedo decir que su valor no será $7$ o $-1$ o $\frac12$ . De hecho, puedo decir con seguridad que va a ser un número entero entre $1$ y $6$ , inclusive, porque esos son los únicos números marcados en el dado. Y como he comprado esta bolsa de dados a un fabricante de confianza, puedo estar bastante seguro de que cuando lance el dado y determine qué número $X$ en realidad, es igualmente probable que sea cualquiera de esos seis valores posibles, o lo más cercano a eso que puedo determinar.

En otras palabras, mi $X$ es una variable aleatoria de valor entero distribuida uniformemente sobre el conjunto $\{1,2,3,4,5,6\}$ .


De acuerdo, pero seguramente todo eso es obvio, así que ¿por qué sigo insistiendo en cosas tan triviales que seguramente ya sabes? Es porque quiero hacer otro punto, que también es trivial pero, al mismo tiempo, crucialmente importante: Puedo hacer cuentas con esto $X$ aunque todavía no conozca su valor.

Por ejemplo, puedo decidir sumar uno al número $X$ que tiraré en el dado, y llamaré a ese número por el nombre " $Q$ ". No sabré qué número es este $Q$ será, ya que no sé qué $X$ será hasta que haya tirado el dado, pero aún puedo decir que $Q$ será uno mayor que $X$ o en términos matemáticos, $Q = X+1$ .

Y esto $Q$ también sea una variable aleatoria, porque aún no conozco su valor; sólo sé que será uno mayor que $X$ . Y porque sé qué valores $X$ puede tomar, y la probabilidad de que tome cada uno de esos valores, también puedo determinar esas cosas para $Q$ . Y tú también puedes hacerlo, con bastante facilidad. No necesitarás ningún formalismo o cálculo sofisticado para darte cuenta de que $Q$ será un número entero entre $2$ y $7$ y que es igualmente probable (suponiendo que mi dado sea tan justo y equilibrado como creo) que tome cualquiera de esos valores.

¡Pero hay más! También podría decidir, por ejemplo, multiplicar el número $X$ que tiraré el dado por tres, y llamaré al resultado $R = 3X$ . Y esa es otra variable aleatoria, y estoy seguro de que puedes averiguar su distribución, también, sin tener que recurrir a ninguna integral o convolución o álgebra abstracta.

Y si realmente quisiera, podría incluso decidir tomar el número aún por determinar $X$ y a doblarla, hilarla y mutilarla dividirlo por dos, restarle uno y elevar al cuadrado el resultado. Y el número resultante $S = (\frac12 X - 1)^2$ es otra variable aleatoria; esta vez, no tendrá valores enteros ni estará distribuida uniformemente, pero aún así puedes calcular su distribución con bastante facilidad utilizando sólo lógica y aritmética elemental.


Bien, entonces puedo definir nuevas variables aleatorias introduciendo mi tirada desconocida $X$ en varias ecuaciones. ¿Y qué? Bueno, ¿recuerdas cuando dije que tenía una bolsa entera de dados? Permítanme agarrar otro, y llamar al número que voy a rodar en que morir por el nombre " $Y$ ".

Esos dos dados que he cogido de la bolsa son prácticamente idénticos - si los cambias cuando no estoy mirando, no podría decirlo - así que puedo asumir con bastante seguridad que esto $Y$ también tendrá la misma distribución que $X$ . Pero lo que realmente quiero hacer es tira los dos dados y cuenta el número total de pepitas en cada uno de ellos . Y ese número total de pips, que también es una variable aleatoria ya que aún no lo conozco llamaré a " $T$ ".

¿Cómo de grande será este número $T$ ¿ser? Bueno, si $X$ es el número de pepitas que sacaré en el primer dado, y $Y$ es el número de pepitas que sacaré en el segundo dado, entonces $T$ será claramente su suma, es decir $T = X+Y$ . Y puedo decir que, desde $X$ y $Y$ están entre uno y seis, $T$ debe ser al menos dos y como máximo doce. Y como $X$ y $Y$ son ambos números enteros, $T$ claramente debe ser un número entero también.


Pero, ¿cuál es la probabilidad de que $T$ para tomar cada uno de sus posibles valores entre dos y doce? Definitivamente es no igualmente probable que tome cada uno de ellos - un poco de experimentación revelará que es un lote más difícil sacar un doce en un par de dados que sacar, por ejemplo, un siete.

Para calcularlo, denotemos la probabilidad de que salga el número $a$ en el primer dado (aquel cuyo resultado decidí llamar $X$ ) mediante la expresión $\Pr[X = a]$ . Del mismo modo, denotaré la probabilidad de que saque el número $b$ en el segundo dado por $\Pr[Y = b]$ . Por supuesto, si mis dados son perfectamente justos y equilibrados, entonces $\Pr[X = a] = \Pr[Y = b] = \frac16$ para cualquier $a$ y $b$ entre el uno y el seis, pero también podríamos considerar el caso más general en el que los dados podrían estar sesgados, y ser más propensos a sacar algunos números que otros.

Ahora bien, como las dos tiradas serán independientes (¡no pienso hacer trampa y ajustar una de ellas en función de la otra!), la probabilidad de que saque $a$ en el primer dado y $b$ en el segundo será simplemente el producto de esas probabilidades: $$\Pr[X = a \text{ and } Y = b] = \Pr[X = a] \Pr[Y = b].$$

(Obsérvese que la fórmula anterior sólo se mantiene para pares de variables aleatorias independientes; ciertamente no se mantendría si sustituimos $Y$ arriba con, digamos, $Q$ !)

Ahora, hay varios valores posibles de $X$ y $Y$ que podría producir el mismo total $T$ ; por ejemplo, $T = 4$ podría surgir igualmente de $X = 1$ y $Y = 3$ a partir de $X = 2$ y $Y = 2$ o incluso de $X = 3$ y $Y = 1$ . Pero si ya hubiera tirado el primer dado y conocía el valor de $X$ Entonces podría decir exactamente qué valor tendría que sacar en el segundo dado para alcanzar cualquier número total de pepitas.

En concreto, digamos que estamos interesados en la probabilidad de que $T = c$ para algún número $c$ . Ahora bien, si después de lanzar el primer dado sé que $X = a$ Entonces sólo pude obtener el total $T = c$ por el rodillo $Y = c - a$ en el segundo dado. Y por supuesto, ya sabemos, sin tirar ningún dado, que el a priori probabilidad de rodar $a$ en el primer dado y $c - a$ en el segundo dado es $$\Pr[X = a \text{ and } Y = c-a] = \Pr[X = a] \Pr[Y = c-a].$$

Pero, por supuesto, hay varias formas posibles de llegar al mismo total $c$ Dependiendo de lo que acabe sacando en el primer dado. Para obtener la probabilidad total $\Pr[T = c]$ de la rodadura $c$ en los dos dados, tengo que sumar las probabilidades de todas las formas diferentes en que podría sacar ese total. Por ejemplo, la probabilidad total de que saque un total de 4 puntos en los dos dados será: $$\Pr[T = 4] = \Pr[X = 1]\Pr[Y = 3] + \Pr[X = 2]\Pr[Y = 2] + \Pr[X = 3]\Pr[Y = 1] + \Pr[X = 4]\Pr[Y = 0] + \dots$$

Obsérvese que me he pasado un poco con la suma anterior: ciertamente $Y$ no puede ser $0$ ¡! Pero matemáticamente eso no es un problema; sólo tenemos que definir la probabilidad de eventos imposibles como $Y = 0$ (o $Y = 7$ o $Y = -1$ o $Y = \frac12$ ) como cero. Y así obtenemos una fórmula genérica para la distribución de la suma de dos tiradas de dados (o, en general, de dos variables aleatorias independientes de valor entero):

$$T = X + Y \implies \Pr[T = c] = \sum_{a \in \mathbb Z} \Pr[X = a]\Pr[Y = c - a].$$


Y podría perfectamente detener mi exposición aquí, ¡sin mencionar nunca la palabra "convolución"! Pero, por supuesto, si usted sabe lo que es una convolución discreta parece, puede que reconozcas uno en la fórmula anterior. Y esa es una forma bastante avanzada de enunciar el resultado elemental derivado anteriormente: el función de masa de probabilidad de la suma de dos variables aleatorias de valor entero es la convolución discreta de las funciones de masa de probabilidad de los sumandos.

Y por supuesto, sustituyendo la suma por una integral y la masa de probabilidad por densidad de probabilidad obtenemos un resultado análogo para variables aleatorias de distribución continua, también. Y estirando suficientemente la definición de una convolución, podemos incluso hacer que se aplique a todo variables aleatorias, independientemente de su distribución - aunque en ese momento la fórmula se convierte casi en una tautología, ya que tendremos más o menos sólo definido la convolución de dos distribuciones de probabilidad arbitrarias para ser la distribución de la suma de dos variables aleatorias independientes con esas distribuciones.

Pero aún así, todo este asunto de las convoluciones y distribuciones y PMFs y PDFs es realmente un conjunto de herramientas para calcular cosas sobre las variables aleatorias. Los objetos fundamentales que estamos calculando cosas sobre son las propias variables aleatorias, que en realidad son sólo números cuyos valores no estamos seguros .

Y además, ese truco de convolución sólo trabaja para sumas de las variables aleatorias, de todos modos. Si quisieras saber, por ejemplo, la distribución de $U = XY$ o $V = X^Y$ Tendrías que resolverlo con métodos elementales, y el resultado sería no sea una convolución.


Adenda: Si quieres una fórmula genérica para calcular la distribución de la suma / producto / exponencial / cualquier combinación de dos variables aleatorias, aquí tienes una forma de escribirla: $$A = B \odot C \implies \Pr[A = a] = \sum_{b,c} \Pr[B = b \text{ and } C = c] [a = b \odot c],$$ donde $\odot$ representa una operación binaria arbitraria y $[a = b \odot c]$ es un Soporte Iverson es decir $$[a = b \odot c] = \begin{cases}1 & \text{if } a = b \odot c, \text{ and} \\ 0 & \text{otherwise}. \end{cases}$$

(La generalización de esta fórmula para variables aleatorias no discretas se deja como un ejercicio de formalismo en su mayor parte inútil. El caso discreto es suficiente para ilustrar la idea esencial, y el caso no discreto sólo añade un montón de complicaciones irrelevantes).

Puedes comprobar tú mismo que esta fórmula funciona, por ejemplo, para la suma y que, para el caso especial de sumar dos independiente variables aleatorias, es equivalente a la fórmula de "convolución" dada anteriormente.

Por supuesto, en la práctica, esta fórmula general es mucho menos útil para el cálculo, ya que implica una suma sobre dos variables no limitadas en lugar de una sola. Pero a diferencia de la fórmula de la suma simple, funciona para funciones arbitrarias de dos variables aleatorias, incluso las no invertibles, y además muestra explícitamente la operación $\odot$ en lugar de disfrazarla como su inversa (como la fórmula de la "convolución" disfraza la suma como la resta).


Ps. Acabo de tirar los dados. Resulta que $X = 5$ y $Y = 6$ , lo que implica que $Q = 6$ , $R = 15$ , $S = 2.25$ , $T = 11$ , $U = 30$ y $V = 15625$ . Ahora ya lo sabes. ;-)

6 votos

Esta debería ser la respuesta aceptada. ¡Muy intuitivo y claro!

0 votos

(+) 1 por tu sencilla y reflexiva aportación, todo un esfuerzo y lo respeto. Sin embargo, la suma de probabilidades conjuntas (producto independiente) como $\Pr[T = 4] = \Pr[X = 1]\Pr[Y = 3] + \Pr[X = 2]\Pr[Y = 2] + \Pr[X = 3]\Pr[Y = 1]$ no es una simple suma, es una "regla de suma de productos exhaustivos (de posibles)". Supongo que se podría llamar a esa operación $\oplus$ pero $\otimes$ sería más comúnmente utilizado para la convolución, lo que no es es un emparejamiento de dos números llamados $+$ . Claro, lo llamamos $+$ pero insisto en que es una abstracción.

3 votos

@Carl: El punto que estoy tratando de hacer es que la suma de las variables aleatorias es, en efecto, una simple suma: $T = X + Y$ . Si queremos calcular el distribución de $T$ Entonces tendremos que hacer algo más complicado, pero eso es un tema secundario. La variable aleatoria no es su distribución. (De hecho, una variable aleatoria ni siquiera está totalmente caracterizada por su distribución, ya que la distribución (marginal) por sí sola no codifica información sobre sus posibles dependencias con otras variables).

10voto

Johnny Puntos 151

En realidad no creo que esto sea del todo correcto, a no ser que te esté entendiendo mal.

Si $X$ y $Y$ son variables aleatorias independientes, entonces la relación suma/convolución a la que te refieres es la siguiente: $$ p(X+Y) = p(X)*p(Y) $$ Es decir, la función de densidad de probabilidad (pdf) de la suma es igual a la convolución (denotada por el $*$ operador) de los pdf's individuales de $X$ y $Y$ .

Para ver el porqué de esto, consideremos que para un valor fijo de $X=x$ la suma $S=X+Y$ sigue el pdf de $Y$ , desplazado por una cantidad $x$ . Por lo tanto, si se consideran todos los valores posibles de $X$ La distribución de $S$ viene dada por la sustitución de cada punto de $p(X)$ por una copia de $p(Y)$ centrado en ese punto (o viceversa), y luego sumar sobre todas estas copias, que es exactamente lo que es una convolución.

Formalmente, podemos escribir esto como $$ p(S) = \int p_Y(S-x)p_X(x)dx $$ o, de forma equivalente: $$ p(S) = \int p_X(S-y)p_Y(y)dy $$

Edición: Para aclarar alguna confusión, permítanme resumir algunas de las cosas que dije en los comentarios. La suma de dos variables aleatorias $X$ y $Y$ no se refiere a la suma de sus distribuciones. Se refiere al resultado de sumar sus realizaciones. Repitiendo el ejemplo que puse en los comentarios, supongamos que $X$ y $Y$ son los números lanzados con una tirada de dos dados ( $X$ siendo el número lanzado con un dado, y $Y$ el número lanzado con el otro). Entonces definamos $S=X+Y$ como el número total lanzado con los dos dados juntos. Por ejemplo, para una determinada tirada de dados, podríamos lanzar un 3 y un 5, por lo que la suma sería 8. La pregunta ahora es: ¿cómo es la distribución de esta suma y cómo se relaciona con las distribuciones individuales de $X$ y $Y$ ? En este ejemplo concreto, el número lanzado con cada dado sigue una distribución uniforme (discreta) entre [1, 6]. La suma sigue una distribución triangular entre [1, 12], con un pico en 7. Resulta que esta distribución triangular se puede obtener al convolucionar las distribuciones uniformes de $X$ y $Y$ y esta propiedad se cumple en realidad para todas las sumas de variables aleatorias (independientes).

0 votos

Sumar muchas sumas es más combinando que una única suma que merece ser anotada con el signo "+". Mi preferencia sería decir que las variables aleatorias combinar por convolución.

7 votos

Una convolución podría llamarse una suma de muchas sumas, seguro. Pero lo que hay que entender es que la convolución se aplica estrictamente a las PDF de las variables que se suman. Las variables propiamente dichas son no convulsionado. Simplemente se suman una a otra, y no hay manera de interpretar esa adición como una operación de convolución (por lo que la premisa básica de tu pregunta, tal y como está planteada ahora, es incorrecta).

4 votos

Usted está malinterpretando esa referencia. Dice: La distribución de probabilidad de la suma de dos o más variables aleatorias independientes es la convolución de sus distribuciones individuales . No dice que la suma de dos variables aleatorias sea lo mismo que la convolución de esas variables. Dice que la distribución de la suma es la convolución del distribución de las variables individuales. Una variable aleatoria y su distribución son dos cosas diferentes.

10voto

jasonmray Puntos 1303

Empiece por considerar el conjunto de todos los posibles resultados distintos de un proceso o experimento. Sea $X$ ser una regla (aún no especificada) para asignar un número a cualquier resultado dado $\omega$ ; dejar que $Y$ también. Entonces $S=X+Y$ establece una nueva norma $S$ para asignar un número a cualquier resultado dado: sumar el número que se obtiene de la siguiente regla $X$ al número que se obtiene de la siguiente regla $Y$ .

Podemos parar ahí. Por qué no debería $S=X+Y$ ¿se puede llamar suma?

Si pasamos a definir un espacio de probabilidad la función de masa (o de densidad) de la variable aleatoria (pues así son nuestras reglas ahora) $S=X + Y$ se puede obtener mediante la convolución de la función de masa (o densidad) de $X$ con la de $Y$ (cuando son independientes). En este caso, la "convolución" tiene su sentido matemático habitual . Pero la gente suele hablar de convolucionar distribuciones, lo cual es inofensivo; o a veces incluso de convolucionar variables aleatorias, lo cual aparentemente no lo es -si sugiere leer " $X + Y$ " como " $X \ \mathrm{convoluted\ with} \ Y$ ", & por lo tanto, que el " $+$ " en el primero representa una operación compleja de alguna manera análoga a la adición, o que amplía la idea de ésta, en lugar de la adición simple y llana. Espero que quede claro en la exposición anterior, parando donde dije que podíamos, que $X+Y$ ya tiene mucho sentido antes de que la probabilidad entre en escena.

En términos matemáticos, las variables aleatorias son funciones cuyo codominio es el conjunto de los números reales y cuyo dominio es el conjunto de todos los resultados. Por tanto, la función " $+$ " en " $X + Y$ " (o " $X(\omega) + Y(\omega)$ ", para mostrar sus argumentos de forma explícita) tiene exactamente el mismo significado que el de " $+$ " en " $\sin(\theta)+\cos(\theta)$ ". Está bien pensar en cómo sumar vectores de valores realizados, si ayuda a la intuición; pero eso no debería generar confusión sobre la notación utilizada para las sumas de las propias variables aleatorias.


[Esta respuesta sólo intenta reunir de forma sucinta los puntos expuestos por @MartijnWeterings, @IlmariKaronen, @RubenvanBergen y @whuber en sus respuestas y comentarios. Pensé que podría ayudar a venir de la dirección de explicar lo que es una variable aleatoria en lugar de lo que es una convolución. Gracias a todos].

0 votos

(+1) Por el esfuerzo. Respuesta demasiado profunda para mí. Sin embargo, me llevó a una. Por favor, léalo y hágame saber su opinión.

0 votos

Es la notación elíptica la que me confundió: $S_i=X_i+Y_i$ para todos $i=1,2,3,...,n-1,n$ En otras palabras, vector Además. Si alguien hubiera dicho, "adición de vectores" en lugar de "adición" No me habría rascado la cabeza preguntándome qué se quería decir, pero no se dijo.

0 votos

Bueno, si pones las realizaciones de $X$ & $Y$ en vectores, & quería calcular el vector de realizaciones de $S$ entonces se usaría la adición de vectores. Pero eso parece bastante tangencial. Después de todo, ¿sentirías la necesidad de explicar ' $\sin(\theta) + \cos(\phi)$ ' utilizando vectores, o decir que el $+$ en esa expresión significa adición de vectores?

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X