3 votos

Convolución de i.i.d. con distribución uniforme

Estoy intentando resolver otro ejercicio sobre convolución de variables continuas. Esto es lo que se pide:

Dejemos que $X_1,\cdots,X_n$ sea i.i.d. tal que $X_1 \sim U(0,1)$ . Verifique que $$ P(X_1+\cdots+X_n\leq x)=\frac{1}{n!}\sum_{k=0}^{n-1}(-1)^k {n\choose k}(x-k)_+^n, \quad \forall 0\leq x \leq n$$ donde $$ (x-k)_+=\begin{cases} 0; & \text{if } x <k \\ x-k; & \text{otherwise} \end{cases} $$

Mi primer pensamiento sería encontrar $P(S\leq s)$ , donde $S=\sum\limits_{i=1}^{n}X_i$ . Pero me pregunto cómo puedo resolver una convolución tan grande. Mi integral quedaría así: $$\int_{-\infty}^{+\infty}\cdots\int_{-\infty}^{+\infty}f_{X_1}(x_1)\cdots f_{X_n}(x_n)\,\mathrm{d}x_1\cdots\mathrm{d}x_n.$$ Al principio sólo tenía $X_1$ y $X_2$ para añadir y pude encontrar el CDF de $X_1 +X_2$ a través de la convolución así: $$\int_0^z f_{X_1}(z-v)f_{X_2}(v)\,\mathrm{d}v.$$ Mi pregunta sería ¿cómo puedo solucionarlo? Solo una pista para poder empezar. Mi profesor dice que es una simple generalización pero mucha gente me sugiere que use la expectativa condicional, la cual no he estudiado todavía.

Gracias por su ayuda.

3voto

Felix Marin Puntos 32763

$\newcommand{\bbx}[1]{\,\bbox[15px,border:1px groove navy]{\displaystyle{#1}}\,} \newcommand{\braces}[1]{\left\lbrace\,{#1}\,\right\rbrace} \newcommand{\bracks}[1]{\left\lbrack\,{#1}\,\right\rbrack} \newcommand{\dd}{\mathrm{d}} \newcommand{\ds}[1]{\displaystyle{#1}} \newcommand{\expo}[1]{\,\mathrm{e}^{#1}\,} \newcommand{\ic}{\mathrm{i}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mrm}[1]{\mathrm{#1}} \newcommand{\pars}[1]{\left(\,{#1}\,\right)} \newcommand{\partiald}[3][]{\frac{\partial^{#1} #2}{\partial #3^{#1}}} \newcommand{\root}[2][]{\,\sqrt[#1]{\,{#2}\,}\,} \newcommand{\totald}[3][]{\frac{\mathrm{d}^{#1} #2}{\mathrm{d} #3^{#1}}} \newcommand{\verts}[1]{\left\vert\,{#1}\,\right\vert}$ \begin{align} &\bbox[10px,#ffd]{\ds{\int_{0}^{1}\int_{0}^{1}\cdots\int_{0}^{1} \bracks{x_{1} + x_{2} + \cdots + x_{n} < x}\dd x_{1} \,\dd x_{2}\ldots\dd x_{n}}} \\[5mm] = &\ \int_{0}^{1}\int_{0}^{1}\cdots\int_{0}^{1}\ \underbrace{\int_{c - \infty\ic}^{c + \infty\ic} {\expo{\pars{x - x_{1} - x_{2} - \cdots - x_{n}}s} \over s}\,{\dd s \over 2\pi\ic}}_{\ds{\bracks{x - x_{1} - x_{2} - \cdots - x_{n} > 0}}}\ \dd x_{1}\,\dd x_{2}\ldots\dd x_{n} \end{align}

donde $\ds{c >0}$ .

Entonces, \begin{align} &\bbox[10px,#ffd]{\ds{\int_{0}^{1}\int_{0}^{1}\cdots\int_{0}^{1} \bracks{x_{1} + x_{2} + \cdots + x_{n} < x}\dd x_{1} \,\dd x_{2}\ldots\dd x_{n}}} \\[5mm] = &\ \int_{c - \infty\ic}^{c + \infty\ic}{\expo{xs} \over s} \pars{\int_{0}^{1}\expo{-s\xi}\dd\xi}^{n}{\dd s \over 2\pi\ic} = \int_{c - \infty\ic}^{c + \infty\ic}{\expo{xs} \over s} \pars{\expo{-s} - 1 \over -s}^{n}{\dd s \over 2\pi\ic} \\[5mm] = &\ \int_{c - \infty\ic}^{c + \infty\ic} {\expo{xs} \over s^{n + 1}}\pars{1 - \expo{-s}}^{n}{\dd s \over 2\pi\ic} = \int_{c - \infty\ic}^{c + \infty\ic} {\expo{xs} \over s^{n + 1}}\sum_{k = 0}^{n}{n \choose k} \pars{-\expo{-s}}^{k}{\dd s \over 2\pi\ic}\label{1}\tag{1} \\[5mm] = &\ \sum_{k = 0}^{n}{n \choose k}\pars{-1}^{k}\ \underbrace{\int_{c - \infty\ic}^{c + \infty\ic} {\expo{\pars{x - k}s} \over s^{n + 1}}{\dd s \over 2\pi\ic}} _{\ds{\bracks{x - k > 0}\,{\pars{x - k}^{n} \over n!}}}\ =\ \left.{1 \over n!}\sum_{k = 0}^{n}\pars{-1}^{k}{n \choose k} \pars{x - k}^{n}\,\right\vert_{\ k\ <\ x} \\[5mm] = &\ \bbx{{1 \over n!}\sum_{k = 0}^{N}\pars{-1}^{k}{n \choose k} \pars{x - k}^{n}\quad\mbox{where}\quad N \equiv \min\braces{n,\left\lfloor x\right\rfloor}} \end{align}

1voto

Alex Franko Puntos 89

$\def\d{\mathrm{d}}\def\peq{\mathrel{\phantom{=}}{}}$ El caso base de la inducción es, de hecho, $n = 1$ .

Denote $S_n = \sum\limits_{k = 1}^n X_k$ para cualquier $n$ . Para $n = 1$ , $$ P(S_1 \leqslant x) = P(X_1 \leqslant x) = x_+. \quad \forall 0 \leqslant x \leqslant 1 $$

Supongamos que la proposición es válida para $n$ . Para cualquier $0 \leqslant x \leqslant n + 1$ porque $S_n$ y $X_{n + 1}$ son independientes, entonces \begin{align*} &\peq P(S_{n + 1} \leqslant x) = P(S_n + X_{n + 1} \leqslant x)\\ &= \iint\limits_{y + z \leqslant x} f_{X_{n + 1}}(y) f_{S_n}(z) \,\d y\d z = \int_0^1 f_{X_{n + 1}}(y) \,\d y \int_0^{(x - y)_+} f_{S_n}(z) \,\d z\\ &= \int_0^1 P(S_n \leqslant (x - y)_+) f_{X_{n + 1}}(y) \,\d y = \int_0^1 P(S_n \leqslant (x - y)_+) \,\d y\\ &= \int_0^1 \frac{1}{n!} \sum_{k = 0}^{n - 1} \binom{n}{k} (-1)^k ((x - y)_+ - k)_+^n \,\d y. \tag{1} \end{align*} Si $0 \leqslant x < 1$ entonces \begin{align*} (1) &= \frac{1}{n!} \int_0^1 (x - y)_+^n \,\d y = \frac{1}{n!} \int_0^x (x - y)^n \,\d y\\ &= \frac{1}{(n + 1)!} x^{n + 1} = \frac{1}{(n + 1)!} \sum_{k = 0}^n \binom{n + 1}{k} (-1)^k (x - k)_+^{n + 1}. \end{align*} De lo contrario, supongamos que $m = [x] \geqslant 1$ entonces \begin{align*} (1) &= \frac{1}{n!} \sum_{k = 0}^{n - 1} \binom{n}{k} (-1)^k \int_0^1 ((x - y)_+ - k)_+^n \,\d y\\ &= \frac{1}{n!} \sum_{k = 0}^{m - 1} \binom{n}{k} (-1)^k \int_0^1 (x - y - k)^n \,\d y + \frac{1}{n!} \binom{n}{m} (-1)^m \int_0^1 (x - y - m)_+^n \,\d y. \end{align*} Porque \begin{align*} &\peq \frac{1}{n!} \sum_{k = 0}^{m - 1} \binom{n}{k} (-1)^k \int_0^1 (x - y - k)^n \,\d y\\ &= \frac{1}{n!} \sum_{k = 0}^{m - 1} \binom{n}{k} (-1)^k · \frac{1}{n + 1} ((x - k)^{n + 1} - (x - k - 1)^{n + 1})\\ &= \frac{1}{(n + 1)!} \left( \sum_{k = 0}^{m - 1} \binom{n}{k} (-1)^k (x - k)^{n + 1} - \sum_{k = 1}^m \binom{n}{k - 1} (-1)^{k - 1} (x - k)^{n + 1} \right)\\ &= \frac{1}{(n + 1)!} x^{n + 1} + \frac{1}{(n + 1)!} \sum_{k = 1}^{m - 1} \left( \binom{n}{k} + \binom{n}{k - 1} \right) (-1)^k (x - k)^{n + 1}\\ &\peq - \frac{1}{(n + 1)!} \binom{n}{m - 1} (-1)^{m - 1} (x - m)^{n + 1}\\ &= \frac{1}{(n + 1)!} \sum_{k = 0}^{m - 1} \binom{n + 1}{k} (-1)^k (x - k)^{n + 1} + \frac{1}{(n + 1)!} \binom{n}{m - 1} (-1)^m (x - m)^{n + 1}, \end{align*} y \begin{align*} &\peq \frac{1}{n!} \binom{n}{m} (-1)^m \int_0^1 (x - y - m)_+^n \,\d y = \frac{1}{n!} \binom{n}{m} (-1)^m \int_0^{x - m} (x - y - m)^n \,\d y\\ &= \frac{1}{n!} \binom{n}{m} (-1)^m · \frac{1}{n + 1} (x - m)^{n + 1} = \frac{1}{(n + 1)!} \binom{n}{m} (-1)^m (x - m)^{n + 1}, \end{align*} entonces \begin{align*} (1) &= \frac{1}{(n + 1)!} \left( \sum_{k = 0}^{m - 1} \binom{n + 1}{k} (-1)^k (x - k)^{n + 1} + \left( \binom{n}{m} + \binom{n}{m - 1} \right) (-1)^m (x - m)^{n + 1} \right)\\ &= \frac{1}{(n + 1)!} \sum_{k = 0}^m \binom{n + 1}{k} (-1)^k (x - k)^{n + 1} = \frac{1}{(n + 1)!} \sum_{k = 0}^{n + 1} \binom{n + 1}{k} (-1)^k (x - k)_+^{n + 1}\\ &= \frac{1}{(n + 1)!} \sum_{k = 0}^n \binom{n + 1}{k} (-1)^k (x - k)_+^{n + 1}. \end{align*} Fin de la inducción.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X