Quiero saber si hay una forma analítica de aproximar la distribución de una variable aleatoria definida por
$$Y_n:=\left|\sum_{k=1}^n e^{i X_k}\right|$$
donde el $X_k\sim U[-\pi,\pi]$ son i.i.d. Hice algunas simulaciones por ordenador, sin embargo estoy tratando de ver si hay alguna maquinaria analítica para, al menos, aproximar la distribución de $Y_n$ .
Sé escribir de forma analítica $E[Y_n]$ para $n$ (de hecho tengo la estimación $E[Y_n]\le\sqrt n$ a través de la desigualdad de Jensen porque $E[Y_n^2]=n$ ), y podría escribir explícitamente $F_{Y_2}$ Sin embargo, para $n>2$ No sé cómo proceder (o cómo aproximarse).
También sé cómo escribir explícitamente las integrales iteradas para el cálculo de la distribución de $\sum_{k=1}^n e^{i X_k}$ Sin embargo, no conozco ningún método para calcular la distribución de su valor absoluto.
Se agradecerá alguna ayuda o, si alguien sabe, algún artículo o libro donde indagar sobre cuestiones similares.
EDIT: también hay que tener en cuenta que $Y_n=|Y_{n-1}+e^{i X_n}|$ por lo que parece posible aproximar la distribución de $Y_n$ utilizando algún tipo de recursión.
También es fácil comprobar que
$$Y_n=\sqrt{n+2\sum_{1\le j< k\le n}\cos(X_j-X_k)}$$
Sin embargo esta última expresión a primera vista no parece útil para una distribución analítica (aproximación) a la misma.
EDIT 2: añadiendo algunos histogramas que aproximan las densidades
Para $n\le 5$ las densidades estimadas son extrañas (no tienen forma de campana), sin embargo para $n=2$ la densidad se acerca a la densidad teórica, es decir
$$f_{Y_2}(x)=\frac1{\pi\sqrt{1-(x/2)^2}}\chi_{[0,2]}(x)$$
(Obsérvese la asíntota vertical en $x=2$ en $f_{Y_2}$ . De todos modos la aproximación empírica tiende a ello). Si alguien está interesado este era el código, escrito en Julia, que había utilizado para las simulaciones:
# Sum of random jumps in the plane
function rsum(n::Int)
p = 1.0
for j in 2:n
p += exp(2pi * im * rand())
end
return p
end
# Distance after n random jumps
function rd(n::Int)
abs(rsum(n))
end
# Data array to build an histogram
function sim(n::Int, m::Int = 22)
datos = zeros(2^m)
for i in 1:2^m
datos[i] = rd(n)
end
return datos
end
# Plotting densities
using StatsPlots, Statistics
function dd(n::Int,m::Int=22)
x = sim(n,m)
density!(x, w = 2,
xlabel = "Distance",
label = "Estimated density for $n jumps",
fill = (0, 0.1, :orange))
vline!([mean(x)],
label = "Estimated mean for $n jumps: $(round(mean(x),digits=2))",
line = :dash)
end
2 votos
Pista: Teorema central del límite
0 votos
@RobertIsrael No estoy seguro de cómo aplicar correctamente el teorema del límite central en este contexto.
0 votos
@Masacroso Creo que Robert Israel tiene razón, asumiendo que $n$ es lo suficientemente grande.
1 votos
@the_candyman pero, si no me equivoco, tenemos eso $\sigma,\mu=0$ para cada v.r. $e^{ i X_k}$ y que yo sepa la distribución normal no está definida para $\sigma=0$
2 votos
@Masacroso: Te equivocas :) La media de $e^{i X_k}$ es cero pero la desviación estándar es 1. La media de la suma también es cero, pero la media de su valor absoluto no es cero.
0 votos
@Masacroso Creo que hay un "teorema central del límite" que trata de la suma del cuadrado de rv i.d. En este caso, creo que el pdf límite es Chi al cuadrado (como ya sospechas).
0 votos
@NateEldredge cómo calculas $\sigma$ ? Para mí tenemos que $$\sigma^2(e^{ i X})=E[(e^{ i X}-\mu)^2]= E[e^{i 2X}]=\frac1{2\pi}\int_{-\pi}^\pi e^{i 2x} dx=\frac1{2\pi i}\oint z^2 dz=0$$ ¿Dónde está mi error?
1 votos
La definición $\operatorname{Var}(Y) = E[(Y-\mu)^2]$ sólo es razonable para variables aleatorias de valor real, no de valor complejo. Lo que realmente se necesita es una matriz de covarianza, como en la respuesta de Robert. Pero lo que tenía en mente es que $E[|e^{i X_k}-\mu|^2] = 1$ .