3 votos

Salida de un sistema con un proceso gaussiano blanco como entrada

Quiero presentar una pregunta que parece contradecir un teorema que conozco. Por lo tanto, supongo que me falta algo y estaría encantado de entender lo que me falta.

Este es el sistema:

enter image description here

Las señales $ {X}_{1}, {X}_{2} $ son procesos independientes de ruido blanco gaussiano.
Los filtros $ {H}_{1}(f), {H}_{2}(f) $ son idénticos, a saber, $ {H}_{1}(f) = {H}_{2} $ .
La fase, $ \theta \sim U[0, 2\pi] $ e independiente de cualquier otro parámetro o señal.

Las preguntas son

  1. Son $ {Y}_{1}(t), \ {Y}_{2}(t) $ ¿Procesos gaussianos?
  2. Es $ r(t) $ ¿Proceso gaussiano?

Las respuestas, según un libro, son $ {Y}_{1}, \ {Y}_{2} $ no son procesos gaussianos y $ r(t) $ es un proceso gaussiano.
Sin embargo, $ {Y}_{1}, \ {Y}_{2} $ son obviamente independientes (Editar: Son dependientes, ver respuestas y comentarios más abajo) y según el Teorema de Cramer:
http://en.wikipedia.org/wiki/Normal_distribution#Infinite_divisibility_and_Cram.C3.A9r.27s_theorem
Si la suma de dos V.R. independientes es gaussiana, entonces cada una de ellas debe ser gaussiana.
Sin embargo, está bastante claro para mí que Y1 / Y2 no son gaussianos.
He escrito la siguiente simulación en MATLAB:

numRealizations = 1e4;
numSamples      = 1e3;

h1Coef = ones(10, 1) / 10;
h2Coef = h1Coef;

harmonicFreq    = 10; %<! [Hz]
timeVector      = [0:(numSamples - 1)];
randomPhaseVec  = 2 * pi * rand(numRealizations, 1);

% White Noise is Ergodic
% Each Row is a realization (Over the Time Vector)
x1SignalMatrix  = randn(numRealizations, numSamples);
x2SignalMatrix  = randn(numRealizations, numSamples);

% Filtering along the columns
z1SignalMatrix = filter(h1Coef, 1, x1SignalMatrix, [], 2);
z2SignalMatrix = filter(h2Coef, 1, x2SignalMatrix, [], 2);

y1SignalMatrix = z1SignalMatrix .* cos(bsxfun(@plus, (2 * pi * harmonicFreq * timeVector), randomPhaseVec));
y2SignalMatrix = z2SignalMatrix .* sin(bsxfun(@plus, (2 * pi * harmonicFreq * timeVector), randomPhaseVec));

rSignalMatrix = y1SignalMatrix + y2SignalMatrix;

timeIndex           = randi([1, numSamples], [1, 1]);
realizationIndex    = randi([1, numRealizations], [1, 1]);

figure;
hist(x1SignalMatrix(:, timeIndex), 500);
figure;
normplot(x1SignalMatrix(:, timeIndex));

figure;
hist(z1SignalMatrix(:, timeIndex), 500);
figure;
normplot(z1SignalMatrix(:, timeIndex));

figure;
hist(y1SignalMatrix(:, timeIndex), 500);
figure;
normplot(y1SignalMatrix(:, timeIndex));

figure;
hist(y1SignalMatrix(realizationIndex, :), 500);
figure;
normplot(y1SignalMatrix(realizationIndex, :));

figure;
hist(rSignalMatrix(:, timeIndex), 500);
figure;
normplot(rSignalMatrix(:, timeIndex));

figure;
hist(rSignalMatrix(realizationIndex, :), 500);
figure;
normplot(rSignalMatrix(realizationIndex, :));

Esta es la distribución de Y1 en el conjunto: The Distribution of Y1 over the Ensemble

Que claramente no es gaussiano como esperaba.

Esta es la distribución de Y2 a lo largo del tiempo (una realización): The Distribution of Y2 over Time - 1 Realization

Ahora, los resultados de $ r(t) $ :

La distribución del conjunto: enter image description here

La distribución de 1 realización: enter image description here

Bueno, para Y1, puedo ver por qué el conjunto no será gaussiano, ya que para cada 't' la muestra se multiplica por un factor diferente, por lo que cada uno de ellos, aunque sea gaussiano, proviene de una distribución diferente.
Incluso escribí una prueba de por qué no cumple con las propiedades de la Distribución Gaussiana (El cuarto Momento) - http://imgur.com/l017RrR . Sin embargo, no puedo entender cómo $ r(t) $ es gaussiano.
¿Qué me falta?

Gracias.

5voto

Dilip Sarwate Puntos 16161

Creo que, despojada de lo esencial, esta pregunta está planteando lo siguiente.

Dejemos que $X, Y, \Theta$ denotan variables aleatorias independientes y suponemos que que $X, Y \sim N(0,1)$ . Entonces,

  • Es $X\cos \Theta + Y\sin \Theta$ ¿una variable aleatoria normal?

  • Son $X\cos \Theta$ y $Y\sin\Theta$ ¿variables aleatorias normales? ¿Son independiente ¿variables aleatorias? ¿Son no correlacionado ¿variables aleatorias?

  • ¿Cambia alguna de las respuestas a las preguntas anteriores si $\Theta$ tiene un distribución específica, por ejemplo $\Theta \sim U[0,2\pi)$ ?


Dejemos que $Z = X\cos\Theta+Y\sin\Theta$ . Desde $X$ y $Y$ son independientes de $\Theta$ Su condicional densidad conjunta dado que $\Theta = \theta$ es el mismo que su incondicional densidad de las articulaciones. Por lo tanto, $$f_{X,Y\mid \Theta}(x,y\mid \Theta=\theta) = \frac{1}{2\pi}\exp\left(-\frac{x^2+y^2}{2}\right), ~ -\infty < x, y < \infty.\tag{1}$$



Edición añadida en respuesta a la pregunta del OP:

Prueba de la reclamación: Si $(X,Y)$ se da que es independiente de $\Theta$ tenemos que $$f_{X,Y,\Theta}(x,y,\theta) = f_{X,Y}(x,y)f_\Theta(\theta), \qquad \text{definition of independence}$$ En consecuencia, $$\begin{align} f_{X,Y\mid \Theta}(x,y\mid \Theta=\theta) &= \frac{f_{X,Y,\Theta}(x,y,\theta)}{f_\Theta(\theta)} &\text{definition of conditional density}\\ &= \frac{f_{X,Y}(x,y)f_\Theta(\theta)}{f_\Theta(\theta)} &\text{substitute from above}\\ &= f_{X,Y}(x,y)\end{align}$$ Así, $f_{X,Y\mid \Theta}(x,y\mid \Theta=\theta)$ , el condicional densidad conjunta de $(X,Y)$ dado $\Theta = \theta$ es lo mismo que $f_{X,Y}(x,y)$ El incondicional densidad conjunta de las variables aleatorias $X$ y $Y$ que nunca han oído hablar de $\Theta$ y no saben que son independientes de $\Theta$ . Tenga en cuenta que no es necesario suponer que $X$ y $Y$ son independientes entre sí: sólo que son independientes de $\Theta$ . Pero, en este caso, $X$ y $Y$ se suponen independientes variables aleatorias normales estándar con densidad conjunta $f_{X,Y}(x,y)$ dado por el lado derecho de $(1)$ y por lo tanto $f_{X,Y\mid \Theta = \theta}(x,y\mid\Theta = \theta)$ es igual al lado derecho de $(1)$ .

Para futuras referencias, tenga en cuenta que desde $$\begin{align} f_{X,Y\mid \Theta = \theta}(x,y\mid \Theta = \theta) &= \frac{1}{2\pi}\exp\left(-\frac{x^2+y^2}{2}\right),\\ &= \frac{1}{\sqrt{2\pi}}\exp\left(-\frac{x^2}{2}\right) \times \frac{1}{\sqrt{2\pi}}\exp\left(-\frac{y^2}{2}\right),\\ &= f_X(x)f_Y(y)\\ &=f_{X\mid \Theta=\theta}(x\mid \Theta = \theta) f_{Y\mid \Theta=\theta}(y\mid \Theta =\theta) \end{align}$$ donde la última igualdad se desprende de la observación de que, por independencia, $$\begin{align} f_{X\mid \Theta=\theta}(x\mid \Theta = \theta) &= \frac{f_{X,\Theta}(x,\theta)}{f_\Theta(\theta)} = \frac{f_X(x)f_\Theta(\theta)}{f_\Theta(\theta)}=f_X(x)\\ f_{Y\mid \Theta=\theta}(y\mid \Theta = \theta) &= \frac{f_{Y,\Theta}(y,\theta)}{f_\Theta(\theta)} = \frac{f_Y(y)f_\Theta(\theta)}{f_\Theta(\theta)}=f_Y(y) \end{align}$$

Jue, $X$ y $Y$ son condicionalmente independientes entre sí dado $\theta$ , y, por supuesto, también son incondicionalmente independientes.

Fin de la edición añadida en respuesta a la pregunta del OP:



Así, condicionado a $\Theta = \theta$ , $Z = X\cos\theta + Y\sin\theta$ es un ponderado suma de dos independientes variables aleatorias normales estándar. Por lo tanto, la condicional distribución de $Z$ es una distribución normal, y de hecho, una distribución normal estándar. Esto se deduce fácilmente de $$\begin{align} E[Z\mid \Theta=\theta] &= E[X\cos\theta+Y\sin\theta] = 0,\\ \operatorname{var}(Z\mid\Theta=\theta) &= \operatorname{var}(X)\cos^2\theta + \operatorname{var}(Y)\sin^2\theta = 1\cdot\cos^2\theta + 1\cdot\sin^2\theta = 1. \end{align}$$

Dado que la densidad condicional de $Z$ dado $\Theta = \theta$ es el densidad normal estándar independientemente del valor de $\Theta$ se deduce que que

$\quad$ la densidad incondicional de $Z = X\cos\Theta + Y\sin\Theta$ es la densidad normal estándar.

Obsérvese que la distribución de $\Theta$ es irrelevante. De hecho, $\Theta$ podría ser una variable aleatoria degenerada que toma un valor fijo $\theta$ con probabilidad $1$ y la densidad incondicional de $Z$ seguiría siendo la densidad normal estándar. En particular, $X\cos\Theta+Y\sin\Theta$ es una variable aleatoria normal estándar cuando $\Theta \sim U[0,2\pi)$ .


Dejemos que $\hat{X} = X\cos\Theta$ y $\hat{Y} = Y\sin\Theta$ . Estos son variables aleatorias no correlacionadas desde la independencia de $X,Y,\Theta$ nos da que $$\begin{align} E[\hat{X}] &= E[X\cos\Theta] = E[X]E[\cos\Theta]=0\cdot E[\cos\Theta] = 0,\\ E[\hat{Y}] &= E[Y\sin\Theta] = E[Y]E[\sin\Theta]=0\cdot E[\sin\Theta] = 0,\\ E[\hat{X}\hat{Y}] &= E[XY\cos \Theta\sin \Theta] = E[X]E[Y]E[\cos \Theta \sin \Theta] = 0\cdot 0\cdot E[\cos \Theta \sin \Theta]. \end{align}$$ Tenga en cuenta que, condicionado a $\Theta = \theta$ , $\hat{X}$ y $\hat{Y}$ son independiente de las condiciones media cero variables aleatorias normales con varianzas $\cos^2\theta$ y $\sin^2\theta$ . Por tanto, también son variables aleatorias no correlacionadas condicionalmente variables aleatorias. La densidad conjunta condicional es $$f_{\hat{X},\hat{Y}\mid \Theta}(\hat{x},\hat{y}\mid \Theta=\theta) = \frac{1}{2\pi\cos\theta\sin\theta}\exp\left(-\frac{\hat{x}^2}{2\cos^2\theta} +\frac{\hat{y}^2}{2\sin^2\theta}\right), ~ -\infty < x, y < \infty.$$ Mientras que $\hat{X}$ y $\hat{Y}$ son condicionalmente independientes dado $\Theta = \theta$ su densidad conjunta es muy depende de $\theta$ y no es inmediatamente obvio que su densidad incondicional $$f_{\hat{X},\hat{Y}}(\hat{x},\hat{y}) = \int_{-\infty}^\infty f_{\hat{X},\hat{Y}\mid \Theta}(\hat{x},\hat{y}\mid \Theta=\theta)f_\Theta(\theta)\,\mathrm d\theta$$ factores en el producto de las densidades marginales $$\begin{align} f_{\hat{X}}(\hat{x}) &= \int_{-\infty}^\infty f_{\hat{X}\mid \Theta}(\hat{x}\mid \Theta=\theta)f_\Theta(\theta)\,\mathrm d\theta = \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi}\cos\theta}\exp\left(-\frac{\hat{x}^2}{2\cos^2\theta} \right)f_\Theta(\theta)\,\mathrm d\theta\\ f_{\hat{Y}}(\hat{y}) &= \int_{-\infty}^\infty f_{\hat{Y}\mid \Theta}(\hat{y}\mid \Theta=\theta)f_\Theta(\theta)\,\mathrm d\theta = \int_{-\infty}^\infty \frac{1}{\sqrt{2\pi}\sin\theta}\exp\left(-\frac{\hat{y}^2}{2\sin^2\theta} \right)f_\Theta(\theta)\,\mathrm d\theta \end{align}$$ como sería necesario para $\hat{X}$ y $\hat{Y}$ para ser variables aleatorias incondicionalmente independientes. Tampoco es inmediatamente obvio que las distribuciones marginales sean distribuciones normales. Sin embargo, como se ha señalado anteriormente, $\hat{X}$ y $\hat{Y}$ no obstante, no están correlacionados incondicionalmente variable aleatoria.

Algunos casos especiales cuando $\hat{X}$ y $\hat{Y}$ son de hecho variables aleatorias normales incondicionalmente independientes son los siguientes.

  • $\Theta$ es igual a una constante $\theta$ con probabilidad $1$ . En este caso la densidad incondicional es la misma que la densidad condicional y por tanto $\hat{X}$ y $\hat{Y}$ son independientes de media cero variables aleatorias normales con varianzas $\cos^2\theta$ y $\sin^2\theta$ respectivamente.

  • $\Theta$ es una variable aleatoria discreta que toma valores $\pi/4, 3\pi/4, 5\pi/4, 7\pi/4$ con igual probabilidad. En este caso, para todos los $4$ valores de $\Theta$ la articulación condicional es la de la distribución independiente $N(0,\frac{1}{2})$ al azar variables aleatorias, por lo que la distribución incondicional también goza de las mismas propiedades.

Sin embargo, hay que tener en cuenta que esta última opción no no extender a $\Theta$ siendo una distribución uniforme sobre $N\geq 5$ fases, por lo que es dudoso que el $U[0,2\pi)$ ) para $\Theta$ dará lugar a distribuciones normales para $\hat{X}$ y $\hat{Y}$ o que la distribución conjunta será el producto de los marginales como se requiere para la independencia. Los mismos comentarios se aplican a otras distribuciones que se pueden elegir para $\Theta$ . Pero, $\hat{X}$ y $\hat{Y}$ no obstante, será condicional e incondicional variables aleatorias no correlacionadas, independientemente de la distribución de $\Theta$ .

Por lo tanto, la afirmación de la OP de que " $Y1$ y $Y2$ son obviamente independiente" (énfasis añadido) debe tomarse con un grano de sal considerablemente grande de sal. Si son realmente independientes, no hay nada obvio sobre (para mi pobre cerebro, al menos; YMMV).

0voto

Toby Allen Puntos 6734

Solución:

  1. Los procesos $ {Y}_{1} $ y $ {Y}_{2} $ son dependientes.
    $ {Y}_{1} $ y $ {Y}_{2} $ dependen intuitivamente al mirar el problema desde un ángulo diferente.
    Dada una variable aleatoria uniformemente distribuida $ \theta $ las variables aleatorias $ sin(\theta) $ y $ cos(\theta) $ son claramente dependientes. Multiplicarlos por una Variable Aleatoria Gaussiana no los descorrelaciona.
  2. Los procesos $ {Y}_{1} $ y $ {Y}_{2} $ no son gaussianos (y no ergódicos).
    Es evidente que con el tiempo (la fase es constante) el proceso $ {Y}_{i} $ es gaussiano. Sin embargo, el conjunto no es gaussiano, ya que cada una de sus realizaciones se obtiene de la distribución gaussiana con diferentes parámetros.
  3. El proceso $ r(t) $ es efectivamente gaussiano.
    Esto se puede demostrar utilizando el Función característica del proceso aleatorio.
    $ X \sim N(0, 1) $ , $ Y \sim N(0, 1) $ , $ \theta \sim U(0, 2\pi) $ todos son independientes.
    Dejemos que $ Z = X sin(\theta) + Y cos(\theta) $ . Observando su Función Característica y aplicando la Teorema del alisamiento rendimientos: \begin{align} { \varphi }_{Z}(t) & = & \mathbb{E}[{e}^{itZ}] \\ & = & \mathbb{E} [ \mathbb{E}[{e}^{itZ} | \theta] ] \\ & = & \mathbb{E} [ \mathbb{E}[{e}^{it(X cos(\theta) + Y sin(\theta))} | \theta] ] \end{align}
    Observando la última ecuación por realización de $ \theta $ :
    $$ \mathbb{E}[{e}^{it(X cos(\theta) + Y sin(\theta))} | \Theta = \theta] = \mathbb{E}[{e}^{itX sin(\theta)}] \mathbb{E}[{e}^{itY cos(\theta)}] $$ Cada uno de los ítems es la Función Característica de un Proceso Aleatorio Normalmente Distribuido a escala: $$ \mathbb{E}[{e}^{itX sin(\theta)}] \mathbb{E}[{e}^{itY cos(\theta)}] = {e}^{-\frac{{t}^{2}}{2} ({sin}^{2}(\theta) + {cos}^{2}(\theta))} = {e}^{-\frac{{t}^{2}}{2}} $$ De ahí que obtengamos: $$ { \varphi }_{Z}(t) = \mathbb{E} [ \mathbb{E}[{e}^{itZ} | \Theta = \theta] ] = \mathbb{E} [{e}^{-\frac{{t}^{2}}{2}}] = {e}^{-\frac{{t}^{2}}{2}} $$ Es decir, tiene la función característica de una variable gaussiana normalizada -> $ Z \sim N(0, 1) $ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X