4 votos

Una distribución multivariante para combinaciones lineales de variables aleatorias exponenciales independientes

Consideremos un vector aleatorio $\mathbf{X} \in \mathbb{R}^r$ cuyos componentes $X_j$ son independientes exponencial variables con diferentes parámetros de escala $\beta_j$ , $j=1,\dots,r$ . Supongamos que tengo un general $p \times r$ ( $p < r$ ) matriz $\mathsf{M}$ con entradas no negativas $M_{ij} \geqslant 0$ .

¿Cuál sería la función de densidad de probabilidad multivariante para este vector aleatorio? \begin {Ecuación} \mathbf {Y} = \mathsf {M} \mathbf {X} \in \mathbb {R}^p \end {ecuación} [Es esencialmente $p$ combinaciones lineales positivas de los $r$ variables exponenciales $X_j$ .]

Sé que cada componente $Y_i$ ( $i=1,\dots,p$ ) seguiría un distribución hipoexponencial pero no tengo ni idea de cómo es una distribución hipoexponencial multivariante. Si estamos dispuestos a aproximar cada componente hipoexponencial $Y_i$ como gamma variable aleatoria, entonces estoy buscando una versión de la distribución gamma multivariante dada la matriz de covarianza (construida a partir de $\mathsf{M}$ ).

He buscado muchas distribuciones gamma multivariantes en la literatura, pero ninguna parece modelar este caso. ¡Cualquier ayuda es muy apreciada!

Edita . Tengo dificultades para derivar directamente la densidad para $\mathbf{Y}$ de $\mathbf{X}$ porque al escribir la densidad en términos de $\mathbf{Y}$ requiere la inversión de una matriz no cuadrada $\mathsf{M}$ . Acolchado $\mathsf{M}$ en una matriz cuadrada introduciendo $(r-p)$ coordenadas de ayuda en $\mathbf{Y}$ requiere marginar estos componentes, algo que quiero evitar.

1 votos

¿Tiene dificultades para derivar la densidad (que sólo existe para la medida de Lebesgue en $\mathbb{R}^p$ cuando $p\le n$ ) o ¿preguntas por una familia de distribuciones existente que se ajuste a este caso?

1 votos

Hola @Xi'an, sí tengo dificultades para derivar la densidad para el caso posible $p < r$ --- ver mi razón en Edits. Estoy más que feliz de aceptar una familia de distribuciones que pueda modelar aproximadamente la distribución de $\mathbf{Y}$ . Gracias.

1voto

kjetil b halvorsen Puntos 7012

Lo haré primero para el caso $r=p$ y entonces podemos usar ese caso para resolver el caso de interés principal, $p < r$ . Para simplificar la notación, utilizaré los parámetros de la tasa $\lambda_j = 1/\beta_j$ . Además, escribiré $M^T$ (transponer) para su $M$ . Así que tenemos $Y=M^T X$ donde $X$ es un $r\times 1$ vector aleatorio y $M$ es un $r\times p$ matriz (con $m_{ij}\ge 0$ y de rango completo, y por el momento, $p=r$ ). Escribiré la densidad como una forma diferencial, simplificando el cambio de variables. Esta es la notación utilizada en Muirhead: "Aspects of Multivariate Statistical Theory". Así que escribimos el producto exterior de la $r$ componentes de $d x$ como $\left( d x\right) = \wedge_{j=1}^r d x_j$ .

Por independencia podemos escribir la densidad de $X$ como $$ f(x) =\prod^r \lambda_j \prod^r e^{-\lambda_j x_j} \, dx_j \\ = \prod^r \lambda_j e^{-\lambda^T x} \left( dx \right), \quad x_j>0 $$ donde $\lambda=(\lambda_1, \dotsc,\lambda_r)$ y $x=(x_1, \dotsc, x_r)$ . Entonces sustituimos $x=M^{-T}y$ para obtener la densidad de $y$ : $$ g(y)=\prod^r \lambda_j e^{-y^T M^{-1}\lambda} \left( d(M^{-T}y\right) \\ = \prod^r \lambda_j e^{-y^T M^{-1}\lambda} \det(M^{-1})\left( dy \right) \\ = \frac{\prod^r \lambda_j}{\det(M)} e^{-y^T M^{-1}\lambda} \left( dy \right), \quad y_j>0 $$ Entonces el caso $p<r$ . Seguimos asumiendo que $M$ es de rango completo. Sea $m=r-p$ . Ampliaremos el $p$ -vector $y$ con $m$ nuevas coordenadas, por lo que podemos utilizar el caso cuadrado. Será útil utilizar la descomposición QR de $M$ , $M=QR=[Q_1 \colon Q_2] \begin{bmatrix} R_1 \\ 0\end{bmatrix}$ y luego definir $M^* =[Q_1 R_1\colon Q_2]= [Q_1 \colon Q_2]\begin{bmatrix} R_1 & 0 \\ 0& I_m \end{bmatrix}$ . Como el primer factor es una matriz ortogonal con determinante $\pm 1$ se deduce que el valor absoluto del determinante de $M^*$ es el determinante de $R_1$ que es simplemente el producto de sus valores diagonales. Y como la inversa de una matriz ortogonal es simplemente su transposición, obtenemos que $$ M^{*-1}= \begin{bmatrix} R_1 & 0 \\ 0& I_m \end{bmatrix}^{-1}[Q_1 \colon Q_2]^{-1} = \begin{bmatrix} R_1^{-1} & 0 \\ 0& I_m \end{bmatrix}\begin{bmatrix} Q_1^T\\ Q_2^T \end{bmatrix}= \begin{bmatrix} R_1^{-1}Q_1^T\\Q_2^T \end{bmatrix} $$ Escriba el nuevo $y$ -vector con el $m$ nuevos componentes como $y^*=[y\colon \bar{y}]$ con $\bar{y}=Q_2^T x$ . Entonces debemos escribir la densidad de $Y^*$ en función de $y$ y $\bar{y}$ e integrar $\bar{y}$ : $$ g(y^*) = \frac{\prod^r \lambda_j}{\det(M^*)} e^{-(y,\bar{y})^T M^{*-1}\lambda} \left( dy^* \right) \\ = \frac{\prod^r \lambda_j}{\det(R_1)} e^{-y^T R_1^{-1} Q_1^T \lambda} \left( dy \right) \int_0^\infty \dotsm \int_0^\infty e^{-\bar{y}^T Q_2^T \lambda }\left( d \bar{y}\right) $$ El último $m$ -La integral doble es simplemente un producto de $m$ integrales exponenciales. Escribe $\theta_j$ para el $j$ El componente de $Q_2^T \lambda$ y la última integral se convierte en $1/\prod^m \theta_j$ . Entonces tenemos finalmente la densidad de $Y$ como $$ g(y) = \frac{\prod^r \lambda_j}{\det(R_1) \prod^m \theta_j } e^{-y^T R_1^{-1} Q_1^T \lambda} \left( dy \right) , \quad y_j>0 $$ (¡espero realmente haber hecho todo bien!)

0 votos

Vaya, el uso de la descomposición QR es una idea muy interesante. Me tomaré un tiempo para revisarla. ¡Gracias por la ayuda!

1 votos

Acabo de hacer el cálculo y parece que está bien. El ingenio está en la descomposición en una matriz ortogonal, que realmente facilita el paso final de integración/marginación. ¡Antes me preocupaba el dominio de integración cuando la transformación no era ortogonal! Muchas gracias.

0 votos

Acabo de comprobarlo todo de nuevo, y me he dado cuenta de que la transformación ortogonal sigue desordenando el dominio de integración en el último paso: en particular, $Q_2$ puede tener entradas negativas por lo que $\bar{y}$ también puede tener entradas negativas... Pero creo que se puede evitar integrando sobre $x$ en cambio...

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X