2 votos

Cómo mostrar que una matriz de probabilidades es no singular

Sean $\pi_1, \pi_2, \cdots, \pi_{k+1}$ probabilidades donde $\pi_i\neq 0$ para todo $i$ y $\pi_1+\cdots+\pi_{k+1}=1$. Considera la siguiente matriz. Muestra que es una matriz no singular.

\begin{equation} A_{k-1}= \begin{bmatrix} \pi_1(1-\pi_1) & -\pi_1\pi_2 & -\pi_1\pi_3& \cdots & -\pi_1\pi_{k-1}\\ -\pi_1\pi_2 & \pi_2(1-\pi_2) & -\pi_2\pi_3 & \cdots & -\pi_2\pi_{k-1}\\ \vdots & & & \vdots&\\ -\pi_{k-1}\pi_1 & -\pi_{k-1}\pi_2 & -\pi_{k-1}\pi_3 & \cdots & \pi_{k-1}(1-\pi_{k-1}) \end{bmatrix} \end{equation}

Mi intento: He calculado $|A_2| = \pi_1\pi_2(1-\pi_1-\pi_2)$ para $k=3$, $|A_3| = \pi_1\pi_2\pi_3(1-\pi_1-\pi_2-\pi_3)$ para $k=4$, y $|A_4| = \pi_1\pi_2\pi_3\pi_4(1-\pi_1-\pi_2-\pi_3-\pi_4)$ para $k=5$. Entonces la prueba debería ser por inducción. No sé cómo conectar $|A_{k-1}| = \pi_1\pi_2\cdots\pi_{k-1}(1-\pi_1-\cdots-\pi_{k-1})$ para demostrar el determinante de $|A_{k-1}|$.

2voto

JeanMarie Puntos 196

Aquí hay una demostración simple usando el lema del determinante de la matriz:

$$\displaystyle \det \left(\mathbf {A} +\mathbf {uv} ^{\textsf {T}}\right)=\left(1+\mathbf {v} ^{\textsf {T}}\mathbf {A} ^{-1}\mathbf {u} \right)\,\det \left(\mathbf {A} \right)$$

con $A=diag(\pi_1, \pi_2,\cdots,\pi_{n-1})$, $u=\begin{pmatrix}\pi_1\\ \pi_2\\ \cdots \\\pi_{n-1}\end{pmatrix}$, $v=-u$,

dando:

$$\displaystyle\left(1-\begin{pmatrix}\pi_1&\pi_2& \cdots &\pi_{n-1}\end{pmatrix} diag(\dfrac{1}{\pi_1}, \dfrac{1}{\pi_2},\cdots,\dfrac{1}{\pi_{n-1}})\begin{pmatrix}\pi_1\\ \pi_2\\ \cdots \\\pi_{n-1}\end{pmatrix}\right)\det(A)$$

$$=(1-(\pi_1+\pi_2+\cdots+\pi_{n-1}))\prod_{k=1}^{n-1} \pi_k$$ como se deseaba.

1voto

gabrimev Puntos 18

Al factorizar el coeficiente común en cada fila, podemos reescribir el determinante como $$\det(A_k) = \pi_1\pi_2\ldots\pi_{k-1} \cdot\det\begin{bmatrix} 1-\pi_1 & -\pi_2 & \cdots & -\pi_{k-1}\\ -\pi_1 & 1-\pi_2 & \cdots & -\pi_{k-1}\\ \vdots & & \vdots&\\ -\pi_1 & -\pi_2 & \cdots & 1-\pi_{k-1} \end{bmatrix}$$ Ahora usa la identidad $I_{k-1}$ para dividir la matriz anterior como $$ B :=\begin{bmatrix} 1-\pi_1 & -\pi_2 & \cdots & -\pi_{k-1}\\ -\pi_1 & 1-\pi_2 & \cdots & -\pi_{k-1}\\ \vdots & & \vdots&\\ -\pi_1 & -\pi_2 & \cdots & 1-\pi_{k-1} \end{bmatrix} = \begin{bmatrix} -\pi_1 & -\pi_2 & \cdots & -\pi_{k-1}\\ -\pi_1 & -\pi_2 & \cdots & -\pi_{k-1}\\ \vdots & & \vdots&\\ -\pi_1 & -\pi_2 & \cdots & -\pi_{k-1} \end{bmatrix} + I_{k-1}$$ Las filas de la matriz en el RHS son todas iguales a la primera, por lo que $\lambda = 0$ es un valor propio de multiplicidad algebraica de $k-2$, mientras que $$ \begin{bmatrix} -\pi_1 & -\pi_2 & \cdots & -\pi_{k-1}\\ -\pi_1 & -\pi_2 & \cdots & -\pi_{k-1}\\ \vdots & & \vdots&\\ -\pi_1 & -\pi_2 & \cdots & -\pi_{k-1} \end{bmatrix}\begin{bmatrix} 1\\1\\ \vdots \\1\end{bmatrix} = \begin{bmatrix} -(\pi_1+\pi_2+\ldots+\pi_{k-1})\\-(\pi_1+\pi_2+\ldots+\pi_{k-1})\\ \vdots\\-(\pi_1+\pi_2+\ldots+\pi_{k-1})\end{bmatrix} $$ indica que $\lambda = -(\pi_1+\pi_2+\ldots+\pi_{k-1}) = \pi_k-1$ también es un valor propio. Como agregar la identidad aumenta cada valor propio en uno, la matriz no desplazada $B$ tendrá valores propios $\lambda = \pi_k$ (multiplicidad $1$) y $\lambda = 1$ (multiplicidad $k-2$), por lo que su determinante se convierte en $$ \det \begin{bmatrix} 1-\pi_1 & -\pi_2 & \cdots & -\pi_{k-1}\\ -\pi_1 & 1-\pi_2 & \cdots & -\pi_{k-1}\\ \vdots & & \vdots&\\ -\pi_1 & -\pi_2 & \cdots & 1-\pi_{k-1} \end{bmatrix} = \prod_{i} \lambda_i = \pi_k $$ lo que muestra que $\det(A_k) = \pi_1\pi_2\ldots\pi_k \neq 0$ para $\pi_i \neq 0$.

1voto

user8675309 Puntos 26

Dado que esto involucra explícitamente probabilidades, es apropiado hacer una demostración usando herramientas de probabilidad. La matriz de OP es una Matriz de Covarianza para un conjunto particular de Bernoulis. Una vez que demostramos que este conjunto es linealmente independiente, el resultado sigue.

Sea $U$ una variable aleatoria uniforme que toma valores en $(0,1]$ y dividimos estos valores en intervalos y variables aleatorias indicadoras asociadas
$\Big\{\big(0,\pi_1\big],\big(\pi_1, \pi_1 + \pi_2\big],...,\big(\sum_{i=1}^k\pi_i, \sum_{i=1}^{k+1}\pi_i =1\big]\Big\}$
$\Big\{X_1,X_2,...,X_{k+1}\Big\}$
estas variables aleatorias son dependientes ya que para cualquier $\omega$ exactamente una de ellas es 1 y las demás son cero de manera idéntica.

Consideremos la variable aleatoria centrada $Y_i:= X_i - \pi_i$
Note que $X_1+...+X_{k}+X_{k+1} = 1\implies Y_1+...+Y_{k}+Y_{k+1}=0$
Así que usando todas las $k+1$ variables aleatorias da como resultado un conjunto linealmente dependiente. En lugar de ello nos enfocamos en $Y_i$ para $i\in\{1,..,k\}$ y en el vector aleatorio asociado
$\mathbf y: = \begin{bmatrix} Y_1 \\ Y_2\\ \vdots \\ Y_{k}\\ \end{bmatrix}= \begin{bmatrix} X_1 \\ X_2\\ \vdots \\ X_{k}\\ \end{bmatrix}- \begin{bmatrix} \pi_1 \\ \pi_2\\ \vdots \\ \pi_{k}\\ \end{bmatrix}$

estos $Y_i$ son linealmente independientes, es decir para $\mathbf v\in \mathbf R^k$ tenemos $\big(\sum_{i=1}^{k}v_iY_i\big) = 0 \implies \mathbf v = \mathbf 0$
suponiendo que esto no fuera el caso: entonces existe algún $i$ tal que WP1
$Y_i = \big(\sum_{1\leq j\lt i} \alpha_j Y_j\big)+\big(\sum_{i\lt j \leq k} \alpha_j Y_j\big)$
sin embargo con probabilidad $\pi_i\gt 0$ el LHS es $1-\pi_i$ y el RHS es $c$, y con probabilidad $\pi_{k+1}\gt 0$ el LHS es $-\pi_i$ y el RHS es $c$, por lo tanto $1-\pi_i = -\pi_i\implies 1=0$, una contradicción.

Finalmente, consideremos la Matriz de Covarianza
$\Sigma = E\big[\mathbf y\mathbf y^T\big] = \begin{bmatrix} \pi_1(1-\pi_1) & -\pi_1\pi_2 & -\pi_1\pi_3& \cdots & -\pi_1\pi_{k}\\ -\pi_1\pi_2 & \pi_2(1-\pi_2) & -\pi_2\pi_3 & \cdots & -\pi_2\pi_{k}\\ \vdots & & & \vdots&\\ -\pi_{k}\pi_1 & -\pi_{k}\pi_2 & -\pi_{k}\pi_3 & \cdots & \pi_{k}(1-\pi_{k}) \end{bmatrix}$

para cualquier $\mathbf v \in \mathbf R^{k}-\{\mathbf 0\}$
$\mathbf v^T\Sigma\mathbf v$
$=\sum_{i=1}^{k}\sum_{j=1}^{k}v_i v_jE\big[Y_iY_j\big]$
$=E\big[\sum_{i=1}^{k}\sum_{j=1}^{k}v_i v_jY_iY_j\big]$
$=E\big[\big(\sum_{i=1}^{k}v_iY_i\big)^2\big]$
$\gt 0$

Por lo tanto $\Sigma\succ \mathbf 0$ y la matriz $A_{k-1}$ es un menor principal líder y por lo tanto también es DP (lo que implica no singular).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X