5 votos

¿Cuál es la diferencia entre primero y segundo derecho autovectores de una matriz estocástica de la fila y su significado?

En $n\times n$ fila negativa no estocástica matriz (suma de las filas hasta 1).
Las entradas de la matriz estocástica que tengo representan dirigidos enlaces entre países.

  1. ¿Por qué es el primer vector propio derecho un vector de unos y lo implica en ese caso?
  2. ¿Por eso que queremos calcular el segundo vector propio derecho en ese caso?

8voto

Jason Weathered Puntos 5346

Considere la posibilidad de una fila de la matriz estocástica $T$ cuyos autovalores son todos distintos y satisfacer $\lvert\lambda_1\rvert>\lvert\lambda_2\rvert>\lvert\lambda_j\rvert,$ $j\ge3.$ no es necesario distinguir la izquierda de la derecha autovalores debido a la izquierda y a la derecha los autovalores son los mismos. Definir la izquierda vectores propios $u_jT=\lambda_ju_j$ y derecho autovectores $Tv_j=\lambda_jv_j.$ Aquí el $u_j$ son vectores fila y el $v_j$ son vectores columna. A la izquierda y a la derecha los vectores propios correspondientes a los diferentes valores propios son ortogonales. De esta manera se sigue calculando $u_jTv_k$ en dos formas diferentes: $$\begin{aligned}(u_jT)v_k&=\lambda_ju_jv_k\\ u_j(Tv_k)&=\lambda_ku_jv_k,\end{aligned}$$ desde que uno llega a la conclusión de que $(\lambda_j-\lambda_k)u_jv_k=0.$ Si $j\ne k,$ a continuación, puesto que los valores propios son asumidos distintos, $\lambda_j-\lambda_k\ne0$. Por lo tanto $u_jv_k=0$. Supongamos que es posible normalizar la $u_j$$v_k$, de modo que las matrices construidas a partir de la $u_j$ e las $v_k$ son inversos el uno del otro: $$\begin{bmatrix}u_1\\ u_2\\ \vdots\\ u_n\end{bmatrix}\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}=I=\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}\begin{bmatrix}u_1\\ u_2\\ \vdots\\ u_n\end{bmatrix}.$$ Sujeto a los supuestos anteriores, voy a describir cómo se puede entender el papel jugado por $u_1,$ $u_2,$ $v_1,$ y $v_2$, en la situación en $T$ es la matriz de transición de una cadena de Markov. Esto significa que para una estocástico de vectores $x$ cuyos elementos representan las probabilidades de encontrar la cadena de Markov en cada uno de sus $n$ estados, el estocástico vector $xT$ representa las probabilidades correspondientes después de que el sistema ha sufrido una transición, y $xT^k$ representa las probabilidades después de que el sistema ha sufrido $k$ transiciones.

Si $T$ satisface ciertas condiciones, que no vamos a ocuparnos aquí, entonces ambos $xT^k$ y las filas de $T^k$ tenderán hacia el $u_1$ $k$ se hace grande. Por esta razón, $u_1$ es conocida como la estable de probabilidad del vector. ¿Por qué sucede esto? El Perron-Frobenius teorema dice que una matriz no negativa satisfacer nuestras condiciones tiene un único mayor autovalor, y que el correspondiente vector propio (ya sea a la izquierda o a la derecha) tiene todos los positivos entradas. Por otra parte, este es el único vector propio con todos los positivos entradas. Desde una fila de la matriz estocástica tiene derecho autovector con todas las entradas igual a $1$ y el autovalor $1,$ el mayor autovalor es $1.$ En otras palabras, $\lambda_1=1$ $v_1$ es un escalar varios de los queridos vector. Es entonces claro que la correspondiente autovector izquierdo, $u_1$ sin cambios en la multiplicación por $T,$, es decir, podemos obtener el estable-vector condición, $u_1T=u_1.$

Por nuestros supuestos anteriores, tenemos $$\begin{bmatrix}u_1\\ u_2\\ \vdots\\ u_n\end{bmatrix}T=\begin{bmatrix}\lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & & \ddots & \vdots\\ 0 & 0 & \ldots & \lambda_n\end{bmatrix}\begin{bmatrix}u_1\\ u_2\\ \vdots\\ u_n\end{bmatrix}$$ y $$T\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}=\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}\begin{bmatrix}\lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & & \ddots & \vdots\\ 0 & 0 & \ldots & \lambda_n\end{bmatrix}.$$ El uso de nuestra hipótesis sobre la normalización de $u_j$ $v_k,$ obtenemos $$\begin{bmatrix}u_1\\ u_2\\ \vdots\\ u_n\end{bmatrix}T\,\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}=\begin{bmatrix}\lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & & \ddots & \vdots\\ 0 & 0 & \ldots & \lambda_n\end{bmatrix}$$ y $$T=\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}\begin{bmatrix}\lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & & \ddots & \vdots\\ 0 & 0 & \ldots & \lambda_n\end{bmatrix}\begin{bmatrix}u_1\\ u_2\\ \vdots\\ u_n\end{bmatrix}.$$ Por lo tanto $$T^k=\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}\begin{bmatrix}\lambda_1 & 0 & \ldots & 0\\ 0 & \lambda_2 & \ldots & 0\\ \vdots & & \ddots & \vdots\\ 0 & 0 & \ldots & \lambda_n\end{bmatrix}^k\begin{bmatrix}u_1\\ u_2\\ \vdots\\ u_n\end{bmatrix}.$$ Por lo tanto $$T^k=\begin{bmatrix}v_1 & v_2 & \cdots & v_n\end{bmatrix}\begin{bmatrix}\lambda_1^k u_1\\ \lambda_2^k u_2\\ \vdots\\ \lambda_n^k u_n\end{bmatrix}=\lambda_1^kv_1u_1+\lambda_2^kv_2u_2+\ldots+\lambda_n^kv_nu_n.$$ Esta es una suma de rango-$1$ matrices. Por nuestra suposición sobre las magnitudes relativas de los valores propios, el segundo término decae exponencialmente rápidamente con respecto a la primera, y la tercera y superior en términos de decaimiento exponencial rápidamente con respecto a la segunda. Desde $\lambda_1=1$ $v_1$ es la de todos aquellos vector, tenemos $$T^k=\begin{bmatrix}u_1\\ u_1\\ \vdots\\ u_1\end{bmatrix}+\lambda_2^k\begin{bmatrix}v_{21}u_2\\ v_{22}u_2\\ \vdots\\ v_{2n}u_2\end{bmatrix}+\text{exponentially smaller terms,}$$ donde los coeficientes $v_{2j}$ son los elementos de $v_2.$

Por tanto la importancia de la primera a la derecha autovector $v_1$ todo es eso $T^k$ tiende hacia una matriz con todas las filas de la misma e igual a la primera a la izquierda autovector $u_1.$ Si $\lvert\lambda_2\rvert$ está cerca de a $1,$ $T^k$ enfoques de esta forma estable lentamente, mientras que si $\lvert\lambda_2\rvert$ está cerca de a $0,$ la forma estable se alcanza rápidamente. La dominante de la corrección para cada fila es un múltiplo de la segunda a la izquierda autovector $u_2,$ con los tamaños relativos de las correcciones de la $i^\text{th}$ $j^\text{th}$ filas dada por los tamaños relativos de las $i^\text{th}$ $j^\text{th}$ elementos de la segunda a la derecha autovector $v_2.$ yo creo que esto puede ser lo que los autores del artículo vínculo, Atlas de la Complejidad Económica, página 24, se refiere a cuando afirman que $v_2$

es el autovector que captura la mayor cantidad de varianza en el sistema y es nuestra medida de la complejidad económica.

Sin embargo, estoy seguro de cuál es el significado preciso de su declaración, y no tienen idea acerca de su interpretación económica; me daría la bienvenida aclaraciones o interpretaciones alternativas de alguien que esta leyendo esto. (Ver Anexo a continuación para mis propias mejoras a la explicación.)

Algunas observaciones sobre la formulación del modelo en el artículo como una cadena de Markov. El modelo se basa en un bipartito gráfica en la que algunos vértices representan a los países y otros vértices representan los productos. Hay un borde de unirse país $c$ y el producto $p$ si $c$ fabrica $p.$ Este gráfico es descrito por una matriz de adyacencia $M$ cuyo elemento $M_{cp}$ es igual a $1$ si $c$ fabrica $p$ $0$ lo contrario. Las transiciones del sistema son los siguientes.

  1. De país vértice $c,$ mover un vértice $p,$ elegido al azar de entre el conjunto de los productos fabricados por $c$.
  2. De producto vértice $p,$ mover un vértice $c,$ elegido al azar de entre el conjunto de países que fabrican $p.$

Deje $s_R$ el valor del vector de fila suma de $M$ y deje $s_C$ denota el vector de la columna de sumas de $M$. Los elementos de $s_R$ $s_C$ son denotados $k_{c,0}$ $k_{p,0}$ en el artículo. Escribir $S_R=\text{diag}(s_R)$ $S_C=\text{diag}(s_C).$ Estas son las diagonales de las matrices cuyos elementos de la diagonal son la fila y la columna de sumas de $M.$ El primer tipo de transición se describe a continuación la matriz de transición $S_R^{-1}M$ y el segundo tipo por la matriz de transición $S_C^{-1}M^T.$

A partir de un país vértice, el sistema se llega a otro país vértice después de un número par de transiciones y llegar a un producto vértice después de un número impar de transiciones. Una cadena de Markov en el país vértices sólo puede ser formulado por medio de la matriz de transición $$\widetilde{M}=S_R^{-1}MS_C^{-1}M^T$$ en el que una transición del primer tipo es seguido por una transición de segundo tipo. Del mismo modo, una cadena de Markov en el producto vértices sólo puede ser formulado por medio de la matriz de transición $$S_C^{-1}M^TS_R^{-1}M$$ en el que una transición de segundo tipo es seguido por un período de transición en el primer tipo. Es $\widetilde{M}$ que desempeña el papel de $T$ en la definición de la Complejidad Económica Índice. Del mismo modo, $S_C^{-1}M^TS_R^{-1}M$ desempeña el papel de $T$ en la definición de la Complejidad de los Productos de Índice.

Adenda. He aquí un poco de aclaración sobre la limitación del proceso que conduce a la consideración de la segunda a la derecha autovector. De nuevo usando la notación $s_R$ de la fila-suma de vectores, los autores están buscando en el comportamiento limitante de $k^{(C)}_{2\ell}:=\widetilde{M}^\ell s_R.$ (La notación $k^{(C)}_{2\ell}$ es de la mina; los elementos de este vector se denota $k_{c,2\ell}$ en el artículo. De nuevo, la interpretación económica es claro para mí.) Como $\ell\rightarrow\infty,$ este se acerca a un vector constante. Pero no es esta constante vector que les interesa; es cómo los elementos de la $k^{(C)}_{2\ell}$ se distribuyen alrededor del valor central. (De nuevo, no me pregunten por qué). Ellos cuantificar esta restando el valor de la media de los elementos y dividiendo por la desviación estándar: $$\lim_{\ell\rightarrow\infty}\frac{k_{c,2\ell}-\langle k^{(C)}_{2\ell}\rangle}{\text{stddev}(k^{(C)}_{2\ell})}.$$ Volviendo a la expresión de la $\ell^\text{th}$ de la potencia de una matriz de transición, $$\widetilde{M}^\ell=\begin{bmatrix}u_1\\ u_1\\ \vdots\\ u_1\end{bmatrix}+\lambda_2^\ell\begin{bmatrix}v_{21}u_2\\ v_{22}u_2\\ \vdots\\ v_{2n}u_2\end{bmatrix}+\text{exponentially smaller terms,}$$ nos encontramos con que $$k_{c,2\ell}=u_1s_R+\lambda_2^\ell v_{2,c}u_2s_R+\ldots.$$ El primer término de esta expresión es constante, no depende de la $c$ - y así se cancela cuando la media se resta. Asimismo, no contribuye a la desviación estándar ya que asciende a un constante cambio de todos los elementos del vector. Esto deja el segundo término como la contribución dominante (la única contribución en la $\ell\rightarrow\infty$ límite, ya que los otros son exponencialmente más pequeños). Además, la cantidad de $\lambda_2^\ell u_2s_R$ es constante, así que se cancela cuando se divide por la desviación estándar. Esto deja $$\lim_{\ell\rightarrow\infty}\frac{k_{c,2\ell}-\langle k^{(C)}_{2\ell}\rangle}{\text{stddev}(k^{(C)}_{2\ell})}=\frac{v_{2,c}-\langle v_2\rangle}{\text{stddev}(v_2)}.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X