4 votos

problema de valor propio inverso no negativo

Necesito construir un no-negativo de la matriz deseados, con los valores propios. A tal fin, se me ocurrió un bloque de la matriz de la siguiente forma:

$$ \mathbf{M} = \begin{vmatrix} \mathbf{A} & \mathbf{b} \\ \mathbf{c^T} & \it{d} \\ \end{vmatrix} $$

Donde la matriz de $\mathbf{A} \in \mathbb{R}^{n \times n}$ es gratis parámetro, y los vectores $\mathbf{b}$, $\mathbf{c} \in \mathbb{R}^{n}$ y escalares $\it{d}$ dependen de la $\mathbf{A}$ y un conjunto de autovalores (dado como elementos de la diagonal de la matriz $\mathbf{\Lambda} \in \mathbb{R}^{n \times n}$)

Ecuación que relaciona $\mathbf{c}$ $\mathbf{A}$ $\mathbf{\Lambda}$es muy complicado e implica una inversa de la solución a una ecuación de Sylvester. Es decir,

$$ \mathbf{c^T} = \left[\text{diag}(\mathbf{\Lambda}) - \mathbf{1^T}(\text{tr}(\mathbf{\Lambda}-\mathbf{A}) + \sigma)\right]\mathbf{K^{-1}} $$

donde $\mathbf{K}$ es una solución para un siguiente Sylvester ecuación:

$$ \mathbf{A}\mathbf{K}-\mathbf{K}\mathbf{\Lambda} = (\mathbf{A}-\sigma\mathbf{I}_n)\mathbf{1} \cdot\mathbf{1^T} $$

Preguntas:

Cómo encontrar limitaciones en el parámetro $\mathbf{A}$, lo que representará $\mathbf{M}$ no negativo?

$\mathbf{A}$ sí debe ser no negativo, por supuesto, y $\mathbf{b}$ $d$ tiene una clara dependencia de la $\mathbf{A}$, por lo que es fácil. No tengo idea, sin embargo, ¿qué hacer con $\mathbf{c}$, porque no esta $\mathbf{K^{-1}}$, con lo cual no tengo una solución para (sólo para $\text{vec}(\mathbf{K})$). ¿Cómo podría yo planteamiento de la pregunta analíticamente? O es que hay un numérica eficiente manera de resolver el problema (por ejemplo, dados $\mathbf{\Lambda}$, encontramos a $A$ que maximiza el elemento más pequeño de $M$)?


Detalles:

Aquí está la dependencia de $\mathbf{b}$$d$$\mathbf{A}$$\mathbf{\Lambda}$:

$$ \mathbf{b} = (\sigma \mathbf{I}_n - \mathbf{A})\mathbf{1} $$

$$ d = \text{tr}(\mathbf{\Lambda} - \mathbf{A}) + \sigma $$

y un vectorizados solución para $\mathbf{K}$

$$ \text{vec}(\mathbf{K}) = (\mathbf{I}_n \otimes\mathbf{A} - \mathbf{\Lambda} \otimes \mathbf{I}_n)^{-1}(\mathbf{1} \otimes \mathbf{b}) $$

Dadas estas relaciones, la matriz resultante $\mathbf{M}$ es equivalente a $$ \mathbf{M} = \begin{vmatrix} \mathbf{A} & \mathbf{b} \\ \mathbf{c^T} & \it{d} \\ \end{vmatrix} = \begin{vmatrix} \mathbf{K} & \mathbf{1} \\ \mathbf{1^T} & 1 \\ \end{vmatrix} \begin{vmatrix} \mathbf{\Lambda} & \mathbf{0} \\ \mathbf{0} & \sigma \\ \end{vmatrix} \begin{vmatrix} \mathbf{K} & \mathbf{1} \\ \mathbf{1^T} & 1 \\ \end{vmatrix}^{-1} $$

$\mathbf{\Lambda}$ no necesita ser diagonal, pero sus autovalores debe ser elegido como un argumento de entrada.


UPD: ok, lo siento, para una pregunta confusa. Voy a tratar de aclarar las cosas con un 2 $\times$ 2 caso especial. Se puede demostrar que un 2 $\times$ 2 matriz de la forma

$$ \mathbf{M} = \begin{vmatrix} a & \sigma - a \\ a - \lambda & \sigma - (a - \lambda) \\ \end{vmatrix} $$

tiene la misma fila de suma ($\sigma$) y un conjunto de autovalores $\{\lambda, \sigma\}$ para cualquier elección arbitraria de $a$. Ahora, debido a que todas las ecuaciones son escalares, es fácil encontrar limitaciones en $a$ $\lambda$ que va a resultar en una negativa $\mathbf{M}$ mediante la resolución de un sencillo sistema de desigualdades. El resultado es, por $\mathbf{M}$ a ser no negativo

$$ \begin{cases} \begin{align} 0 \le & a \le \sigma\\ \lambda \le & a \le \lambda + \sigma \\ -\sigma < &\lambda < \sigma \\ \end{align} \end{casos} $$

La pregunta original es un intento de generalizar este problema a $(n+1)\times(n+1)$ donde $a$ hace $\mathbf{A} \in \mathbb{R}^{n \times n}$ y así sucesivamente. Se puede ver que las ecuaciones para $\mathbf{b}$, $\mathbf{c}$ y $d$ en la primera sección del colapso posterior al escalar las ecuaciones de las entradas de $\mathbf{M}$ aquí al $n$ está configurado para 1.

1voto

Graham Hesketh Puntos 4746

Perdóname si yo me he entendido mal, pero parece que en los comentarios que usted está después de una matriz de ( $\mathbf{M}$ ) que tiene:

  • algunos de los valores propios deseados
  • la igualdad de fila suma.

Si son las únicas restricciones, considere la posibilidad de un cuadrado arbitraria diagonalizable la matriz, $\mathbf{M}$: $$\mathbf{M}=\mathbf{S}\mathbf{D}\mathbf{S}^{-1}.$$ Los vectores columna de a $\mathbf{S}$ son el derecho vectores propios de la matriz $\mathbf{M}$ $\mathbf{D}$ es la matriz diagonal que contiene los autovalores de a $\mathbf{M}$. Para la construcción de su $\mathbf{M}$ lo haría a continuación, basta con rellenar $\mathbf{D}$ con la deseada autovalores y, a continuación, para asegurar que la fila sumas de $\mathbf{M}$ son iguales, como usted señaló, que hacen a cada elemento de uno de los vectores columna de a $\mathbf{S}$ ( $E_1$ ) para ser igual a $1$, luego de llenar el resto de $\mathbf{S}$ sin embargo usted por favor, tan largo como $\text{det}[\mathbf{S}]\ne0$, y finalmente calcular la inversa de a $\mathbf{S}^{-1}$ y tiene su $\mathbf{M}$. La fila suma sería entonces igual a la autovalor ( $e_1$ ) corresponden a $E_1$ como puede observarse teniendo en cuenta que el lado derecho de: $$e_1E_1=\mathbf{M}E_1$$ gives a column vector containing the row sums and the left hand side is a column vector full of eigenvalue $e_1$.

Ejemplo:

Tome $\mathbf{D}$ como la matriz que contiene su conjunto dado de valores propios en la diagonal: $$\mathbf{D}= \left[ \begin {array}{ccc} \sigma&0&0\\ 0&1&0 \\ 0&0&2\end {array} \right], $$ a continuación, construir $\mathbf{S}$: $$\mathbf{S}= \left[ \begin {array}{ccc} 1&2&3\\ 1&3&4 \\ 1&4&6\end {array} \right],$$ a continuación, encontrar la inversa: $$ \mathbf{S}^{-1}=\left[ \begin {array}{ccc} 2&0&-1\\ -2&3&-1 \\ 1&-2&1\end {array} \right], $$ a continuación, construir $\mathbf{M}$: $$ \mathbf{M}=\mathbf{S}\mathbf{D}\mathbf{S}^{-1}=\left[ \begin {array}{ccc} 2\,\sigma+2&-6&-\sigma+4 \\ 2\,\sigma+2&-7&-\sigma+5\\ 2\ \sigma+4&-12&-\sigma+8\end {array} \right], $$ $$\text{row sum}=\sigma.$$

Estoy seguro de que esto no es lo que estamos pidiendo como no hice caso de la Sylvestre ecuación e.t.c, pero lo voy a publicar por si acaso. Me voy a borrar cuando se resalte mi ignorancia...

0voto

bea Puntos 16

Esta no es una respuesta, sino más bien una simplificación del problema que no puede encajar en los comentarios.

Sin pérdida de generalidad, se puede asumir que el $A$ es diagonal. Por qué? Bien supongamos $A = U \Sigma U^T$ el (completo) SVD de a $A$. A continuación, podemos convertir el problema a una diagonal a través de la similitud de transformación, $$\begin{bmatrix} U^T \\ & 1 \end{bmatrix} \begin{bmatrix} A & b \\ c^T & d \end{bmatrix} \begin{bmatrix} U \\ & 1 \end{bmatrix} = \begin{bmatrix} \Sigma & U^T b \\ c^T U & d \end{bmatrix}.$$

Desde similitud transforma preservar autovalores y desde $b$ $c$ podría ser cualquier cosa, bien podría en lugar de calcular la necesaria $f,g$ en $$\begin{bmatrix} \Sigma & f \\ g^T & d \end{bmatrix}.$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X