4 votos

¿Cómo encontrar una solución exacta para $X=X^T \in \mathbb{R}^{n \times n}$ que satisfaga $AX=XA^T$ y $B=XC^T$?

Suponiendo que sé que el siguiente par de ecuaciones tiene una solución exacta:

$$\exists X=X^T \in \mathbb{R}^{n \times n}: AX=XA^T,\ B=XC^T$$ Para algunas matrices $A \in \mathbb{R}^{n \times n}$, $B \in \mathbb{R}^{n \times m}$ y $C \in \mathbb{R}^{m \times n}$ y $X$ es invertible. ¿Cómo encuentro $X$?

Obviamente puedo formar el siguiente sistema sobredeterminado:

$$\begin{bmatrix} I \otimes A - A \otimes I \\ C \otimes I \end{bmatrix} vect(X)=vect(\begin{bmatrix} 0 \\ B \end{bmatrix})$$

Y resolverlo solo para los elementos de $vect(X)$ correspondientes a los elementos de la matriz triangular superior de $X$.

Esto funciona bien en la práctica, pero no puedo evitar pensar que dado que existe una solución exacta, ¿debería ser posible resolver $X$ sin resolver un problema de mínimos cuadrados sobredeterminado?

Para un poco de contexto, en mi aplicación particular, $X$ es la matriz asociada con una realización de espacio de estados recíproca, de tal manera que:

$$ \begin{bmatrix} \dot x(t) \\ y(t) \end{bmatrix} = \begin{bmatrix} A & B \\ C & D \end{bmatrix} \begin{bmatrix} x(t) \\ u(t) \end{bmatrix} = \begin{bmatrix} XA^TX^{-1} & XC^T \\ B^TX^{-1} & D^T \end{bmatrix} \begin{bmatrix} x(t) \\ u(t) \end{bmatrix} $$

Lo cual asegura que (y siempre existe cuando) la función de transferencia $H(s)=H^T(s)$ es simétrica.

Este problema aparece regularmente en la literatura de control, pero hasta ahora no he encontrado ninguna solución explícita, quizás porque es un problema tan 'trivial' que los autores no se molestan en explicar cómo resolverlo.

EDITAR:

Veamos el caso en el que $n=2$ y $m=1$

$$\begin{bmatrix} I \otimes A - A \otimes I \\ C \otimes I \end{bmatrix} \begin{bmatrix} x_{11} \\ x_{21} \\ x_{12} \\ x_{22} \end{bmatrix} = \begin{bmatrix} 0 & a_{12} & -a_{12} & 0 \\ a_{21} & a_{22} - a_{11} & 0 & -a_{12} \\ -a_{21} & 0 & a_{11} - a_{22} & a_{12} \\ 0 & -a_{21} & a_{21} & 0 \\ \hline c_{11} & 0 & c_{12} & 0 \\ 0 & c_{11} & 0 & c_{12} \end{bmatrix}\begin{bmatrix} x_{11} \\ x_{21} \\ x_{12} \\ x_{22} \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \\ 0 \\ \hline b_{11} \\ b_{21} \end{bmatrix}$$

Tras eliminar la variable $x_{12} = x_{21}$ obtenemos:

$$\begin{bmatrix} 0 & 0 & 0 \\ a_{21} & a_{22} - a_{11} & -a_{12} \\ -a_{21} & a_{11} - a_{22} & a_{12} \\ 0 & 0 & 0 \\ \hline c_{11} & c_{12} & 0 \\ 0 & c_{11} & c_{12} \end{bmatrix}\begin{bmatrix} x_{11} \\ x_{21} \\ x_{22} \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \\ 0 \\ \hline b_{11} \\ b_{21} \end{bmatrix}$$

Las dos filas correspondientes a los elementos diagonales de la matriz superior en el lado derecho son ambas cero, y además de eso, las dos filas correspondientes a los elementos fuera de la diagonal de la matriz superior en el lado derecho son el negativo el uno del otro. Al eliminar filas duplicadas cero y (negativas) obtenemos:

$$\begin{bmatrix} a_{21} & a_{22} - a_{11} & -a_{12} \\ \hline c_{11} & c_{12} & 0 \\ 0 & c_{11} & c_{12} \end{bmatrix}\begin{bmatrix} x_{11} \\ x_{21} \\ x_{22} \end{bmatrix} = \begin{bmatrix} 0 \\ \hline b_{11} \\ b_{21} \end{bmatrix}$$

Resulta que al eliminar filas cero y redundantes de la matriz LHS resulta en una matriz con $(n^2-n)/2+nm$ filas y todavía $(n^2-n)/2+n$ columnas, lo que resulta ser una matriz cuadrada en este caso donde $m=1$.

4voto

Kevin Puntos 11

Para obtener una ecuación bien condicionada asumiré que el modelo de espacio de estados es minimal, por lo que $(A,B)$ es controlable y $(A,C)$ es observable.

Se da un modelo de espacio de estados (minimal)

$$ \left\{ \begin{align} \dot{x}(t) &= A\,x(t) + B\,u(t), \\ y(t) &= C\,x(t) + D\,u(t), \end{align} \right. \tag{1} \label{ss1} $$

con la función de transferencia correspondiente $H(s) = C\,(s\,I-A)^{-1} B + D$. Para esta función de transferencia se da que es simétrica, $H(s) = H^\top(s) = B^\top\,(s\,I-A^\top)^{-1} C^\top + D^\top$. Notar que esto siempre se cumple para sistemas de entrada única y salida única. Dado que el sistema $(A,B,C,D)$ de \eqref{ss1} es similar (tiene la misma función de transferencia asociada) y dado que la función de transferencia es simétrica al sistema $(A^\top,C^\top,B^\top,D^\top)$

$$ \left\{ \begin{align} \dot{z}(t) &= A^\top z(t) + C^\top u(t), \\ y(t) &= B^\top z(t) + D^\top u(t), \end{align} \right. \tag{2} \label{ss2} $$

por lo tanto \eqref{ss1} y \eqref{ss2} están relacionados entre sí a través de una transformación de similitud $x(t) = X\,z(t)$, de manera que $$ \left\{ \begin{align} A^\top &= X^{-1} A\,X, \\ C^\top &= X^{-1} B, \\ B^\top &= C\,X. \end{align} \right. \tag{3} \label{transform} $$

Dada la matriz de controlabilidad de $(A,B)$ para \eqref{ss1} y $(A^\top,C^\top)$ para \eqref{ss2}

$$ \mathcal{C}_1 = \begin{bmatrix} B & A\,B & \cdots & A^{n-1} B \end{bmatrix}, $$

$$ \mathcal{C}_2 = \begin{bmatrix} C^\top & A^\top C^\top & \cdots & (A^\top)^{n-1} C^\top \end{bmatrix}, $$

y matriz de observabilidad de $(A,C)$ para \eqref{ss1} y $(A^\top,B^\top)$ para \eqref{ss2}

$$ \mathcal{O}_1 = \begin{bmatrix} C \\ C\,A \\ \vdots \\ C\,A^{n-1} \end{bmatrix}, $$

$$ \mathcal{O}_2 = \begin{bmatrix} B^\top \\ B^\top A^\top \\ \vdots \\ B^\top (A^\top)^{n-1}

sin

2voto

KBS Puntos 11

Sólo por ahora descarte la restricción de que $X$ deba ser simétrica y considere la ecuación $AX-XA^T=0$. Esta es una ecuación de Sylvester y la solución es única si y solo si $A$ y $A^*$ no comparten ningún autovalor.

Esto significa que todos los autovalores tendrían que ser no reales. Sin embargo, eso implicaría que la única solución sería cero. Así que, no queremos eso. Esto significa que una condición necesaria para que su problema sea resoluble con un $X$ no nulo es que $A$ tenga al menos un autovalor real.

Dicho esto, se puede vectorizar el problema teniendo en cuenta la estructura simétrica de la matriz $X$. Con este fin, defina $\mathrm{vec}(\cdot)$ como el operador de vectorización usual y por $\overline{\mathrm{vec}}(\cdot)$ el operador de vectorización reducido dado por $\overline{\mathrm{vec}}(X)$ es dado por \begin{equation} \left[\begin{array}{ccccccccccccccccccccc} X_{11} & \sqrt{2}X_{21} & \ldots & \sqrt{2}X_{n1} & | & X_{22} & \sqrt{2}X_{32} & \ldots & \sqrt{2}X_{n2} & | & \ldots & | & X_{nn}. \end{array}\right]. \end{equation} Se pueden relacionar esas cantidades para una matriz simétrica $X$ como \begin{equation} \mathrm{vec}(X)=F\overline{\mathrm{vec}}(X) \end{equation} donde $F\in\mathbb{R}^{n^2\times n(n+1)/2}$, $F^{T}F=I$. Esta es una forma estándar de tratar con matrices simétricas usando operadores de vectorización.

Usando esos operadores, obtenemos $$ \underbrace{\begin{bmatrix}F^T(I \otimes A - A \otimes I)F \\ F^T(C \otimes I)F \end{bmatrix}}_{\mbox{$M$}}\overline{\mathrm{vec}}(X)=\underbrace{\begin{bmatrix} 0 \\ \overline{\mathrm{vec}}(B) \end{bmatrix}}_{\mbox{$b$}}. $$

Ahora puedes utilizar cualquier método para resolver ese sistema de ecuaciones lineales. Por ejemplo, habrá una solución si y solo si $b\in \mathrm{span}(M)$ y cuando este sea el caso todas las soluciones son dadas por

$$ \overline{\mathrm{vec}}(X)=M^+b+(I-M^+M)z $$ donde $M^+$ es la seudoinversa de Moore-Penrose de $M$ y $z$ es un vector arbitrario.


Estoy trabajando en una solución matricial a ese problema. Esto llevará algo de tiempo. Mientras tanto, estoy feliz de responder a algunos comentarios y preguntas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X