1 votos

¿Se cumple la siguiente desigualdad integral?

Para cualquier matriz cuadrada, simétrica y definida positiva $M\in\Re^{m\times{m}}$ , un escalar $\gamma$ y una función de valor vectorial $\omega:[0,\gamma]\to\Re^{m}$ tal que la siguiente desigualdad se cumple \begin{equation}\label{eq:1} \gamma\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)~{d\beta}\geq\Big(\int_{0}^{\gamma}\omega(\beta)~d\beta\Big)^{T}~M~\Big(\int_{0}^{\gamma}\omega(\beta)~d\beta\Big). \tag{1} \end{equation}

Para demostrar que la afirmación es cierta, utilizo el complemento de Schur como sigue. La matriz

\begin{equation} H(\beta)=\begin{bmatrix}{\omega^{T}(\beta)~M~\omega(\beta)} & \omega^{T}(\beta)\\\omega(\beta) & M^{-1}\end{bmatrix}\geq{0} , \fin

desde $M>{0}$ implica $M^{-1}>{0}$ y también $\omega^{T}(\beta)~M~\omega(\beta)-\omega^{T}(\beta)(M^{-1})^{-1}\omega(\beta)=0$ . Esto demuestra por qué $H\geq{0}$ . Ahora tomando la integral de $H$ dentro del intervalo $[0,\gamma]$ resultados

$G(\gamma)=\int_{0}^{\gamma}H(\beta)~d\beta=\begin{bmatrix}{\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)}~d\beta & \int_{0}^{\gamma}\omega^{T}(\beta)~d\beta\\\int_{0}^{\gamma}\omega(\beta)~d\beta & {\gamma}M^{-1}\end{bmatrix}\geq{0}$ .

Tras aplicar de nuevo el complemento de schur en $G(\gamma)$ produce

$\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)~d\beta~-~\int_{0}^{\gamma}\omega^{T}(\beta)~d\beta~\big[\dfrac{1}{\gamma}M\big]~\int_{0}^{\gamma}\omega(\beta)~d\beta\geq{0}$

de la que se deriva la desigualdad \eqref{eq:1}. Sin embargo, me interesa saber si la desigualdad \eqref{eq:1} es válida para una semidefinida positiva $M$ . En lugar de $M^{-1}$ Estoy usando la pseudoinversión de Moore Penrose $M^{+}$ en la expresión para $H(\beta)$ . No estoy muy seguro de si este es el camino que debo seguir para solucionar el problema, por lo que cualquier sugerencia al respecto será muy apreciada.

0voto

Himadri Basu Puntos 16

Creo que he descubierto una solución y corregidme si me equivoco en la derivación expuesta a continuación. Una matriz semidefinida positiva $M\in\Re^{n\times{n}}$ puede expresarse como $M=J*D_{M}*J^{T}$ , donde $J^{T}=J^{-1}$ y $D_{M}$ es una matriz diagonal con todos los valores propios de $M$ en su diagonal.

$\gamma~\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)~d\beta=\gamma~\int_{0}^{\gamma}\omega^{T}(\beta)~J*D_{M}*J^{T}~\omega(\beta)~d\beta$ .

Tomemos una función de valor vectorial $\omega^{*}(\beta)=J^{T}~\omega(\beta)$ y reescribir la ecuación anterior como

$ \gamma~\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)~d\beta=\gamma~\int_{0}^{\gamma}\omega^{*^T}(\beta)~D_{M}~\omega^{*}(\beta)~d\beta~\tag{1} $

Toma $\omega^{*}(\beta)=\begin{bmatrix}\omega^{*}_{1}(\beta)\\\omega^{*}_{2}(\beta)\\\vdots\\\omega^{*}_{n}(\beta)\end{bmatrix}$ y $D_{M}=diag(\lambda_{1},\lambda_{2},\cdots,\lambda_{r},0,\cdots,0)$

con $M$ que se supone que tiene $(n-r)$ valores propios cero, es decir $\lambda_{i}=0$ , para $i=r+1,r+2,\cdots,n$ . Entonces la ecuación (1) da

\begin{equation}{\label{eq:2}} \gamma~\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)~d\beta=\gamma~\int_{0}^{\gamma}\Big[\sum_{i=0}^{r}\lambda_{i}\omega^{*^T}_{i}(\beta)~\omega^{*}_{i}(\beta)\Big]~d\beta\tag{2}. \end{equation}

Como $\gamma~\int_{0}^{\gamma}\omega^{*^T}_{i}(\beta)~\omega^{*}_{i}(\beta)~d\beta~\geq~\Big[\int_{0}^{\gamma}\omega^{*}_{i}(\beta)~d\beta\Big]^{T}\Big[\int_{0}^{\gamma}\omega^{*}_{i}(\beta)~d\beta\Big]$ (procedimiento dado en la pregunta), la ecuación \eqref{eq:2} da como resultado

\begin{equation}{\label{eq:3}} \begin{aligned} &\gamma~\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)~d\beta\geq\\ &\sum_{i=1}^{r}\lambda_{i}\Big[\int_{0}^{\gamma}\omega^{*}_{i}(\beta)~d\beta\Big]^T~\Big[\int_{0}^{\gamma}\omega^{*}_{i}(\beta)~d\beta\Big]\\ & =\sum_{i=1}^{n}\lambda_{i}\Big[\int_{0}^{\gamma}\omega^{*}_{i}(\beta)~d\beta\Big]^T~\Big[\int_{0}^{\gamma}\omega^{*}_{i}(\beta)~d\beta\Big]\\ & =\begin{bmatrix}\int_{0}^{\gamma}\omega^{*^T}_{1}(\beta)~d\beta,\cdots,\int_{0}^{\gamma}\omega^{*^T}_{n}(\beta)~d\beta\end{bmatrix}\begin{bmatrix}\lambda_{1} & 0 & 0 & \cdots & 0\\\c0 & \lambda_{2} & 0 & \cdots & 0\\dvdots & \vdots & \vdots & \vdots & \\\\\c0 & 0 & 0 & \cdots & \lambda_{n}end{bmatrix} \begin{bmatrix}\int_{0}^{\gamma}\omega^{*}_{1}(\beta)~d\beta\\\vdots\\\int_{0}^{\gamma}\omega^{*}_{n}(\beta)~d\beta\end{bmatrix}\\ & =\Big[\int_{0}^{\gamma}\omega^{*^T}(\beta)~d\beta\Big]~D_{M}~\Big[\int_{0}^{\gamma}\omega^{*}(\beta)~d\beta\Big]\\ & =\Big[\int_{0}^{\gamma}\omega^{T}(\beta)~d\beta\Big]~J*D_{M}*J^T~\Big[\int_{0}^{\gamma}\omega(\beta)~d\beta\Big]\\ & =\Big[\int_{0}^{\gamma}\omega^{T}(\beta)~d\beta\Big]~M~\Big[\int_{0}^{\gamma}\omega(\beta)~d\beta\Big]. \end{aligned} \end{equation}

Por lo tanto, $\gamma~\int_{0}^{\gamma}\omega^{T}(\beta)~M~\omega(\beta)~d\beta\geq\Big[\int_{0}^{\gamma}\omega^{T}(\beta)~d\beta\Big]~M~\Big[\int_{0}^{\gamma}\omega(\beta)~d\beta\Big]$ .

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X