12 votos

Si la matriz $A$ tiene entradas $A_{ij}=\sin(\theta_i - \theta_j)$ ¿Por qué? $\|A\|_* = n$ ¿siempre se mantiene?

Si dejamos que $\theta\in\mathbb{R}^n$ sea un vector que contenga $n$ fases arbitrarias $\theta_i\in[0,2\pi)$ para $i\in[n]$ entonces podemos definir una matriz $X\in\mathbb{R}^{n\times n}$ , donde \begin{align*} X_{ij} = \theta_i - \theta_j. \end{align*} Entonces las matrices que considero son la matriz antisimétrica $A=\sin(X)$ y la matriz simétrica $B=\cos(X)$ . Mediante experimentos numéricos (muestreando aleatoriamente el vector de fase $\theta$ ) Me parece que la norma nuclear de $A$ y $B$ son siempre $n$ es decir \begin{align*} \|A\|_* = \|B\|_* = n. \end{align*}

Además, la realización de la SVD en $A$ produce el mayor de los dos valores singulares $\sigma_1 = \sigma_2 = n/2$ y todos los demás $\sigma_3 = \ldots = \sigma_n = 0$ . Además, si observamos la matriz $A\circ B$ , donde \begin{align*} (A\circ B)_{ij} = \sin(\theta_i - \theta_j)\cos(\theta_i - \theta_j) = \sin(2(\theta_i - \theta_j))/2, \end{align*} entonces \begin{align*} \|A\circ B\|_* = n/2 \end{align*} con $\sigma_1 = \sigma_2 = n/4$ y $\sigma_3 = \ldots = \sigma_n = 0$ .

¿Hay alguna manera de ver por qué $A$ y $B$ ¿tienen estas propiedades?

4voto

Jukka Dahlbom Puntos 1219

Me ceñiré a su notación en la que $f(X)$ se refiere a la matriz cuyas entradas son $f(X_{ij})$ .

Nótese que por la fórmula de Euler, tenemos $$ \sin(X) = \frac 1{2i}[\exp(iX) - \exp(-iX)] $$ Para ver que $\exp(iX)$ tiene rango $1$ observamos que se puede escribir como el producto matricial $$ \exp(iX) = \pmatrix{\exp(i\theta_1) \\ \vdots \\ \exp( i\theta_n)} \pmatrix{\exp(-i\theta_1) & \cdots & \exp( -i\theta_n)} $$ Compruebe también que $\exp(iX)$ es hermitiana (y definida positiva), al igual que $\exp(-iX)$ .

Hasta ahora, podemos concluir que $\sin(X)$ tiene un rango como máximo igual a $2$ .

Desde $\exp(iX)$ es hermético con rango 1, podemos afirmar rápidamente que $$ \|\exp(iX)\|_* = |\operatorname{tr}(\exp(iX))| = n $$ Entonces, su evidencia numérica parece confirmar que $$ \left\|\frac 1{2i}[\exp(iX) - \exp(-iX)]\right\|_* = \left\|\frac 1{2i}\exp(iX)\right\|_* + \left\|\frac 1{2i}\exp(-iX)\right\|_* $$


A partir de ahí, observamos que $A = \sin(X)$ satisface $$ 4 A^*A = [\exp(iX) - \exp(-iX)]^2 = \\ n [\exp(iX) + \exp(-iX)] - \exp(iX)\exp(-iX) - \exp(-iX)\exp(iX) =\\ n [\exp(iX) + \exp(-iX)] - 2 \operatorname{Re}[\exp(iX)\exp(-iX)] $$ donde el exponente se utiliza aquí en el sentido de la multiplicación de matrices. Nuestro objetivo es calcular $\|A\|_* = \operatorname{tr}(\sqrt{A^*A})$ .


Observaciones potencialmente útiles:

Observamos que $$ \exp(iX)\exp(-iX) = \pmatrix{\exp(i\theta_1) \\ \vdots \\ \exp( i\theta_n)}\pmatrix{\exp(i\theta_1) & \cdots & \exp( i\theta_n)} \sum_{k=1}^n \exp(-2i\theta_k) $$ Y $\operatorname{tr}[\exp(iX)\exp(-iX)] = \left| \sum_{k=1}^n \exp(2i\theta_k) \right|^2$ . Este producto es complejo-simétrico pero no hermitiano.

Las matrices $\exp(iX),\exp(-iX)$ se conmutarán si y sólo si $\exp(iX)\exp(-iX)$ es puramente real (es decir, tiene parte imaginaria 0).

Creo que estas matrices conmutarán si y sólo si $\sum_{k=1}^n \exp(2i\theta_k) = 0$ (lo que no suele ser el caso).

2voto

Mike Hawk Puntos 8

Por desgracia, sus hipótesis son demasiado buenas para ser ciertas en general. Pero se mantienen exactamente en el caso especial de que $\sum_i e^{2\theta_i}=0$ Este será el caso cuando, por ejemplo, los ángulos estén uniformemente espaciados en el círculo, es decir $\theta_i=i*2\pi/n$ . Además, se mantienen aproximadamente en el límite de un gran número de puntos muestreados de manera uniforme e independiente.

Cualquier $\theta$ con $n=2$ proporcionará un contraejemplo a la afirmación sobre los valores singulares de $cos(X)$ siempre y cuando $\cos(\theta_1-\theta_2)\ne 0$ . En efecto, como la matriz es simétrica, los valores singulares y los valores propios coinciden, y la única forma de que ambos valores propios de una matriz de 2x2 sean iguales es que la matriz sea diagonal.

Veamos ahora por qué la afirmación sobre los valores singulares es aproximadamente cierta.

En efecto, utilizando las fórmulas estándar de adición de ángulos, vemos que $\sum_i \cos(\theta_i-\theta_j)\cos(\theta_i)=.5\sum_i\cos(2\theta_i-\theta_j)+\cos(\theta_j)=.5n\cos(\theta_j)+.5\sum_i\cos(2\theta_i-\theta_j)$

Por la ley de los grandes números, tenemos $\sum_i\cos(2\theta_i-\theta_j)\approx {\frac n{2\pi}} \int_0^{2\pi}\cos(2\theta-\theta_j)d\theta=0$ para grandes $n$ . Por lo tanto, en el límite de muchos ángulos muestreados uniformemente de forma independiente, el vector $\cos(\theta)$ es un vector propio de $cos(X)$ con valor propio $.5n$ . Del mismo modo, se puede comprobar que $\sin(\theta)$ es igualmente un vector propio en el límite con el mismo valor propio. Sospecho que este argumento se traslada a las matrices $\sin(X)$ y $\cos(X)\circ\sin(X)$ Aunque no he concretado los detalles. Además, si suponemos que $\sum_i e^{2\theta_i}=0$ entonces los cálculos anteriores muestran que $\cos(\theta)$ y $\sin(\theta)$ son vectores propios exactos con valores propios $\pm n/2$ .

Edición: Las afirmaciones sobre la norma nuclear son válidas para cos(X), pero no para sin(X). En efecto, la matriz cos(X) es simétrica y definida no negativa, por lo que su norma nuclear es igual a su traza, que es $\sum_i \cos(\theta_i-\theta_i)=n$ .

En cuanto a sin(X), la afirmación sobre la norma nuclear no se cumple exactamente, pero sí cuando $\sum_i e^{2\theta_i}=0$ así como aproximadamente en el límite de muchas fases muestreadas de manera uniforme e independiente, como antes. De hecho, la matriz sin(X) es antisimétrica, por lo que puede ser diagonalizada unitariamente (sobre los números complejos), con valores propios puramente imaginarios que vienen en pares conjugados. Las magnitudes de estos valores propios son a su vez los valores singulares reales (hasta un signo, que es irrelevante para el cálculo de la norma). Como ya ha señalado Omnomnom, podemos escribir $sin(X)$ como la suma de dos matrices complejas de rango 1, a saber $e^{i\theta}\otimes e^{-i\theta}/2i$ y su conjugado complejo (aquí $\otimes$ denota el producto exterior de dos vectores). Los vectores $e^{i\theta}$ y $e^{-i\theta}$ no son ortogonales en general (con respecto al producto interno hermitiano), por lo que no se trata de una descomposición unitaria.

Sin embargo, es casi unitario dados los supuestos anteriores sobre $\theta$ . De hecho, vemos que $\mid e^{i\theta}\mid=\sum_i \mid e^{i\theta_i}\mid^2=n$ . Además, se puede comprobar que para grandes $n$ , $<e^{i\theta},e^{-i\theta}>\to 0$ utilizando la ley de los grandes números como antes.

Configurar $v=e^{i\theta}/\sqrt{n}$ y $w=e^{-i\theta}/\sqrt{n}$ tenemos $sin(X)=-inv\otimes w/2+inw\otimes v/2$ . Desde $v$ y $w$ ambos tienen norma unitaria y $<v,w>=<e^{i\theta},e^{-i\theta}>/n\approx 0$ , esto es aproximadamente una descomposición unitaria con valores propios $\pm in/2$ . Según la discusión anterior, esto implica que los valores singulares de $sin(X)$ son aproximadamente $\pm n/2$ y la norma nuclear es aproximadamente $n$ . Dejo la consideración de la matriz $A\circ B$ como un ejercicio para ti.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X