26 votos

Encontrar la matriz más cercana a %-%-% con un determinante dado

$\newcommand{\GLp}{\operatorname{GL}_n^+}$ $\newcommand{\SLs}{\operatorname{SL}^s}$ $\newcommand{\dist}{\operatorname{dist}}$ $\newcommand{\Sig}{\Sigma}$ $\newcommand{\id}{\text{Id}}$ $\newcommand{\SOn}{\operatorname{SO}_n}$ $\newcommand{\SOtwo}{\operatorname{SO}_2}$ $\newcommand{\GLtwo}{\operatorname{GL}_2^+}$

Estoy tratando de encontrar la distancia Euclidiana entre el conjunto de matrices de constantes determinante y $\SOn$, yo.e el cálculo de $$ F(s)= \min_{A \in \GLp,\det a=s} \dist^2(A,\Hijo). $$

Ya que el problema es $\SOn$invariante en el que podemos trabajar de manera efectiva con enfermedad vesicular porcina; el Uso geométrico razonamiento, podemos reducir el problema a la diagonal de las matrices con dos valores distintos de sus entradas:

De hecho, denotan por $\SLs$ el submanifold de matrices con determinante $s$; Deje $\Sig \in \SLs$ ser una más cercano de la matriz de a $\SOn$. Por ortogonal de la invariancia, podemos suponer $\Sig$ es positivo diagonal. Entonces su único más cercano a la matriz en $\SOn$ es la identidad. Considerar la minimización geodésica entre el $I,\Sig$: $$ \alpha(t) =\id+t(\Sig-\id). $$ Desde reducir a un mínimo la geodésica a un submanifold es ortogonal a ella, tenemos $$\dot \alpha(1) \in (T_{\Sig}SL^{s})^{\perp}=(T_{(\sqrt[n]s)^{-1}\Sig}SL^{1})^{\perp}=\big((\sqrt[n]s)^{-1}\Sig T_{\id}SL^{1}\big)^{\perp}=\big(\Sig \text{tr}^{-1}(0)\big)^{\perp}.$$

Desde $\Sig^{-1} \in \big(\Sig \text{tr}^{-1}(0)\big)^{\perp} $ es una base para $\big(\Sig \text{tr}^{-1}(0)\big)^{\perp}$, podemos deducir

$$ \Sig-\id=\dot \alpha(1)=\lambda \Sig^{-1} \, \, \text{for some} \, \, \lambda \in \mathbb{R}, \, \text{i.e}$$

$$ \sigma_i-1=\frac{\lambda}{\sigma_i} \Rightarrow \sigma_i^2-\sigma_i-\lambda=0.$$ We see from the equation that if $\sigma_i$ is a solution, then so it $1-\sigma_i$, so if we denote by $a$ one root, the other must be $1-a$.

Nos demostró $\{\sigma_1,\dots,\sigma_n\} \subseteq \{a,1-a \}$.

Por otra parte, si el más cercano matriz $\Sigma$ tiene de hecho dos de la diagonal de valores, entonces ellos deben ser de la forma $a,1-a$; Ya que ambos son positivos, esto implica $0<a<1$. Por lo tanto, podemos asumir WLOG que $a<\frac{1}{2}$.


Así, nos lleva al siguiente problema de optimización:

$$ F(s)=\min_{a \in (0,\frac{1}{2}),a^k(1-a)^{n-k}=s,0 \le k \le n, k \in \mathbb{N}} k(a-1)^2+(n-k)a^2. \tag{1}$$

He resuelto algunos caso especial de abajo, pero yo no lo veo una buena forma de resolver el problema general.

Los resultados parciales hasta el momento:

  1. Dejando $k=0$ (o $k=n$), llegamos a la $F(s) \le n(\sqrt[n]s-1)^2$. Esta obligado siempre puede ser realizado por una de conformación de la matriz.
  2. $F$ disminuye con la dimensión: Denotar por $F_n$ la función que corresponde a la dimensión de $n$; tomando el último valor singular a ser $1$, podemos ver que $F_{n+1} \le F_n$ cualquier $n$. En particular $F_{n} \le F_2$. ($F_2$ se calcula explícitamente a continuación). Es la disminución de la estricta?

  3. En la dimensión $2$, una transición de fase se produce: puedo demostrar a continuación que

$$F(s) = \begin{cases} 2(\sqrt{s}-1)^2, & \text{ if }\, s \ge \frac{1}{4} \\ 1-2s, & \text{ if }\, s \le \frac{1}{4} \end{casos}$$

En otras palabras, para $A \in \GLtwo$, $$ \dist^2(A,\SOtwo) \ge \begin{cases} 2(\sqrt{\det A}-1)^2, & \text{ if }\, \det A \ge \frac{1}{4} \\ 1-2\det A, & \text{ if }\, \det A \le \frac{1}{4} \end{casos}. $$ Al $\det A \ge \frac{1}{4}$ igualdad ocurre si y sólo si $A$ es de conformación. Al $\det A < \frac{1}{4}$ igualdad hace que no se mantenga al $A$ es de conformación: La más cercana de las matrices a $\SOtwo$ con un determinado factor determinante $s=\det A$ (hasta composiciones con elementos en $\SOtwo$) son

$$ \begin{pmatrix} \frac{1}{2} + \frac{\sqrt{1-4\det A}}{2} & 0 \\\ 0 & \frac{1}{2} - \frac{\sqrt{1-4\det A}}{2} \end{pmatrix}, \begin{pmatrix} \frac{1}{2} - \frac{\sqrt{1-4\det A}}{2} & 0 \\\ 0 & \frac{1}{2} + \frac{\sqrt{1-4\det A}}{2} \end{pmatrix} $$

al $\det A < \frac{1}{4}$, y

$$ \begin{pmatrix} \sqrt{\det A} & 0 \\\ 0 & \sqrt{\det A} \end{pmatrix} $$

al $\det A \ge \frac{1}{4}$.


Editar:

  1. Por Tim respuesta a continuación, sabemos que si el minimizer no es de conformación, entonces un valor de $0<a<\frac{1}{2}$ se muestra una sola vez, y el valor de las otras (que es $1-a$) muestra $n-1$ veces. Desde $$\max_{a \in (0,1)}a(1-a)^{n-1}=\frac{1}{n}(1-\frac{1}{n})^{n-1},$$ we deduce that if $s > \frac{1}{n}(1-\frac{1}{n})^{n-1}$ the minimizer is conformal (the other candidate "$a,1-a$" does not exist). Tim also showed that if $s \le (\frac{1}{2})^n$ then the minimizer is not conformal. It remains to determine what happens when $(\frac{1}{2})^n <s<\frac{1}{n}(1-\frac{1}{n})^{n-1}$.

  2. Incluso en el caso de $s \le (\frac{1}{2})^n$, no tenemos una expresión explícita para el valor mínimo $F(s)$. Podemos obtener una expresión? o un presupuesto? Esto equivale a la estimación de los más pequeños* raíz de la ecuación $a(1-a)^{n-1}=s$ (o, equivalentemente, encontrar la única raíz en $(0,\frac{1}{n})$).

Vea aquí.

*Tim también mostró que el ganador de la raíz es la más pequeña.


Análisis del caso al $n$ es incluso y $n=2k$:

Reclamo:

$$ \text{Let } \, \,F(s)=\min_{a,b \in \mathbb{R}^+,a^{\frac{n}{2}}b^{\frac{n}{2}}=s} \frac{n}{2} \big( (a-1)^2+(b-1)^2 \big). \tag{2}$$ Entonces $$F(s) \le f(s) := \begin{cases} n(\sqrt[n]s-1)^2, & \text{ if }\, s^{\frac{2}{n}} \ge \frac{1}{4} \\ \frac{n}{2}(1-2s^{\frac{2}{n}}), & \text{ if }\, s^{\frac{2}{n}} \le \frac{1}{4} \end{casos}$$

Expresar la restricción $g(a,b)=ab-s^{\frac{2}{n}}=0$, y el uso de los multiplicadores de Lagrange método vemos que existe una $\lambda$ tal que

$$ (2(a-1),2(b-1))=\lambda \nabla g(a,b)=\lambda(b,a)$$ lo $a-1=\frac{b}{2}\lambda,b-1=\frac{a}{2}\lambda$.

Sumando, obtenemos $$ (a+b)-2=\frac{\lambda}{2}(a+b) \Rightarrow (a+b) (1-\frac{\lambda}{2})=2.$$ Esto implica $\lambda \neq 2$, por lo que nos divide y obtener $$ a+b=\frac{4}{2-\lambda} \Rightarrow a=\frac{4}{2-\lambda}-b. \tag{3}$$ Así, $$a-1=\frac{4}{2-\lambda}-b-1=\frac{b}{2}\lambda \Rightarrow b(\frac{2+\lambda}{2})=\frac{2+\lambda}{2-\lambda} .$$

Si $\lambda \neq -2$,, a continuación,$b=\frac{2}{2-\lambda}$, que junto con la ecuación de $(3)$ implican $a=b$.

Supongamos $\lambda=-2$. A continuación,$a=1-b$, lo $s^{\frac{2}{n}}=ab=b(1-b)$. Desde $a=1-b,b,s$ son positivos debemos tener $0<b<1,0<s^{\frac{2}{n}}\le\frac{1}{4}$. (Desde $\max_{0<b<1} b(1-b)=\frac{1}{4}$).

En ese caso, $$ \frac{n}{2} \big( (a-1)^2+(b-1)^2 \big) =\frac{n}{2} \big( b^2+(b-1)^2 \big)=\frac{n}{2} \big( 1-2b(1-b) \big)=\frac{n}{2}(1-2s^{\frac{2}{n}}).$$

Desde $$\frac{n}{2}(1-2s^{\frac{2}{n}}) \le n(\sqrt[n]s-1)^2,$$ with equality holds iff $s^{\frac{2}{n}}=\frac{1}{4}$ que se hacen.

La conclusión de la $2$-dim caso es inmediata.

14voto

Tim Carson Puntos 476

(Básicamente) respuesta Completa

  • Para $s \geq 1$ siempre tomamos la matriz diagonales $s^{1/n}$.
  • Para $s < 1$ y tenemos dos posibilidades. Para $n$ lo suficientemente pequeño tomamos (todavía) la matriz diagonales $s^{1/n}$. Para $n$ lo suficientemente grande que en lugar de resolver $$a(1-a)^{n-1} = s$$ y tomar el más pequeño de los (máximo dos) de las soluciones. El optimizador será la matriz con una diagonal $a$ y el resto $1-a$. (Nota para $s$ lo suficientemente pequeño como tendremos $a \approx s$ e $dist \approx 1$.

Intuitiva de los optimizadores de

En primer lugar, para obtener algo de intuición para el problema de darse cuenta de que el comportamiento de la solución va a depender de $s$. Si $s$ es muy grande, lo mejor es tomar todos los valores propios iguales. Esto es fácil de visualizar: el punto más cercano de la gráfica de $xyz=1000$ a $(1,1,1)$ es $(10,10,10)$. enter image description here

Por otro lado, si $s$ es muy pequeña, a continuación, tomar todos los valores que el mismo da a una distancia de alrededor de $n$. Tomando un autovalor a ser $s$ y el resto a $1$ que puede tener una distancia de $1$ a partir de la identidad.

Adimensional problema

Recogemos de su problema de optimización (1). Es conveniente escribir $\alpha = k/n$ e $L = \log(s)/n$, de modo que su problema de optimización es equivalente a minimizar $$G(a,b,\alpha) = \alpha (a-1)^2 + (1-\alpha) (b-1)^2$$ sobre el conjunto de $$H(a,b,\alpha) = L, \quad a>0,\quad b>0,\quad \alpha \in [0,1], \quad n\alpha \in \mathbb{N}$$ donde $H(a,b,\alpha)$ es $$H(a,b,\alpha) = \alpha \log (a) + (1-\alpha) \log (b).$$

Se puede realizar el método de multiplicadores de Lagrange en la $a$ e $b$ coordenadas. Esto nos dará de que cualquiera de las $b=a$ o $b = (1-a)$. Una ruta más directa a este resultado es observar en la ecuación $$\sigma^2 - \sigma - \lambda = 0 \text{ for some } \lambda \in \mathbb{R}$$ tenemos que si $\sigma$ es una solución, por lo que es $(1-\sigma)$.

El fácil competidor

Ahora si $a = b$ entonces $\alpha$ es irrelevante, y tenemos el primer competidor a la minimización de $$a = b = e^L, \quad \alpha = \text{anything}, \quad dist = (e^L-1)^2$$

El más duro competidor El caso de $b = 1-a$ es más difícil de analizar. En primer lugar observamos que para esta solución debemos restringir a $a < 1$. Dado que el $b = 1-a$ podemos reescribir nuestra optimización como la minimización de $$\alpha (a-1)^2 + (1-\alpha)a^2 $$ sobre el conjunto de \begin{equation}\tag{1} \alpha \log(a) + (1 - \alpha) \log(1-a) = L \end{equation} \begin{equation} \tag{2} a \in (0,1/2), \quad a \leq \min(e^L, 1-e^L), \quad n\alpha \in \mathbb{N} \end{equation} La primera restricción de arriba viene de asumir (WLOG) $a$ es menor que $b$. La segunda es a partir de la observación de que $L$ es una combinación convexa de $\log a$ e $\log (1-a)$ lo $\log (a) \leq L \leq \log(1-a)$.

Para simplificar, podemos resolver la restricción $\alpha \log a + (1-\alpha)\log (1-a)$ para $\alpha$: \begin{equation} \tag{3} \alpha = \frac{L - \log(1-a)}{\log(a) - \log(1-a)} \end{equation} y ahora reescribir nuestra minimización como: minimizar $$f(a) = \frac{(L - \log(1-a))(1-a)^2 + (\log(a)-L)a^2}{\log(a)-\log(1-a)}$$ más $$a \in (0, \min(e^L, 1-e^L)), \quad n\alpha \in \mathbb{N}$$

Ahora pretendemos los siguientes tres hechos:

  1. $f(a)$ cero o uno de los puntos críticos
  2. $\lim_{a \to 0}f(a) = 0$
  3. $f(e^L) = f(1-e^L) = (e^{L}-1)^2$

Teniendo en cuenta estos tres hechos, vemos que si nos olvidamos de la condición de $n \alpha \in \mathbb{N}$ de nuestras limitaciones, podemos ver que el infimum de $f$ es $0$ que no se dio cuenta de $a > 0$. La función de $f(a)$ o bien se parece a enter image description here o enter image description here (Estos son L = -1/5 y -3.) La línea roja en estas imágenes es el valor de tomar la matriz de las diagonales, (e^L - 1)^2.

Si queremos ahora hacer cumplir la discreta condición de $n \alpha \in \mathbb{N}$ vemos que basta para comprobar la menor $a$ contra $(e^L -1 )^2$.

La comprobación de estos hechos He comprobado los puntos 2 y 3 con un CAS. Para el elemento 1 se me hizo la siguiente. Primero implícitamente diferenciar la restricción (1) con respecto a $a$ encontrar $$ \frac{d\alpha}{da} \left(\log a - \log(1-a) \right) = - \left(\frac{\alpha}{a} - \frac{1-\alpha}{1} \right) $$ Luego se diferencian $f$ y póngalo a cero para encontrar $$ 2 (a - \alpha) \left(\log a - \log(1-a) \right) = (-2a + 1) \left( \frac{\alpha}{a} - \frac{1-\alpha}{1} \right) $$ Multiplicar por $a(1-a)$ encontrar $$ 2a(1-a)(a-\alpha) \left( \log a - \log(1-a) \right) = (-2a+1) \left(\alpha \right) $$ Si $\alpha \neq a$ podemos dividir por $\alpha-a$ y encontrar (la comprobación de que sólo hay una solución) $a = 1/2$. Esto no está permitido por nuestras limitaciones (2). Por otro lado, tenemos una solución si $\alpha = a$. A continuación, compruebe que hay más de una solución (1) con $\alpha = a$.

Add-on: voy a escribir lo que yo sé acerca de $f(a)$ más de precisión.

  • Para $L \geq \log (1/2)$ es una solución a la restricción $\alpha \log a + (1-\alpha) \log (1-a) = L$ con $a= \alpha$. De manera equivalente, para $1/2 \leq y < 1$ es una solución a $\frac{a^a}{(1-a)^{1-a}} = y$. En realidad, hay dos soluciones en $[0, 1]$ relacionados por $a_1 = 1-a_2$, por lo que ya hacemos valer $a<1/2$ sólo hay una solución en nuestro dominio para $a$.

  • Para $L < \log (1/2)$ no hay solución con $a = \alpha$.

  • Esto significa que $f$ como una función de la $a$ tiene un punto crítico si $L \geq \log(1/2)$, es decir, donde $a = \alpha$. Si $L \leq \log(1/2)$ no hay punto crítico.

Edit: Aquí están algunas fotos de por qué el valor más pequeño de $a$ a continuación no siempre se corresponde con el valor más pequeño de $\alpha$. Creo que es útil para visualizar la primera. Aquí es $\alpha$ como una función de la $a$ para $L = \log(.99)$, $L = \log(.51)$, $L = \log(1/2)$, y $L = \log(.49)$.

$L = \log(.99)$ enter image description here $L = \log(.51)$ enter image description here $L = \log(.5)$ enter image description here $L = \log(.49)$ enter image description here

Si $L \leq \log(1/2)$ entonces $\alpha$ como una función de la $a$ no tiene puntos críticos y es cada vez mayor (razonamiento similar como con $f(a)$). Por lo tanto, tomando la más pequeña posible, $\alpha$ le da la más pequeña posible,$a$.

Si $L > \log(1/2)$ luego de $a \in [0, 1-e^{L}] = [0, min(e^L, 1-e^L)]$, $\alpha$ tiene un único punto crítico, una máxima, y es cero en los extremos. Por lo tanto, podemos (erróneamente) elija $\alpha = 1/1000$ y, a continuación, tome $a$ a ser grandes. Pero, usted puede visualizar todos los valores permitidos de $a$ mediante el dibujo de una discreta colección de líneas horizontales en la imagen (aquí se $L = log(.51), n=10$): enter image description here Las opciones posibles de $a$ en nuestro conjunto discreto están dadas por las intersecciones de las líneas rojas con nuestra curva azul, por la naturaleza de la función que cada línea roja tiene dos intersecciones con la curva azul. El más bajo de la línea roja tiene el menor y mayor valor de $a$. Esta imagen también muestra cómo encontrar el contraejemplo a su stackexchange pregunta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X