8 votos

¿Que matrices pueden realizarse como segundo derivados de trayectorias ortogonales?

$\newcommand{\skew}{\operatorname{skew}}$ $\newcommand{\sym}{\operatorname{sym}}$ $\newcommand{\SO}{\operatorname{SO}_n}$

Me interesa saber cuales son reales, las matrices de $A \in M_n$ puede ser realizado como segundo derivados de las rutas en las $\text{SO}_n$ partir de la identidad. Es decir, para que las matrices de $A$, no existe un camino liso $\alpha:(-\epsilon,\epsilon) \to \text{SO}_n$, de tal manera que $\alpha(0)=Id$ e $\ddot \alpha(0)=A$. Se denota el espacio de realización de las matrices $D$.

Pregunta: puedo demostrar a continuación que $ (\skew)^2 \subseteq D \subseteq (\skew)^2+\skew $. No $D=(\skew)^2+\skew$ siempre?

Comentario: tenga en cuenta que $(\skew)^2+\skew \subsetneq M_n$, al menos por extraño $n$: En este caso, todas las sesgo de simetría de la matriz es singular, por lo $(\skew)^2 \subseteq \sym $ sólo consiste en singular matrices, por lo tanto no contiene todas las matrices simétricas.

Edit: he probado a continuación que la igualdad se mantiene en la dimensión $n=2$.


La prueba de $ (\skew)^2 \subseteq D \subseteq (\skew)^2+\skew $:

  1. Cada cuadrado del sesgo de simetría de la matriz se pueden realizar: Para sesgar $B$, tome $\alpha(t)=e^{tB}$. A continuación, $\dot \alpha(t)=Be^{tB}$, $\ddot \alpha(t)=B^2e^{tB}$.

  2. El espacio de realización de las matrices está contenida en $(\skew)^2+\skew$: de Hecho, desde la $\dot \alpha(t) \in T_{\alpha(t)}\SO=\alpha(t)\skew$, tenemos $\dot\alpha(t)=\alpha(t)B(t)$ para algunos $B(t) \in \skew$, por lo que

$$\ddot \alpha(t)=\dot \alpha(t) B(t)+\alpha(t) \dot B(t)$$ hence $\ddot \alpha(0)=\dot \alpha(0) B(0)+ \punto B(0)= B(0)^2+\punto B(0) \(\skew)^2 +\sesgar,$ where the last equality followed from $\dot \alpha(0)=B(0)$ (put $t=0$ in $\dot\alpha(t)=\alpha(t)B(t)$).

Edit 2: Al intentar mostrar la inversa de la dirección, me golpeó un muro: "tenemos que demostrar que existen soluciones de $\dot\alpha(t)=\alpha(t)B(t)$, donde $\alpha(t) \in \SO,B(t) \in \skew$, con arbitraria $B(0),\dot B(0) \in \skew$. Un ingenuo intento sería definir $\alpha(t)=e^{\int_0^t B(s)ds}$ para $B(s)=B(0)+s\dot B(0)$. Sin embargo, no es cierto en general que $\alpha'(t)=\alpha(t)B(t)$; esto sucede si $B(t)$, $\int_0^t B(s)ds$ commute, que sucede si y sólo si $B(0),\dot B(0)$ viaje.


Prueba de $D = (\skew)^2+\skew$ para $n=2$:

$\alpha(t)$ siempre puede ser escrito como $\alpha(t)=\begin{pmatrix} c(\phi(t)) & s(\phi(t)) \\\ -s(\phi(t)) & c(\phi(t)) \end{pmatrix}$, donde $c(x)=\cos x,s(x)=\sin x$, e $\phi(t)$ es algunos parametrización de la satisfacción de $\phi(0)=0$.

La diferenciación $\alpha(t)$ dos veces, obtenemos

$$ \ddot \alpha(t)=-(\phi'(t))^2\alpha(t)+\phi''(t)\begin{pmatrix} -s(\phi(t)) & c(\phi(t)) \\\ -c(\phi(t)) & -s(\phi(t)) \end{pmatrix},$$

así

$$ \ddot \alpha(0)=-(\phi'(0))^2Id+\phi''(0)\begin{pmatrix} 0 & 1 \\\ -1 & 0 \end{pmatrix}.$$

Ya que podemos elegir $\phi'(0),\phi''(0)$ como queremos, llegamos a la conclusión de que $$ D=\mathbb{R}_{\le 0}Id+\mathbb{R}\begin{pmatrix} 0 & 1 \\\ -1 & 0 \end{pmatrix}=\mathbb{R}_{\le 0}Id+\skew.$$ Since $\skew=\text{span} \{ \begin{pmatrix} 0 & 1 \\\ -1 & 0 \end{pmatrix}\}$, and $\begin{pmatrix} 0 & 1 \\\ -1 & 0 \end{pmatrix}^2=-Id$, we have $\sesgar^2=\mathbb{R}_{\le 0}Id$, so indeed $D=(\skew)^2+\sesgar$.

3voto

Or Eisenberg Puntos 54

Creo que la construcción que estás buscando se llama Dyson Serie (Wikipedia). En detalle, supongamos que tenemos $B,C \in \mathrm{Skew}(n)$ y queremos construir un $\gamma: (-\varepsilon,\varepsilon) \to \mathrm{SO}(n)$ tal que $\gamma(0)=1$ e $\ddot{\gamma}(0)=B^2+C$. Yo reclamo que \begin{align*} \gamma(t) & :=\sum_{n=0}^{\infty} \left[\int_0^t \int_0^{t_0} \cdots \int_0^{t_{n-1}} \left(\prod_{k=0}^n (B+t_{n-k} C) \right) \mathrm{d} t_n \cdots \mathrm{d} t_0\right] \\ & = 1 + \int_0^t (B+t_0C) \mathrm{d}t_0 + \int_0^t \int_0^{t_0} (B+t_1C)(B+t_0C) \mathrm{d} t_1 \mathrm{d}t_0 + \\ & \hspace{1cm}\int_0^t \int_0^{t_0} \int_0^{t_1} (B+t_2C)(B+t_1C)(B+t_0C) \mathrm{d}t_2 \mathrm{d}t_1 \mathrm{d}t_0 + \cdots \end{align*} es una bien definida la solución al problema. De hecho, si nos vamos a $$m:=\max_{s \in [0,t]} \lVert B+sC \rVert_{L^2},$$ entonces tenemos que $$\lVert \gamma(t) \rVert_{L^2} \leq e^m,$$ de modo que $\gamma$ se define por una secuencia convergente. Por otra parte, podemos calcular que $\dot{\gamma}(t)=\gamma(t)(B+tC)$, evidenciando que la imagen de $\gamma$ (que a priori se encuentra en el espacio de $n \times n$ matrices) en realidad reside en $\mathrm{SO}(n)$ y también que $\ddot{\gamma}(0)=B^2+C$.

3voto

tyson blader Puntos 18

Sí. Dado matrices sesgar-simétricas <span class="math-container">$B$</span> y <span class="math-container">$C,$</span> definen <span class="math-container">$\alpha(t)=\exp(Bt+\tfrac12 Ct^2).$</span> luego <span class="math-container">\begin{align} \alpha(t) &=I+(Bt+\tfrac12 Ct^2)+\tfrac12 (Bt+\tfrac12 Ct^2)^2+O(t^3)\ &=I+Bt+\tfrac12 (B^2+C)t^2+O(t^3) \end {Alinee el}</span> <span class="math-container">$t\to 0.$</span> esto muestra que el <span class="math-container">$\ddot \alpha(0)=B^2+C.$</span>

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X