Deje $[a_{i,j}(x_1,\ldots,x_n)]$ ser un sesgo de simetría $n\times n$ matriz de funciones de $a_{i,j}\in C^\infty(\mathbb{R}^n)$. El campo de vectores $$v=\sum\left(\dfrac{\partial}{\partial x_i}a_{i,j}\right)\dfrac{\partial}{\partial x_j}$$ es la divergencia libre.
Demostrar por inducción que para cada $n\geq 2$ cada $C^\infty$ divergencia libre campo de vectores en $\mathbb{R}^n$ es de esta forma.
Considere la posibilidad de $n=2$. Supongamos que el campo vectorial es $f_1(x_1,x_2)\dfrac{\partial}{\partial x_1}+f_2(x_1,x_2)\dfrac{\partial}{\partial x_2}$. Desde el campo de vectores es la divergencia libre, tenemos que $\dfrac{\partial}{\partial x_1}f_1(x_1,x_2)+\dfrac{\partial}{\partial x_2}f_2(x_1,x_2)=0$. Por este resultado, existe una función de $g(x_1,x_2)$ cuyas $x_1$-derivada es igual a $f_2$ y cuyas $x_2$-derivada es igual a $-f_1$. El resultado de la siguiente manera.
Pero ¿por $n>2$? El uso de la inducción, tengo que relacionar una divergencia-vector libre campo de $\mathbb{R}^n$ a una divergencia libre de vectores de campo de $\mathbb{R}^{n-1}$. Es posible que la siguiente resultado nos ayudará a:
Deje $v$ ser un campo de vectores en $\mathbb{R}^n$. Mostrar que $v$ puede ser escrita como una suma $v=f_1\dfrac{\partial}{\partial x_1}+w$ donde $w$ es una divergencia libre de vectores de campo.
Respuestas
¿Demasiados anuncios?Inducción Hipótesis sobre $k$: Dado un suave divergencia gratis campo de vectores $v:\mathbb R^n \to \mathbb R^n$ tal que $\text{div}_{k} v := \sum_{i=1}^k \frac{\partial v_i}{\partial x_i} = 0$, existe un suave sesgo de simetría de la matriz de $a:\mathbb R^n \to \mathbb R^{n\times n}$ tal que $v_j = \sum_{i=1}^k \frac\partial{\partial x_i} a_{ij}$$1 \le i \le k$.
El caso de $k=0$ es trivial.
Supongamos que es cierto para $k-1 \ge 0$. Podemos comprobarlo por $k$.
Vamos $$ f_1(x_1,\dots,x_n) = \int_0^{x_1} \frac{\partial}{\partial x_k} v_k(\xi,x_2,x_1,\dots,x_n) \, d\xi .$$ Entonces $$ \frac{\partial}{\partial x_1}(v_1+f_1) + \frac{\partial}{\partial x_2}v_2 + \dots + \frac{\partial}{\partial x_{k-1}}v_{k-1} = 0 .$$
Por la hipótesis inductiva, existe un sesgo simétrica matriz $a_{ij}$ tal $$ v_1 + f_1 = \sum_{i=1}^{k-1} \frac{\partial}{\partial x_i} a_{i1} $$ $$ v_j = \sum_{i=1}^{k-1} \frac{\partial}{\partial x_i} a_{ij} \quad \text{ for $2 \le j \le k-1$}$$
Definimos $$ f_2(x_1,\dots,x_n) = \int_0^{x_1} v_k(\xi,x_2,\dots,x_{k-1},0,x_{k+1},\dots,x_n) \, d\xi - \int_0^{x_k} f_1(x_1,\dots,x_{k-1},\xi,\dots,x_n) \, d\xi .$$ Entonces $$ \frac\partial{\partial x_1} f_2 = v_k(x_1,\dots,x_{k-1},0,\dots,x_n) - \int_0^{x_k} \frac\partial{\partial x_k} v_k(x_1,\dots,x_{k-1},\xi,\dots,x_n) \, d\xi = -v_k $$ y $$ \frac\partial{\partial x_k} f_2 = - f_1 $$ Ahora extender la matriz $a$ mediante el establecimiento $a_{k1} = -a_{1k} = f_2$, e $a_{kj}=a_{jk} = 0$$2 \le j \le k$. Entonces $$ \sum_{i=1}^{k} \frac{\partial}{\partial x_i} a_{i1} = v_1 + f_1 + \frac\partial{\partial x_k} f_2 = v_1, $$ $$ \sum_{i=1}^{k} \frac{\partial}{\partial x_i} a_{j1} = v_j \quad \text{ for $2 \le j \le k-1$}, $$ y $$ \sum_{i=1}^{k} \frac{\partial}{\partial x_i} a_{ik} = - \frac\partial{\partial x_1} f_2 = v_k. $$
Bueno, ya que se menciona la inducción, me gustaría intentarlo. Tenga en cuenta que$$\nabla\cdot v=\sum_{i,j}^n\partial_i(\partial_ja_{ij})=\sum_{i,j}^{n-1}\partial_i(\partial_ja_{ij})+\sum_i^{n-1}\partial_i(\partial_na_{in})+\sum_j^{n-1}\partial_n(\partial_ja_{nj})=0$ $ Wow ... Parece más fácil de lo que pensaba.