Quiero demostrar que$$ - \int\limits_{\mathbb R^n} y_t \Delta y = \int\limits_{\mathbb R^n} \sum_{j=1}^n \left(\frac{\partial y}{\partial x_j}\right)\left(\frac{\partial y_t}{\partial x_j}\right) $ $ Here$ \Delta y = \sum\limits_{j=1}^n \frac{\partial^2 y}{\partial x_j^2} $ y$y = y(t,x_1, \cdots x_n ) \in C^\infty ([0,\infty) \times \mathbb R^n )$,$y_t(t, \cdot) \in L^2$.
Respuestas
¿Demasiados anuncios?Comenzamos a escribir$$\int_{\mathbb R^n}y_t\Delta y=\sum_{j=1}^n\int_{\mathbb R^n}y_t\partial_{jj}y=\sum_{j=1}^n\int_{\mathbb R^{n-1}}\left(\int_{\mathbb R}y_t\partial_{jj}ydx_j\right)\widehat{dxj},$ $ donde$\widehat{dxj}=dx_1\ldots dx_{j-1}dx_{j+1}\ldots dx_n$. Ahora, en cada integral$I_j:=\int_{\mathbb R}y_t\partial_{jj}ydx_j$, hacemos una integración por partes para obtener$I_j=-\int_{\mathbb R}\partial_jy_t\partial_jydx_j$, suponiendo que$\lim_{|x_j|\to\infty}y_t(x)\partial_jy(x)=0$. Obtenemos$$-\int_{\mathbb R^n}y_t\Delta ydx=\sum_{j=1}^n\int_{\mathbb R^{n-1}}\left(\int_{\mathbb R}\partial_jy_t\partial_jydx_j\right)\widehat{dx_j}=\sum_{j=1}^n\int_{\mathbb R^n}\partial_j y_t\partial_jydx,$ $, que es el resultado deseado.
Puede usar la fórmula del cálculo vectorial$$\textrm{div}(aF)=(\textrm{grad}\,a)\cdot F+a\,\textrm{div}F,$$ for an arbitrary scalar function $ a$ and a vector function $ F. $
Tomando$F=\textrm{grad}\,y,$$a=y_t$ obtienes$$\textrm{div}(y_t\,\textrm{grad}\,y)=\textrm(\textrm{grad}\,y_t)\cdot(\textrm{grad}\,y)+y_t\Delta y.$ $
Integrando termwise en$\mathbb{R}^n$ obtienes$$\int_{\mathbb{R}^n}\textrm(\textrm{grad}\,y_t)\cdot(\textrm{grad}\,y)+\int_{\mathbb{R}^n}y_t\Delta y=\lim_{R\to\infty}\int_{|x|=R}y_t\,\textrm{grad}\,y\cdot\hat{\bf{n}}.$ $
Ahora necesitas condiciones adecuadas para que el rhs desaparezca