11 votos

¿Es normal que un estudiante de matemáticas puras no sepa de análisis vectorial?

Hoy he estado viendo una serie de videoconferencias en línea sobre electromagnetismo. En algún momento de la conferencia, el profesor utilizó esta identidad de cálculo vectorial: $$ \nabla\times\left(\mathbf{A}\times\mathbf{B}\right)=\mathbf{A}\left(\nabla\cdot\mathbf{B}\right)-\mathbf{B}\left(\nabla\cdot\mathbf{A}\right)+\left(\mathbf{B}\cdot\nabla\right)\mathbf{A}-\left(\mathbf{A}\cdot\nabla\right)\mathbf{B}$$

Así que intenté demostrarlo utilizando la identidad "bac-cab" y seguí obteniendo resultados erróneos. Más tarde, me di cuenta de que la identidad "bac-cab" para los productos triples vectoriales ya no se mantiene cuando los operadores vectoriales como $\nabla$ ¡están involucrados!

¿Es normal que no conozca ningún análisis vectorial? He cursado cálculo multivariable, ¡pero no nos enseñaron nada de esas identidades! ¿Mi universidad nos engañó y nos enseñó menos de lo que deberíamos saber o es normal que los estudiantes de matemáticas puras no conozcan las identidades de análisis vectorial tan bien como las conocen los ingenieros y los físicos?

Y por último, agradeceré que alguien presente un buen libro de introducción al cálculo vectorial que me enseñe a manejar dichas ecuaciones e identidades vectoriales.

7voto

MyPreciousss Puntos 357

Los comentarios que se han hecho hasta ahora dan excelentes consejos. Pensé que te gustaría ver los detalles.

Necesitamos la conocida identidad $\sum_{j=1}^{3} \epsilon_{ikj}\epsilon_{lmj} = \delta_{il}\delta_{km}-\delta_{kl}\delta_{im}$ . Este es el corazón oscuro de la identidad de BAC-CAB. \begin{align} \notag \nabla \times (\vec{A} \times \vec{B}) &= \sum_{i,j,k=1}^3 \epsilon_{ijk}\partial_i (\vec{A} \times \vec{B})_j\widehat{x}_k \\ &= \sum_{i,j,k=1}^3 \epsilon_{ijk}\partial_i \left(\sum_{l,m=1}^3A_lB_m\epsilon_{lmj} \right) \widehat{x}_k \\ &= \sum_{i,j,k=1}^3\sum_{l,m=1}^3 \epsilon_{ijk}\epsilon_{lmj}\partial_i \left(A_lB_m \right) \widehat{x}_k \\ &= -\sum_{i,j,k,l,m=1}^3 \color{red}{\epsilon_{ikj}\epsilon_{jlm}}\partial_i \left(A_lB_m \right) \widehat{x}_k \\ &= -\sum_{i,k,l,m=1}^3( \color{red}{\delta_{il}\delta_{km}-\delta_{im}\delta_{kl}})\partial_i \left(A_lB_m \right) \widehat{x}_k \\ &= -\sum_{i,k,l,m=1}^3\delta_{il}\delta_{km}\partial_i \left(A_lB_m \right) \widehat{x}_k+\sum_{i,k,l,m=1}^3\delta_{im}\delta_{kl}\partial_i \left(A_lB_m \right) \widehat{x}_k \\ &= -\sum_{i,k=1}^3\partial_i \left(A_iB_k \right) \widehat{x}_k+\sum_{i,k=1}^3\partial_i \left(A_kB_i \right) \widehat{x}_k \\ &= -\sum_{i,k=1}^3\left((\partial_i A_i)B_k+A_i\partial_i B_k \right) \widehat{x}_k+\sum_{i,k=1}^3 \left((\partial_iA_k)B_i+A_k\partial_iB_i \right) \widehat{x}_k \\ &= -\sum_{i,k=1}^3(\partial_i A_i)B_k\widehat{x}_k-\sum_{i,k=1}^3A_i\partial_i B_k\widehat{x}_k +\sum_{i,k=1}^3 B_i\partial_iA_k\widehat{x}_k+\sum_{i,k=1}^3(\partial_iB_i)A_k \widehat{x}_k \\ &= -(\nabla \cdot \vec{A})\vec{B}-(\vec{A} \cdot \nabla )\vec{B}+(\nabla \cdot \vec{B})\vec{A}+(\vec{B} \cdot \nabla )\vec{A} \end{align} Si te sirve de consuelo, yo era un estudiante de matemáticas y física y estas cosas se me escapaban hasta que tuve la suerte de estudiar con un estudiante español en la escuela de posgrado. Yo tenía páginas y páginas de material y él tenía tres líneas sobre un problema particular. Me di cuenta de que probablemente debería usar $\epsilon_{ijk}$ para el cálculo de la identidad de los vectores. Además, existe toda una familia de símbolos de levi-civita contraídos como sumas de deltas de kronecker antisimétricos. La identidad con la que comienza este post es sólo un comienzo. Se utilizan en el cálculo tensorial de la relatividad general.

2voto

empedocle Puntos 524

Voy a demostrar otras dos identidades de cálculo vectorial para comprobar si he entendido bien las notaciones de los físicos :D También voy a utilizar la notación de suma de Einstein. ;-)

1. $$\nabla \cdot (\mathbf{A} \times \mathbf{B}) = \mathbf{B} \cdot (\nabla \times \mathbf{A}) - \mathbf{A} \cdot (\nabla \times \mathbf{B})$$

$$\nabla \cdot (\mathbf{A} \times \mathbf{B}) = \partial_i(\mathbf{A}\times\mathbf{B})_i=\partial_i(\epsilon_{ijk}A_jB_k)=\epsilon_{ijk}\partial_i(A_jB_k)=\epsilon_{ijk}A_j\partial_iB_k+\epsilon_{ijk}B_k\partial_iA_j$$

$$\epsilon_{ijk}A_j\partial_iB_k+\epsilon_{ijk}B_k\partial_iA_j=-\epsilon_{jik}A_j\partial_iB_k+\epsilon_{kij}B_k\partial_iA_j=-A_j(\epsilon_{jik}\partial_iB_k)+B_k(\epsilon_{kij}\partial_iA_j)$$ $$-A_j(\epsilon_{jik}\partial_iB_k)+B_k(\epsilon_{kij}\partial_iA_j)=-A_j(\nabla \times \mathbf{B})_j+B_k(\nabla \times \mathbf{A})_k = -\mathbf{A}\cdot(\nabla \times \mathbf{B})+\mathbf{B}\cdot(\nabla \times \mathbf{A})$$

2. $$ \nabla \times \left( \nabla \times \mathbf{A} \right) = \nabla(\nabla \cdot \mathbf{A}) - \nabla^{2}\mathbf{A}$$

donde $\nabla^{2}\mathbf{A}=\langle \nabla^{2}A_x, \nabla^{2}A_y, \nabla^{2}A_z\rangle$ y se llama vector Laplaciano.

$$(\nabla \times \left( \nabla \times \mathbf{A} \right))_i = \epsilon_{ijk}\partial_j(\nabla\times \mathbf{A})_k=\epsilon_{ijk}\partial_j(\epsilon_{kmn}\partial_mA_n)=\epsilon_{ijk}\epsilon_{kmn}\partial_j(\partial_mA_n)$$ Ahora utilizamos la famosa igualdad: $$\epsilon_{ijk}\epsilon_{kmn}=\delta_{im}\delta_{jn}-\delta_{in}\delta_{jm}$$

$$(\nabla \times \left( \nabla \times \mathbf{A} \right))_i= \delta_{im}\delta_{jn}\partial_j(\partial_mA_n)-\delta_{in}\delta_{jm}\partial_j(\partial_mA_n)=\partial_j(\partial_iA_j)-\partial_j(\partial_jA_i)$$ $$\partial_j(\partial_iA_j)-\partial_j(\partial_jA_i)=\partial_i(\partial_jA_j)-(\partial_j\partial_j)A_i=\partial_i(\nabla \cdot\mathbf{A})-(\nabla^{2}\mathbf{A})_i=(\nabla(\nabla \cdot \mathbf{A})-\nabla^{2}\mathbf{A})_i$$

Estoy seguro de que la última línea necesita algunas modificaciones porque el LHS es el componente i-ésimo de $\nabla \times \left( \nabla \times \mathbf{A} \right)$ mientras que en el RHS un vector ( $\nabla^{2}\mathbf{A}$ ) ha aparecido antes de lo que debería.

Por lo tanto, he hecho las siguientes suposiciones en mis cálculos (por favor, verifíquelas):

  1. Parciales siempre actúan como diferenciales, independientemente de los subíndices que intervienen en nuestros cálculos . $\partial_iX_jY_k = (\partial_iX_j)Y_k + X_j(\partial_iY_k)$ .

  2. Si asumimos la existencia y continuidad de las segundas derivadas involucradas en nuestros cálculos, entonces como las derivadas parciales se conmutan tenemos $\partial_i\partial_j= \partial_j\partial_i$ .

  3. He asumido que $\epsilon_{ijk}$ es una función constante y puede salir de las derivadas parciales con facilidad.

EDITAR:

Quiero demostrarlo:

$$ \nabla(\mathbf{A} \cdot \mathbf{B}) = (\mathbf{A} \cdot \nabla)\mathbf{B} + (\mathbf{B} \cdot \nabla)\mathbf{A} + \mathbf{A} \times (\nabla \times \mathbf{B}) + \mathbf{B} \times (\nabla \times \mathbf{A}) $$

$$(\nabla(\mathbf{A} \cdot \mathbf{B}))_i = \partial_i (\mathbf{A}\cdot\mathbf{B})=\partial_i(A_jB_j)=\partial_i(A_j)B_j+\partial_i(B_j)A_j$$

No veo cómo debo avanzar. Estoy atascado.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X