Processing math: 100%

2 votos

¿Cómo calcular la derivada direccional de un campo vectorial?

Supongamos que nos dan un campo vectorial a tal que

a(x1,,xn)=ki=1fi(x1,,xn)ei

donde

S={e1,,ek} es una base constante y ortonormal de Rk .

Lo que sigue debe tomarse con un sótano de sal. Para calcular la derivada direccional, empezamos con el gradiente. Sus componentes vienen dados por la matriz G :

G=[f1(x1,,xn)x1f1(x1,,xn)xnfk(x1,,xn)x1fk(x1,,xn)xn].

El gradiente a viene dada por la doble suma

a=ki=1nj=1fi(x1,,xn)xjeiej. Cuando se trata de funciones de valor escalar, la derivada en la dirección de algún vector u sería la proyección del gradiente sobre u .

Suponiendo que esto se mantenga, la derivada direccional Du(a) de a es

Du(a)=au|u|.

Sustituyendo nuestra doble suma:

Du(a)=u|u|ki=1nj=1fi(x1,,xn)xjeiej.

Pregunta : ¿Esto es generalización para Du(a) ¿Es cierto?

  • Si es así, ¿cómo se evalúa?
  • Si no es así, ¿cuál es la forma correcta de encontrar una derivada direccional de un campo vectorial?

Anexo

El signo denota el producto tensorial. Aquí tenemos el producto tensorial de los vectores base.

Además, tras dyadics en Wikipidia, parece que para una base ortonormal Du(a)=u|u|G. Así que si u=em entonces Dem(a)=emG. Esto no tiene sentido, a menos que se trate de algún tipo de contracción tensorial... En tal caso, Dem(a)=[ki=1eiGi1ki=1eiGin].

Aquí ei denota el ith componente de em ; Gij denota el ijth componente de G . Y como estamos en una base ortonormal, sólo em=10 :

Dem(a)=[emGm1emGmn]=[Gm1Gmn].

Este parece ser el mth fila de G transpuesto. Y en forma derivada,

Dem(a)=[fm(x1,,xn)x1fm(x1,,xn)xn].

1voto

Pete Puntos 34

Supongamos que la función vectorial f:RnRm tiene la derivada (total) en x0Rn denotado por dx0f . Es una transformación lineal de Rn a Rm . Da el diferencial (total) de la función f en x0 como una función que mapea desde Rn a Rm aplicando a la variable vectorial x cerca de x0 para dar dx0f(xx0) . Con respecto a los conjuntos de bases estándar {ˆai}ni=1 y {ˆbi}mi=1 de Rn y Rm respectivamente, la derivada total dx0f corresponde a la m×n matriz llamada matriz jacobiana

(dx0f)=(f1x1f1xnfmx1fmxn),x0=xiˆai,f(x)=fi(x)ˆbi

Por otro lado, el gradiente de f donado por f es una transformación lineal de Rm volver a Rn definida, con respecto a los mismos conjuntos de bases estándar, de modo que la matriz correspondiente de la misma es la n×m matriz

(f)=(f1x1fmx1f1xnfmxn)

Nótese, al menos con respecto a los conjuntos de bases estándar, que el gradiente es la transposición de la derivada total.

La variación de la función f en x0 en la dirección del vector unitario uRn es decir, la derivada direccional de f , denotado por Duf(x0) es un vector en Rm dada por la aplicación de la derivada total sobre u ,

Duf(x0)=dx0fu

En el caso especial de m=1 es decir, una función de valor escalar, el lado derecho de la ecuación anterior es un producto de a 1×n matriz y una n×1 matriz, dando lugar a un escalar. Sucede que, en este caso particular, el producto de la matriz es igual también al producto punto del gradiente de la función y el vector unitario. Por eso cuando se habla de funciones escalares los libros de texto siempre relacionan el gradiente con la derivada direccional mediante el producto punto como regla de cálculo. Sin embargo, no podemos generalizar directamente la regla del producto puntual a las funciones de valor vectorial.

Sobre su apéndice, si utilizamos el producto tensorial de los vectores base de dos espacios vectoriales como base para expresar una transformación lineal entre estos dos espacios vectoriales, debemos tener cuidado con las dimensiones. De hecho, en el análisis tensorial ya tenemos una definición rigurosa y general. Pero aquí supongamos que redefinimos algo sólo para el propósito específico descrito por esta pregunta.

Dejemos que Vn denotan un n -espacio vectorial en R . Una transformación lineal A:VnWm tiene su m×n representación matricial Aji bajo conjuntos de bases {ˆei}Vn y {ˆfi}Wm se puede obtener actuando sobre el primero mediante A para dar n vectores ui=Ajiˆfj . Al actuar sobre un vector cVn obtenemos dWm , d=Ac . Bajo el conjunto de bases tenemos el cálculo matricial de esta transformación

(d1dm)=(A11A1nAm1Amn)(c1cn)

o dj=Ajici .

Por otro lado, si bajo una determinada definición de producto tensorial de dos vectores, el producto tensorial de vVn y wWm se expresa con respecto a los mismos conjuntos de bases que vw=viwjˆeiˆfj el tensor resultante corresponde al n×m representación matricial viwj . Para construir un tensor que pueda actuar sobre vectores de Vn por v y w tenemos que usar wv .

Por lo tanto, para expresar la transformación lineal A por los dos conjuntos de bases, debe ser de la forma A=Aijˆfiˆej . Para ver la relación entre los dos m×n matrices Aji y Aij aplicamos de nuevo sobre el vector c esta vez utilizando la expresión con Aij y exigiendo que los resultados sean d . Obtenemos en este caso d=Aijck(ˆfiˆej)ˆek .

Para proceder necesitamos una postulación adicional en la presente discusión, que es una regla que

(wv)c=w(vc)

Entonces, d=Aijck(ˆfiˆej)ˆek=Aijckˆfi(ˆejˆek) . De nuevo tenemos que terminar aquí, salvo en el caso especial de que {ˆei} es un conjunto de bases ortonormales. En este caso d=Aijcjˆfi o di=Aijcj . Por una comparación y cuidado en los subíndices sabemos que Aij=Aij,i=1,,n,j=1,,m .

Ahora podemos concluir que la transformación lineal A:VnWm puede expresarse con respecto a conjuntos de bases ortonormales {ˆei}Vn y {ˆfi}Wm como A=Aijˆfiˆej en virtud de la norma (wv)c=w(vc) .

Así que la derivada (total) de la función f , dx0f es decir, la transformación lineal "correcta" que utilizamos para actuar sobre un vector unitario para obtener una derivada direccional, debe expresarse como dx0f=fixjˆbiˆaj (ya que las bases estándar son ortonormales).

0voto

Geoff Moller Puntos 335

Para generalizar, retrocedamos un poco y hablemos de la derivada direccional de una función de valor escalar f(x) de una variable vectorial x de forma general y invariante idioma. Si d es un vector de dirección (longitud unitaria), entonces la derivada direccional de f en x=x0 en la dirección d puede definirse como sigue:

Es la imagen de la transformación lineal dfdx(x0) que actúa sobre el vector d .

Así, la generalización consiste en sustituir la función escalar f por uno de valor vectorial, f y anotando el invariante definición de la derivada dfdx(x0). Esta derivada es, por definición, una determinada transformación lineal desde (el espacio tangente a x0 del dominio de f ) a (el espacio tangente en f(x0) de la gama de f ).

Las propiedades específicas que definen esta transformación lineal pueden (y deben ser en un principio) enunciadas sin recurrir a bases o representaciones tensoriales, y se describen en la página 66 de este libro: https://books.google.com/books?id=JUoyqlW7PZgC&printsec=frontcover&dq=arnold+ecuaciones+diferenciales+ordinarias&hl=es&sa=X&ved=0ahUKEwjGv_y44OfPAhXDSSYKHXvZCC4Q6AIHjAA#v=onepage&q=La%20acción%20de%20diffeomorfismos&f=false

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X