Loading [MathJax]/extensions/TeX/newcommand.js

4 votos

¿Por qué la derivada direccional es el producto punto de la dirección y el gradiente? ( ˆvf=fˆv )

He visto la afirmación de que la derivada direccional de f en la dirección ˆv donde ||ˆv||=1 (denominado ˆvf ) es igual al gradiente de f salpicado de ˆv .

He intentado demostrármelo a mí mismo, pero me he atascado: \newcommand{\R}{\mathbb{R}} \newcommand{\limit}[2]{\lim_{#1 \to #2}} \newcommand{\pderiv}[2]{\dfrac{\partial#1}{\partial#2}}

Sea f : \R^n \to \R

Acepto que

\nabla_{\hat{v}} f = \limit{h}{0} \frac{f(x + h\hat{v}) - f(x)}{h}

por tener un sentido intuitivo. Además sé que

\pderiv{f}{x_i} = \limit{h}{0} \frac{f(x + h\hat{i}) - f(x)}{h}

donde \hat{i} es el vector unitario del i -dimensión. También sé que

\nabla f = \left( \pderiv{f}{x_1}, \dots, \pderiv{f}{x_n} \right)

Ahora quiero demostrar que \nabla_\hat{v} f = \nabla f \bullet \hat{v} :

\begin{align*} \nabla f \bullet \hat{v} & = \left( \pderiv{f}{x_1}, \dots, \pderiv{f}{x_n} \right) \bullet v\hat{v}\\ &= \sum_{i = 1}^{n} \pderiv{f}{x_i} \cdot \hat{v}_i\\ &= \sum_{i = 1}^{n} \limit{h}{0} \frac{f(x + h\hat{i}) - f(x)}{h} \cdot \hat{v}_i\\ &= \sum_{i = 1}^{n} \limit{h}{0} \frac{\hat{v}_if(x + h\hat{i}) - \hat{v}_if(x)}{h}\\ \end{align*}

Y ahora estoy atascado. No veo la manera de transformar la última línea en \limit{h}{0} \frac{f(x + h\hat{v}) - f(x)}{h} alcanzar \nabla_{\hat{v}} f

¿Puede ayudarme?


Editar

Ahora entiendo conceptualmente por qué el producto punto de dirección y gradiente es la derivada direccional:

Supongamos que tenemos una función diferenciable f de \mathbb{R}^2 a \mathbb{R}^3 mapear el xy -plano en el xyz -y queremos conocer la derivada direccional de f en un punto p = (x', y') para algún vector u .

Lo primero que necesitamos saber es cuánto f cambios en x dirección y cuánto cambia en y dirección.

Entonces tenemos que darnos cuenta de que para distancias pequeñas cualquiera que sea la dirección en la que vayamos a lo largo de la superficie de f el cambio total de altura es la suma del cambio de altura en el x componente de nuestra dirección y el cambio de altura en y componente en nuestra dirección.

Pero ahora podemos ponderar las derivadas parciales para el x y y con los componentes de u obtener sus contribuciones individuales para la dirección en la que u ¡está señalando!

Así que si u tiene un x -componente de u_x ponderamos la derivada parcial de f para la x dirección en consecuencia. Si hacemos lo mismo con y obtenemos:

f'(x') \cdot u_x + f'(y') \cdot u_y

que de hecho es \nabla f \bullet u

Lo entendí después de escuchar esta conferencia:

https://www.youtube.com/watch?v=tDPp5uWSIiU

5voto

CodingBytes Puntos 102

Hay más en el gradiente que el n -de derivadas parciales.

La función f:\>{\mathbb R}^n\to{\mathbb R} es diferenciabl e en x si existe un mapa lineal L:\>{\mathbb R}^n\to{\mathbb R} tal que f(x+X)-f(x)=LX\ +o\bigl(|X|\bigr)\qquad(X\to0)\ .\tag{1} Este mapa está determinado unívocamente y se denota por df(x) (o similar). Desde df(x) en este caso es un funcional lineal, por álgebra lineal existe un vector a\in{\mathbb R}^n tal que df(x).X= a\cdot X\qquad(X\in{\mathbb R}^n)\ . Este vector a se denomina gradiente de f en x y se denota por \nabla f(x) . Desde el punto de vista de las coordenadas tenemos \nabla f(x)=\left({\partial f\over\partial x_1},\ldots,{\partial f\over\partial x_n}\right)_x\ , pero no lo necesitaremos. De todos modos, ahora podemos escribir (1) de la forma f(x+X)-f(x)=\nabla f(x)\cdot X\ +o\bigl(|X|\bigr)\qquad(X\to0)\ .\tag{2} Sea ahora un vector unitario e sea dada. Dejar X:=t\,e en (2) implica f(x+ t e)-f(x)=t\>\nabla f(x)\cdot e +\ o\bigl(|t|\bigr)\qquad(t\to0)\ , de ahí D_e f(x):=\lim_{t\to0+}{f(x+ t e)-f(x)\over t}=\nabla f(x)\cdot e\ , como se afirma.

3voto

DanDoe Puntos 3

\newcommand{\limit}[2]{\lim_{#1 \to #2}}

Dado que esta pregunta aún no tiene una respuesta aceptada y me encontré buscando una prueba clara y fácil de entender con pocos requisitos previos. Encontré una en 1 que me gustaría compartir con ustedes.

Estamos intentando probar

\nabla_{\boldsymbol{v}} f(\boldsymbol{x}) = \nabla_{\boldsymbol{x}} f({\boldsymbol{x}}) \cdot \boldsymbol{v}.

Defina \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}: \mathbb{R} \rightarrow \mathbb{R}^{\mathrm{dim}(\boldsymbol{x})} , \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}} : h \mapsto \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}(h) := \boldsymbol{x} + h \boldsymbol{v}

y g_{\boldsymbol{x}, \boldsymbol{v}}: \mathbb{R}\rightarrow \mathbb{R}, g_{\boldsymbol{x}, \boldsymbol{v}} : h \mapsto g_{\boldsymbol{x}, \boldsymbol{v}}(h) := f( \boldsymbol{x} + h \boldsymbol{v} ) = f(\boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}})

Partiendo de la definición de la derivada direccional,

\begin{align} \nabla_{\boldsymbol{v}} f(\boldsymbol{x}) =& \limit{h}{0} \frac{f(\boldsymbol{x} + h\boldsymbol{v}) - f(\boldsymbol{x})}{h} \\ =& \limit{h}{0} \frac{g_{\boldsymbol{x}, \boldsymbol{v}}(h) - g_{\boldsymbol{x}, \boldsymbol{v}}(0)}{h} \\ =& g_{\boldsymbol{x}, \boldsymbol{v}}'(0) \equiv \frac{\mathrm{d} g_{\boldsymbol{x}, \boldsymbol{v}}} {\mathrm{d} h} \Biggr|_{0} \end{align}

Consideremos ahora para un h \in \mathbb{R}

\begin{align} \frac{\mathrm{d} g_{\boldsymbol{x}, \boldsymbol{v}}(h)} {\mathrm{d} h} =& \frac{\mathrm{d} f\big( \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}(h) \big)} {\mathrm{d} h} \\ =& \frac{\mathrm{d} f} {\mathrm{d} \boldsymbol{y_{\boldsymbol{x}, \boldsymbol{v}}}} \cdot \frac{\mathrm{d} \boldsymbol{y}_{\boldsymbol{x}, \boldsymbol{v}}}{\mathrm{d}h} \\ =& \nabla_{\boldsymbol{y}_{\boldsymbol{x}, \boldsymbol{v}}} f \cdot \frac{\mathrm{d} (\boldsymbol{x} + h \boldsymbol{v})}{\mathrm{d}h} \\ =& \nabla_{(\boldsymbol{x} + h \boldsymbol{v})} f \cdot \boldsymbol{v} \end{align}

Que da para h=0

\nabla_{\boldsymbol{v}} f(\boldsymbol{x}) = g_{\boldsymbol{x}, \boldsymbol{v}}'(0) \equiv \frac{\mathrm{d} g_{\boldsymbol{x}, \boldsymbol{v}}} {\mathrm{d} h} \Biggr|_{0} = \nabla_{\boldsymbol{x} } f \cdot \boldsymbol{v} .

Referencias:

1 Jorge Nocedal, Stephen J. Wright. Numerical Optimization. Springer, Nueva York, NY. La prueba se encuentra en la p. 581 de la segunda edición. DOI . URL ISBN impreso: 978-0-387-98793-4. ISBN en línea: 978-0-387-22742-9

1voto

timdev Puntos 25910

Sea v:=(v_1,v_2,...,v_n) y x:=(x_1,...,x_n) . Defina y con y_k:=x_k+hv_k para h>0 y k=1,...,n para que y=x+hv . Entonces \frac{df(y_1,...,y_n)}{dh}=\frac{\partial f}{\partial y_1}\frac{dy_1}{dh}+...+\frac{\partial f}{\partial y_n}\frac{dy_n}{dh}=\frac{\partial f}{\partial y_1}v_1+...+\frac{\partial f}{\partial y_n}v_n=\langle\nabla_y f,v\rangle Por otra parte \frac{df(y_1,...,y_n)}{dh}=\frac{df(x+hv)}{dh}:=g'(h) donde g(h):=f(x+hv) . Por lo tanto g'(0)=\lim_{h\to 0}\frac{f(x+hv)-f(x)}{h}=\frac{df}{dh}\Big|_{h=0}=\langle\nabla_y f,v\rangle\Big|_{h=0}=\langle\nabla_x f,v\rangle

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X