23 votos

¿Prueba de este truco de diferenciación bastante oscuro?

Supongamos que estamos tratando de diferenciar la función $f(x)=x^x$ . Ahora el método del libro de texto sería notar que $f(x)=e^{x \log{x}}$ y utilizar la regla de la cadena para encontrar $$f'(x)=(1+\log{x})\ e^{x \log{x}}=(1+\log{x})\ x^x.$$

Pero supongamos que no hiciera esta observación y que, en cambio, intentara aplicar las siguientes reglas de diferenciación:

$$\frac{d}{dx}x^c=cx^{c-1} \qquad (1)\\ \frac{d}{dx}c^x = \log{c}\ \cdot c^x \quad (2)$$

que son válidos para cualquier constante $c$ . Obviamente, ninguna de las dos reglas es aplicable a la forma $x^x$ porque en este caso ni la base ni el exponente son constantes. Pero si I fingir que el exponente es constante y aplicar la regla $(1)$ , yo obtendría $f'(x)\stackrel{?}{=}x\cdot x^{x-1}=x^x.$ Del mismo modo, si pretendo que la base es constante y aplico la regla $(2)$ Obtengo $f'(x)\stackrel{?}{=}\log{x}\cdot x^x$ .

No es difícil ver que ninguna de las dos derivadas es correcta. Pero aquí es donde ocurre la magia: si sumamos las dos "derivadas" obtenemos $$x^x+ \log{x}\cdot x^x=(1+\log{x})\ x^x$$ que es la expresión correcta para $f'(x)$ .

Este mismo truco da resultados correctos también en otros contextos. De hecho, en algunos casos resulta ser una forma más eficiente de tomar derivadas. Por ejemplo, consideremos $$g(x)=x^2 = \color{blue} x\cdot \color{red} x.$$ Si pretendemos que el azul $\color{blue} x$ es una constante obtendríamos $g'(x)\stackrel{?}{=}\color{blue}x\cdot 1=x$ . Ahora bien, si pretendemos que el rojo $\color{red}x$ es constante obtenemos $g'(x)\stackrel{?}{=}1\cdot \color{red} x=x$ . Sumando ambas expresiones obtenemos $2x$ que es, por supuesto, una expresión correcta para la derivada.

Estas observaciones me han llevado a la siguiente conjetura:

Dejemos que $f(x,y)$ sea una función diferenciable que mapea $\mathbb{R}^2$ a $\mathbb{R}.$ Dejemos que $f'_1 (x,y)=\frac{\partial}{\partial x} f(x,y)$ y $f'_2 (x,y)=\frac{\partial}{\partial y} f(x,y)$ . Entonces, para cualquier $t$ que tenemos: $$\frac{d}{dt}f(t,t)=f'_1 (t,t) + f'_2 (t,t).$$

(Pido disculpas por la notación un tanto incómoda que no he podido evitar sin causar una ambigüedad indebida).

Esta formulación también parece prestarse a la siguiente generalización:

Dejemos que $f:\mathbb{R}^N \to \mathbb{R}$ sea una función diferenciable en cada una de sus variables $x_1,x_2,\ldots,x_N$ . Para $n=1,2,\ldots,N$ definir $f'_n(x_1,x_2,\ldots,x_N)=\frac{\partial}{\partial x_n}f(x_1,x_2,\ldots,x_N)$ . Dejemos que $t$ sea cualquier número real y defina el $N$ -tupla $T=(t,t,\ldots,t)$ . Entonces uno tiene: $$\frac{d}{dt} f(T)=\sum_n f'_n(T).$$

Por lo tanto, mi pregunta es:

  • ¿Es esto cierto?
  • ¿Cómo se puede probar? (Específicamente en el caso $N=2$ sino también en el caso general).

10voto

user32262 Puntos 2147

Tu observación es cierta y se deduce de la regla de la cadena multivariable. Para ver por qué, dejemos que $f \colon \mathbb{R}^2 \rightarrow \mathbb{R}$ sea diferenciable y que $\gamma \colon \mathbb{R} \rightarrow \mathbb{R}^2$ sea una curva diferenciable. Establece $\gamma(t) = (\gamma_1(t),\gamma_2(t))$ y considerar la composición $h(t) = f(\gamma(t))$ que es una función diferenciable de $\mathbb{R}$ a $\mathbb{R}$ . La regla de la cadena implica que

$$ h'(t) = \frac{d}{dt} f(\gamma_1(t),\gamma_2(t)) = \frac{\partial f}{\partial x}(\gamma(t)) \cdot \gamma_1'(t) + \frac{\partial f}{\partial y}(\gamma(t)) \cdot \gamma_2'(t). $$

Si tomamos $\gamma(t) = (t,t)$ obtenemos su observación y esto, obviamente, se generaliza para un número arbitrario de $N$ .

También es posible una demostración directa utilizando la definición de diferenciabilidad. Escribe $$f(x,y) = f(t_0,t_0) + \frac{\partial f}{\partial x}(t_0,t_0)(x - t_0) + \frac{\partial f}{\partial y}(t_0,t_0)(y - t_0) + r(x,y)$$

donde

$$ \lim_{(x,y) \to (t_0,t_0)} \frac{r(x,y)}{\sqrt{(x - t_0)^2 + (y - t_0)^2}} = 0 $$

y luego

$$ \frac{f(t,t) - f(t_0,t_0)}{t - t_0} = \frac{\partial f}{\partial x}(t_0,t_0) + \frac{\partial f}{\partial y}(t_0,t_0) + \frac{r(t,t)}{t - t_0} \xrightarrow[t \to 0]{} \frac{\partial f}{\partial x}(t_0,t_0) + \frac{\partial f}{\partial y}(t_0,t_0). $$


Por cierto, estoy de acuerdo en calificar su observación de "truco", pero no la llamaría oscura. De hecho, es útil en varios contextos. Por ejemplo, en geometría diferencial es útil para demostrar que el corchete de mentira de dos campos vectoriales mide cómo un paralelogramo infinitesimal obtenido a partir de los flujos no se cierra o cómo la curvatura contribuye al transporte paralelo a lo largo de un bucle cerrado. En ambos casos, se define una función $f \colon (-\varepsilon, \varepsilon)^4 \rightarrow V$ que depende de cuatro parámetros (así $f = f(t_1,t_2,t_3,t_4)$ ) y se quiere calcular la segunda derivada de $h(t) = f(t,t,t,t)$ en $t = 0$ . Aplicando la regla de la cadena, tenemos

$$ h''(0) = \sum_{i,j} \frac{\partial^2 h}{\partial t_i \partial t_j}(0,0,0,0) $$

y luego se utilizan varias simetrías para calcular las derivadas parciales. Para más detalles, véase aquí .

5voto

kerchee Puntos 66

Vamos a escribir $f(x, y)=x^y$ . Se quiere encontrar la derivada de la función de una sola variable $g(x)=f(x, x)$ .

$$f(x+h, x+h)-f(x, x)=\big(f(x+h, x+h)-f(x+h,x)\big)+\big(f(x+h, x) - f(x, x)\big)$$

En otras palabras, nos movemos en diagonal, primero hacia arriba y luego hacia la derecha. Al dividir esta ecuación por $h$ y que $h\to 0$ , se obtiene

$$g'(x)=\lim_{h\to0}\frac{f(x+h, x+h)-f(x+h,x)}{h} + \partial_1f(x, x)$$

Dónde por $\partial_1$ Me refiero a la derivada parcial con respecto a la primera variable. Hasta ahora sólo hemos utilizado la definición de la derivada.

¿Pero qué pasa con ese límite? Se parece mucho a $\partial_2 f(x, x)$ pero el problema es que la primera variable está cambiando como $h$ tiende a $0$ . Pero como $h$ tiende a cero, la primera variable tiende a $x$ Así que, básicamente, podemos sustituirlo por $x$ y entonces tendremos la definición de $\partial_2 f(x, x)$ ...¿verdad?

Probablemente haya algunas formas de hacerlo, pero ésta es una de las cosas para las que existe el teorema del valor medio: justificar las intuiciones sobre este tipo de cosas. Según el teorema del valor medio, esa proporción es igual a $\partial_1f(x+h, \xi_h)$ para algunos $\xi_h$ en el medio $x$ y $x+h$ . Como $h$ tiende a cero, que tiende a $\partial_1 f(x, x)$ ... porque $\partial_1 f(x, y)$ es una función continua (multivariable) (lo que hay que demostrar por separado).

Este es un razonamiento típico en la calcografía básica multivariable: se pasa de $A$ a $B$ una coordenada a la vez, aplicar el cálculo de una sola variable a lo largo de cada eje, y luego utilizar algo como el teorema del valor medio para demostrar que lo que parece que debería funcionar realmente funciona.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X