3 votos

¿Por qué se define así la diferenciabilidad de las funciones multivariables?

Me han dicho que una función $f:\mathbb{R}^{n}\to \mathbb{R}$ es diferenciable en un punto $\mathbf{x}=(x_1,x_2,...,x_n)$ si $\Delta f$ es de la forma

$$\sum_{i}^{n}\frac{\partial f}{\partial x_i}\Delta x_i+\sum_{i}^{n} \epsilon_i \Delta x_i$$

Donde

$$\lim_{\mathbf{\Delta x}\to \mathbf{0}}\epsilon_{i}=0$$ por cada $1\leq i\leq n$ .

Me parece arduo utilizar esa definición. ¿Por qué los matemáticos no definen la diferenciabilidad por la existencia de derivadas parciales, lo que parece natural?

Ahora bien, soy consciente de que puedo definir las cosas como quiera, pero mi objetivo es entender por qué se suele definir así. ¿Hay algunas propiedades subyacentes que hacen que esta definición sea superior?

5voto

El motivo es que un punto $P$ en el dominio podría ser alcanzado por más de un camino.

Intentaremos entender esto utilizando una función de dos variables, ya que es muy fácil de visualizar y obtener una buena intuición.

Para una función de dos variables, las dos derivadas parciales se obtienen cortando la superficie de la gráfica con planos verticales paralelos a $xz$ - y $yz$ -planos, creando una curva en cada plano llamada rastrear en $P$ .

Las derivadas parciales se ven como la pendiente de la tangente a estas curvas en el punto $P$ . Ahora sería natural esperar lo siguiente: si se gira cualquiera de esos planos verticales ligeramente sobre $P$ manteniendo la vertical, pero ya no paralela al plano de coordenadas, la tangente a la nueva traza en $P$ ligeramente diferente a lo que era antes. ¿No es así?

Obviamente, esto no está garantizado por la existencia de sólo las dos derivadas parciales. Para que la función sea diferenciable, no debe cambiar abruptamente mientras te mueves ligeramente alrededor de la vecindad de un punto. De ahí esa definición.

¿Tiene sentido?

4voto

Charles Kim Puntos 18

La definición de diferenciabilidad que se encuentra en la mayoría de los libros de texto de cálculo multivariable es algo así:

Una función $f:\mathbb R^n\to\mathbb R^m$ es diferenciable en $\mathbf{x}\in\mathbb R^n$ si existe una transformación lineal $\lambda_{\mathbf{x}}:\mathbb R^n\to\mathbb R^m$ tal que $$ \lim_{\mathbf{h}\to\mathbf{0}}\frac{f(\mathbf{x}+\mathbf{h})-f(\mathbf{x})-\lambda_{\mathbf{x}}(\mathbf{h })}{||\mathbf{h}||}=\mathbf{0} \, . $$ Dicha transformación, si existe, debe ser única, por lo que tiene sentido definir $f'(\mathbf x)=\lambda_\mathbf{x}$ en cada punto donde $f$ es diferenciable.

Esta definición no menciona en absoluto las derivadas parciales, y tampoco es necesario introducir el concepto de derivada parcial para motivar esta definición. De hecho, es un teorema que si $f$ es diferenciable en $\mathbf{x}\in\mathbb R^n$ , entonces las derivadas parciales con respecto a cada uno de sus argumentos, en ese punto, deben existir. Lo contrario de esta afirmación no es en absoluto cierto: consideremos la función $f:\mathbb R^2\to\mathbb R$ dado por $$ f(x,y)=\begin{cases} \dfrac{xy}{x^2+y^2} & \text{if }(x,y)\neq(0,0) \, , \\ 0 & \text{if }(x,y)=(0,0) \, . \end{cases} $$ Esta función ni siquiera es continuo en $(0,0)$ por lo que difícilmente merece ser llamado "diferenciable" en ese punto bajo cualquier definición sensata de diferenciabilidad. Esto es así a pesar de que $\frac{\partial f}{\partial x}(0,0)$ y $\frac{\partial f}{\partial y}(0,0)$ ambos existen y son iguales a $0$ .

Entonces, la verdadera pregunta es: ¿por qué tiene sentido la definición de diferenciabilidad dada anteriormente? Muchos autores ya han dedicado mucho tiempo a responder a esta pregunta, por lo que no me detendré mucho en ella, pero la idea clave es que sólo en el caso unidimensional, la aproximación $f(\mathbf{x}+\mathbf{h})\approx f(\mathbf{x})+f'(\mathbf{x})\mathbf{h}$ debería ser "muy bueno" para "pequeño" $\mathbf{h}$ . La definición formal está motivada por el deseo de dar un significado preciso a las palabras "muy bueno" y "pequeño".

2voto

DDD4C4U Puntos 6

Le daré una definición de antídoto mágico que cubrirá el derivado en un tipo de usos muy diferentes. Lo que tienes que entender es lo de la Derivada de Frechet.

Dejemos que $V$ y $W$ sean espacios vectoriales normados, y $U \subset V$ sea un subconjunto abierto de $V$ . Una función $f: U \to W$ se denomina diferenciable de Frechet en $x \in U$ si existe un operador lineal acotado $A: V \to W$ s.t

$$ \lim_{ || h || \to 0 } \frac{||f(x+h) - f(x) - Ah||_W} {||h||_V}=0$$

Lo más probable es que no conozca la definición de estas palabras:

  1. Espacio vectorial normado: Piensa en él como un espacio vectorial en el que tiene sentido hablar de longitudes.
  2. Operador lineal limitado: La relación de la longitud del vector mapeado dividida por la relación de la longitud del vector en el dominio es menor que algún $M$ . Obsérvese que la noción de longitud en el mapa y en el dominio no es la misma.

¿Cuál es la motivación aquí?

En el caso de una sola variable, tenemos la expansión de taylor como:

$$ f(x+h) = f(x) + f'(x) h + o(h^2)$$

La idea es que el término que es coeficiente de $h$ en la expansión es la derivada. Ahora, podemos reordenar esto como:

$$ \frac{ f(x+h) - f(x) - f'(x) h}{h} = o(h)$$

Como $ h \to 0 $ ambos lados deben ir a cero si $f'(x)$ está bien definida.

Ahora, de forma similar en el caso multivariable, queremos que si añadimos un pequeño desplazamiento $\epsilon v$ en el dominio, cómo cambia la función, para ello podemos volver a utilizar la idea

$$ f(x+v) = f(x) + Av + o(\epsilon^2)$$

Ahora reordena y obtenemos el mismo concepto.

1voto

pje Puntos 101

Como dices, puedes definir las cosas como quieras. Pero la cuestión es si la "existencia de derivadas parciales" tiene sentido como la único requisito . Las derivadas parciales están definidas por $$\frac{\partial f}{\partial x_i}(\xi) = \lim_{t \to 0} \frac{f(\xi + te_i) - f(\xi)}{t} $$ donde $e_i$ es el estándar $i$ -vector base de $\mathbb R^n$ .

  1. Exigir la existencia de las derivadas parciales significa que sólo se considera la $n$ direcciones dadas por los vectores base $e_i$ . Esta es una opción natural, pero es una elección arbitraria . Todas las demás direcciones están fuera de foco, no se requiere nada respecto a las derivadas direccionales generales $$\frac{\partial f}{\partial v}(\xi) = \lim_{t \to 0} \frac{f(\xi + tv) - f(\xi)}{t} $$ con $v \in \mathbb R^n$ . De hecho, podemos encontrar ejemplos en los que $\frac{\partial f}{\partial v}(\xi)$ no existe para todos $v \in \mathbb R^n \setminus \{0\}$ aunque las derivadas parciales $\frac{\partial f}{\partial x_i}(\xi)$ existe. Tenga en cuenta que $v = 0$ da $\frac{\partial f}{\partial v}(\xi) = 0$ que no es interesante, pero siempre se define formalmente.

  2. Exigir la existencia de todas las derivadas direccionales significa que obtenemos una función $$Df\mid_\xi : \mathbb R^n \to \mathbb R, Df \mid_\xi(v) = \frac{\partial f}{\partial v}(\xi) .$$ ¿Qué se puede decir de esta función? Es ciertamente compatible con la multiplicación escalar ya que para $w = \lambda v$ con $\lambda \ne 0$ tenemos $$\frac{\partial f}{\partial w}(\xi) = \lim_{t \to 0} \frac{f(\xi + t \lambda v) - f(\xi)}{t} = \lambda \lim_{t \to 0} \frac{f(\xi + \lambda t v) - f(\xi)}{\lambda t} = \lambda \lim_{s \to 0} \frac{f(\xi + s v) - f(\xi)}{s} = \lambda \frac{\partial f}{\partial v}(\xi) .$$ Obsérvese que la ecuación es trivalente para $\lambda = 0$ .
    Las funciones más sencillas $L : \mathbb R^n \to \mathbb R$ con la propiedad $L(\lambda v) = \lambda L(v)$ son los mapas lineales. Por lo tanto, es un enfoque obvio exigir que $Df\mid_\xi$ es un mapa lineal para que $f$ puede llamarse diferenciable en $\xi$ . Esto tiene la ventaja de que el $\frac{\partial f}{\partial v}(\xi)$ están determinadas de forma única por las derivadas parciales $\frac{\partial f}{\partial x_i}(\xi)$ . De hecho, podemos escribir $v = \sum_{i=1}^n v_i e_i$ y obtener $$\frac{\partial f}{\partial v}(\xi) = \sum_{i=1}^n v_i \frac{\partial f}{\partial x_i}(\xi) .$$

  3. Incluso si exigimos la existencia de todas las derivadas direccionales y la linealidad de $Df\mid_\xi$ , seguimos considerando sólo lo que ocurre si nos acercamos a $\xi$ en líneas a través de $\xi$ . Es mucho más interesante ver lo que ocurre si nos acercamos $\xi$ de manera arbitraria. Por supuesto, no tiene sentido exigir que $$\lim_{\Delta x \to 0} \frac{f(\xi + \Delta x ) - f(\xi)}{\lVert \Delta x \rVert}$$ existe porque entonces todas las derivadas direccionales tendrían el mismo valor.
    Lo que podemos hacer es esto: Escribir $\Delta x = \sum_{i=1}^n \Delta x_i e_i$ consideramos que $\sum_{i=1}^n \Delta x_i \frac{\partial f}{\partial x_i}(\xi)$ como una aproximación de $f(\xi + \Delta x ) - f(\xi)$ y requieren que el error relativo $$\epsilon(\xi, \Delta x) = \frac{f(\xi + \Delta x ) - f(\xi) - \sum_{i=1}^n \Delta x_i \frac{\partial f}{\partial x_i}(\xi)}{\lVert \Delta x \rVert} \tag{1}$$ va a $0$ como $\Delta x$ va a $0$ . En otras palabras, requerimos $$f(\xi + \Delta x ) - f(\xi) = \sum_{i=1}^n \Delta x_i \frac{\partial f}{\partial x_i}(\xi) + \epsilon(\xi, \Delta x)\lVert \Delta x \rVert$$ con $\lim_{\Delta x \to 0} \epsilon(\xi, \Delta x) = \lim_{\lVert \Delta x \rVert \to 0} \epsilon(\xi, \Delta x) = 0$ . Ahora parece natural entender $\lVert - \rVert$ como la norma euclidiana $\lVert x \rVert_2 = \sqrt{\sum_{i=1}^n x_i^2}$ pero tomemos la norma del taxi $\lVert x \rVert = \sum_{i=1}^n \lvert x_i \rvert$ en su lugar. Tenemos $$\lVert x \rVert_2 \le \lVert x \rVert \le n \lVert x \rVert_2$$ lo que significa que en $(1)$ es irrelevante si consideramos la norma euclidiana o la taxonómica: $\lim_{\lVert \Delta x \rVert \to 0} \epsilon(\xi, \Delta x) = 0$ es cierto para ambos o para ninguna de las normas.
    Entendiendo $\lVert - \rVert$ como la norma de los taxis, obtenemos $$ \epsilon(\xi, \Delta x)\lVert \Delta x \rVert = \sum_{i=1}^n \epsilon_i(\xi, \Delta x)\Delta x_i$$ donde $\epsilon_i(\xi, \Delta x) = \epsilon(\xi, \Delta x)$ para $\Delta x_i \ge 0$ y $\epsilon_i(\xi, \Delta x) = -\epsilon(\xi, \Delta x)$ para $\Delta x_i < 0$ .

Esto da lugar a la definición en su pregunta y espero que pueda explicar por qué uno utiliza esta definición. Por último, ¿cuál es su relación con la diferenciabilidad de Frechet considerada en las otras respuestas? Si una función es diferenciable en su sentido, entonces $$L : \mathbb R^n \to \mathbb R, L(v) = \sum_{i=1}^n v_i \frac{\partial f}{\partial x_i}(\xi) \tag{2}$$ es un mapa lineal y $$\lim_{\Delta x \to 0} \frac{f(\xi + \Delta x) -f(\xi) - L(\Delta x)}{\lVert \Delta x \rVert} = 0 . \tag{3}$$ Esto es la diferenciabilidad de Frechet. A la inversa, si $f$ es diferenciable de Frechet, las derivadas claramente direccionales existen, en particular todas las derivadas parciales, y por linealidad vemos que $L$ viene dada por $(2)$ . Esto demuestra que $f$ es diferenciable en su sentido.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X