Información general
A la OP poderes puntiagudo de los ejemplos y la exposición de los mismos. Apuntes del MIT Open Courseware sobre variables no independientes . Sin embargo, trataré de relacionar las cosas, usar una notación diferente que es más común fuera de la física, y confirmar/aclarar cosas relevantes a la pregunta en cuestión.
Respuesta principal
Ignorando los casos extremos, esta regla recíproca $\dfrac{\partial y}{\partial x}*\dfrac{\partial x}{\partial y}=1$ se mantiene automáticamente cuando $x$ y $y$ están relacionados sólo por un única ecuación . Y también se sostiene cuando la implicación es que nosotros mantener constantes las mismas variables y suele fallar de lo contrario.
El problema es que, en muchos contextos matemáticos (al menos fuera de la de la física), estas condiciones no suelen darse de forma natural, por lo que sería razonable que la gente tuviera la regla general de "nunca se nunca se cumple".
Supongamos que $x$ y $y$ están relacionados por una única ecuación, pero hay hay al menos una variable más alrededor (por lo que la notación de la derivada parcial surgiría de forma natural). Si tenemos algo como $x=f\left(y,t\right)$ entonces podríamos escribir $\dfrac{\partial x}{\partial y}$ pero no tienen necesidad de escribir $\dfrac{\partial y}{\partial x}$ . Y si tenemos algo como $F\left(x,y,t,u\right)=0$ entonces sólo escribiríamos cosas como $\dfrac{\partial F}{\partial y}$ , o tal vez resolver para $x$ o $y$ y de nuevo sólo se ocupan de uno de $\dfrac{\partial x}{\partial y}$ y $\dfrac{\partial y}{\partial x}$ .
Una situación típica más complicada podría ser algo como $u=f\left(x,y\right)$ y $v=g\left(x,y\right)$ . Entonces, lo normal es que pensemos en $u$ y $v$ como un par, y $x$ y $y$ como un par. Como tal, $\dfrac{\partial u}{\partial x}$ implicaría mantener $y$ constante. Y $\dfrac{\partial x}{\partial u}$ podría surgir, pero normalmente implicaría mantener $v$ constante, en lugar de $y$ . Esta sutileza y las ideas relacionadas se aclaran a lo largo de esta respuesta.
Notación
Hay muchas notaciones diferentes que podemos utilizar para hablar de las cantidades que tenemos a mano. Dado que las propiedades de algo como $\dfrac{\partial y}{\partial x}$ depende del contexto de una manera a menudo no escrita, y puede ser un distinguir cuidadosamente entre los usos de la variable de las letras, me gustaría centrarme principalmente en las notaciones que proporcionan más claridad y/o eviten problemas.
Si tenemos una función cuya aplicación podría escribirse como $f(x,y,z)$ , entonces la primera/segunda/tercera entrada no depende de la elección de nombres de las variables. Esto significa que podemos referirnos a las derivadas parciales de $f$ de manera inequívoca haciendo referencia a las posiciones de las entradas. Para esta entrada, utilizaré $\partial_{i}f$ para referirse a la parte derivada con respecto a la $i^{\text{th}}$ entrada. Por ejemplo, $\partial_{2}f(a,b,c)={\displaystyle \lim_{y\to b}}\dfrac{f(a,y,c)-f(a,b,c)}{y-b}$ ; Obsérvese que todas las entradas, excepto la segunda, se mantienen constantes cuando tomar ese límite.
Cuando vuelvo a un estilo de notación Leibniz, suelo utilizar una barra vertical y nombrar el punto de entrada para mayor claridad. Por ejemplo si tenemos $w=f(x,y,z)$ entonces $\partial_{2}f(a,b,c)=\left.\dfrac{\partial f}{\partial y}\right|_{\left(a,b,c\right)}$ , que puede escribirse como $\left.\dfrac{\partial w}{\partial y}\right|_{\left(a,b,c\right)}$ cuando eso no cause confusión.
Inversores locales
No quiero detenerme en toda la complejidad de cosas como la inversa y implícito teoremas de la función en esta respuesta. Pero para dar sentido a las cosas, el concepto de resolver una ecuación (o un sistema) "localmente" será importante en el fondo.
Por ejemplo, supongamos que tenemos la curva parabólica $y=x^{2}$ . Entonces no hay ninguna función $f(y)$ para que $x=f(y)$ cubre todos los puntos de la curva. Sin embargo, si examinamos las cosas cerca del punto $(-2,4)$ (imagina un pequeño disco centrado en ese punto), entonces $x=-\sqrt{y}$ funciona para la parte de la curva que está cerca de ese punto (aunque deja de funcionar lejos del punto donde $x>0$ ). Pero no importa lo que que nos acerquemos a $(0,0)$ No. $x=f(y)$ cubriría el trozo de esa curva en el disco.
Este tipo de idea se generaliza a más variables y más simultáneas ecuaciones simultáneas: a veces podemos escribir una variable como función de las otras para cubrir todo cerca de algún punto, aunque no funcione lejos de ese punto.
Una ecuación funciona
El número de variables adicionales no importa aquí, así que usaré dos. Supongamos que estamos viendo un volumen de espacio 4D dado por una ecuación en $x,y,z,w$ . Moviendo todo a un lado, podemos escribir esto como $H\left(x,y,z,w\right)=0$ . Entonces, supongamos que podemos resolver localmente para tener $x$ y $y$ como funciones de las otras variables. Digamos que $y=f(x,z,w)$ y $x=g(y,z,w)$ mantener el volumen cerca de un punto $\left(a,b,c,d\right)$ satisfaciendo $H(a,b,c,d)=0$ . Es decir, hay una región $R$ de 4D que rodea al punto $(a,b,c,d)$ donde tenemos $H\left(x,f(x,z,w),z,w\right)=0$ (y ningún otro $y$ -coordina el trabajo en $R$ ) y $H\left(g(y,z,w),y,z,w\right)=0$ (y ningún otro $x$ -coordina el trabajo en $R$ ).
Dado que tenemos $y$ en términos de $x$ y $x$ en términos de $y$ , podemos interpretar expresiones como $\dfrac{\partial y}{\partial x}$ y $\dfrac{\partial x}{\partial y}$ como derivadas parciales de $f$ y $g$ . Específicamente, $\dfrac{\partial y}{\partial x}$ podría significar $\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,c,d\right)}=\partial_{1}f(a,c,d)$ y $\dfrac{\partial x}{\partial y}$ podría significar $\left.\dfrac{\partial g}{\partial x}\right|_{\left(b,c,d\right)}=\partial_{1}g(b,c,d)$ . Estas cantidades son efectivamente inversas, como se puede ver de un par de maneras diferentes maneras.
Restricciones
Tenga en cuenta que $\partial_{1}f(a,c,d)$ y $\partial_{1}g(b,c,d)$ ambos implican límites que dejan constantes la segunda y la tercera entrada, y se evalúan con las entradas segunda y tercera iguales a $c$ y $d$ respectivamente. Esto significa que todo lo que interesa ocurre en la porción de $R$ que consiste en puntos de la forma $\left(x,y,c,d\right)$ . Para las entradas consistentes con $R$ , defina $\hat{f}(t)=f(t,c,d)$ y $\hat{g}(t)=g(t,c,d)$ para que $y=\hat{f}(x)$ y $x=\hat{g}(y)$ en esta parte de $R$ (lo que significa que $\hat{f}$ y $\hat{g}$ son inversos). Entonces sabemos por el cálculo de una sola variable que $\hat{f}'(a)=1/\hat{g}'\left(\hat{f}(a)\right)$ , o $\hat{f}'(a)\hat{g}'\left(b\right)=1$ . Pero estos son precisamente $\partial_{1}f(a,c,d)$ y $\partial_{1}g(b,c,d)$ Así que $\dfrac{\partial y}{\partial x}*\dfrac{\partial x}{\partial y}=1$ , como se desee.
Diferenciales
Otra forma de ver las cosas es utilizar los diferenciales. Tenemos $\mathrm{d}y=\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,c,d\right)}\mathrm{d}x+\left.\dfrac{\partial f}{\partial z}\right|_{\left(a,c,d\right)}\mathrm{d}z+\left.\dfrac{\partial f}{\partial w}\right|_{\left(a,c,d\right)}\mathrm{d}w$ . Y de manera similar, $\mathrm{d}x=\left.\dfrac{\partial g}{\partial y}\right|_{\left(b,c,d\right)}\mathrm{d}y+\left.\dfrac{\partial g}{\partial z}\right|_{\left(b,c,d\right)}\mathrm{d}z+\left.\dfrac{\partial g}{\partial w}\right|_{\left(b,c,d\right)}\mathrm{d}w$ . En particular, si $z$ y $w$ no pueden variar de $c$ y $d$ entonces $\mathrm{d}z$ y $\mathrm{d}w$ son $0$ y nosotros tenemos $\mathrm{d}y=\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,c,d\right)}\mathrm{d}x$ y $\mathrm{d}x=\left.\dfrac{\partial g}{\partial y}\right|_{\left(b,c,d\right)}\mathrm{d}y$ . Estas fuerzas $\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,c,d\right)}*\left.\dfrac{\partial g}{\partial y}\right|_{\left(b,c,d\right)}=1$ como $x$ y $y$ varían.
En cambio, podríamos diferenciar ambos lados de $H(x,y,c,d)=0$ con respecto a $x$ , obteniendo $\partial_1H(a,b,c,d)+\partial_2H(a,b,c,d)\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,c,d\right)}=0$ por la regla de la cadena/diferenciación implícita. De manera similar, $\partial_1H(a,b,c,d)\left.\dfrac{\partial g}{\partial y}\right|_{\left(b,c,d\right)}+\partial_2H(a,b,c,d)=0$ . Estos rendimientos $\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,c,d\right)}=-\partial_1H(a,b,c,d)/\partial_2H(a,b,c,d)$ y $\left.\dfrac{\partial g}{\partial y}\right|_{\left(b,c,d\right)}=-\partial_2H(a,b,c,d)/\partial_1H(a,b,c,d)=1/\left(\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,c,d\right)}\right)$ como era de esperar.
Mismas Variables Constantes
Supongamos que tenemos un montón de ecuaciones que relacionan un montón de variables. Por ejemplo, tal vez estemos interesados en el volumen en el espacio 5D donde $F\left(x,y,z,w,t\right)=0$ y $G\left(x,y,z,w,t\right)=0$ ambos se mantienen. Ahora está menos claro lo que una expresión como $\dfrac{\partial y}{\partial x}$ debería significar. Por ejemplo, tal vez tanto el $F$ y la ecuación $G$ la ecuación puede resolverse localmente para $y$ en función del otro variables, por lo que podríamos tomar el parcial de cualquiera de las funciones y obtener respuestas que parezcan radicalmente diferentes.
Cómo funciona
Siendo más listos, supongamos que $F\left(x,y,z,w,t\right)=0$ puede resolverse localmente cerca de $(a,b,c,d,e)$ para $t=f(x,y,z,w)$ . Y también supongamos que $G\left(x,y,z,w,f(x,y,z,w)\right)=0$ puede resolverse localmente para $y=g(x,z,w)$ . Entonces podríamos tomar $\partial_{1}g(a,c,d)$ y llamar a eso $\dfrac{\partial y}{\partial x}$ . Obsérvese que en el límite para $\partial_{1}g(a,c,d)$ , estamos sosteniendo $z$ y $w$ constante en $c$ y $d$ Así que, en retrospectiva, podríamos haber hecho eso desde el principio de este cálculo. Y entonces probablemente podríamos resolver $G\left(x,y,z,w,f(x,y,z,w)\right)=0$ localmente para $x=h(y,z,w)$ para encontrar un valor como $\partial_{1}h\left(b,c,d\right)$ vale la pena llamar $\dfrac{\partial x}{\partial y}$ . Este cálculo con la ecuación única $G\left(x,y,z,w,f(x,y,z,w)\right)=0$ es igual que el cálculo que hicimos con $H\left(x,y,z,w\right)$ antes, por lo que tenemos $\partial_{1}g(a,c,d)*\partial_{1}h\left(b,c,d\right)=1$ . Renombrar/reordenar $z,w,t$ no cambiaría esta idea.
Lo que no funciona
Sin embargo, hay otros cálculos similares que no conducen a la mismo resultado. Por ejemplo, ¿qué pasaría si en lugar de eso hubiéramos resuelto $F\left(x,y,z,w,t\right)=0$ para $z=j(x,y,w,t)$ , y luego resolvió $G\left(x,y,j(x,y,w,t),w,t\right)=0$ para $x=k(y,w,t)$ para encontrar $\partial_{1}k(b,d,e)$ como nuestro $\dfrac{\partial x}{\partial y}$ en lugar de $\partial_{1}h\left(b,c,d\right)$ . Tenemos ninguna razón para creer que $\partial_{1}g(a,c,d)*\partial_{1}k(b,d,e)=1$ ya que diferentes variables se mantienen constantes en los cálculos para los dos factores. En otras palabras, $\partial_{1}k(b,d,e)$ no es necesario ser igual a $\partial_{1}h\left(b,c,d\right)$ .
El Notas del MIT OCW mencionadas anteriormente discutir un ejemplo sencillo de este fallo que resumiré aquí. Consideremos la superficie dada por $w=x^{2}+y^{2}+z^{2}$ y $z=x^{2}+y^{2}$ . Entonces una interpretación de $\dfrac{\partial w}{\partial x}$ se obtiene sustituyendo en la segunda ecuación en la primera, de modo que tenemos $w=x^{2}+y^{2}+\left(x^{2}+y^{2}\right)^{2}$ y luego diferenciar para obtener $2x+4x^{3}+4xy^{2}$ , que rara vez es $0$ . Pero también podríamos resolver la segunda ecuación para $y^{2}$ y escribir $w=x^{2}+z-x^{2}+z^{2}=z+z^{2}$ para que $\dfrac{\partial w}{\partial x}$ siempre sería $0$ . El primer método da " $\dfrac{\partial w}{\partial x}$ si se mantiene $y$ constante". El segundo método da " $\dfrac{\partial w}{\partial x}$ si se mantiene $z$ constante" (por lo que se está moviendo alrededor de una curva de nivel de $z=x^{2}+y^{2}$ y la distancia al origen $\sqrt{w}$ no cambia). En nuestro estilo de notación, esto es decir que cuando las dos ecuaciones se satisfacen cerca de un punto $\left(a,b,c,d\right)$ , tenemos que $w=f(x,y):=x^{2}+y^{2}+\left(x^{2}+y^{2}\right)^{2}$ y $w=g(x,z):=z+z^{2}$ y estamos observando que (la mayoría de las veces) $\partial_{1}f(a,b)\ne\partial_{1}g(a,c)$ Aunque ambos tienen una razón para ser llamados " $\dfrac{\partial w}{\partial x}$ ".
Desde esta perspectiva, la notación $\dfrac{\partial w}{\partial x}$ es ambiguo cuando hay múltiples ecuaciones, y puede valer introducir símbolos adicionales en la notación para saber qué es se mantiene constante. Una convención utilizada en las notas del OCW del MIT, y a menudo en física, es escribir subíndices para las variables que se mantienen constantes, de modo que $\partial_{1}f(a,b)=\left(\dfrac{\partial w}{\partial x}\right)_{y}$ y $\partial_{1}g(a,c)=\left(\dfrac{\partial w}{\partial x}\right)_{z}$ .
En esta notación, los cálculos anteriores con $F$ y $G$ decían que $\left(\dfrac{\partial y}{\partial x}\right)_{z,w}*\left(\dfrac{\partial x}{\partial y}\right)_{z,w}=1$ , pero que era probable que $\left(\dfrac{\partial x}{\partial y}\right)_{w,t}\ne\left(\dfrac{\partial x}{\partial y}\right)_{z,w}$ así que $\left(\dfrac{\partial y}{\partial x}\right)_{z,w}*\left(\dfrac{\partial x}{\partial y}\right)_{w,t}\ne1$ .
Transformación de dos variables
Una situación común en el cálculo multivariable es un cambio de variables para el espacio 2D. Supongamos que estamos viendo una región del espacio 4D que consta de puntos $\left(x,y,u,v\right)$ donde $u=f\left(x,y\right)$ y $v=g\left(x,y\right)$ y que se podría resolver (localmente) para $x$ en términos de $u$ y $v$ para conseguir $x=h\left(u,v\right)$ . En Por ejemplo, este tipo de cosas sucede con $u=x\cos y,v=x\sin y$ así que que $x=\sqrt{u^{2}+v^{2}}$ cerca de algún punto donde $x>0$ . Podemos intentar ver si podemos conseguir algo como $\dfrac{\partial y}{\partial x}*\dfrac{\partial x}{\partial y}=1$ en este contexto.
Cálculo diferencial
Cerca de un punto $\left(x,y,u,v\right)=\left(a,b,c,d\right)=\left(a,b,f(a,b),g(a,b)\right)$ , tenemos $\mathrm{d}u=\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,b\right)}\mathrm{d}x+\left.\dfrac{\partial f}{\partial y}\right|_{\left(a,b\right)}\mathrm{d}y$ . Y con $x=h\left(u,v\right)$ tenemos $\mathrm{d}x=\left.\dfrac{\partial h}{\partial u}\right|_{\left(c,d\right)}\mathrm{d}u+\left.\dfrac{\partial h}{\partial v}\right|_{\left(c,d\right)}\mathrm{d}v$ . Ciertamente, si $y$ y $v$ no cambian para que $\mathrm{d}y,\mathrm{d}v=0$ , entonces $\mathrm{d}u=\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,b\right)}\mathrm{d}x$ y $\mathrm{d}x=\left.\dfrac{\partial h}{\partial u}\right|_{\left(c,d\right)}\mathrm{d}u$ . por lo que $\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,b\right)}*\left.\dfrac{\partial h}{\partial u}\right|_{\left(c,d\right)}=1$ , que es análogo a $\dfrac{\partial u}{\partial x}*\dfrac{\partial x}{\partial u}=1$ . Sin embargo, como $\mathrm{d}v=\left.\dfrac{\partial g}{\partial x}\right|_{\left(a,b\right)}\mathrm{d}x+\left.\dfrac{\partial g}{\partial y}\right|_{\left(a,b\right)}\mathrm{d}y$ , si $\mathrm{d}v$ y $\mathrm{d}y$ son simultáneamente $0$ cuando $\mathrm{d}x$ no lo es, eso significa que debemos estar en un punto especial donde $\left.\dfrac{\partial g}{\partial x}\right|_{\left(a,b\right)}=0$ , lo que no suele ocurrir. Así que $\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,b\right)}*\left.\dfrac{\partial h}{\partial u}\right|_{\left(c,d\right)}=1$ no se espera.
Esto no es sorprendente a la luz de nuestra discusión anterior. Obsérvese que $\left.\dfrac{\partial f}{\partial x}\right|_{\left(a,b\right)}=\partial_{1}f(a,b)=\left(\dfrac{\partial u}{\partial x}\right)_{y}$ tiene $y$ constante, pero $\left.\dfrac{\partial h}{\partial u}\right|_{\left(c,d\right)}=\partial_{1}h(c,d)=\left(\dfrac{\partial x}{\partial u}\right)_{v}$ tiene $v$ constante, en lugar de $y$ .
Regla de la cadena multivariable
A lo largo de los cálculos realizados hasta ahora, he evitado intencionadamente el multivariable regla de la cadena para simplificar las cosas, pero puede arrojar luz sobre los dos cálculos previos y hechos análogos.
Supongamos que no sólo tenemos $x=h(u,v)$ pero también $y=j(u,v)$ . Entonces la regla de la cadena multivariable nos dice que esa aproximación lineal a la $f,g$ tiene que ser la inversa de la aproximación lineal a la $h,j$ transformación. En otras palabras:
$$ \begin{bmatrix}\partial_{1}f(a,b) & \partial_{2}f(a,b)\\ \partial_{1}g(a,b) & \partial_{2}g(a,b) \end{bmatrix}\begin{bmatrix}\partial_{1}h(c,d) & \partial_{2}h(c,d)\\ \partial_{1}j(c,d) & \partial_{2}j(c,d) \end{bmatrix}=\begin{bmatrix}1 & 0\\ 0 & 1 \end{bmatrix} $$
En notación de Leibniz, podríamos escribir esto de la siguiente manera, aunque los subíndices aclaratorios a menudo se omiten: $$ \begin{bmatrix}\left(\dfrac{\partial u}{\partial x}\right)_{y} & \left(\dfrac{\partial u}{\partial y}\right)_{x}\\ \left(\dfrac{\partial v}{\partial x}\right)_{y} & \left(\dfrac{\partial v}{\partial y}\right)_{x} \end{bmatrix}\begin{bmatrix}\left(\dfrac{\partial x}{\partial u}\right)_{v} & \left(\dfrac{\partial x}{\partial v}\right)_{u}\\ \left(\dfrac{\partial y}{\partial u}\right)_{v} & \left(\dfrac{\partial y}{\partial v}\right)_{u} \end{bmatrix}=\begin{bmatrix}1 & 0\\ 0 & 1 \end{bmatrix} $$
En particular, aunque no tenemos $\left(\dfrac{\partial u}{\partial x}\right)_{y}\left(\dfrac{\partial x}{\partial u}\right)_{v}=1$ , tenemos $\boxed{\left(\dfrac{\partial u}{\partial x}\right)_{y}\left(\dfrac{\partial x}{\partial u}\right)_{v}+\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\dfrac{\partial y}{\partial u}\right)_{v}=1}$ .
Identidades extra
Podemos utilizar la identidad anterior para derivar algunas identidades más.
Como sabemos que $\left(\dfrac{\partial x}{\partial u}\right)_{v}=\left(\dfrac{\partial u}{\partial x}\right)_{v}^{-1}$ , la identidad da como resultado $\left(\dfrac{\partial u}{\partial x}\right)_{y}+\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\dfrac{\partial y}{\partial u}\right)_{v}\left(\dfrac{\partial u}{\partial x}\right)_{v}=\left(\dfrac{\partial u}{\partial x}\right)_{v}$ . Pero $\left(\dfrac{\partial y}{\partial u}\right)_{v}\left(\dfrac{\partial u}{\partial x}\right)_{v}=\left(\dfrac{\partial y}{\partial x}\right)_{v}$ por la regla de la cadena de una sola variable, de modo que $\left(\dfrac{\partial u}{\partial x}\right)_{y}+\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\dfrac{\partial y}{\partial x}\right)_{v}=\left(\dfrac{\partial u}{\partial x}\right)_{v}$ y $\boxed{\left(\dfrac{\partial u}{\partial x}\right)_{y}=\left(\dfrac{\partial u}{\partial x}\right)_{v}-\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\dfrac{\partial y}{\partial x}\right)_{v}}$ .
Podemos sustituir esto en el determinante jacobiano $\dfrac{\partial\left(u,v\right)}{\partial\left(x,y\right)}=\det\begin{bmatrix}\left(\dfrac{\partial u}{\partial x}\right)_{y} & \left(\dfrac{\partial u}{\partial y}\right)_{x}\\ \left(\dfrac{\partial v}{\partial x}\right)_{y} & \left(\dfrac{\partial v}{\partial y}\right)_{x} \end{bmatrix}=\left(\dfrac{\partial u}{\partial x}\right)_{y}\left(\dfrac{\partial v}{\partial y}\right)_{x}-\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\dfrac{\partial v}{\partial x}\right)_{y}$ para encontrar que $\dfrac{\partial\left(u,v\right)}{\partial\left(x,y\right)}=\left(\left(\dfrac{\partial u}{\partial x}\right)_{v}-\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\dfrac{\partial y}{\partial x}\right)_{v}\right)\left(\dfrac{\partial v}{\partial y}\right)_{x}-\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\dfrac{\partial v}{\partial x}\right)_{y}$ , que es igual a $\left(\dfrac{\partial u}{\partial x}\right)_{v}\left(\dfrac{\partial v}{\partial y}\right)_{x}-\left(\dfrac{\partial u}{\partial y}\right)_{x}\left(\left(\dfrac{\partial y}{\partial x}\right)_{v}\left(\dfrac{\partial v}{\partial y}\right)_{x}+\left(\dfrac{\partial v}{\partial x}\right)_{y}\right)$ .
Un resultado notable (la "regla cíclica" en las notas de OCW) es que $\left(\dfrac{\partial v}{\partial y}\right)_{x}\left(\dfrac{\partial y}{\partial x}\right)_{v}\left(\dfrac{\partial x}{\partial v}\right)_{y}=-1$ . (Esto también se discute en " ¿Qué se entiende por $\frac{\partial x}{\partial y}\frac{\partial y}{\partial z}\frac{\partial z}{\partial x}=-1$ ? ¿Cómo interpretarlo? ". ) Combinando esto con $\left(\dfrac{\partial x}{\partial v}\right)_{y}=1/\left(\dfrac{\partial x}{\partial v}\right)_{y}$ da $\left(\dfrac{\partial y}{\partial x}\right)_{v}\left(\dfrac{\partial v}{\partial y}\right)_{x}+\left(\dfrac{\partial v}{\partial x}\right)_{y}=0$ . Así, la expresión del determinante jacobiano anterior se simplifica a $\boxed{\dfrac{\partial\left(u,v\right)}{\partial\left(x,y\right)}=\left(\dfrac{\partial u}{\partial x}\right)_{v}\left(\dfrac{\partial v}{\partial y}\right)_{x}}$ . Esta ecuación y la anterior en forma de caja son la "regla jacobiana" en las notas del OCW.
Tenga en cuenta que el intercambio de $u$ con $v$ y $x$ con $y$ intercambia las filas y columnas de la matriz jacobiana, dejando el determinante igual, por lo que también tenemos $\boxed{\dfrac{\partial\left(u,v\right)}{\partial\left(x,y\right)}=\left(\dfrac{\partial u}{\partial x}\right)_{y}\left(\dfrac{\partial v}{\partial y}\right)_{u}}$ .