He desarrollado una especie de algoritmo para mí al tomar el "antigradiente" y personalmente me agiliza el proceso.
Para una función de valor vectorial,
F \= grad(f) = (H,G,I)
Se empieza por ordenar todos los términos linealmente independientes (LIT) en F en tres categorías (o subconjuntos) p, q y r para cada H,G e I.
Eso es,
{H}={p,q,r} ,{G}={p,q,r}, {I}={p,q,r}
p -términos :
- Todas las LIT que dependen a su vez de las 2 variables que no estaban parte de la diferenciación parcial (variables independientes).
Para el componente H, los términos p tendrían que ser una función de (y,z) ya que la derivada parcial era con respecto a x.
q -términos :
- Todas las LIT que dependen de al menos 2 variables en las que una debe ser la variable dependiente.
o
- Todas las LIT que dependen de una sola de las variables independientes.
Para H, los términos q incluirían funciones de: (x,y), (x,z), (x,y,z), (z) o (y) Básicamente q es cualquier cosa que no sea p o r.
r -términos :
- Todas las LIT que dependen sólo de la variable dependiente.
Para H, los términos r son funciones de x.
Una vez que los tengas claros, sólo tienes que introducirlos en la siguiente fórmula.
∫ (Hp+Hq+Hr) dx + (Gq+Gr) dy + (Ir) dz
en esencia,
f = C1(x,y,z) + C2(y,z) + C3(z) + C4
Como curiosidad, esto me resultó especialmente útil para calcular f para un campo vectorial irrotacional en una integral de línea. Me ahorró mucho tiempo en los exámenes.