Deje $p(x_1,x_2,x_3)$ ser una función escalar. El objetivo es encontrar a $x_1,x_2,x_3$ a minimizar $p(x_1,x_2,x_3)$. Ahora, considere el método de gradiente de la pendiente: $$ \left( \begin{array}{c} x_1 \\ x_2 \\ x_3 \\ \end{array} \right)_{k+1} = \left( \begin{array}{c} x_1 \\ x_2 \\ x_3 \\ \end{array} \right)_{k} - \alpha_k \left( \begin{array}{c} \frac{\partial p}{\partial x_1} \\ \frac{\partial p}{\partial x_2} \\ \frac{\partial p}{\partial x_3} \\ \end{array} \right)_{k} $$ donde $\alpha_k$ es el tamaño del paso.
Mi pregunta es: ¿puede el anterior proceso iterativo llevarse a cabo de manera distribuida? Esto podría estar motivado por algunas razones, tales como, distribuidos de recursos computacionales. La siguiente es mi opinión acerca de este problema.
Reescribir la ecuación anterior para $$ x_{1,k+1}=x_{1,k}-\alpha_{1,k} \frac{\partial p}{\partial x_1} $$ $$ x_{2,k+1}=x_{2,k}-\alpha_{2,k} \frac{\partial p}{\partial x_2} $$ $$ x_{3,k+1}=x_{3,k}-\alpha_{3,k} \frac{\partial p}{\partial x_3} $$ A continuación, las tres ecuaciones que puede ser calculado en tres equipos, respectivamente. Aquí tengo una pregunta, ¿el tamaño del paso, $\alpha_{1,k}, \alpha_{2,k}, \alpha_{3,k}$ importa? Debemos mantener el $\alpha_{1,k}=\alpha_{2,k}=\alpha_{3,k}$?? En otras palabras, es el siguiente ecuación de gradiente de la pendiente? Si $\alpha_{1,k}, \alpha_{2,k}, \alpha_{3,k}$ son diferentes el uno del otro, el movimiento global no es siempre a lo largo de con $\nabla_\mathbf{x} p(\mathbf{x})$. $$ \left( \begin{array}{c} x_1 \\ x_2 \\ x_3 \\ \end{array} \right)_{k+1} = \left( \begin{array}{c} x_1 \\ x_2 \\ x_3 \\ \end{array} \right)_{k} - \left( \begin{array}{ccc} \alpha_{1,k} & 0 & 0 \\ 0 & \alpha_{2,k} & 0 \\ 0& 0& \alpha_{3,k}\\ \end{array} \right) \left( \begin{array}{c} \frac{\partial p}{\partial x_1} \\ \frac{\partial p}{\partial x_2} \\ \frac{\partial p}{\partial x_3} \\ \end{array} \right)_{k} $$