1 votos

Optimización de Gauss-Newton para cuadrados no lineales

Dudo que esto sea resoluble en absoluto, pero pensé que lo intentaría. Básicamente estoy tratando de extender el algoritmo de Gauss-Newton al segundo término de Taylor.

http://en.wikipedia.org/wiki/Levenberg–Algoritmo_de_Marquardt

Sólo ignora lambda.

Seguí los mismos pasos y llegué a un callejón sin salida...

$$\frac{\partial}{\partial X} \| (I \otimes X^\top)AX + BX + C\|^2$$

¿Hay alguna solución para esto?

Saludos cordiales, Dominykas

0voto

JessieAlaa Puntos 11

Para mayor comodidad, define $F=(I\otimes X^T)AX+BX+C$

Quieres encontrar la derivada de $\|F\|^2_F = F:F$

Comienza con la diferencial $$\eqalign{ d(F:F) &= 2\,F:dF \cr &= 2\,F:\Big[(I\otimes dX^T)AX+(I\otimes X^T)A\,dX+B\,dX\Big] \cr &= 2\,F:(I\otimes dX^T)AX+2\,F:(I\otimes X^T)A\,dX+2\,F:B\,dX \cr &= 2\,AXF^T:(I\otimes dX)+2\,A^T(I\otimes X)F:dX+2\,B^TF:dX \cr }$$ La parte complicada es el primer término en el RHS. Asumamos que conocemos la expansión de Kronecker $AXF^T=\sum_k G_k\otimes H_k$, donde ($G_k,H_k$) tienen las mismas dimensiones que ($I,X$) respectivamente. Y usemos esto para simplificar el primer término $$\eqalign{ (AXF^T):(I\otimes dX) &= \sum_k (G_k\otimes H_k):(I\otimes dX) \cr &= \sum_k (G_k:I)\otimes(H_k:dX) \cr &= \bigg(\sum_k {\rm tr}(G_k)\,H_k\bigg):dX \cr &= Y:dX \cr }$$ Sustituyendo $$\eqalign{ d\,\|F\|^2 &= 2\,Y:dX+2\,A^T(I\otimes X)F:dX+2\,B^TF:dX \cr\cr \frac {\partial\,\|F\|^2} {\partial X} &= 2\,Y+2\,A^T(I\otimes X)F+2\,B^TF \cr }$$ Entonces hay una respuesta a tu pregunta, pero encontrar los factores de Kronecker de $AXF^T$ en cada paso de tu rutina de optimización va a ser costoso.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X