4 votos

Minimización de una funcional

Estoy tratando de seguir este papel. En ella se define un funcional

$$J(f) = \sum_{x \in \Omega} \psi (f(x) - u(x)) + \beta \sum_{x \in N_x} \phi(f(x) - f(y)), $$

donde, para mis propósitos, $f$ $u$ son matrices de tamaño $192 \times 192$ (imágenes), y $\psi, \phi \in C^2(\mathbb{R})$. El objetivo es encontrar la matriz de $f$ que minimiza $J$. He estado tratando de minimizar $J$ durante más tiempo y estoy muy atascado. Estoy tratando de hacer el método de newton, pero estoy pegado en la búsqueda de la pendiente y de la arpillera para $J$. Mire por donde se mire online tiene el gradiente definido por el vector de funciones. En primer lugar tuve

$$\nabla J(f) = \sum_{x \in \Omega} \psi' (f(x) - u(x)) + \beta \sum_{x \in N_x} \phi'(f(x) - f(y)) $$ y $$\nabla^2 J(f) = \sum_{x \in \Omega} \psi'' (f(x) - u(x)) + \beta \sum_{x \in N_x} \phi''(f(x) - f(y)),$$

pero entonces, por supuesto que no puede recorrer en $f_{k+1} = f_k - \frac{\nabla J(f)}{\nabla^2 J(f)}$. Cualquier ayuda o punteros a los recursos en línea, sería muy apreciado.

1voto

tylerc0816 Puntos 2246

Creo que esta es la respuesta a mi pregunta, y yo quería publicar sólo en caso de que alguien más está buscando en el futuro. Después de más buscando he encontrado esta útil apéndice que describe la matriz de cálculo. En particular, si tenemos una matriz de $X$ y una función escalar $y = f(X)$ (al igual que lo hice con $J$ anterior), entonces la "matriz de degradado" es definido por

$$\frac{\partial y}{\partial X} = \sum_{i, j} E_{ij} \frac{\partial y}{\partial x_{ij}},$$

donde $E_{ij}$ es el típico primaria de la matriz y $x_{ij}$ $ij^{th}$ entrada de $X$. Esto tiene sentido para mí, como parece que están tomando el vector gradiente de cada columna de la matriz. Voy a seguir con esto por ahora, pero aprecio mucho una confirmación de que he encontrado la correcta expresión y, ahora, puede intentar usar el método de Newton ...

1voto

theog Puntos 585

En lugar de mirar $f$ y $u$ $192\times192$ matrices, sólo pensar en ellos como $192^2$-vectores dimensionales, por ejemplo mediante la concatenación de las columnas. La expresión que escribiste es simplemente el gradiente generalmente con respecto a un vector, excepto que han puesto detrás en la forma de una matriz de $192\times192$. Pero pensar en estas cosas como matrices va a ser confuso cuando usted trate de tomar la segunda derivada de la funcional.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X