2 votos

Regularización de Tikhonov

Estoy viendo un código en C que añade regularización Tikhonov a una matriz simétrica definida positiva.

Así:

potencia = (matriz[1][1] + matriz[2][2]);

factor = 0,000136 //Hallado por ensayo y error

for(i = 1; i < matrixSize; i++ ) {

matrix[i][i] = matrix[i][i]+( factor * power );

}

Estoy atascado en la comprensión de lo que significa esa potencia, ¿por qué se han utilizado la segunda y la tercera parte de la diagonal? ¿Cómo ayuda esto a que los números sean más estables?

Gracias por cualquier ayuda.

6voto

constt Puntos 31

Sé que mi respuesta puede ser demasiado tarde, pero me gustaría publicar algunas explicaciones sobre el enfoque de regularización de Tikhonov de todos modos, porque bueno, en primer lugar, tuve una experiencia práctica en la regularización aplicada y en el enfoque de Tikhonov también resolviendo problemas científicos inversos reales (expresados principalmente en forma de ecuaciones integrales) que estaban fuertemente mal planteados, y en segundo lugar, cuando empecé me encontré con una notable falta de las fuentes que podrían describir claramente una aplicación práctica de la regularización y, lo que era más importante, de la estimación de la solución.

A grandes rasgos, el enfoque de Tikhonov no es más que un acoplamiento regularizado del método de los mínimos cuadrados de Gauss y del método de la matriz pseudoinversa de Moore-Penrose para encontrar una solución estable que exista y esté definida de forma única en el espacio de la solución. Pero a diferencia del método de los mínimos cuadrados y de la matriz pseudoinversa, nos acercamos a una solución real desconocida con la posibilidad de estimar el error de la solución regularizada si se cumplen algunos requisitos relativos a los datos iniciales y a los espacios de la solución. En el caso de la estimación puntual del error, es posible definir una región (límites superior e inferior) donde se encuentra la solución exacta.

Para poder tratar el problema planteado de forma más general, vamos a utilizar una notación matricial y algo de análisis funcional (sólo por diversión):

Problema inverso inicial:

$A\tilde{y}=\tilde{b}, \tilde{y} \in L_2, \tilde{b} \in L_2\\ \|\bar{b}-\tilde{b}\|_{L_2} \leq \delta,$

donde $A$ es una matriz de coeficientes del SLE que se obtiene tras la discretización numérica del problema inicial, $\tilde{b}$ representa un dato inicial, $\delta$ es un error superior de los datos iniciales (si los datos iniciales no tuvieran errores entonces el problema inicial se convierte en correcto planteado y podría resolverse utilizando métodos comunes) y $\tilde{y}$ es una solución regularizada aproximada del problema inverso. Error del operador $\|\tilde{A} - \bar{A}\| \leq \xi$ no se tiene en cuenta ya que se supone que es insignificante si la malla de discretización es lo suficientemente fina.

Aquí se ve, que deliberadamente considero que los datos iniciales así como la solución regularizada pertenecen a Hilbert $L_2$ espacios. Hay algunas razones importantes para ello. En dos palabras, esta restricción asegura (junto con algunas afirmaciones adicionales que no proporciono aquí ya que están relacionadas con la comprensión más profunda de la regularización en general) una existencia de la solución regularizada que se puede encontrar resolviendo el siguiente problema de minimización:

$M_{\delta}^{\alpha}[\tilde{y}]=\|A\tilde{y}-\tilde{b}\|_{L_2}^2 + \alpha\|\tilde{y}\|_{L_2}^2, \\ y_{\alpha}=\text{arg}\,\min M_{\delta}^{\alpha}[\tilde{y}],$

donde $M_{\delta}^{\alpha}[\tilde{y}]$ es una función de suavización, $\alpha$ es un parámetro de regularización y $y_{\alpha}$ es una solución regularizada que proporciona un mínimo global de la función $M$ .

En el caso dado la minimización resulta en la ecuación de Euler-Tikhonov de segundo orden:

$\alpha y_{\alpha}+A^TAy_{\alpha}=A^T\tilde{b}, \\ y_{\alpha}=(\alpha I + A^TA)^{-1}A^T\tilde{b},$

donde $I$ es una matriz de identidad.

Por lo tanto, como se puede ver el enfoque numérico desnudo no es tan malo como se describe en los documentos matemáticos aburridos :) Pero hasta ahora no he introducido una cosa más que es responsable del éxito de toda la historia. Sí, es cierto, se trata de un parámetro de regularización $\alpha$ . Todo depende de ello. Aunque se demuestre la convergencia del enfoque de regularización, sigue habiendo una fuerte demanda en el método para elegir un parámetro de regularización apropiado que esté relacionado con la solución de regularización óptima que posiblemente sea la más cercana a la solución exacta desconocida y sea lo suficientemente estable. La regularización para el caso dado se realiza en los siguientes pasos:

  • Definir un vector de los parámetros de regularización que se utilizarán para calcular un espacio de soluciones regularizadas. Por ejemplo, en este orden

    $\alpha_n = \alpha_0\cdot q^n, n = \overline{1, N},$

donde $N$ denota el número total de soluciones regularizadas que componen un espacio de soluciones; $\alpha_0$ es un valor inicial, $\alpha_0 > 0$ ; $q$ es un factor que gobierna la tasa de convergencia a la solución exacta (cuanto menor sea el factor q, más rápida será la tasa), $0 < q < 1$ ;

  • Calcular la ecuación de Euler-Tikhonov para cada parámetro $\alpha_n$ ;
  • Elige el parámetro más adecuado que corresponda a la solución más cercana a la incógnita.

Uno de los métodos más utilizados es el principio de discrepancia. Con este método la solución se encuentra como una raíz de la siguiente ecuación:

$\|Ay_{\alpha}-\tilde{b}\|_{L_2}^2 = \delta^2$

Es bastante sencillo. Pero el diablo se esconde en los detalles. Aquí hay que señalar que el enfoque de regularización opera con la ecuación de Euler-Tikhonov pero no con la inicial. El análisis minucioso del enfoque de regularización dado con la atención a la característica señalada muestra que el uso del principio de discrepancia siempre conducirá a soluciones sobre regularizadas (el parámetro de regularización $\alpha$ será innecesariamente demasiado grande). Esta peculiaridad no es en absoluto obvia y se puede encontrar con mucha frecuencia que muchos investigadores no prestan toda la atención necesaria a estos hechos y tratan las soluciones regularizadas calculadas como si estuvieran lo suficientemente cerca de las exactas mientras que no lo están. Por lo tanto, es probable que se necesite información adicional sobre la solución desconocida (por ejemplo, la suavidad de la solución).

Una palabra más sobre un procedimiento de elección. El requisito mínimo es $\delta$ . Eso significa que no hay manera de elegir el parámetro "correcto" $\alpha$ sin el error de datos inicial. Sé que, de vez en cuando surgen intentos de encontrar un método que pueda encontrar una solución regularizada estable y fiable sin error de datos iniciales. $L$ -Método de la curva, por ejemplo. Pero, de todos modos, ya se ha demostrado teóricamente y en la práctica que tales métodos no pertenecen a la familia de los algoritmos de regularización y no pueden conducir consecuentemente a la solución exacta.

La estimación del error de la solución regularizada es otra gran historia que no tiene cabida aquí...

P.D.: El enfoque de regularización de Tikhonov no es la única forma de resolver numéricamente los problemas mal planteados, pero según mi experiencia, este método es muy estable, flexible y no consume demasiado tiempo para empezar y debería estar entre los primeros candidatos a probar.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X