4 votos

Mínimos cuadrados ponderados con datos angulares

Supongamos que tengo un sistema cuyo estado es $\Theta=(\theta_1,\theta_2,\ldots,\theta_n)$ donde $\theta_i\in[-\pi,\pi)$ (es decir, que son ángulos). Me gustaría para determinar la forma más probable de la estimación de $\Theta$ $m$ medidas $z_{ij}$ de la diferencia entre dos de los ángulos, donde $z_{ij}\in[-\pi,\pi)$. En otras palabras,

$$ z_{ij} = \begin{cases} (\theta_i-\theta_j)\texttt{ % }2\pi & (\theta_i-\theta_j)\texttt{ % }2\pi < \pi, \\ [(\theta_i-\theta_j)\texttt{ % }2\pi]-2\pi & (\theta_i-\theta_j)\texttt{ % }2\pi \geq \pi. \end{casos} $$ Hay más mediciones, entonces los ángulos en $\Theta$ (es decir, $m>n$), y de cada medición tiene varianza $\sigma^2_{ij}$.

Por ejemplo, dado que las mediciones de $Z = (z_{01}, z_{12}, z_{12}, z_{13}, z_{14}, z_{23}, z_{24}, z_{34}, z_{34})$, ¿cuál es la estimación de mínimos cuadrados de $\Theta=(\theta_1,\theta_2,\theta_3,\theta_4)$? Tenga en cuenta que he asumido que varias mediciones entre dos ángulos son posibles, y $z_{01}$ es una medida directa de la $\theta_1$, necesario para que la solución sea única.

0voto

dmnc Puntos 147

EDITADO ESTO ES INCORRECTO Ha esto es sencillo. Especificar las ecuaciones $$ z_{ij}=\theta_i-\theta_j + \sigma_{ij} \epsilon_{ij} $$ y tratar de minimizar el error con respecto a $\theta$s $$ \sum_{ij}\epsilon_{ij}^2=\sum_{ij}\frac{1}{\sigma_{ij}^2}(z_{ij}-\theta_i+\theta_j)^2 $$ con su contsraints en $\theta$s.

EDITADO La fórmula anterior es incorrecta ya que $z_{ij}=\theta_i-\theta_j$ por modulo $2\pi$.Esto es más difícil. Cómo podemos solucionarlo? Una forma de evitar que esto $\sin$ de ambas partes y mininmize suma de los cuadrados de $$ \sum (\sin (z_{ij})-\sin(\theta_i-\theta_j))^2 $$ Pero esto es incómodo, no lineal y $\sigma_{ij}$ no están correctamente especificados aquí. Pero creo que puedo ver de una forma más elegante de resolverlo. Voy a tratar de dar más tarde.


Este problema se puede convertir en estándar lineal de mínimos cuadrados ponderados al hacer la sustitución de variables $y_{ij} = z_{ij} + y_{(i-1)i}$ por cada $z_{ij}$. Para la declaró ejemplo, $Y=(y_{01}, y_{12}, \ldots, y_{34})$, donde $$ \begin{align} y_{01} &= z_{01}, \\ y_{12} &= z_{12} + z_{01}, \\ y_{12} &= z_{12} + z_{01}, \\ y_{13} &= z_{13} + z_{01}, \\ y_{14} &= z_{13} + z_{01}, \\ y_{23} &= z_{23} + z_{12} + z_{01}, \\ y_{24} &= z_{24} + z_{12} + z_{01}, \\ y_{34} &= z_{34} + z_{34} + z_{12} + z_{01}, \\ y_{34} &= z_{34} + z_{34} + z_{12} + z_{01}, \end{align} $$ y de las variaciones de la $y_{ij}$ (por ejemplo) $\sigma^2_{y_{23}} = \sigma^2_{z_{23}} + \sigma^2_{z_{01}} + \sigma^2_{z_{01}}$, etc., suponiendo que cada una de las $z_{ij}$ es una medida independiente. Entonces, uno puede ajustar cada una de las $y_{ij}$ utilizando el operador de módulo (como se define en la pregunta) para garantizar la $y_{ij}\in[-\pi,\pi)$.

La estimación de máxima verosimilitud de $\Theta$ es equivalente a minimizar el negativo del logaritmo de la probabilidad de todas las mediciones. En otras palabras, es la $\Theta$ que minimiza $$ F = (Y - H\Theta)^T\Omega(Y - H\Theta), $$ donde $\Omega=$diag$(\sigma^2_{y_{01}},\sigma^2_{y_{12}},\ldots)^{-1}$ y $$ H = \begin{bmatrix} -1 & 0 & 0 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & -1 & 0 & 0 \\ 0 & 0 & -1 & 0 \\ 0 & 0 & 0 & -1 \\ 0 & 0 & -1 & 0 \\ 0 & 0 & 0 & -1 \\ 0 & 0 & 0 & -1 \\ 0 & 0 & 0 & -1 \end{bmatrix} $$ La solución se obtiene mediante el establecimiento $\frac{\partial F}{\partial\Theta}=0$ y resolviendo $\Theta$, lo que da $$ \Theta = (H^T\Omega H)^{-1}H^T\Omega Y. $$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X