7 votos

Necesidad de calcular los valores de todas las entradas de una $3 \times 3$ de la matriz?

Tengo un procesamiento de Imagen de la aplicación en la que tengo una Matriz de la ecuación de la siguiente manera:

$A \cdot R=I$

donde,

$A = 3 \times 3$ matriz (Constantes)

$R = 3 \times 1$ matriz (Vector Columna) Permite llamar a esto como resultado real.

$I = 3 \times 1$ matriz . Permite llamar a $I$ como Ideal de salida

Conozco los valores de la matriz $I$, e $R$. Tengo que encontrar lo que la matriz de $A$, si el post multiplicado por $R$ me daría matriz $I$.

¿Cómo puedo establecer su situación en el álgebra matricial y resolverlo calcule el $A$?

Los punteros sería de gran ayuda.

Gracias.

-AD.

4voto

dagorym Puntos 2025

En realidad, si usted tiene $24$ conjuntos de I y R:

$$ \mathsf A \cdot \mathbf R_i = \mathbf I_i \qquad i = 1, 2, \dotsc, 24 $$

Ya que hay sólo $9$ variables para cada elemento de la $A$ pero $24 \times 3 = 72$ ecuaciones lineales, el problema es sobredeterminada y no puede haber soluciones. Sin embargo, si usted acepta algunos errores ε,

$$ \mathsf A \cdot \mathbf R_i + \boldsymbol \epsilon_i = \mathbf I_i \qquad i = 1, 2, \dotsc, 24 $$

Es posible encontrar una $A$, ya que esto introduce $72$ más variables (el problema se vuelve indeterminado). Lo mejor es, por supuesto, para minimizar el error total. En primer lugar, escribir Una columna de vectores fila:

$$ \mathsf A = \begin{bmatrix} \mathbf A_1 \\\\ \mathbf A_2 \\\\ \mathbf A_3 \end{bmatrix} $$

entonces tenemos

$$ \mathbf R_i \cdot \mathbf A_j + \epsilon_{ij} = I_{ij} \qquad i = 1, \dotsc, 24; j = 1, 2, 3 $$

esto es exactamente como una regresión lineal problema (si podemos minimizar la suma de los cuadrados de los errores)

$$ \mathsf X \cdot \boldsymbol \beta_j + \boldsymbol \epsilon_j = \mathbf y_j $$

con

\begin{align} \mathsf X &= \begin{bmatrix} R_{1,1} & R_{1,2} & R_{1,3} \\\\ \vdots & \vdots & \vdots \\\\ R_{24,1} & R_{24,2} & R_{24,3} \end{bmatrix} \\\\ \boldsymbol\beta_j &= \begin{bmatrix} A_{j,1} \\\\ A_{j,2} \\\\ A_{j,3} \end{bmatrix} \\\\ \mathbf y_j &= \begin{bmatrix} I_{1,j} \\\\ \vdots \\\\ I_{24,j} \end{bmatrix} \end{align}

Con estos se puede utilizar cualquier software de apoyo a la regresión (o a mano), para encontrar la mejor aproximación de las $A_j$, y por lo tanto toda matriz $A$.

(Esto puede ser fácilmente generalizado a $N \gg 24$ píxeles).

2voto

luispedro Puntos 221

Dado que algunos $A$, se puede medir qué tan bien se desempeña en el conjunto de las $R_1,...,R_{24}$ $I_1,...,I_{24}$ calculando el error. Por ejemplo: $$ J = \sum_{i=1}^{24} ||Una R_i - I_i ||^2 $$ Donde hemos utilizado el estándar de la norma Euclídea. El objetivo es encontrar el $A$ que hace $J$ tan pequeño como sea posible. Podemos expresar esto de manera más compacta por el apilamiento de los vectores $R_i$ $I_i$ en grandes 3x24 matrices. Así que si nos vamos a: $R = [R_1 R_2 \dots R_{24}]$ y de manera similar para $I$, podemos reescribir nuestro error como: $$ J = ||AR - I||_F^2 $$ donde ahora estamos usando la norma de Frobenius. Este problema de optimización se puede resolver de muchas maneras diferentes. Por ejemplo, se puede diferenciar J con respecto a Una y en conjunto el resultado es igual a cero. Esto produce la condición de optimalidad: $$ ARR^T = IR^T $$ Por lo que cualquier que satisface la ecuación anterior será óptima en el sentido de que se va a minimizar J. Si R es un completo rango de la matriz (probable), entonces el óptimo se da por: $$ A = IR^T(RR^T)^{-1} $$

1voto

Jay Puntos 395

Deje $a_{ij}$ ser el número en $i$-ésima fila y $j$-ésima columna de la matriz $A$. A continuación, cada una ecuación de la forma $AR=I$ es básicamente de tres ecuaciones lineales con incógnitas $a_{ij}$. Si hay 24 establece a continuación, usted tiene $24 \cdot 3$ ecuaciones lineales en $9$ incógnitas. Este sistema podría no tienen solución en general. Pero, puede utilizar Lineal de mínimos cuadrados para encontrar una solución que se adapte mejor a todos aquellos ecuaciones.

1voto

Alex Bolotov Puntos 249

Como Rasmus dijo, si usted tiene sólo una (I,R) par, entonces existen múltiples posibilidades para A.

Si usted está interesado en cualquiera tal, puede utilizar el siguiente.

Deje $R = (x,y,z)$ y asumir que $x \neq 0$

Deje $I = (a,b,c)$

Usted puede elegir la matriz a ser

[a/x 0 0]
[b/x 0 0]
[c/x 0 0]

1voto

cjstehno Puntos 131

PRIMER CASO. Si sólo había un conjunto de valores para $I$$R$, como usted dijo en su respuesta a la Rasmus, entonces usted tendría un sistema de ecuaciones lineales con una infinidad de soluciones.

Por razones psicológicas, vamos a escribir de esta manera:

$$ XA = B \ . $$

Aquí $A$ es su $R$, $B$ su $I$ $X$ su $A$. Si nos transponer tenemos simultánea de un sistema de ecuaciones lineales

$$ A^t X^t = B^t \ . $$

Si $A^t = (a_1 \ a_2 \ a_3)$$B^t = (b_1 \ b_2 \ b_3)$, e $(x_i \ y_i \ z_i)$ es la i-ésima columna $X^t$, tenemos las ecuaciones lineales

$$ a_1 x_i + a_2 y_i + a_3 z_i = b_i $$

para $i = 1, 2, 3$.

Que, asumiendo $a_1 \neq 0$, se puede resolver como este:

$$ x_i = \frac{b_i}{a_1} - \frac{a_2}{a_1} y_i - \frac{a_3}{a_1} z_i \ . $$

Ahora, $y_i$ $z_i$ los valores que usted desea y usted tiene una solución para su problema.

EDIT: tal vez yo podría desarrollar un poco más mi respuesta, con el fin de realmente incluir su problema, que es uno de overdeterminated simultánea de sistemas de ecuaciones lineales, como KennyTM dice, puesto que no tiene un favorito par de valores de $(R,I)$, no? Con el fin de manejar todos los $24$ pares de valores de $(R,I)$ tienes, tal vez usted debería tomar en cuenta este SEGUNDO CASO.

EL SEGUNDO CASO. Lo siento, pero me voy a cambiar ligeramente la notación de nuevo. En fin, voy a escribir la solución con la suya.

Vamos

$$ AX = B $$

ser un (simultánea) el sistema de ecuaciones lineales, tales como la suya, con $A$ $24\times 3$ matriz ($24$ filas $3$ columnas), $X$ $3\times 3$ matriz y $B$ $24 \times 3$ matriz.

*Hipótesis: supongamos que nuestra matriz $A$ (es decir, el $R$) ha sonó $ 3$. *

(Si este no es el caso, el problema es más complejo.)

Vamos a escribir el primer sistema de esta manera:

$$ x_1a_1 + y_1a_2 + z_1a_3 = b_1 \ . \qquad [1] $$

Aquí, $a_i , i = 1,2,3$ son las columnas de $A$, $X_1 = \begin{pmatrix} x_1 & y_1 & z_1 \end{pmatrix}^t$ la primera columna de $X$ también $b_1$ es la primera columna de $B$.

Así que podemos ver de una sola vez una interpretación geométrica de nuestro sistema de ecuaciones: sistema [1] tiene una solución $\begin{pmatrix} x_1 & y_1 & z_1 \end{pmatrix}$ si y sólo si el vector $b_1$ pertenece a la lineal span generado por las columnas de a $A$:

$$ AX_1 = b_1 \quad \text{tiene una solución} \qquad \Longleftrightarrow \qquad b_1 \in [a_1, a_2, a_3] $$

¿Qué podemos hacer si este es no es el caso? -Buscar la más cercana vector en $[a_1, a_2, a_3]$$b_1$.

Este más cercano vector es, por supuesto, la proyección ortogonal de a $b_1$ sobre el subespacio $[a_1, a_2, a_3] $.

De acuerdo a Wikipedia, http://en.wikipedia.org/wiki/Orthogonal_projection la matriz de esta proyección ortogonal en el estándar de la base de $\mathbb{R}^{24}$ es

$$ P_A = A (A^tA)^{-1}A^t \ . $$

Así que la mejor $X = \begin{pmatrix} X_1 & X_2 & X_3\end{pmatrix}$ es

$$ X = a (A^tA)^{-1}A^tB $$

donde $B = \begin{pmatrix} b_1 & b_2 & b_3 \end{pmatrix}$. Ahora, vamos a ir de nuevo a su notación: $A = X^t$, $R = A^t$ y $I = B^t$. Así

$$ A = \left( R^t (R^{tt}R^t)^{-1}R^{tt}I^t \right)^t = I R^t ((RR^t)^{-1})^t R $$

donde $R$ $I$ ahora son las matrices con todos los de su $R$'s y $I$'s como columnas.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X