6 votos

Medición ' parallelness ' de vectores

Deseo construir una especie de 'medida' (no en el sentido formal) de la 'parallelness' de un conjunto finito de $m$ vectores $S = \{v_1 , \ldots , v_m\} \subset \mathbb{R}^n$. Este parallelness $p$ debe tener las siguientes propiedades:

  • Si $v \in \mathbb{R}^n$ $\{\lambda_1 , \ldots , \lambda_m \} \subset \mathbb{R}^+$ $$ p(\lambda_1 v , \ldots , \lambda_m v) = 1 $$ desde entonces, con nuestro sistema de positivos $\lambda$'s, todos los vectores de la forma $\lambda_iv$ de los puntos en el 'mismo diection'
  • En cualquier otro caso $$ p < 1 $$ para indicar que estos vectores no son totalmente paralelas

Una manera fácil de construir tal cosa para $m=2$ está utilizando el producto escalar. Denotan los vectores unitarios por un sombrero, a continuación, $$ p(v_1,v_2) = \hat{v}_1 \cdot \hat{v}_2 $$ Tenga en cuenta que $p(v_1,v_2) \leq 1$ porque $\hat{v}_1$ $\hat{v}_2$ son vectores unitarios.

Para obtener más vectores se pone más complicado. Tengo actualmente el enfoque $$ p(v_1, \ldots , v_m) = \left\lVert \frac {\hat{v}_1 + \ldots + \hat{v}_m}{m} \right\rVert $$ que tiene la propiedad de que si los vectores están distribuidas uniformemente a través de una esfera, a continuación,$p=0$, no parallelness. Esta versión está inspirada en la media de la circular cantidades

Existe un enfoque general y la teoría detrás de lo que estoy tratando de hacer? Hay una "mejor" manera de medir cómo paralelo de un conjunto de vectores son?

Motivación: Esta pregunta está inspirada en los cálculos numéricos, donde puedo obtener un número de campos vectoriales y necesito saber si los campos vectoriales son paralelas. Por supuesto que habrá algún error en la computación, y por eso es necesario comprobar si los campos vectoriales exceder cierto nivel de parallelness. Sin embargo, estoy interesada en saber si hay algún enfoque general para obtener algo así como una "desviación estándar de la dirección' o similar en alto dimensiones del espacio, una herramienta analítica para abordar este tipo de problema.

Editar (13/Nov/2017): Después de considerar Raskolnikov la respuesta, resulta que quiero en primer lugar determinar si los vectores son paralelos', sin preocuparse de si están alineados o anti-alineados, por lo que en esta etapa $v$ $-v$ son considerados de la misma, esto me da una 'región' en mi campo de vectores. Luego quiero para identificar el tipo de región mediante la comparación de todos los vectores de la primera y la determinación de si son paralelas o anti-paralelo. Este segundo paso es trivial, es el primer paso que estoy tratando en esta pregunta. Yo por lo tanto la actualización de mis propiedades necesarias para ser:

  • Si $v \in \mathbb{R}^n$ $\{\lambda_1 , \ldots , \lambda_m \} \subset \mathbb{R}$ $$ p(\lambda_1 v , \ldots , \lambda_m v) = 1 $$ ya que todos los vectores de la forma $\lambda_iv$ son paralelas/antiparalela
  • En cualquier otro caso $$ p < 1 $$ para indicar que estos vectores no son totalmente paralelas/antiparalela

2voto

Eran Medan Puntos 193

He aquí un enfoque inspirado en el dbx comentario'. Nos fijamos en la suma de los cuadrados de las escalares de los productos de una normativa de vectores $\hat{u}$ con la normativa vectores $\hat{v}_i$ y tratamos de maximizar esta sobre la posible $\hat{u}$.

$$\max_{\hat{u}}\sum_{i=1}^m (\hat{u} \cdot \hat{v}_i)^2$$

¿Por qué elegir esta medida? Debido a que tiene la propiedad que representa la suma de los cuadrados de los cosenos de los ángulos. Así que para ángulos $0$$\pi$, un solo término es máxima, por lo que realmente se comprueba el paralelismo y no la orientación.

La otra razón es que este problema variacional puede ser traducido en un autovalor problema. De hecho, podemos anotar el producto escalar de la siguiente manera

$$\hat{u} \cdot \hat{v}_i = \mathbf{u}^{\text{T}}\mathbf{v}_i$$

donde $\mathbf{u}$ $\mathbf{v}_i$ son vectores columna que contiene nuestros componentes. Entonces nuestro problema de optimización se convierte en

$$\max_{\hat{u}}\sum_{i=1}^m (\mathbf{u}^{\text{T}}\mathbf{v}_i)^2 = \max_{\hat{u}}\sum_{i=1}^m (\mathbf{u}^{\text{T}}\mathbf{v}_i)(\mathbf{v}_i^{\text{T}}\mathbf{u})$$

donde en el último paso, he utilizado el hecho de que $\mathbf{u}^{\text{T}}\mathbf{v}_i=\mathbf{v}_i^{\text{T}}\mathbf{u}$. Más reordenando obtenemos

$$\max_{\hat{u}}\sum_{i=1}^m \mathbf{u}^{\text{T}}(\mathbf{v}_i\mathbf{v}_i^{\text{T}})\mathbf{u} = \max_{\hat{u}} \mathbf{u}^{\text{T}}(\sum_{i=1}^m \mathbf{v}_i\mathbf{v}_i^{\text{T}})\mathbf{u} $$

Este problema de optimización puede ser demostrado ser equivalente con la búsqueda de los autovectores y autovalores de la matriz $\sum_{i=1}^m \mathbf{v}_i\mathbf{v}_i^{\text{T}}$, más en particular, el mayor autovalor es la solución del problema. (Usted puede trabajar este, por ejemplo, a través de la optimización de Lagrange, no te olvides de poner la condición de que $\mathbf{u}^{\text{T}}\mathbf{u}=1$.)

$$\sum_{i=1}^m \mathbf{v}_i\mathbf{v}_i^{\text{T}}\mathbf{u}=\lambda \mathbf{u}$$

Curiosamente, también se puede multiplicar la ecuación a la izquierda por $\mathbf{v}_j^T$ y obtener

$$\sum_{i=1}^m (\mathbf{v}_j^T\mathbf{v}_i)(\mathbf{v}_i^{\text{T}}\mathbf{u})=\lambda (\mathbf{v}_j^T\mathbf{u})$$

que le permite reformular el autovalor problema en el autovalor problema de otra matriz $G$ tal que $G_{ji}=\mathbf{v}_j^T\mathbf{v}_i=\hat{v}_j\cdot\hat{v}_i$. Esto se conoce como el Gramo o Gramian de la matriz y está bien estudiado en la literatura. Contiene todos los productos escalares de los vectores.

Si todos los $\mathbf{v}_i$ son paralelas, la matriz de Gram será todo lo $1$'s o $-1$'s. Pero en tal forma que las filas son todos los múltiplos de uno a otro con un factor de $\pm 1$. Los valores propios son así todos iguales a cero, excepto uno, y que uno debe ser igual a la traza de la matriz de Gram, $m$. Por lo tanto el resultado de la optimización, obviamente, se $m$. Así que si usted quiere que su medida es $1$, divida por $m$. Si todos los $\mathbf{v}_i$ son mutuamente ortogonales, la matriz de Gram es simplemente la matriz de identidad, el mayor autovalor de ser $1$. Por tanto, su medida se $1/m$.

Otra propiedad interesante de la matriz de Gram: su determinante de las medidas de la plaza de el volumen de la parallelotope generado por los vectores $\hat{v}_i$. Si este volumen es cero, algunos de los vectores son paralelos (no necesariamente todos).

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X