23 votos

Comprender el producto interior ponderado y las normas ponderadas

Estoy leyendo este libro donde en la página 27 se dan las siguientes definiciones sobre el producto interno ponderado y las normas ponderadas.

Dejemos que $M$ y $N$ sean matrices hermitianas positivas definidas de orden $m$ y $n$ respectivamente. Los productos internos ponderados en $\mathbb{C}^{m}$ y $\mathbb{C}^{n}$ son

$(x, y)_{M} = y^{*}Mx$ , $x, y \in \mathbb{C}^{m}$ y $(x, y)_{N} = y^{*}Nx$ , $x, y \in \mathbb{C}^{n}$ .... $(1)$

Las definiciones de las normas vectoriales ponderadas son

$\|x\|_{M} = (x, x)^\frac{1}{2}_{M} = (x^{*}Mx)^\frac{1}{2} = \|M^\frac{1}{2} x\|_{2}$ , $x\in\mathbb{C}^{m}$ .... $(2)$

$\|x\|_{N} = (x, x)^\frac{1}{2}_{N} = (x^{*}Nx)^\frac{1}{2} = \|N^\frac{1}{2} x\|_{2}$ , $x\in\mathbb{C}^{n}$ .... $(3)$

Las definiciones de la norma de la matriz ponderada son

$\|A\|_{MN} = \max_{\|x\|_{N} = 1}{\|Ax\|_{M}},\; x \in\mathbb{C}^n and ~~A\in \mathbb{C}^{m\times n}$

$\|B\|_{NM} = \max_{\|x\|_{M} = 1}{\|Bx\|_{N}},\; x \in\mathbb{C}^n and ~~B\in \mathbb{C}^{n\times m}$

Dicha norma se denomina a veces norma de operador subordinada a la norma de vector. Es fácil comprobar que

$\|A\|_{MN} = \|M^\frac{1}{2} A N^\frac{-1}{2} \|_{2}$ .... $(4)$

$\|B\|_{NM} = \|N^\frac{1}{2} B M^\frac{-1}{2} \|_{2}$ .... $(5)$

¿Podría alguien explicarme el significado de las normas ponderadas? ¿Por qué necesitamos normas ponderadas? En $(2)$ cómo llegamos $\|M^\frac{1}{2} x\|_{2}$ ? ¿Cómo podemos encontrar la raíz cuadrada de la matriz $M$ ? ¿Cómo hemos llegado a la ecuación? $(4)$ y $(5)$ .

Agradecería mucho la ayuda y las sugerencias.

37voto

Giulio Muscarello Puntos 150

Las normas ponderadas tienen diversos usos. Supongamos que estás midiendo el tamaño de los vectores que salen de algún proceso aleatorio o físico, y se ven así: $$ \begin{bmatrix} +5.4\times 10^{-10} \\ -1.3\times 10^{+6} \\ \end{bmatrix} \begin{bmatrix} +1.8\times 10^{-9} \\ -4.3\times 10^{+5} \\ \end{bmatrix} \begin{bmatrix} -2.3\times 10^{-9} \\ +3.4\times 10^{+5} \\ \end{bmatrix} \begin{bmatrix} +8.6\times 10^{-10} \\ +3.6\times 10^{+6} \\ \end{bmatrix} \begin{bmatrix} -3.2\times 10^{-10} \\ +2.7\times 10^{+6} \\ \end{bmatrix} $$ ¿Tendría sentido utilizar la norma euclidiana estándar $\|\cdot\|_2$ para medir el tamaño de estos vectores? Yo digo que no. Los valores de $x_1$ rondar $10^{-9}$ , $x_2$ alrededor de $10^6$ . Desde $x_1$ es mucho más pequeño que $x_2$ , $\|x\|_2\approx |x_2|$ . Estás perdiendo información sobre $x_1$ con esta medida.

Lo que puede hacer en esta circunstancia es seleccionar un ponderado en diagonal norma $\|x\|_D\triangleq\sqrt{x^*Dx}$ con los valores de $D_{ii}>0$ elegido para "normalizar" cada entrada. Por ejemplo, podría elegir $D_{11}=10^{18}$ y $D_{22}=10^{-12}$ . Los valores de $D^{1/2} x$ son $$ \begin{bmatrix} +0.54 \\ -1.3 \end{bmatrix} \begin{bmatrix} +1.8 \\ -0.43 \end{bmatrix} \begin{bmatrix} -2.3 \\ +0.34 \end{bmatrix} \begin{bmatrix} +0.86 \\ +3.6 \end{bmatrix} \begin{bmatrix} -0.32 \\ +2.7 \end{bmatrix} $$ Ahora los pequeños cambios relativos en $x_1$ tendrá aproximadamente el mismo impacto en la norma $\|x\|_D=\sqrt{x^*Dx}=\|D^{1/2}x\|_2$ como pequeños cambios relativos en $x_2$ . Esta es probablemente una norma más informativa para este conjunto de vectores que una norma euclidiana estándar.

Las normas ponderadas diagonalmente son probablemente las más fáciles de justificar intuitivamente, pero de hecho las normas ponderadas más generales tienen sus usos. Por ejemplo, aparecen a menudo en las pruebas del método de Newton.

Para obtener información sobre las raíces cuadradas de las matrices, Wikipedia no es un mal lugar para empezar, o cualquier texto de álgebra lineal razonablemente bueno. Las raíces cuadradas existen para cualquier matriz hermitiana semidefinida positiva, es decir, cualquier matriz hermitiana con valores propios reales no negativos.

Se suelen considerar dos tipos de raíces cuadradas para una matriz PSD real simétrica/compleja hermitiana $M$ . El triángulo inferior Cholesky factor $L$ satisfaciendo $M=LL^*$ es más sencillo de calcular en la práctica. Pero el simétrico/Hermitiano raíz cuadrada $Q=M^{1/2}$ satisfaciendo $M=Q^2$ se prefiere a menudo en las pruebas, porque así no hay que estar pendiente de las transposiciones, y porque a veces es útil para $Q$ y $M$ para compartir los vectores propios.

Con la raíz cuadrada simétrica definida, las derivaciones para (2) son sencillas: $$\|M^{1/2}x\|_2 = \left(x^*M^{*/2}M^{1/2}x\right)^{1/2} = \left(x^*M^{1/2}M^{1/2}x\right)^{1/2} = \left(x^*Mx\right)^{1/2} = \|x\|_M.$$ He aquí una derivación para (4). Primero, convertimos el numerador: $$\|M^{1/2}AN^{-1/2}\|_2 = \max_{\|x\|_2=1} \|M^{1/2}(AN^{-1/2}x)\|_2 = \max_{\|x\|_2=1} \|AN^{-1/2}x\|_M$$ Ahora definimos $y=N^{-1/2} x$ o $x=N^{1/2} y$ : $$\max_{\|x\|_2=1} \|AN^{-1/2}x\|_M = \max_{\|N^{1/2} y\|_2=1} \|Ay\|_M = \max_{\|y\|_N=1}\|Ay\|_M.$$

0 votos

Estimado señor, muchas gracias por la respuesta. Su respuesta es muy útil para mí. Por favor, aclare el primer párrafo de su respuesta. No soy capaz de entenderlo.

0 votos

Claro, déjame retocarlo un poco.

0 votos

Muchas gracias señor por aclarar mis dudas :)

21voto

bartgol Puntos 3039

Las respuestas anteriores son perfectamente agradables. Sólo quiero señalar otro ejemplo: las normas energéticas.

No sé si estás familiarizado con las ecuaciones diferenciales y/o el cálculo de variaciones, pero lo intentaré de todas formas.

Considera la siguiente integral:

$$ E(v) = \frac{1}{2}\int_\Omega |\nabla v|^2 dx $$ donde $\Omega$ es un bonito (digamos que con una frontera suave, sin esquinas ni picos) dominio acotado en $\mathbb{R}^n$ . Esto en muchas aplicaciones representa la energía interna de un sistema en una configuración dada por la función $v$ . Por ejemplo, si $v$ es el desplazamiento desde una configuración de referencia, $E(v)$ representa el energía elástica del sistema (suponiendo una elasticidad lineal).

La integral anterior puede reescribirse como

$$ E(v) = a(v,v) $$ con

$$ a(u,v) = \frac{1}{2}\int_\Omega \nabla u\cdot\nabla v dx $$

Ahora, supongamos que tenemos un de dimensiones finitas representación de la función $v$ (si conoces los elementos finitos ya sabes por dónde voy). Esto significa que

$$ v(x) = \sum_{i=1}^n v_i \varphi_i(x), $$ donde todos los $\varphi_i(x)$ son fijos y conocidos a priori.

Si se introduce esta expresión en la definición de $E$ se obtiene (teniendo cuidado de no estropear los índices)

$$ E(v) = \frac{1}{2}\int_\Omega \nabla\left(\sum_{j=1}^n v_j \varphi_j(x)\right)\cdot\nabla\left(\sum_{i=1}^n v_i \varphi_i(x)\right)dx\\ = \cdots = \sum_{i=1}^n\sum_{j=1}^n v_iv_j\frac{1}{2}\int_\Omega \nabla \varphi_j \cdot \nabla \varphi_i dx $$

Ahora dejemos que $\underline{v}$ sea el vector de los coeficientes $v_i$ y $A$ la matriz cuyas entradas son

$$ a_{ij} = a(\varphi_j,\varphi_i) = \frac{1}{2}\int_\Omega \nabla \varphi_j\cdot\nabla\varphi_i dx $$ Bajo ciertos supuestos sobre $v$ (por ejemplo, $v=0$ en $\partial\Omega$ el límite de $\Omega$ ), se puede demostrar que se trata efectivamente de una matriz definida positiva.

Ahora, si el sistema está en una configuración descrita por $v$ y $v$ se expresa como arriba, entonces la energía del sistema viene dada por

$$ E(v) = a(v,v) = \underline{v}^tA\underline{v} $$ que es precisamente una norma ponderada de $\underline{v}$ (al cuadrado). Aquí la matriz no es exactamente una peso sino que codifica la física del fenómeno. Es posible demostrar que, si $v$ se expande como antes, y se eligen las funciones base $\varphi_i$ de tal manera que

$$ \int_\Omega \varphi_i\varphi_j dx = \begin{cases} 0\mbox{ if }i\neq j\\ 1\mbox{ if }i=j, \end{cases} $$ entonces la norma euclediana estándar de $\underline{v}$ es corresponde al valor de la integral

$$ I(v) = \int_\Omega v^2 dx $$ que es un importante norma de $v$ pero medidas una diferente energía del sistema.

0 votos

Gracias por presentar un buen ejemplo :)

10voto

Godot Puntos 1461

El significado de las "normas ponderadas", por qué las necesitamos:

Obsérvese que las normas que se consideran son inducidas por formas bilineales hermitianas, por lo que debemos discutir las formas bilineales hermitianas.

Desde el punto de vista del álgebra lineal no hay nada especial en la forma bilineal hermitiana "estándar" $\langle x,y\rangle=x^{*}Iy$ . Todas las formas bilineales hermitianas son formas bilineales con una propiedad hermitiana adicional. Se puede demostrar que para toda forma bilineal hermitiana $\langle\cdot,\cdot\rangle$ (es decir, un producto interno) existe una matriz hermitiana definida positiva $M$ tal que $\langle x,y\rangle=x^{*}My$ . Y eso es todo. Ninguno de esos productos internos es de ninguna manera "mejor" que el otro.

La única razón por la que se distingue el producto interior "estándar" $\langle x,y\rangle=x^{*}Iy$ es la elección de una base particular de su espacio (es decir, sistema de coordenadas). Lo percibes como un "mejor" producto interno porque su matriz " $M$ "es la matriz de identidad $I$ la más simple de todas las matrices hermitianas definidas positivas.

Así que, de hecho, la distinción entre la norma "estándar" y las normas ponderadas es artificial y no tiene ningún significado real.

0 votos

Gracias por la respuesta y por aclarar mi duda.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X