2 votos

Matriz que no pierde ceros

Tengo un vector $\vec x$ con algunas entradas que son cero, y aplico una transformación lineal de manera que para alguna matriz $A$ , $A \vec x$ = $\vec b$ . Me gustaría encontrar una matriz $A$ (o mejor aún, caracterizar una clase de tales matrices) tal que $\vec b$ tiene cero entradas en todos los lugares en los que $\vec x$ lo hace (y posiblemente en más lugares). ¿Cómo lo hago?

Una sugerencia que he recibido es establecer un problema de programación lineal para buscar matrices en las que, para las entradas cero en $\vec x$ indexado por $k$ y cualquier colección de constantes $c_k$ en base a la norma $\vec e_i$ la ecuación $x \cdot \sum_k c_k \vec e_k = 0$ implica $\sum_k c_k \vec e_k \cdot M \cdot x=0$ Pero no sé si esto funcionaría o cómo configurar tal problema.

2voto

Brent Kerby Puntos 3669

Si dejamos que $i_1,\dots,i_r$ sean los índices de $b$ que están restringidos a ser cero, entonces esto es equivalente a la restricción de que las filas $i_1,\dots,i_r$ de $A$ son ortogonales a $x$ . Suponiendo que $x$ no es el vector cero, el conjunto de tales $A$ forma un subespacio de codimensión $r$ en el espacio de todas las matrices de su tamaño.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X