Este problema ha ocurrido al trabajar en mi tesis de licenciatura: Tengo la siguiente ecuación matricial $A\vec{x}=\vec{b}$
$$\begin{pmatrix} \dots & \dots & \dots \\ \dots & \dots & \dots \\ \dots & \dots & \dots \\ \dots & \dots & \dots \\ \end{pmatrix} \begin{pmatrix} \vdots \\ x_m \\ 0 \\ \vdots \\ \end{pmatrix} = \begin{pmatrix} \vdots \\ 0 \\ b_m \\ \vdots \\ \end{pmatrix} $$ donde $A$ es solo alguna matriz. (Las entradas son funciones de Bessel) En principio, la matriz y los vectores tienen dimensiones infinitas pero nos gustaría restringir el problema a dimensiones finitas y llegar a una afirmación si hay soluciones o no para cualquier $x_m, b_m$. No necesito encontrar una solución, mostrar que hay / no hay una solución sería absolutamente suficiente. Por lo tanto, nos gustaría calcular el determinante (numéricamente). Sin embargo, en este momento hay variables "libres" $b_m$ en el vector solución a la derecha. Obviamente, antes de calcular el determinante tendría que de alguna manera cambiar estas variables al vector $\vec{x}$ y transformar la ecuación presente en una homogénea.
Veamos un ejemplo $2\times2$ para ilustrar mis puntos: $$\begin{pmatrix} A & B \\ C & D \\ \end{pmatrix} \begin{pmatrix} x_1 \\ 0 \\ \end{pmatrix} = \begin{pmatrix} 0 \\ b_1 \\ \end{pmatrix}$$
Lo que hemos ideado hasta ahora:
Para empezar, las ecuaciones representadas por esta ecuación matricial son $$ A x_1 = 0\\ C x_1 = b_1$$ Si $C$ fuera distinto de cero, uno podría invertir la segunda ecuación a $x_1 = C^{-1} b_1$, e insertarlo en la primera. Esto arrojaría: $$ A x_1 =0 \\ \frac{A}{C} b_1 = 0 $$ lo cual se podría escribir como una ecuación matricial homogénea $$\begin{pmatrix} A & 0 \\ 0 & \frac{A}{C} \\ \end{pmatrix} \begin{pmatrix} x_1 \\ b \\ \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ \end{pmatrix}$$
Creo que este método podría aplicarse a dimensiones arbitrarias, la advertencia es que invertir las entradas de mi matriz probablemente no sea una buena idea, ya que las funciones de Bessel tienen ceros que arruinarían toda la situación.
Otra observación interesante es que el lado derecho de la matriz es completamente obsoleto. Mirando el ejemplo $2\times2$, las entradas $B$ y $D$ no contribuyen en absoluto al problema. Mirando casos mayores, por ejemplo $4\times4$, siempre se puede separar la ecuación matricial en una homogénea y una inhomogénea con las entradas de arriba a la izquierda y las entradas de abajo a la izquierda. Esto me hace creer que podría haber algún truco para lograr lo que quiero. (Ver ejemplo a continuación) $$ \begin{pmatrix} A & B & C & D\\ E & F & G & H\\ M & N & O & P\\ Q & R & S & T\\ \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ 0 \\ 0 \\ \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ b_1 \\ b_2 \\ \end{pmatrix} $$
en realidad es solo $$ \begin{pmatrix} A & B \\ E & F \\ \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ \end{pmatrix}$$ (homogénea) y $$ \begin{pmatrix} M & N \\ Q & R \\ \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ \end{pmatrix} = \begin{pmatrix} b_1 \\ b_2 \\ \end{pmatrix}$$ (inhomogénea) Quizás, se podría usar la ecuación homogénea para establecer alguna restricción en los $x_i$ y luego usar la ecuación inhomogénea.
Aquí es donde estoy atascado. Por favor, comparte cualquier idea. También, si crees que conoces una forma diferente de afirmar algo acerca de si las ecuaciones son resolubles en general.