En primer lugar, el ejemplo del cartel original con matrices triangulares superiores no es exactamente correcto. Sabemos ciertamente que la parte inferior izquierda $N^2 - N$ entradas son cero y (como para cualquier matriz triangular invertible) que todas $N$ diagonal entradas no son cero pero, por lo general, desconocemos $N^2 - N$ entradas de la parte superior derecha. No tenemos un algoritmo que decida si $(A^{-1})_{jk} = 0,\ j < k$ significativamente más fácil que un algoritmo que sólo calcula que $(A^{-1})_{jk}$ .
En cuanto a las matrices cuadradas en general, en tres comentarios bajo la pregunta ya se decía que en casos especiales la respuesta podría ser posible. ¿Es posible en el caso general? En adelante excluyo la pregunta "2." y consideraré sólo el problema sobre $(A^{-1})_{jk} = 0$ para hormigón $j$ y $k$ .
Dejemos que $F$ sea el campo base, como los números racionales, reales o complejos. Entonces, $A: F^N \to F^N$ y lo mismo para $A^{-1}$ si está bien definida. Sea $({\mathbf e}_1, {\mathbf e}_2,\ldots {\mathbf e}_N)$ sea la base estándar en $F^N$ y $D^N_j \subset F^N$ sea un hiperplano lineal que abarque todos los elementos de la base estándar excepto ${\mathbf e}_j$ . En otras palabras, $D^N_j$ se compone de todos los $N$ -vectores con $j$ coordenada igual a cero. Obviamente, $$ (A^{-1})_{jk} = 0\quad \Leftrightarrow \quad A^{-1}\,{\mathbf e}_k \in D^N_j\quad \Leftrightarrow \quad {\mathbf e}_k \in A\,D^N_j$$ (a partir de este punto supongo que $A$ es invertible). Cuál es el espacio de la imagen $A\,D^N_j$ ? Es la extensión lineal de los vectores $\{\ A\,{\mathbf e}_l\ |\ l=1\ldots N,\ l\ne j\ \}$ . ¿Cómo podemos comprobar si ${\mathbf e}_k$ pertenecen a $A\,D^N_j$ ? Para una matriz general (invertible, pero de otra forma no especial), encontrando una combinación lineal adecuada de dichos vectores, no más simple, ya que tenemos span lineal de arbitrario $N-1$ vectores linealmente independientes (recordemos que $A$ es invertible). Esta combinación debe ser única y los coeficientes en ella serán entradas exactas $\{\ (A^{-1})_{lk}\ |\ l=1\ldots N,\ l\ne j\ \}$ que se desprende de la regla de la multiplicación matriz por vector: $$ A^{-1}\,{\mathbf e}_k = \sum\limits_{l=1}^N (A^{-1})_{lk}{\mathbf e}_l.$$ Aunque no es una prueba formal, el razonamiento muestra que no podemos encontrar nada sobre una entrada de la matriz inversa de una manera mucho más simple que computar una columna entera de $A^{-1}$ . Por supuesto, podemos considerar la multiplicación por la derecha de los vectores fila en lugar de la multiplicación por la izquierda de los vectores columna, pero esto no cambia la conclusión de que encontrar si una entrada aislada de la matriz de $A^{-1}$ es cero o no requiere alrededor de $1/N$ del total $A^{-1}$ trabajo de cómputo.