[actualización 4] Podemos obtener un resultado exacto
Aquí les doy un ejemplo práctico utilizando Pari/GP. He adaptado las letras de las matrices, la había utilizado la notación no era muy elegante....
Queremos que
$$ \small S = I + A \cdot A^\tau + A^2 \cdot (A^\tau)^2 + A^3 \cdot (A^\tau)^3 + ... $$ de donde también
$$ \small S = I + A \cdot S \cdot A^\tau $$
La matriz de Una puede ser muy general; por el uso de diagonalización de Una y de la forma cerrada de la serie geométrica aplicada a los valores propios de Una obtener una exacta resultado.
[actualización 5] Si Una es simétrica, entonces el proceso se simplifica de nuevo:
La diagonalización $\small A=W\cdot D \cdot W^{-1} $ da una matriz W que puede ser normativa para ser una rotación de la matriz, por lo $ \small M=W^{-1}=W^\tau$,$ \small Mm = M \cdot M^\tau = I $, así que Gg es diagonal con las entradas $ \small g_{k,k}= 1/( 1-\lambda_k^2)$ donde $\small \lambda_k$ son los autovalores (sus plazas no puede ser 1 ahora, pero la relación de pares es ahora irrelevante). El resultado es sencillamente $ \small S = W \cdot Gg \cdot W^\tau $
[/actualización 5]
\\ Pari/GP
d = 4
A = matriz(d,d,r,c,c^r) \\ crear algunos diagonizable matriz
W = mateigen(A)
M = W^-1
D = diag(M*a*C);
mydisplay([W, Mat(D)]) \\ usuario función compacto de salida
Mm = M*M~
\\ Ahora de forma cerrada para la serie geométrica de la
\\ autovalores entran en juego.
\\ Nota que los autovalores( D) puede ser mayor que 1,
\\ pero ninguna pareja se le permite dar un producto de 1
Gg = matrix(d,d, r,c, Mm [r,c] / (1 - D[r] * D[c] ) )
S = W*Gg*W~ \\ resultado exacto
\\ luego hacer una verificación cruzada por implicite definición
chk = matid(d) + a * S * ~
err = round(S - ch, ch, ch, y e) \\ diferencia es cero
El ejemplo-matrices:
$ \qquad \pequeño
\begin{array} {lll}
A &=& \begin{array} {rrrrr}
1 & 2 & 3 & 4 \\
1 & 4 & 9 & 16 \\
1 & 8 & 27 & 64 \\
1 & 16 & 81 & 256
\end{array}
\\ \\ \\
W ,D &=& \begin{array} {rrrr|r}
-10.952794 & 8.1645134 & -0.97056263 & 0.017714558 & 0.11272446 \\
10.508537 & 4.2521778 & -1.8354857 & 0.066926874 & 1.0292480 \\
-5.0996430 & -4.0885199 & -2.6756811 & 0.25725908 & 8.9314971 \\
1 & 1 & 1 & 1 & 277.92653
\end{array}
\\ \\ \\
Mm &=& \begin{array} {rrrr}
0.0039983491 & 0.00083487726 & -0.0016554169 & -0.00076571340 \\
0.00083487726 & 0.010062383 & 0.0027137791 & -0.0041346567 \\
-0.0016554169 & 0.0027137791 & 0.081999971 & -0.013791508 \\
-0.00076571340 & -0.0041346567 & -0.013791508 & 0.93753657
\end{array}
\\ \\ \\
Gg&=&\begin{array} {rrrr}
0.0040498092 & 0.00094445419 & 0.24350752 & 0.000025246807 \\
0.00094445419 & -0.16953880 & -0.00033124251 & 0.000014504751 \\
0.24350752 & -0.00033124251 & -0.0010409834 & 0.0000055581782 \\
0.000025246807 & 0.000014504751 & 0.0000055581782 & -0.000012137628
\end{array}
\\ \\ \\
S &=& \begin{array} {rrrr}
-5.8030040 & -3.8986593 & 14.233205 & -4.3361544 \\
-3.8986593 & -11.925784 & -1.9019096 & 1.4489718 \\
14.233205 & -1.9019096 & 3.9412187 & -1.2246860 \\
-4.3361544 & 1.4489718 & -1.2246860 & 0.32178997
\end{array}
\\ \\ \\
chk &=& \begin{array} {rrrr}
-5.8030040 & -3.8986593 & 14.233205 & -4.3361544 \\
-3.8986593 & -11.925784 & -1.9019096 & 1.4489718 \\
14.233205 & -1.9019096 & 3.9412187 & -1.2246860 \\
-4.3361544 & 1.4489718 & -1.2246860 & 0.32178997
\end{array}
\\ \\ \\
err &=& \begin{array} {rrrr}
0 & . & . & . \\
. & 0 & . & . \\
. & . & 0 & . \\
. & . & . & 0
\end{array}
\end{array}
$
(A continuación se muestra el texto antiguo de mi respuesta, sólo para referencia y explicación del principio:)
He posiblemente otra utilidad de reformulación, no sé si esto se inscribe en el ámbito de la pregunta. Supongo que a es diagonalizable y no considerar una serie de convergencia - es sólo un boceto.
Para facilitar la notación de presentar a $ \rm\ B = transpose(A) $, minúsculas denotan la inversa de la relacionada con mayúsculas denota la matriz. $ \rm\ I $ es la matriz identidad.
Tenemos desde el planteamiento del problema $ \rm\ S = I + B S A $
Si introducimos la diagonalización de Una tenemos $ \rm\ A = W * D * w $ donde D es la diagonal. Uso de la M y m para la transposición de W y w, entonces la diagonalización de B es $ \rm\ B = m * D * M $
Así tenemos $$ S = I + BSA = I + mDM*S*WDw $$ and thus $$ MSW = MW + D MSW D $$
Vamos a denotar $ \rm\ MSW = U$ $ \rm\ MW = t$
Entonces esto también significa: $$ U = t + D U D = t + D t D + D^2tD^2 + D^3tD^3+... $$
Tenga en cuenta que t es simétrica y por lo tanto U es simétrica y $ \rm\ S = mUw $ entonces es simétrica así.
Porque D es la diagonal esto ahora puede ser descrito más fácilmente para cada elemento de matriz de forma individual. Tenemos, uso de r y c para la fila y la columna inbdex respectivamente
$$ U_{r,c} = t_{r,c}*(1 + D_rD_c + (D_rD_c)^2 + ...) = t_{r,c}/(1-D_rD_c) $$
Tener la matriz U por este, S es $$S = m * U * w $$
[actualización nota: he editado la primera versión porque me había tomado Un y B en el orden equivocado]
[edit 2]: los denominadores en la descripción de los elementos de U que parecen describir el rango de aplicabilidad. Desde que la serie geométrica con cociente q se define también por la divergencia en los casos (excepto para p=1) se podría descartar la condición de $ \varrho(A) \lt 1 $ y reemplazarlo con algo como : Una no puede tener al mismo tiempo un valor de x y su recíproco como valores propios