Es conveniente definir $u_1=y_1+y_2$ y $u_2=y_1-y_2$ . Entonces encontramos (eliminando el uso explícito de la función indicadora) $$u_1''=\left\{ \begin{array}{ll} -2\frac{A}{R}r, & |r|>R;\\ B(1+R)u_1 - 2\frac{A}{R}r, & |r|\leq R, \end{array} \right. $$ y $$u_2''=\left\{ \begin{array}{ll} 0, & |r|>R;\\ B(R-1)u_2, & |r|\leq R. \end{array} \right. $$
Para $|r|>R$ podemos escribir las soluciones generales integrando dos veces.
Para $|r|\leq R$ obtenemos las primeras soluciones generales de las ecuaciones homogéneas $u_1''=B(1+R)u_1$ y $u_2''=B(R-1)u_2$ . Asumiendo que $R$ también es una constante, estos son ecuaciones lineales de segundo orden de coeficiente constante por lo que podemos escribir las soluciones generales requeridas. Para $u_2$ , hemos terminado, y para $u_1$ buscamos una solución particular utilizando el método de los coeficientes indeterminados (es decir, hacer una conjetura).
Asumiendo que las soluciones deben ser dos veces diferenciables para todo $r$ entonces tenemos que hacer coincidir las soluciones interiores y exteriores (y sus primeras y segundas derivadas) en $|r|=R$ para garantizarlo. Para ello habría que elegir adecuadamente las constantes de integración.
Para un sistema con $n$ ecuaciones de la forma $$y_i''=\alpha(r)+\beta(\rho y_i+\sum_{i\neq j}y_j),$$ podemos escribir $$y''=a(r) + \beta(\rho I+J)y,$$ donde $y\in\mathbb{R}^n$ , $a$ es el vector columna con cada entrada igual a $\alpha$ , $I$ es el $n\times n$ matriz de identidad y $J$ es la matriz con unos en todas partes excepto en la diagonal, que tiene ceros. $\beta$ y $\rho$ son constantes correspondientes a $B,R$ respectivamente. Sea $M=\rho I +J$ . Esto tiene valores propios $\rho+n-1$ (con el vector propio $(1,1,\dots,1)^T$ ) y $\rho-1$ . Los vectores propios con valor propio $\rho-1$ son de la forma $(y_1,y_2,\dots,y_n)^T$ con $$y_1+y_2+\cdots+y_n=0.$$ Así, $\rho-1$ tiene un $(n-1)$ -eigenspace. Por lo tanto, $M$ tiene un conjunto completo de vectores propios, por lo que se puede diagonalizar: existe una matriz no singular $S$ tal que $$S^{-1}MS=\Lambda=\rm{diag}(\rho+n-1,\rho-1,\dots,\rho-1).$$
Ahora defina $u\in\mathbb{R}^n$ por $y=Su$ . Desde $S$ es una matriz constante, podemos seguir las definiciones anteriores para obtener $$u''=S^{-1}a+\beta\Lambda u.$$ Desde $\Lambda$ es diagonal, esto proporciona ecuaciones lineales de segundo orden desacopladas para los componentes de $u$ .