Ejemplo breve: considere la ecuación diferencial \begin {align*} f'(x)= \frac {k^2}{k^2+k+1}xf(x) \end {align*} donde $k$ es un parámetro. Wolfram Alpha me dice que la solución de esta ecuación es \begin {align*} f(x)=ce^ \frac {k^2 x^2}{2(k^2+k+1)} \end {align*} Si entonces tomo el límite como $k\rightarrow \infty$ la solución converge a \begin {align*} f(x)=ce^ \frac {x^2}{2}. \end {align*} Esta es la misma solución que si simplemente hubiera tomado el límite antes de intentar resolver la ecuación diferencial, es decir, que resolviera \begin {align*} f'(x)=xf(x). \end {align*}
Mi pregunta es, entonces, cuándo es apropiado tomar un límite de este tipo de un parámetro ANTES de resolver la ecuación diferencial. No he podido encontrar muchas referencias a esta pregunta. Un libro que encontré en Internet (Ritger y Rose - "Differential Equations with Applications", p. 69) afirma que "tomar el límite de un parámetro en una ecuación diferencial y luego resolver la ecuación diferencial no es siempre lo mismo que resolver la ecuación diferencial y luego tomar el límite del parámetro", pero no da referencias ni condiciones.
Se agradecería cualquier ayuda (aunque sólo sea para indicarme la referencia adecuada).