El ejemplo arquetípico está en la ecuación $\frac{dy}{dx}=y.$ Al resolver por separación, se acaba llegando al resultado \begin{align*} |y|&=C_1 e^x \\ \Rightarrow y&=C_2 e^x. \\ \end{align*} La justificación de este paso, según muchas fuentes, es el hecho de que el + o - del valor absoluto puede combinarse con la constante para obtener una nueva constante. Sin embargo, esto cae en la trampa del punto: ¿qué impide que la función tome la rama positiva en algunos puntos y la rama negativa en otros? En este caso, hacer la función a trozos destruye la continuidad, violando la ecuación diferencial inicial, pero se necesitaría un paso extra para confirmar rigurosamente este resultado.
Un problema mayor surge en el caso de ecuaciones diferenciales como $\frac{dy}{dx}\cdot \frac{1}{2}x=y,$ digamos que con la condición inicial $(1,1).$ De nuevo, esta ecuación es bastante fácil de resolver por separación de variables para obtener el resultado $y=x^2$ como solución, ¿o no? Pues resulta que, $y=\textbf{sgn}(x)\cdot x^2$ también satisface la ecuación diferencial en todas partes, así como la condición inicial. Esto, al menos para mí, es alarmante, ya que nunca he visto este tipo de soluciones "patológicas" tratadas en la resolución de ecuaciones diferenciales, y no puedo encontrar nada en Internet sobre esto tampoco, a pesar de que esta es una ecuación diferencial extremadamente simple que sin duda ha aparecido en libros de texto o pruebas antes. Incluso WolframAlpha ignora esta solución y sólo da $y=x^2.$ ¿Es algo que se suele pasar por alto, o los profesores/autores pensaron que no era importante, o... qué? Aún no he encontrado una explicación satisfactoria. También se lo he preguntado a mi profesor, pero tampoco he obtenido una respuesta satisfactoria.