Los métodos locales como K-NN tienen sentido en algunas situaciones.
Un ejemplo que hice en el trabajo escolar tenía que ver con la predicción de la resistencia a la compresión de varias mezclas de ingredientes de cemento. Todos estos ingredientes eran relativamente poco volátiles con respecto a la respuesta o entre sí y KNN hizo predicciones fiables en él. En otras palabras, ninguna de las variables independientes tenía una varianza desproporcionadamente grande para conferir al modelo, ya sea individualmente o posiblemente por interacción mutua.
Tómese esto con un grano de sal porque no conozco una técnica de investigación de datos que demuestre esto de forma concluyente pero intuitivamente parece razonable que si sus características tienen algún grado proporcional de varianzas, no sé qué proporción, podría tener un candidato a KNN. Ciertamente, me gustaría saber si hay algunos estudios y técnicas resultantes desarrolladas a este efecto.
Si se piensa en ello desde una perspectiva de dominio generalizado, hay una amplia clase de aplicaciones en las que "recetas" similares dan resultados similares. Esto parece describir la situación de la predicción de los resultados de la mezcla de cemento. Yo diría que si tienes datos que se comportan de acuerdo con esta descripción y además tu medida de distancia también es natural para el dominio en cuestión y, por último, que tienes suficientes datos, me imagino que deberías obtener resultados útiles de KNN u otro método local.
También se obtiene la ventaja de un sesgo extremadamente bajo cuando se utilizan métodos locales. A veces, los modelos aditivos generalizados (GAM) equilibran el sesgo y la varianza ajustando cada variable individual mediante KNN de forma que:
$$\hat{y}=f_1(x_1) + f_2(x_2) + \dots + f_n(x_n) + \epsilon$$
La parte aditiva (los símbolos más) protegen contra la alta varianza mientras que el uso de KNN en lugar de $f_n(x_n)$ protege contra un alto sesgo.
Yo no descartaría a KNN tan rápidamente. Tiene su lugar.