Estamos estudiando el aprendizaje automático mediante Machine Learning: A Probabilistic Perspective (Kevin Murphy). Aunque el texto explica el fundamento teórico de cada algoritmo, rara vez dice en qué caso es mejor qué algoritmo, y cuando lo hace, no dice cómo saber en qué caso estoy.
Por ejemplo, para la elección del kernel, me han dicho que haga un análisis exploratorio de datos para calibrar lo complejos que son mis datos. En datos simples de 2 dimensiones, puedo trazar y ver si un kernel lineal o radial es apropiado. Pero, ¿qué hacer en dimensiones superiores?
En términos más generales, ¿a qué se refiere la gente cuando dice "conoce tus datos" antes de elegir un algoritmo? Ahora mismo sólo puedo distinguir algoritmo de clasificación frente a algoritmo de regresión, y algoritmo lineal frente a algoritmo no lineal (que no puedo comprobar).
EDIT: Aunque mi pregunta original es sobre la regla general universal, me han pedido que proporcione más información sobre mi problema en particular.
Datos: Un panel en el que cada fila es un país-mes (~30.000 filas en total, que cubren ~165 países a lo largo de ~15 años).
Respuesta: 5 variables binarias de interés (es decir, si en ese mes se producen protestas / golpes de Estado / crisis, etc.).
Características: ~ 400 variables (una mezcla de continuas, categóricas, binarias) detallando un montón de características de los 2 meses-país anteriores (se pueden crear lag más largos). Sólo utilizamos variables retardadas, ya que el objetivo es la predicción.
Por ejemplo, el tipo de cambio, el crecimiento del PIB (continuo), el nivel de libertad de prensa (categórico), la democracia, si el vecino tiene conflictos (binario). Tenga en cuenta que muchas de estas 400 características son variables retardadas.