2 votos

Modelo de aprendizaje profundo para datos tabulares

Actualmente estoy aprendiendo (juego de palabras) Deep Learning y me gustaría aplicarlo en un conjunto de datos tabulares (archivos .csv). El conjunto de datos está etiquetado con "0" y "1" que significa "normal" y "anomalía", respectivamente. El objetivo es aplicar Deep Learning para realizar la clasificación binaria.

He encontrado y probado los siguientes modelos de Deep Learning: MLP, CNN y LSTM. Todos ellos funcionan bastante bien con exactitud, recuperación, precisión, especificidad y puntuación F1 por encima del 96%. Sin embargo, no entiendo realmente la razón por la que y cómo el MLP, CNN, o LSTM puede funcionar bien en un conjunto de datos tabulares? He buscado en Google para encontrar el razonamiento y no he podido encontrar ningún artículo al respecto. Encontré los siguientes artículos Artículo 1 o Artículo 2 que mencionan que para los datos tabulares las técnicas de random forest o gradient boost son mejores que el Deep Learning. Este artículo Artículo 3 menciona que MLP es bueno para ser utilizado en un conjunto de datos tabulares, pero no hay una explicación detallada de por qué y cómo MLP puede ser bueno para un conjunto de datos tabulares.

Por lo tanto, mi pregunta es, por favor, dame una explicación más detallada de por qué y cómo MLP, CNN o LSTM pueden ser buenos (o no) para un conjunto de datos tabulares. También se pueden recomendar otros artículos, documentos o libros.

Se lo agradezco de antemano.

Salud.

2voto

jtorca Puntos 133

MLP, CNN o LSTM son diferentes tipos de arquitecturas de redes neuronales diseñadas para procesar los datos. La más sencilla es la MLP, que toma como entrada un vector, que suele ser un dato tabular (es decir, una fila de tu csv).

CNN y LSTM son arquitecturas más complejas que fueron diseñadas para utilizar la estructura de algunos datos. Se podría perfectamente entrenar un MLP con imágenes del mismo tamaño, pero se perdería la invariante de traducción ( un gato en la esquina superior izquierda es igual de gato que un gato en la esquina inferior derecha ) que está presente de forma natural en los problemas de clasificación de imágenes y parece demasiado brutal comparar todos los píxeles a la vez (las convoluciones procesan pequeños trozos de datos a la vez y pueden interpretarse como detectores de patrones). Los LSTM, en cambio, intentan tener en cuenta la naturaleza secuencial de algunos datos, como las series temporales o el texto, por ejemplo.

Yo no usaría una CNN o una LSTM en datos tabulares, ya que no están diseñadas para mejorar el rendimiento en datos tabulares, pero el hecho de estar diseñadas para realizar ciertas tareas no significa que no vayan a tener un buen rendimiento en otras. Además, afirmar "que para los datos tabulares las técnicas de random forest o gradient boost son mejores que el Deep Learning" es una afirmación bastante atrevida. Con el aprendizaje automático, las pruebas siempre tienen la última palabra y, aunque es cierto que las redes neuronales no siempre funcionan tan bien como otras técnicas como XGboost, nada garantiza que esto se aplique a tu conjunto de datos.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X