¿Cuál es la mejor práctica para la representación de datos, donde sus valores difieren en varios órdenes de magnitud?
Por ejemplo, supongamos que usted está comparando los tiempos de aprendizaje de dos algoritmos de aprendizaje automático $A$ $B$ y usted tiene los siguientes datos:
n y_A y_B
1 0.00001 0.02
2 0.00002 0.04
3 0.00003 0.08
4 0.00002 0.04
5 0.00001 0.02
Aquí $n$ es el número de características, y $y$ es de los tiempos de aprendizaje. La trama de estos resultados se parece a esto:
Sin embargo, la trama se sugiere como Un algoritmo tiene 0 tiempo de aprendizaje, o la constante de tiempo. Por lo tanto, se debe usar un semi-log de la parcela?
¿Cuál es la mejor práctica en este escenario? El punto de la trama es demostrar que el algoritmo de $A$ aprende sustancialmente más rápido que el algoritmo de $B$ para todos los valores de $n$.