Tengo una serie de variables para que quiero comparar las desviaciones estándar. Cada una de estas variables es en realidad los datos de una determinada longitud de onda de la luz, y quiero producir un gráco que muestra la desviación estándar para cada longitud de onda.
Sin embargo, los valores que yo soy el cálculo de mi SD de son mucho más altos para algunas longitudes de onda que otros - por ejemplo, a los 500nm puedo obtener valores de alrededor de 50, y en 1000nm mis valores son más como 1. En este caso, la comparación de desviaciones estándar parece bastante tonto como una SD de 5 a 500nm de hecho es menos variable que el de la SD de 5 a 1000nm.
En esta situación tendría sentido dividir la desviación estándar por la media para dar una especie de diferencia en porcentaje de la desviación estándar de la medida? O hay alguna otra forma mejor (o 'correcto') manera de hacerlo? Si yo fuera a hacer esto, tendría sentido estadístico?