Es común que a los efectos de control de calidad, cuando hay un conjunto de medidas en diferentes unidades y con diferentes distribuciones, a normalizar la presentación de los mismos de tal manera que cada valor se muestra como una desviación de un elegido de tendencia central (media, etc), escala de acuerdo a su dispersión (sd, intercuartil, etc). [Creo que esto es generalmente conocido como la normalización, pero no soy un especialista en estadística]. Especialmente cuando se muestran junto a la misma para un gran número de muestras, esta puede ser una manera eficaz para detectar "defectos" que vale la pena investigación.
Cómo es este proceso de la mejor refinado cuando se trata de distribuciones sesgadas, especialmente cuando se relaciona con la dispersión? Entiendo que las opciones comunes de tendencia central elección cuando se trata de asimetría (y los valores atípicos, etc), pero no sé nada parecido a "x desviaciones estándar" cuando es una distribución muy sesgada.
El sesgo en los datos que me preocupa no es patológico en cualquier sentido matemático: por lo general es sólo algo que se "ve" más como $xe^{-x^2}$$e^{-x^2}$, y se limita a positivo $x$.
El mejor que he encontrado hasta el momento es la escala de cada lado de (lo que sea) elegido tendencia central de forma individual, pero la discontinuidad en el centro me preocupa. (Por ejemplo, si sobre un medio para mostrar una línea de longitud de la escala por el 2-3 cuartil rango pero si debajo de escala para el 1-2 cuartil rango).
Hay mejores maneras? ¿Ir más lejos absolutamente requiere un conocimiento profundo de la naturaleza de la distribución subyacente en una situación como esta? (Porque no los tenemos!) Los datos sólo se utilizan para el nivel inicial, rápida visualización de un gran número de muestras de lado-por-lado, para fines de investigación.