12 votos

¿Hay algún nombre mejor que "media de la integral"?

Estoy probando los sensores de posición del acelerador (TPS) que vende mi empresa e imprimo el gráfico de la respuesta del voltaje a la rotación del eje del acelerador. Un TPS es un sensor de rotación con $\approx$ 90° de rango y la salida es como un potenciómetro con apertura total siendo 5V (o el valor de entrada del sensor) y apertura inicial siendo algún valor entre 0 y 0.5V. He construido un banco de pruebas con un controlador PIC32 para tomar una medida de tensión cada 0,75° y la línea negra conecta estas medidas.

Uno de mis productos tiene tendencia a realizar variaciones localizadas de baja amplitud alejadas de (y por debajo de) la línea ideal. Esta pregunta se refiere a mi algoritmo para cuantificar estas "caídas" localizadas; ¿cuál es un buen nombre o descripción para el proceso de medición de las caídas? (la explicación completa sigue) En la imagen de abajo, el buzamiento se produce en el tercio izquierdo de la gráfica y es un caso marginal para aprobar o suspender esta parte:

Print out of a suspect part

Así que construí un detector de inmersión ( stackoverflow qa sobre el algoritmo ) para cuantificar mi intuición. Al principio pensé que estaba midiendo el "área". Este gráfico se basa en la impresión anterior y en mi intento de explicar gráficamente el algoritmo. Hay una caída que dura 13 muestras entre 17 y 31:

Sampled data shown with the "dip" magnified

Los datos de la prueba van en un array y hago otro array para "subir" de un punto de datos al siguiente, que llamo $deltas$ . Utilizo una biblioteca para obtener la media y la desviación estándar de $deltas$ .

Analizar la $deltas$ está representado en el gráfico de abajo, donde se elimina la pendiente del gráfico anterior. Originalmente, pensé en esto como "normalizar" o "unificar" los datos ya que el eje x son pasos iguales y ahora estoy trabajando únicamente con el aumento entre los puntos de datos. Al investigar esta cuestión, recordé que se trata de la derivada, $\frac {dy}{dx}$ de los datos originales.

Analysis of the derivative...?

Camino a través de $deltas$ para encontrar secuencias donde hay 5 o más valores negativos adyacentes. Las barras azules son una serie de puntos de datos que están por debajo de la media de todos los $deltas$ . Los valores de las barras azules son:

$0.7 + 1.2 + 1.3 + 1.4 + 1.8 + 2.5 + 2.9 + 3.0 + 2.5 + 2.0 + 1.5 + 1.0 + 1.2$

Se suman a $23$ que representa el área (o la integral). Mi primer pensamiento es "acabo de integrar la derivada", lo que debería significar que recupero los datos originales, aunque estoy seguro de que hay un término para esto.

La línea verde es la media de estos "valores por debajo de la media" hallada al dividir el área por la longitud de la pendiente:

$23 \div 13 = 1.77$

Durante las pruebas de más de 100 piezas, llegué a decidir que las inmersiones con mi línea verde promedian menos de $2.6$ son aceptables. La desviación estándar calculada en todo el conjunto de datos no era una prueba lo suficientemente estricta para estos desniveles, ya que sin la suficiente área total, seguían estando dentro del límite que establecí para las piezas buenas. Observacionalmente elegí una desviación estándar de $3.0$ para ser el más alto que permitiría.

Establecer un límite para la desviación estándar lo suficientemente estricto como para fallar esta parte sería entonces tan estricto como para fallar partes que de otro modo parecen tener una gran trama. También tengo un detector de picos que falla la parte si cualquier $|deltas - avg| > avg+std dev$ .

Han pasado casi 20 años desde Calc 1, así que, por favor, no se me haga pesado, pero esto se siente Se parece mucho a cuando un profesor utilizó el cálculo y la ecuación del desplazamiento para explicar cómo en las carreras, un competidor con menos aceleración que mantiene una mayor velocidad en las curvas puede vencer a otro competidor que tiene una mayor aceleración en la siguiente curva: al pasar por la curva anterior más rápido, la mayor velocidad inicial significa que el área bajo su velocidad (desplazamiento) es mayor.

Para traducirlo a mi pregunta, me parece que mi línea verde sería como la aceleración, la 2ª derivada de los datos originales.

He visitado la wikipedia para releer los fundamentos del cálculo y las definiciones de derivada y integral Aprendí el término apropiado para sumar el área bajo una curva a través de mediciones discretas como Integración numérica . Mucho más buscar en Google sobre media de la integral y me llevan al tema de la no linealidad y el procesamiento digital de señales. Promediar la integral parece ser una métrica popular para cuantificar los datos .

¿Existe un término para la media de la integral? ( $1.77$ (la línea verde)?
... o para el proceso de utilizarlo para evaluar los datos?

3voto

means-to-meaning Puntos 1076

En primer lugar, es una gran descripción de tu proyecto y del problema. Y soy un gran admirador de tu marco de medición casero, que es superguay... entonces, ¿por qué demonios importa lo que llamas "promediar las integrales"?

En caso de que esté interesado en un posicionamiento más amplio de su trabajo, lo que le gustaría hacer se suele denominar Detección de anomalías . En su configuración más sencilla, consiste en comparar un valor de una serie temporal con la desviación estándar de los valores anteriores. La regla es entonces si $$x[n] > \alpha SD(x[1:n-1]) => x[n]\text{ is outlier}$$ donde $x[n]$ es el $n^{th}$ valor en la serie, $SD(x[1:n-1])$ es la desviación estándar de todos los valores anteriores entre el $1^{st}$ y $(n-1)^{th}$ valor, y $\alpha$ es algún parámetro adecuado que elijas, como 1, o 2, dependiendo de lo sensible que quieras que sea el detector. Por supuesto, puedes adaptar esta fórmula para que funcione sólo localmente (en algún intervalo de longitud $h$ ), $$x[n] > \alpha SD(x[n-h-1:n-1]) => x[n]\text{ is outlier}$$

Si he entendido bien, está buscando una forma de automatizar las pruebas de sus dispositivos, es decir, declarar un dispositivo como bueno/falso después de que haya realizado la prueba completa (dibujado toda la diagonal). En ese caso, considere simplemente las fórmulas anteriores como una comparación de $x[n]$ contra la desviación estándar de todos los valores.

También hay otras reglas que se pueden tener en cuenta a la hora de clasificar un dispositivo como defectuoso:

  • si alguna desviación (delta) es mayor que algún múltiplo de la DS de todos los deltas
  • si la suma cuadrada de las desviaciones es mayor que un determinado umbral
  • si la relación de la suma de los deltas positivos y negativos no es aproximadamente igual (lo que podría ser útil si se prefiere que los errores sean menores en ambas direcciones en lugar de un fuerte sesgo en una sola dirección)

Por supuesto, se pueden encontrar más reglas y concatenarlas utilizando la lógica booleana, pero creo que se puede llegar muy lejos con las tres anteriores.

Por último, pero no menos importante, una vez que lo hayas configurado, tendrás que probar el clasificador (un clasificador es un sistema/modelo que asigna una entrada a una clase, en tu caso los datos de cada dispositivo, a "bueno", o "defectuoso"). Cree un conjunto de pruebas etiquetando manualmente el rendimiento de cada dispositivo. A continuación, examine ROC , que básicamente le indica la diferencia entre el número de dispositivos que su sistema capta correctamente de los devueltos, en relación con el número de dispositivos defectuosos que capta.

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by:

X