Tengo una fuente de señal, que puede estar en uno de dos estados -- o bien está emitiendo un valor constante 1.0
o oscilando de manera muy cercana a la función sinusal del tiempo.
El periodo puede tener algunas desviaciones. La constante 1.0
en el primer estado también puede tener una desviación constante ( 0.98
por ejemplo).
Puedo leer el valor varias veces con los retrasos que quiera.
El objetivo principal es detectar si el emisor está en estado de oscilación.
Otro objetivo que estaría bien resolver es comprobar, que el rango está cerca de 0..1
.
Sé, que teóricamente el período puede ser lo suficientemente pequeño y es algo sobre los divisores comunes, que puedo perder la oscilación. Así que la solución se basaría en la estadística.
¿Cuáles son los mejores plazos para comprobar el valor para minimizar el número de comprobaciones y maximizar la fiabilidad de la solución? Digamos que los posibles periodos están entre 0,01 y 100 segundos, y quiero detectarlo en menos de 10 segundos.