El circuito se ha simplificado como se muestra en la imagen. La fuente de la señal está conectada con un amplificador analógico, que amplifica la señal ac y también la eleva en 1,5V para que coincida con el rango del ADC de 0-3V. Algunas características del circuito:
- Señal de interés: Onda sinusoidal de 10kHz con una amplitud máxima de 8mV
- Densidad de ruido de la señal: \$5 \times 10^{-4} V/ \sqrt{Hz}\$
- Ancho de banda de la señal: centro a 10kHz, ancho de 200Hz
- Resolución efectiva del ADC: 9 bits
- Velocidad de muestreo del ADC: 96kHz
- Ruido de cuantificación del ADC calculado: \$ 6.8 \times 10^{-6} V/\sqrt{Hz}\$
Quiero medir la amplitud de la señal. El ADC no se puede cambiar. Mi pregunta es, ¿cómo determinar la ganancia del amplificador? En las condiciones anteriores, la baja resolución del ADC no parece ser un problema, ya que opera a una alta frecuencia. Y los ruidos analógicos dominan el ruido de cuantificación del ADC.
Los ruidos de cuantificación del ADC no empeorarán la SNR, ya que dominan los ruidos analógicos. Y el amplificador tampoco mejorará la SNR. ¿Podría hacer la ganancia del amplificador =1, suponiendo que los ruidos añadidos por el amplificador son despreciables?
Sin embargo, como las señales son muy pequeñas, no estoy seguro de que los voltajes puedan ser detectados por el ADC realmente. En este caso, ¿cómo debería diseñarse la ganancia del amplificador? ¿Hay alguna teoría detrás de esto? No quiero amplificar el voltaje a toda la gama, ya que esto conducirá a la adición de varios OpAmps y no mejora la SNR en absoluto.
¡Muchas gracias!