Me estoy enseñando EE mientras diseño un monitor de batería de 12V DC. Estoy usando un par de sensores de efecto Hall para seguir la corriente de carga y descarga y buscando la mejor manera de medir el voltaje. [
El problema del error con el ADC realmente me tiene asustado. Es esencial que produzca datos significativos. Hay tantas fuentes de error, tanto en mi circuito como en el ADC, que parece como jugar al juego de golpear-topo en la oscuridad. He estado leyendo mucho sobre calibrar la referencia del ADC, pero el primer paso es elegir un método para escalar la entrada.
Mi ventana de voltaje es de 10-15V, específicamente un rango de 10.5V a 14.4V (3.9V). Se me ocurrieron dos enfoques que (con suerte) hacen lo que quiero:
- Un diodo Zener de 10V en la entrada inversora de un amplificador operacional diferencial. Rechazando 10V, mi rango se convierte en 0.5V a 4.4V (3.9V) y usa casi todo el rango de mi ADC.
- Un divisor de voltaje de 20k : 10k. Escalado a 3x, mi rango se convierte en 3.5V a 4.8V (1.3V)
Quería demostrarme a mí mismo qué método brindaría la mejor granularidad. Ya que también puedo obtener una precisión de 12 bits agregando cuatro lecturas y desplazando el resultado, comparé cuatro posibilidades: (asumiendo que la referencia del ADC es de 5.0V)
- método 1, 0.5-4.4V @10 bits es 800 pasos: 4.88mV/paso [#3]
- método 1, 0.5-4.4V @12 bits es 3606 pasos: 1.22mV/paso [#1]
- método 2, 3.5-4.8V @10 bits es 266 pasos: 14.65mV/paso [#4]
- método 2, 3.5-4.8V @12 bits es 1065 pasos: 3.66mV/paso [#2]
Mi pregunta es, ¿mis cifras de mV/paso cuentan toda la historia, o hay algún tipo de inconveniente en #2 que no estoy viendo?