Estaba tratando de entender el significado de varias especificaciones dadas en una hoja de datos típica ADC, y me encontré con este artículo. Ahora, si he entendido bien, me parece que la precisión del ADC en bits se puede tomar como \$n - \log_2{{e}}\$ bits, donde \$n\$ es el número de bits de salida del dispositivo (¿su resolución?) y \$e\$ es el INL ( no linealidad integral ) en términos de LSB.
Mis preguntas son:
- ¿Es correcto lo que he entendido? Si no es así, ¿cuál es la explicación correcta?
- Si un ADC de 16 bits tiene un INL de \$\pm 4\$ LSB, ¿podemos decir que la precisión del ADC es de 14 bits, y habrá que ignorar los 2 bits más bajos para la mayoría de fines prácticos?
- Aquí es un ADC de 16 bits con un INL típico de \$\pm 0.4\$ LSB. ¿Significa esto que el dispositivo tiene una precisión típica de más que 17 bits? ¿Cómo es posible? ¿O significa que el dispositivo suele tener una precisión de más de 17 bits, pero como sólo tiene 16 bits de salida, tiene que truncar los datos a una resolución inferior?