Como aficionado a la ingeniería en general, cada día aprendo más sobre el mundo de los microcontroladores. Una cosa que no acabo de entender es el significado de la versión bit de un microcontrolador.
He estado usando el ATmega8 durante varios meses, y parece funcionar muy bien para mis propósitos. Sé cómo cosas como la velocidad de reloj, la memoria, el número de pines IO, los tipos de buses de comunicaciones, etc. diferencian un micrcontrolador de otro. Pero no entiendo muy bien la importancia de, por ejemplo, 8 bits frente a 16 bits frente a 32 bits. Entiendo que una versión de bits más alta permite al dispositivo almacenar números más grandes, pero, de nuevo, ¿cómo afecta esto a mi decisión? Si estoy diseñando un producto, ¿en qué situación hipotética decidiría que un procesador de 8 bits no es suficiente y que necesito algo más potente?
¿Hay alguna razón para creer que una variante teórica de 32 bits del ATmega8 (en igualdad de condiciones) sería superior a una versión de 8 bits (si tal dispositivo fuera posible)?
Puede que esté diciendo tonterías, pero supongo que es fruto de mi confusión.
0 votos
Relacionado, electronics.stackexchange.com/questions/42784/