¿Cómo utilizar un tubo digital decimal para mostrar el código binario generado por el convertidor AD de 12 bits?
Los microcontroladores suelen ser de 8 bits. Si usa decimal para mostrar un número binario máximo de 8 dígitos (FF hexadecimal), debe convertirse a un valor decimal (2 elevado a la octava potencia) de 256, por lo que un tubo digital de 3 dígitos es suficiente. Una vez que comprenda esto, el siguiente paso será más fácil.
12 bits son FFF, que son 12 elevados a la potencia de 2, o 4096. Un tubo digital de 4 bits es suficiente.
Pero ignoraste el problema más crítico: el convertidor AD de 12 bits, el convertidor AD de 8 bits y el convertidor AD de 16 bits. La diferencia entre ellos es la precisión, no los números. Para detectar voltajes dentro de 5 V, el gradiente de 8 bits = 5/256 = 0,0195 V, el gradiente de 12 bits = 5/4096 = 0,00122, esta es la resolución. Si desea detectar un voltaje de 3V, el gradiente de 8 bits es 256×3/5 = 6542. Después de la conversión, mostrará 3V. La dificultad es que las computadoras de 8 bits (cualquiera) pueden dividir hasta 8 bits de datos por instrucción, por lo que los cálculos matemáticos de más de 8 bits solo se pueden lograr mediante operaciones de varios bytes. Programar operaciones de varios bytes es mucho más difícil que las operaciones de un solo byte, especialmente las operaciones científicas. Si desea implementar operaciones de punto flotante, necesita una visualización de punto fijo (decimal) y necesita compilar una biblioteca de operaciones de punto flotante, que requiere de 5 a 10 veces más programación (ensamblaje). Pero con C51, la programación se guarda, pero la interfaz del hardware (según el modo de interfaz y el protocolo) no cambiará.
Dilo de nuevo, lo entiendo.