Por favor, dígame cómo convertir la programación informática de binario a octal.
Numerar tres dígitos de la unidad, es decir, 11101110 (si el primer dígito es menor a tres dígitos, el dígito más alto se llena con tres dígitos con 0), y luego cada tres dígitos es un decimal, que es 65438. 101 = 2^2 2^0 = 5, 110 = 2^2 2^1 = 6, entonces 11165438.
El mismo convertido a 16 se divide en cuatro grupos, es decir 0001 1111110, y luego cada número binario de cuatro dígitos se convierte en un número decimal 00065438. 1110 = 8 4 2 = (14) = E, 1110 = E, entonces su valor hexadecimal = 1ee.
De hecho, esto es de binario a decimal, pero primero se divide en tres o cuatro dígitos, y luego cada tres (cuatro) números binarios se convierten a decimal.
Lo que he respondido arriba es que por defecto el número binario que diste es un número positivo, es decir, el primer bit no es el bit de signo. Si el primer bit de signo es el predeterminado, entonces 1 significa que los números negativos se almacenan como el código inverso más uno en la computadora, lo cual será problemático ~~
Espero que lo entiendas, si no lo entiendes. Significa que no comprendes la conversión entre binario y decimal, ¡que en realidad es la conversión entre decimal y binario!