Red de conocimiento informático - Conocimiento del nombre de dominio - ¿Qué significa mul en la teoría de microcomputadoras?

¿Qué significa mul en la teoría de microcomputadoras?

En teoría de microcomputadoras, mul se refiere a la instrucción de multiplicación. La instrucción de multiplicación MUL multiplica los números binarios en el componente de origen especificado y envía el resultado al componente de destino especificado. Las instrucciones de multiplicación MUL se dividen en situaciones de 16 y 32 bits. Cuando se usa mul para la multiplicación: los dos números multiplicados son de 8 bits o de 16 bits. Si son de 8 bits, uno se coloca en AL de forma predeterminada y el otro se almacena en un registro de 8 bits o en una unidad de memoria de bytes. . medio. Si el resultado es una multiplicación de 8 bits, el resultado se almacenará en AX de forma predeterminada. Si es una multiplicación de 16 bits, los bits altos del resultado se almacenarán en DX de forma predeterminada y los bits bajos se almacenarán. en AX.

Conocimientos básicos de los principios de la microcomputación

También conocido como principios de la microcomputación, es un curso obligatorio para los estudiantes de informática. Principios de microcomputadoras es un curso básico profesional. Su contenido principal incluye arquitectura de microcomputadoras, microprocesador y sistema de instrucción 8086, diseño en lenguaje ensamblador e introducción a varios componentes de microcomputadoras. Se requiere que los candidatos tengan una comprensión profunda de los conceptos básicos de los principios de las microcomputadoras y sean capaces de dominar sistemáticamente la estructura de las microcomputadoras, los microprocesadores y sistemas de instrucción 8086, los métodos de programación en lenguaje ensamblador, el diseño de circuitos de interfaz y los métodos de programación de sistemas de microcomputadoras, etc. y Tener la capacidad de aplicar de manera integral los conocimientos aprendidos para analizar y resolver problemas.

El conocimiento básico de los principios de la microcomputación incluye números y sistemas numéricos (binario, decimal, hexadecimal y octal) y sus conversiones. Operaciones de lógica binaria codificadas en binario. Operaciones aritméticas binarias. Código BCD. Representación de personajes en ordenadores. La estructura de una computadora. Método de conversión entre código complemento, código inverso y código original.