¿Cómo convertir letras mayúsculas en inglés a minúsculas mediante programación?
El código es el siguiente:
#include
int main(){
char a; /p>
printf("Ingrese una letra mayúscula en inglés:");
scanf("%c",&a);
printf("Convertir a letras minúsculas as %c ",a+32);
}
Los resultados de la ejecución son los siguientes:
Información ampliada:
Mayúsculas Letras inglesas y letras minúsculas inglesas. La diferencia entre los números decimales del código ASCLL es 32.
En las computadoras, todos los datos deben representarse mediante números binarios cuando se almacenan y operan (porque las computadoras usan niveles alto y bajo para representar 1 y 0 respectivamente), por ejemplo, como a, b, c 52 letras como como, d (incluidas las letras mayúsculas), números como 0 y 1 y algunos símbolos de uso común (como *, #, @, etc.) también deben representarse mediante números binarios cuando se almacenan en la computadora. ¿Se usa específicamente? Por supuesto, todos pueden ponerse de acuerdo sobre qué símbolo representa un número (esto se llama codificación. Si todos quieren comunicarse entre sí sin causar confusión, entonces todos deben usar las mismas reglas de codificación, por lo que las organizaciones de estandarización relevantes). Se introdujo la codificación ASCII en los Estados Unidos, que estipulaba de manera uniforme qué números binarios debían usarse para representar los símbolos comunes anteriores.
Material de referencia: Enciclopedia ASCLL-Baidu "Programación C (quinta edición)"