Red de conocimiento informático - Material del sitio web - ¿Qué significa un algoritmo en una computadora?

¿Qué significa un algoritmo en una computadora?

Un algoritmo informático es una descripción detallada paso a paso de cómo una computadora convierte una entrada en una salida deseada o, en otras palabras, un algoritmo es una descripción detallada de un proceso computacional realizado en una computadora.

El algoritmo debe tener las siguientes características:

(1) El algoritmo primero debe ser correcto, es decir, para cualquier conjunto de entradas, ya sean razonables o no razonables, ambas siempre deben producir el resultado esperado. Si el resultado esperado se obtiene sólo con entradas razonables, pero no se puede predecir en circunstancias inusuales, entonces el algoritmo es incorrecto.

(2) El algoritmo debe consistir en una serie de pasos específicos, cada uno de los cuales pueda ser entendido y ejecutado por una computadora, en lugar de un concepto abstracto y vago.

(3) Cada paso tiene un orden de ejecución claro, es decir, dónde está el paso anterior; cuál es el siguiente paso, debe ser claro y claro, sin dicotomías.

(4) No importa cuán complejo sea el algoritmo, debe finalizar y finalizar la operación después de un número limitado de pasos, es decir, el número de pasos del algoritmo debe ser limitado; Bajo ninguna circunstancia el algoritmo puede quedarse atrapado en un bucle infinito.

La solución a un problema se puede expresar de muchas maneras; sin embargo, sólo una solución que satisfaga las cuatro condiciones anteriores puede denominarse algoritmo.

Extensión:

p> Los algoritmos se pueden dividir a grandes rasgos en algoritmos básicos, algoritmos de estructura de datos, teoría de números y algoritmos algebraicos, algoritmos de geometría computacional, algoritmos de teoría de grafos, programación dinámica y análisis numérico. , Algoritmos de cifrado, algoritmos de clasificación, algoritmos de recuperación, algoritmos aleatorios, algoritmos paralelos, modelos de deformación Amy y algoritmos de bosque aleatorio.

Los algoritmos se pueden dividir en tres categorías:

1. Algoritmos deterministas limitados Estos algoritmos terminan en un tiempo limitado. Es posible que tarden mucho tiempo en completar una tarea determinada, pero aun así terminarán en algún momento. Los resultados producidos por tales algoritmos a menudo dependen de los valores de entrada.

2. Algoritmos no deterministas limitados Estos algoritmos finalizarán en un tiempo limitado. Sin embargo, el resultado de un algoritmo no es único ni seguro para un valor (o valores) determinado.

3. Algoritmos infinitos Estos algoritmos no terminarán porque las condiciones de terminación no están definidas o los datos de entrada no pueden cumplir con las condiciones definidas. A menudo, surgen infinitos algoritmos por no tener una condición de terminación bien definida.

Enciclopedia Baidu - Algoritmo informático