Red de conocimiento informático - Aprendizaje de código fuente - Varios algoritmos en matemáticas.

Varios algoritmos en matemáticas.

Un algoritmo es una descripción precisa y completa de una solución y un conjunto claro de instrucciones para resolver un problema. Un algoritmo representa un método sistemático y describe un mecanismo estratégico para resolver un problema. Es decir, la capacidad de obtener el resultado requerido en un tiempo limitado bajo ciertas especificaciones de entrada. Si un algoritmo es defectuoso o inapropiado para un problema en particular, ejecutarlo no resolverá el problema. Diferentes algoritmos pueden realizar la misma tarea en diferentes tiempos, espacios o eficiencias. La calidad de un algoritmo se puede medir por la complejidad del espacio y la complejidad del tiempo.

Una instrucción en un algoritmo describe un cálculo que, cuando se ejecuta, puede comenzar desde un estado inicial y una entrada inicial (posiblemente vacía), continuar a través de un conjunto finito y bien definido de estados y finalmente producir una salida y el estado final se detiene. La transición de un estado a otro no es necesariamente determinista. Algunos algoritmos, incluidos los algoritmos estocásticos, contienen algunas entradas aleatorias.

El concepto de algoritmos formales se originó en parte a partir de intentos de resolver problemas deterministas planteados por Hilbert y evolucionó a partir de intentos posteriores de definir computabilidad eficiente o métodos eficientes. Estos intentos incluyeron los propuestos por Kurt Gödel en 1930, Jacques Herbrand en 1934 y Stephen Cole Kleeney en 1935. Funciones recursivas, el algoritmo λ de Alonzo Church en 1936, la Fórmula 1 de Emil Leon Post en 1936 y Alan Turing en 1937 La máquina de Turing propuesta . Incluso hoy en día, las ideas intuitivas suelen ser difíciles de definir como algoritmos formales.

El algoritmo debe tener cinco características importantes:

Finitud

La finitud del algoritmo significa que el algoritmo debe poder terminar después de un número limitado de pasos. ;

Definicionalidad

Cada paso del algoritmo debe definirse con precisión;

Cada paso del algoritmo debe definirse con precisión;

Cada paso del algoritmo debe definirse con precisión;

Cada paso del algoritmo debe definirse con precisión;

Cada paso del algoritmo debe definirse con precisión.

Entrada

(Entrada)

Un algoritmo debe tener cero o más entradas para describir la situación inicial del operando, donde entrada cero significa el algoritmo en sí. Inicial se establecen las condiciones;

Salida

Un algoritmo debe tener una o más salidas que reflejen los resultados del procesamiento de los datos de entrada. Un algoritmo sin una salida no tiene sentido;

Viabilidad

(Eficacia)

Cualquier paso computacional realizado en un algoritmo se puede dividir en viabilidad básica Ejecución de operaciones pasos, es decir, cada paso computacional se puede completar en un tiempo limitado (también conocido como validez).

I. Operación y manipulación de objetos de datos: Las operaciones básicas que puede realizar un ordenador se describen en forma de instrucciones. El conjunto de todas las instrucciones que un sistema informático puede ejecutar se convierte en el sistema de instrucciones del sistema informático. Hay cuatro tipos de cálculos y operaciones básicas de las computadoras: [1]

1. Operaciones aritméticas: suma, resta, multiplicación, división, etc.

2. Operaciones lógicas: O, Y, NO, etc.

3. Operaciones relacionales: mayor que, menor que, igual a, no igual a, etc.

4. Transmisión de datos: entrada, salida, asignación, etc.[1]

II. operación, pero también El orden de ejecución entre operaciones.

Los algoritmos se pueden dividir a grandes rasgos en algoritmos básicos, algoritmos de estructura de datos, teoría de números y algoritmos algebraicos, algoritmos de geometría computacional, algoritmos de teoría de grafos, programación dinámica y análisis numérico, algoritmos de cifrado, algoritmos de clasificación, algoritmos de recuperación y algoritmos aleatorios, algoritmo paralelo, modelo de deformación Amy y algoritmo de bosque aleatorio.

Los algoritmos se pueden dividir en tres categorías:

1. Algoritmos deterministas finitos Estos algoritmos terminan en un tiempo finito. Es posible que tarden mucho tiempo en completar una tarea determinada, pero aun así terminarán en algún momento. Los resultados producidos por tales algoritmos a menudo dependen de los valores de entrada.

II. Algoritmo no determinista limitado Este tipo de algoritmo finalizará en un tiempo limitado.

Sin embargo, el resultado de un algoritmo no es único ni seguro para un valor (o valores) determinado.

3. El algoritmo infinito se refiere a un algoritmo que no se puede terminar porque no se definen condiciones de terminación o los datos de entrada no pueden cumplir con las condiciones definidas. A menudo, los algoritmos infinitos surgen de la incapacidad de definir la condición de terminación con certeza.

Espero poder ayudarte a aclarar tus dudas.