Red de conocimiento informático - Conocimiento sistemático - Código fuente del motor Deep Blue

Código fuente del motor Deep Blue

El descubrimiento del siglo de la máquina de Turing a la máquina de von Neumann

El científico británico Alan Turing publicó el famoso artículo "Sobre la aplicación de números computables en la resolución de problemas" en 1937. Este artículo propone el concepto de principio de pensamiento de la computadora, la máquina de Turing, que promueve el desarrollo de la teoría de la computación. En 1945, Turing entró a trabajar en el Instituto Nacional de Física de Estados Unidos y comenzó a diseñar computadoras automáticas. En 1950, Turing publicó un libro titulado "¿Pueden pensar las computadoras?" El famoso test de Turing prueba si una computadora tiene la misma inteligencia que un humano mediante preguntas y respuestas.

Turing propuso un modelo de computación abstracto para definir con precisión funciones computables. Una máquina de Turing consta de un controlador, una correa que se extiende infinitamente y un cabezal de lectura y escritura que se mueve hacia la izquierda y hacia la derecha sobre la correa. Este concepto es tan simple que, en teoría, una máquina puede calcular cualquier función computable intuitiva. Como modelo teórico de computadoras, las máquinas de Turing se han utilizado ampliamente en el estudio de las computadoras y la complejidad computacional.

Las computadoras son herramientas de procesamiento de información creadas por humanos. Si otras herramientas fabricadas por humanos son extensiones de la mano humana, entonces se puede decir que las computadoras, como herramienta que procesa información en lugar del cerebro humano, son una extensión del cerebro humano. Originalmente, las computadoras reales se utilizaban para resolver problemas de cálculo numérico. Más adelante, en la Segunda Guerra Mundial, una serie de decodificaciones de códigos y cálculos balísticos utilizados con fines militares se volvieron cada vez más complejos. Una gran cantidad de datos y fórmulas de cálculo complejas, incluso utilizando una calculadora electromecánica, consumirán una cantidad considerable de mano de obra y tiempo. En este contexto, la gente comenzó a desarrollar computadoras electrónicas.

La primera computadora del mundo "Colosas" nació en el Reino Unido La computadora "Colosas" fue desarrollada en marzo de 1943. El objetivo principal del desarrollo de la computadora "Colosas" en ese momento era descifrar los códigos cifrados por la máquina de cifrado alemana "Lorentz". Se necesitarían de seis a ocho semanas para descifrar el código usando otros métodos, pero sólo de seis a ocho horas usando la computadora Kolosas. 1944 65438+10 de Octubre entra en funcionamiento la computadora "Colosas". Desde que se puso en uso, una gran cantidad de secretos militares de alto nivel en Alemania fueron descifrados rápidamente y los aliados se volvieron aún más poderosos. "Colosas" salió más de dos años antes que la computadora estadounidense ENIAC. Durante la Segunda Guerra Mundial descifró una gran cantidad de secretos alemanes. Fue destruido en secreto después de la guerra, por lo que nadie lo sabe.

Aunque la primera computadora electrónica nació en el Reino Unido, este país no aprovechó las oportunidades de la revolución tecnológica e industrial desencadenada por las computadoras. Por el contrario, Estados Unidos aprovechó esta oportunidad histórica y alentó el desarrollo de la tecnología y la industria informática, lo que llevó al surgimiento de un gran número de gigantes de la industria informática y promovió en gran medida el desarrollo de la fuerza nacional integral de Estados Unidos. En 1944, el Departamento de Defensa de Estados Unidos organizó un grupo de investigación informática ENIAC dirigido por Mauchly y Eckert. En la investigación del retrato también participó el matemático húngaro von Neumann, el fundador de las computadoras modernas que trabajaba en la Universidad de Princeton. El trabajo de investigación en 1946 tuvo éxito y se fabricó la primera computadora digital electrónica ENIAC del mundo. Aunque esta computadora compuesta por 18.000 tubos de electrones era de tamaño enorme, consumía una energía asombrosa y tenía funciones limitadas, realmente ahorró mano de obra y tiempo y marcó el comienzo de una nueva era de la informática y la tecnología. Esto puede haber sido inesperado para los científicos que lo crearon.

Aunque las primeras computadoras tenían funciones limitadas y eran muy diferentes de las computadoras modernas, ya contaban con los componentes básicos de las computadoras modernas, es decir, unidades aritméticas, controladores y memorias.

La calculadora es como un ábaco, que se utiliza para realizar operaciones numéricas y operaciones lógicas para obtener resultados de cálculo. El controlador es como la sede de la computadora, dirigiendo el trabajo de varias partes de la computadora. Sus comandos se completan emitiendo una serie de señales de control.

Los programas de computadora, los datos, así como los resultados intermedios y finales generados durante las operaciones deben tener un lugar de almacenamiento. Este es el tercer componente de la computadora: la memoria.

El ordenador calcula automáticamente. La base del cálculo automático es el programa almacenado en el ordenador. Las computadoras modernas son todas computadoras con programas almacenados, también llamadas máquinas de von Neumann, porque el concepto de programas almacenados fue propuesto por von Neumann. De acuerdo con la descripción matemática del problema a resolver, las personas escriben programas en un "lenguaje" que la computadora puede aceptar, los ingresan y almacenan en la computadora, y la computadora puede completar automáticamente el cálculo de acuerdo con la intención de la persona y generar el resultado. resultados a alta velocidad. El programa debe proporcionar al ordenador los datos a operar, el orden de las operaciones, qué operaciones realizar, etc.

La aparición de la tecnología microelectrónica ha traído nuevas oportunidades al desarrollo de las computadoras, permitiendo miniaturizar las computadoras.

El desarrollo de la microelectrónica se remonta a la aparición del transistor. En 65438-0947, tres científicos de los Laboratorios Bell de AT&T, Bardeen, Brayton y Shockley, crearon el primer transistor, marcando el comienzo de una era en la que los transistores reemplazaron a los tubos de electrones.

Se puede decir que la aparición de los transistores es el preludio de la llegada de los circuitos integrados. Después de la llegada del transistor, algunos científicos descubrieron que los componentes y cables del circuito podían fabricarse en un chip de silicio como un transistor para lograr la miniaturización del circuito. Así, después de 10 años de desarrollo, apareció el primer circuito integrado en 1958.

El desarrollo de la tecnología microelectrónica y la aparición de los circuitos integrados provocaron por primera vez grandes cambios en la tecnología informática. En las computadoras modernas, la unidad aritmética y el controlador se fabrican generalmente juntos, lo que se denomina microprocesador. Debido a la integración de los microprocesadores (chips de computadora), las microcomputadoras surgieron y se desarrollaron rápidamente en las décadas de 1970 y 1980. En particular, la aparición de la computadora personal IBM PC abrió la puerta a la popularización de las computadoras y promovió su aplicación en todos los ámbitos. de la vida. Las computadoras que son caras, voluminosas y consumen cantidades asombrosas de energía sólo pueden usarse en unas pocas grandes instalaciones militares o de investigación científica. Hoy en día, debido a la adopción de circuitos integrados a gran escala, las computadoras han llegado a las oficinas y hogares comunes.

Uno de los indicadores que marca el nivel de los circuitos integrados es el grado de integración, es decir, cuántos transistores se pueden fabricar en un chip de un determinado tamaño. Desde su aparición hasta la actualidad, los circuitos integrados se han desarrollado a un ritmo alarmante. Los chips son cada vez más pequeños, lo que tiene un profundo impacto en la producción y la vida. La computadora ENIAC ocupa 150 metros cuadrados, pesa 30 toneladas y consume cientos de vatios de energía. Realizó cálculos que podrían realizarse con las avanzadas calculadoras de bolsillo actuales. Éste es el milagro creado por la microelectrónica y los circuitos integrados.

Situación actual y perspectivas

Científicos estadounidenses señalaron recientemente que después de más de 30 años de desarrollo, la miniaturización de los chips de ordenador ha llegado a su límite. El mayor desarrollo de la tecnología informática sólo puede depender de nuevas tecnologías, como nuevos materiales, nuevos métodos de diseño de transistores y tecnología de computación molecular.

Durante más de 30 años, el desarrollo de la industria de los semiconductores ha seguido básicamente la Ley de Moore, lo que significa que cada 18 meses, el número de transistores instalados en una oblea de silicio se duplica. Los chips son cada vez más pequeños, incluyendo cada vez más transistores, y el ancho de la línea de grabado es cada vez más pequeño, por lo tanto, el rendimiento de las computadoras es cada vez mayor y el precio es cada vez más bajo; Pero algunas personas sugieren que esta tendencia de desarrollo sólo puede durar de 10 a 15 años como máximo.

Paul A. Pakan, científico de Intel Corporation, el mayor fabricante de chips de Estados Unidos, escribió recientemente un artículo en la revista estadounidense "Science" diciendo que la Ley de Moore (la predicción de la capacidad de los semiconductores propuesta en 1965 (La ley que crecerá a un ritmo geométrico) puede encontrar un obstáculo insuperable en los próximos 10 años: la miniaturización de los chips se acerca a su límite. La gente aún no ha encontrado una manera de superar este límite. Algunos científicos lo llaman "el mayor desafío al que se enfrenta la industria de los semiconductores".

La tecnología de fabricación de chips VLSI más avanzada puede alcanzar un ancho de línea mínimo de aproximadamente 0,18 micras, que es tan ancho como el 5% de un cabello humano. La capa aislante de un transistor tiene sólo de 4 a 5 átomos de espesor. Japón comenzará la producción en masa con un ancho de sólo 0,13 micrones a principios del año 2000. Se espera que estos chips estén ampliamente disponibles en los próximos dos años. El siguiente paso es introducir chips con un ancho de línea de 0. 1 micra. Con un tamaño tan pequeño, se puede fabricar un transistor con menos de 100 átomos, dijo Pakan.

Cuando el ancho de la línea del chip es pequeño hasta cierto punto, las líneas interferirán fácilmente entre sí porque están demasiado cerca. Sin embargo, si la corriente que fluye a través de la línea es muy débil, con sólo unas pocas docenas o incluso unos pocos electrones, el ruido de fondo de la señal será insoportable. Si el tamaño se reduce aún más, se activan los efectos cuánticos, haciendo que la teoría informática tradicional sea completamente ineficaz. En este caso, los científicos deben utilizar nuevos materiales, métodos de diseño e incluso teorías informáticas para permitir que las industrias de semiconductores y computadoras superen las limitaciones de las teorías tradicionales y encuentren nuevas formas.

¿Cuál es la corriente principal actual del desarrollo informático? El consenso nacional y extranjero es

Computación con conjunto de instrucciones reducidas

RISC es la abreviatura de Computadora con conjunto de instrucciones reducidas. Una colección de comandos de operación que una computadora puede realizar. Un programa eventualmente se convierte en una secuencia de instrucciones que la computadora puede ejecutar. Cada computadora tiene su propio sistema de comando y la computadora puede reconocer y ejecutar las instrucciones del sistema de comando local. El reconocimiento consiste en decodificar el código binario que representa la operación en una señal de control correspondiente a la operación, para realizar la operación requerida por la instrucción. En términos generales, las computadoras tienen sistemas de instrucción completos y funciones poderosas.

El sistema RISC simplifica el sistema de instrucciones para reducir el tiempo de ejecución de las instrucciones y aumentar la velocidad de procesamiento de la computadora. Las computadoras tradicionales generalmente obtienen una instrucción a la vez, mientras que los sistemas RISC utilizan una estructura de múltiples temas para emitir múltiples instrucciones al mismo tiempo. Por supuesto, es necesario agregar actuadores adicionales al chip.

Tecnología de procesamiento paralelo

La tecnología de procesamiento paralelo también es una dirección importante para mejorar la velocidad de procesamiento de la computadora. En una computadora tradicional, generalmente hay solo una unidad central de procesamiento y solo se ejecuta un programa en la unidad central de procesamiento. La ejecución del programa se ejecuta una por una en secuencia, y los datos reflejados por el procesador también son cadenas una por una, por lo que se denominan instrucciones de ejecución en serie. La tecnología de procesamiento paralelo puede ejecutar múltiples programas relacionados o independientes simultáneamente en múltiples procesadores. Actualmente existen dos tipos de sistemas de procesamiento paralelo: uno es un sistema de procesamiento paralelo con 4, 8 o incluso 32 procesadores, o un sistema multiprocesador que ensambla más de 100 procesadores para formar un sistema de procesamiento a gran escala. Los dos sistemas se diferencian no sólo en la cantidad de procesadores, sino también en sus interconexiones internas, conexiones de memoria, soporte de sistemas operativos y áreas de aplicación.

Hubo una época en la que los superordenadores estaban fabricados con materiales distintos a los ordenadores normales. La computadora Cray 1 original fue construida a mano a partir de chips de formas extrañas montados en placas de circuito enfriadas por líquido recubiertas de cobre. La computadora Cray 2 luce aún más extraña. Agita burbujas en un baño que contiene fluorocarbono líquido, que se enfría con "sangre artificial". La tecnología informática paralela cambió todo esto. Actualmente el ordenador más rápido del mundo es el americano Asci Red. La velocidad informática de esta computadora es de 2,1 billones de operaciones por segundo. Está compuesto por los mismos componentes que las computadoras personales y las estaciones de trabajo, excepto que la supercomputadora usa más componentes y está equipada con un chip Pentium estándar 9000. A juzgar por las tendencias tecnológicas actuales, la diferencia entre las supercomputadoras y otras computadoras está comenzando a desdibujarse.

Es evidente que esta tendencia continuará, al menos en el futuro próximo. Entonces, ¿qué tecnologías futuras pueden alterar el panorama informático y desencadenar la próxima revolución tecnológica de supercomputación?

Existen al menos tres tipos de este tipo de tecnologías: computadoras fotónicas, computadoras biológicas y computadoras cuánticas. Es poco probable que se hagan realidad, pero vale la pena estudiarlos debido a su potencial para provocar revoluciones.

Ordenadores Fotónicos

Los ordenadores fotónicos son probablemente la más tradicional de las tres nuevas tecnologías. Durante décadas, las aplicaciones de esta tecnología han sido limitadas, especialmente en el procesamiento de señales militares.

En la computación fotónica, la luz puede transportar información tan bien como la electricidad, o incluso mejor. Los rayos de luz son mejores que la electricidad para transportar información de un lugar a otro, razón por la cual las compañías telefónicas utilizan cables de fibra óptica para hacerlo. hacerlo. Razones para la comunicación a larga distancia. La razón por la que la luz es tan útil para la comunicación es que no interactúa con el entorno, a diferencia de la electricidad. Dos rayos de luz pueden penetrar entre sí sin ser notados. La velocidad de propagación de la luz a largas distancias es aproximadamente 100 veces mayor que la de las señales electrónicas y el consumo de energía de los dispositivos ópticos es muy bajo. Se estima que las computadoras fotónicas podrían realizar cálculos entre 1.000 y 10.000 veces más rápido que las supercomputadoras actuales.

Desafortunadamente, es esta extrema independencia la que dificulta la construcción de una computadora totalmente fotónica, porque el proceso de cálculo necesita aprovechar las influencias mutuas. Si queremos fabricar verdaderas computadoras fotónicas, debemos desarrollar transistores ópticos para que un haz de luz pueda encenderse y apagarse con otro haz de luz. Estos dispositivos ya existen, pero fabricar transistores ópticos con características de rendimiento adecuadas requerirá grandes avances en la ciencia de los materiales.

Biocomputación

En comparación con la tecnología de computación de fotones, la tecnología de biocomputación a gran escala es más difícil de lograr, pero tiene un mayor potencial. Imagine una supercomputadora del tamaño de una toronja, capaz de procesar imágenes en tiempo real, reconocer voz y razonamiento lógico. Estos ordenadores ya existen: son cerebros humanos. Desde la década de 1970, la gente ha comenzado a estudiar las computadoras biológicas (también llamadas computadoras moleculares). A medida que la biotecnología avance constantemente, comenzaremos a comprender y manipular los mecanismos genéticos que forman el cerebro.

El rendimiento de los ordenadores biológicos será mejor que el de los ordenadores electrónicos y los ópticos. Si el progreso tecnológico continúa al ritmo actual, es posible que dentro de diez o veinte años surjan un gran número de superordenadores. Esto puede parecer ciencia ficción, pero en realidad ya existen experimentos en este ámbito. Por ejemplo, se han creado "biochips" con neuronas especialmente dispuestas sobre obleas de silicio.

En otros laboratorios, los investigadores han utilizado los datos para codificar hebras individuales de ADN para poder manipularlas en matraces. Estos experimentos de biocomputación estaban lejos de ser prácticos, pero en 1958 eso era todo lo que pensábamos sobre los circuitos integrados.

Computadores Cuánticos

La mecánica cuántica es la tercera tecnología que tiene el potencial de crear una revolución en la supercomputación. El concepto surgió más tarde que la computación fotónica o la biocomputación, pero tiene un mayor potencial revolucionario. Debido a que las computadoras cuánticas aprovechan las leyes contraintuitivas de la mecánica cuántica, sus velocidades de computación potenciales son mucho más rápidas que las de las computadoras electrónicas. De hecho, sus mejoras de velocidad son casi infinitas. Una computadora cuántica con alrededor de 5.000 qubits puede resolver el problema de los números primos en unos 30 segundos, algo que a una supercomputadora tradicional le llevaría 100 mil millones de años resolver.

Resulta que existe un caso de uso importante para esta tarea aparentemente esotérica. Los datos de la computadora se protegen cifrando el código que representa los datos. La "clave" matemática para el descifrado se presenta en forma de un número muy grande (a menudo de hasta 250 dígitos) y sus factores primos. Este cifrado se consideraba indescifrable porque ninguna computadora convencional podía calcular los factores primos de un número tan grande en un tiempo razonable. Sin embargo, al menos en teoría, las computadoras cuánticas pueden manejar fácilmente estos esquemas de cifrado de números primos. Como resultado, los piratas informáticos cuánticos podrán obtener fácilmente no sólo números de tarjetas de crédito y otra información personal que a menudo aparece en varias redes informáticas, incluida Internet, sino también secretos gubernamentales y militares. Esta es también la razón por la que algunas agencias gubernamentales que se adhieren al principio de "predicar con el ejemplo y nunca quedarse atrás" han estado invirtiendo fuertemente en la investigación de computadoras cuánticas.

Quantum Super Network Engine

Es poco probable que las computadoras cuánticas destruyan la integridad de Internet. No sólo eso, sino que, en última instancia, podrían aportar enormes beneficios a Internet. Hace dos años, Ralph Grover, investigador de los Laboratorios Bell, descubrió una forma de utilizar computadoras cuánticas para muchas de nuestras tareas diarias: buscar fragmentos de información ocultos en vastas bases de datos. Buscar información en una base de datos es como buscar algo en un maletín. Si diferentes combinaciones de estados de qubit buscan diferentes partes de la base de datos, entonces una de las combinaciones de estados encontrará la información que se busca.

Debido a algunas limitaciones técnicas, la mejora de la velocidad aportada por la búsqueda cuántica no es tan grande como se imaginaba. Por ejemplo, si desea buscar una dirección entre 654,38+0 mil millones de direcciones, una computadora clásica necesitaría alrededor de 50 millones de intentos para encontrar la dirección; una computadora cuántica necesitaría alrededor de 654,38+00000 intentos, pero eso es una gran mejora si; Amplia la base de datos y el progreso será mayor. Además, la búsqueda en bases de datos es una tarea informática muy básica y cualquier mejora podría tener implicaciones para una gran cantidad de aplicaciones.

Hasta ahora, pocos investigadores están dispuestos a predecir si las computadoras cuánticas se utilizarán más ampliamente. Sin embargo, la tendencia general es satisfactoria. Aunque muchos físicos (si no todos) creyeron inicialmente que las desconcertantes propiedades de la mecánica cuántica seguramente eliminarían los obstáculos esquivos y arraigados a la tecnología práctica de la computación cuántica, una investigación teórica profunda y extensa aún no ha podido crear una máquina real.

Entonces, ¿qué significa el auge de la investigación en ordenadores cuánticos? La historia de la informática muestra que siempre hay avances en hardware y software antes de que surjan los problemas que necesitan resolver. Quizás las computadoras cuánticas realmente comiencen a funcionar cuando necesitemos buscar en enormes bases de datos que a las computadoras comunes les llevaría meses completar. Investigar las tecnologías que sustituirán a los ordenadores electrónicos no es fácil. Después de todo, las computadoras paralelas que utilizan tecnología de microprocesador estándar están logrando grandes avances cada pocos años. Por tanto, cualquier tecnología que quiera sustituirla debe ser excelente. Sin embargo, el progreso en el campo de la tecnología informática es siempre muy rápido y está lleno de cosas inesperadas. Las predicciones sobre el futuro nunca son fiables. En retrospectiva, las personas que afirmaron que "no es factible" fueron las más estúpidas.

Además de los superordenadores, ¿dónde se desarrollarán los ordenadores en el futuro?

Enseñanza multimedia

La tecnología multimedia es una nueva tecnología que amplía aún más el campo de las aplicaciones informáticas. Procesa textos, datos, gráficos, imágenes, sonidos y otros medios de información en su conjunto mediante computadoras, lo que lleva a las computadoras al campo de aplicación de sonido, texto y gráficos integrados.

Los multimedia deben tener varios dispositivos externos, como monitores, teclados, ratones, joysticks, cintas/discos de vídeo, cámaras, entradas/salidas, transmisión de telecomunicaciones, etc. Los sistemas multimedia integran ordenadores, electrodomésticos y equipos de comunicación y son controlados y gestionados por ordenadores. Los sistemas multimedia tendrán un enorme impacto en la sociedad humana.

Red

La mayoría de los sistemas informáticos actuales son sistemas informáticos en red. La denominada red se refiere a un sistema compuesto por varias computadoras independientes distribuidas geográficamente e interconectadas a través de líneas de comunicación. Dependiendo del tamaño del área de red, las redes informáticas se pueden dividir en redes residenciales y redes remotas. Las redes informáticas pueden ser tan pequeñas como una fábrica, taller y oficina, o tan grandes como a través de continentes y océanos. Internet se convertirá en una fuerza invisible y poderosa en la sociedad humana: silenciosamente entrega todo tipo de información a las personas y facilita el trabajo y la vida humana de la manera más rápida y avanzada. Hoy en día, el desarrollo de Internet tiende a convertir el mundo en una "aldea global".

Los expertos creen que las PC no desaparecerán inmediatamente. Al mismo tiempo, los dispositivos terminales con funciones únicas o limitadas (como las computadoras de mano y los teléfonos inteligentes) desafiarán el estatus de la PC como fuerza impulsora de la innovación informática. Pronto se harán populares las computadoras "decodificadoras", como los televisores conectados a Internet, que combinan acceso a Internet y capacidades de correo electrónico con capacidades informáticas limitadas. Con el tiempo, los terminales de función única serán más fáciles de implementar.

Computadoras inteligentes

Nuestra comprensión del cerebro aún es superficial, pero el trabajo de hacer que las computadoras sean inteligentes no debe esperar hasta que las personas tengan una comprensión suficiente del cerebro. Hacer que las computadoras sean más inteligentes ha sido un objetivo que la gente ha perseguido desde el principio. En la actualidad, el desarrollo del diseño, la traducción, la recuperación, el dibujo, la escritura, el ajedrez y el trabajo mecánico asistidos por computadora ha dado un paso hacia la inteligencia de las computadoras. Con la mejora continua del rendimiento de las computadoras, la tecnología de inteligencia artificial finalmente ha encontrado una oportunidad para dar la cara después de persistir durante 50 años. Kasparov, el maestro de ajedrez número uno del mundo, se inclinó ante "Deep Blue", haciendo que la gente sintiera el sabor del fracaso frente a una computadora por primera vez. Nunca antes la humanidad había estado tan profundamente preocupada, ni su necesidad de conocerse a sí misma había sido tan sentida como hoy.

La mayoría de las computadoras actuales son computadoras von Neumann, que tienen funciones particularmente pobres como lectura de palabras, lectura de imágenes, obediencia y pensamiento de imágenes. Para hacer las computadoras más artificiales e inteligentes, los científicos comenzaron a permitir que simularan las funciones del cerebro humano. En los últimos años, los países desarrollados han concedido gran importancia a la investigación de redes neuronales artificiales, dando un paso importante hacia la inteligencia de los ordenadores.

Las características y ventajas de las redes neuronales artificiales se reflejan principalmente en tres aspectos: Tiene función de autoaprendizaje. Al implementar el reconocimiento de imágenes, siempre que se ingresen muchas plantillas de imágenes diferentes y los resultados de reconocimiento correspondientes en la red neuronal artificial, la red aprenderá a reconocer imágenes similares a través de la función de autoaprendizaje. La función de autoaprendizaje es importante para la predicción. Se espera que en el futuro las computadoras de redes neuronales artificiales proporcionen a los humanos los mismos pronósticos económicos, pronósticos de mercado y pronósticos de beneficios, y sus perspectivas son muy amplias.

Con función de almacenamiento Lenovo. El cerebro humano tiene las funciones de un hatchback. Si alguien te habla de tu compañero de infancia, Zhang Moumou. Pensarás en muchas cosas sobre Zhang Moumou. Esta correlación se puede lograr utilizando la red de retroalimentación de redes neuronales artificiales.

Tener la capacidad de encontrar soluciones óptimas a gran velocidad. Encontrar la solución óptima a un problema complejo suele requerir muchos cálculos. Al utilizar una red neuronal artificial de retroalimentación diseñada para un determinado problema y aprovechar al máximo la potencia informática de alta velocidad de la computadora, se puede encontrar rápidamente la solución óptima.

La red neuronal artificial es un nuevo hito en las futuras aplicaciones de tecnología electrónica. La composición de una computadora inteligente puede ser una combinación de una máquina von Neumann como computadora principal y redes neuronales artificiales como periféricos inteligentes.

Se cree generalmente que los ordenadores inteligentes aparecerán inevitablemente como el cumplimiento de la Ley de Moore (una ley propuesta en 1965 que predice la capacidad de los semiconductores para crecer a un ritmo geométrico). El presidente emérito de Intel, Gordon Moore, quien propuso la ley, estuvo de acuerdo. Según él, "la inteligencia del silicio se desarrollará hasta tal punto que será difícil distinguir los ordenadores de los humanos, pero la inteligencia informática no se detendrá allí". Muchos científicos afirman que las máquinas pronto serán más inteligentes que Albert Einstein y Hawking juntos. Hawking cree que así como los humanos pueden diseñar computadoras con capacidades superiores de manipulación digital, las máquinas inteligentes crearán mejores computadoras. La inteligencia informática puede superar la comprensión humana a más tardar a mediados del próximo siglo (posiblemente antes).

¿Qué es un lenguaje informático?

Existen muchos tipos de lenguajes informáticos, que generalmente se pueden dividir en tres categorías: lenguaje de máquina, lenguaje ensamblador y lenguaje de alto nivel.

Cada acción y paso del ordenador se realiza según un programa escrito en lenguaje informático. Un programa es un conjunto de instrucciones ejecutadas por una computadora y todos los programas están escritos en un lenguaje que conocemos. Por lo tanto, si las personas quieren controlar una computadora, deben enviarle comandos a través del lenguaje informático.

El único lenguaje que las computadoras pueden reconocer es el lenguaje de máquina, que es un código compuesto por 0 y 1. Pero normalmente la gente no utiliza el lenguaje de máquina cuando programan porque es muy difícil de recordar y reconocer.

Actualmente existen dos lenguajes de programación de uso común: lenguaje ensamblador y lenguaje de alto nivel.

La esencia del lenguaje ensamblador es la misma que la del lenguaje máquina. Ambos se operan directamente en el hardware, pero las instrucciones utilizan identificadores abreviados en inglés, que son más fáciles de identificar y recordar. También requiere que los programadores escriban cada operación específica en forma de comandos. Los programas ensambladores suelen constar de tres partes: instrucciones, pseudoinstrucciones y macroinstrucciones. Cada instrucción en el programa de ensamblaje solo puede corresponder a una acción muy sutil durante la operación real, como movimiento, incremento automático, etc. Por lo tanto, los programas fuente ensamblador son generalmente largos, complejos y propensos a errores. La programación en lenguaje ensamblador requiere más experiencia en informática, pero las ventajas del lenguaje ensamblador son obvias. Las operaciones que puede realizar el lenguaje ensamblador no pueden realizarse mediante lenguajes ordinarios de alto nivel. El archivo ejecutable generado por el programa fuente no solo es relativamente pequeño, sino también muy rápido.

Los lenguajes de alto nivel son actualmente la elección de la mayoría de programadores. En comparación con el lenguaje ensamblador, no solo sintetiza muchas instrucciones de máquina relacionadas en una sola instrucción, sino que también elimina detalles relacionados con operaciones específicas pero irrelevantes para completar el trabajo, como el uso de pilas y registros, lo que simplifica enormemente las instrucciones del programa. Al mismo tiempo, debido a que se omiten muchos detalles, los programadores no necesitan muchos conocimientos profesionales.

El lenguaje de alto nivel es principalmente relativo al lenguaje ensamblador. No hace referencia a un lenguaje específico, sino que incluye muchos lenguajes de programación, como VB, VC, FoxPro, Delphi, etc. Estos lenguajes tienen diferentes formatos de sintaxis y comandos.

Los programas escritos en lenguajes de alto nivel no pueden ser reconocidos directamente por la computadora y solo pueden ejecutarse después de la conversión. Según el método de conversión, se pueden dividir en dos categorías:

Interpretación: el método de ejecución es similar a la "interpretación simultánea" en nuestra vida diaria. El código fuente de una aplicación se traduce al código de destino (lenguaje de máquina) y se ejecuta al mismo tiempo, lo que es relativamente ineficiente y no puede generar un archivo ejecutable que pueda ejecutarse de forma independiente. Una aplicación no se puede separar de su intérprete, pero este enfoque es flexible y puede ajustar y modificar dinámicamente la aplicación.

Compilador: el compilador se refiere a "traducir" el código fuente del programa al código de destino (lenguaje de máquina) antes de ejecutar el código fuente de la aplicación, de modo que el programa de destino pueda ejecutarse independientemente de su entorno de lenguaje, utilizando Es más conveniente y eficiente. Pero una vez que es necesario modificar la aplicación, primero se debe modificar el código fuente y luego volver a compilarlo para generar un nuevo archivo de destino (*.) antes de que pueda ejecutarse. Es inconveniente modificar solo el archivo de destino sin modificar el código fuente. La mayoría de los lenguajes de programación actuales son compilados, como Visual C++, Visual Foxpro, Delphi, etc.