Red de conocimiento informático - Conocimiento sistemático - Solicitar el trabajo final o el material didáctico para el curso Descifrado del cerebro humano

Solicitar el trabajo final o el material didáctico para el curso Descifrado del cerebro humano

El cerebro humano y las computadoras

En 1937, el científico británico Alan Turing publicó el famoso artículo "Sobre los números computables utilizados en la resolución de problemas". El artículo propone el concepto de principio de pensamiento de la computadora, la máquina de Turing, que promueve el desarrollo de la teoría de la computación. En 1945, Turing empezó a trabajar en el Instituto Nacional Británico de Física y comenzó a diseñar ordenadores automáticos. En 1950, Turing publicó un artículo titulado "¿Pueden pensar las computadoras?" 》 paper, diseñó la famosa prueba de Turing, que prueba si las computadoras tienen la misma inteligencia que los humanos a través de preguntas y respuestas.

Turing propuso un modelo de computación abstracto para definir con precisión funciones computables. Una máquina de Turing consta de un controlador, una cinta infinitamente extensible y un cabezal de lectura y escritura que se mueve hacia la izquierda y hacia la derecha sobre la cinta. Esta máquina conceptualmente simple puede calcular teóricamente cualquier función computable intuitivamente. Como modelo teórico de computadoras, las máquinas de Turing se utilizan ampliamente en la investigación sobre computadoras y complejidad computacional.

Los ordenadores son herramientas de procesamiento de información creadas por el ser humano. Si otras herramientas fabricadas por humanos son extensiones de manos humanas, entonces se puede decir que las computadoras, como herramienta que reemplaza al cerebro humano para el procesamiento de información, son una extensión del cerebro humano. Las primeras computadoras reales se construyeron para resolver problemas de cálculo numérico. Al final de la Segunda Guerra Mundial, una serie de desciframientos de códigos y cálculos balísticos realizados con fines militares se volvieron cada vez más complejos. Una gran cantidad de datos y fórmulas de cálculo complejas requieren una cantidad considerable de mano de obra y tiempo, incluso cuando se utiliza una calculadora electromecánica. En este contexto, la gente comenzó a desarrollar computadoras electrónicas.

La primera computadora del mundo "Colosas" nació en el Reino Unido El desarrollo de la computadora "Colosas" comenzó en marzo de 1943. En ese momento, el principal desarrollador de la computadora "Colosas" era El propósito. es descifrar la contraseña cifrada por la máquina de cifrado alemana "Lorenz". Se necesitarían de 6 a 8 semanas para descifrar este código por otros medios, pero sólo de 6 a 8 horas con el ordenador 'Colosas'. El 10 de enero de 1944 entró en funcionamiento la computadora "Colosas". Desde que se puso en uso, una gran cantidad de secretos militares alemanes de alto nivel fueron descifrados rápidamente, lo que hizo que los aliados fueran aún más poderosos. "Colosas" apareció más de dos años antes que la computadora estadounidense ENIAC. Descifró una gran cantidad de secretos militares alemanes durante la Segunda Guerra Mundial y fue destruida en secreto, por lo que otros no la entendieron.

Aunque la primera computadora electrónica nació en Gran Bretaña, Gran Bretaña no supo aprovechar la oportunidad de la revolución tecnológica e industrial desencadenada por las computadoras. Por el contrario, Estados Unidos aprovechó esta oportunidad histórica y alentó el desarrollo de la tecnología y la industria informáticas, lo que resultó en el surgimiento de un gran número de gigantes de la industria informática y promovió en gran medida el desarrollo de la fuerza nacional integral de Estados Unidos. En 1944, el Departamento de Defensa de Estados Unidos organizó un grupo de investigación sobre el ordenador ENIAC dirigido por Mauchly y Eckert. En la imagen también participó el fundador de los ordenadores modernos, el matemático húngaro estadounidense von Neumann, que en aquel momento trabajaba en la Universidad de Princeton. trabajo de investigación. En 1946, el trabajo de investigación tuvo éxito y se construyó la primera computadora digital electrónica del mundo, ENIAC. Aunque esta computadora, que estaba compuesta por 18.000 tubos de electrones, era de gran tamaño, consumía una asombrosa cantidad de energía y tenía funciones limitadas, ahorró mano de obra y tiempo, y abrió una nueva era de la informática y la tecnología. Puede que ni siquiera los científicos que lo crearon esperaran esto.

Aunque la primera computadora tenía funciones limitadas y era muy diferente de las computadoras modernas, ya contaba con las partes básicas de las computadoras modernas, es decir, unidades aritméticas, controladores y memorias.

La calculadora es como un ábaco, que se utiliza para realizar operaciones numéricas y operaciones lógicas y obtener resultados de cálculo. El controlador es como la sede de la computadora, dirigiendo el trabajo de varias partes de la computadora. Su comando se logra mediante el envío de una serie de señales de control.

Los programas de computadora, los datos, así como los resultados intermedios y finales generados durante las operaciones deben tener un lugar para almacenarlos. Este es el tercer componente de la computadora: la memoria.

Las computadoras realizan cálculos automáticamente y la base para los cálculos automáticos es el programa almacenado en la computadora. Las computadoras modernas son todas computadoras con programas almacenados, también llamadas máquinas de von Neumann, porque el concepto de programas almacenados fue propuesto por von Neumann.

De acuerdo con la descripción matemática del problema a resolver, las personas compilan un programa en un "lenguaje" que la computadora puede aceptar, lo ingresan y lo almacenan en la computadora, y la computadora puede completar automáticamente el cálculo y generar el resultado a alta velocidad. velocidad según la intención de la persona. El programa debe proporcionar a la computadora los datos que se van a operar, el orden de las operaciones, qué operaciones realizar, etc.

La aparición de la tecnología microelectrónica ha dado nuevas oportunidades al desarrollo de los ordenadores, y ha permitido miniaturizarlos. El desarrollo de la microelectrónica se remonta a la aparición del transistor. En 1947, tres científicos de los laboratorios Bell de American Telegraph and Telephone Company, Bardeen, Brydon y Shockley, fabricaron el primer transistor, iniciando la era de la sustitución de los tubos de electrones por transistores.

Se puede decir que la aparición de los transistores es el preludio de la introducción de los circuitos integrados. Después de la llegada del transistor, algunos científicos descubrieron que la miniaturización del circuito se podía lograr colocando los componentes y conexiones del circuito en un chip de silicio, como los transistores. Como resultado, después de 10 años de desarrollo en la industria de fabricación de transistores, apareció el primer circuito integrado en 1958.

El desarrollo de la tecnología microelectrónica y la aparición de los circuitos integrados provocaron por primera vez grandes cambios en la tecnología informática. Las computadoras modernas combinan principalmente unidades aritméticas y controladores, llamados microprocesadores. Debido a la integración de microprocesadores (chips de computadora), el corazón de las computadoras, las microcomputadoras surgieron y ganaron popularidad en los años 1970 y 1980. El rápido desarrollo, especialmente después de la aparición de. La computadora personal IBM PC abrió la puerta a la popularización de las computadoras y promovió su aplicación en todos los ámbitos de la vida. En las décadas de 1950 y 1960, las computadoras que eran costosas, voluminosas y consumían una energía asombrosa solo podían usarse en Usado en. En algunas grandes instalaciones militares o de investigación científica, hoy en día los ordenadores han entrado en las oficinas y en los hogares gracias al uso de circuitos integrados a gran escala.

Uno de los indicadores que marca el nivel de los circuitos integrados es el grado de integración, es decir, cuántos transistores se pueden fabricar en un chip de un determinado tamaño. Desde la aparición de los circuitos integrados hasta la actualidad. Solo han pasado más de 40 años, pero la velocidad de desarrollo es asombrosa. Sí, los chips son cada vez más pequeños, lo que tiene un profundo impacto en la producción y la vida. La computadora ENIAC ocupa un área de 150 metros cuadrados, pesa 30 toneladas y consume cientos de vatios de energía. Puede realizar cálculos que pueden realizarse con las calculadoras de bolsillo más avanzadas de la actualidad. Éste es el milagro creado por la tecnología microelectrónica y los circuitos integrados.

Situación actual y perspectivas

Científicos estadounidenses señalaron recientemente que después de más de 30 años de desarrollo, la miniaturización de los chips de computadora ha llegado a su límite. El mayor desarrollo de la tecnología informática sólo puede depender de nuevas tecnologías, como nuevos materiales, nuevos métodos de diseño de transistores y tecnología informática a nivel molecular.

Durante los últimos 30 años, el desarrollo de la industria de los semiconductores ha seguido básicamente la Ley de Moore, lo que significa que el número de transistores instalados en un chip de silicio se duplica cada 18 meses. El tamaño del chip es cada vez más pequeño, el número de transistores incluidos aumenta y el ancho de la línea de grabado es cada vez más pequeño, por lo tanto, el rendimiento de la computadora es cada vez mayor y el precio es cada vez más bajo; Pero algunas personas sugieren que esta tendencia de desarrollo sólo puede continuar durante otros 10 a 15 años como máximo.

Paul A. Parkan, científico de Intel Corporation, el mayor fabricante de chips de Estados Unidos, escribió recientemente en un artículo en la revista estadounidense "Science" que la Ley de Moore (propuesta en 1965 predice que las capacidades de los semiconductores aumentarán crecen según una ley geométrica) pueden encontrar obstáculos insuperables en los próximos 10 años: la miniaturización de los chips se acerca a su límite. No se ha encontrado ninguna manera de superar este límite, que algunos científicos llaman "el mayor desafío al que se enfrenta la industria de los semiconductores".

El ancho de línea mínimo que se puede lograr con la tecnología de fabricación de chips VLSI más avanzada es de aproximadamente 0,18 micras, que es el 5% del ancho de un cabello. La capa aislante de un transistor tiene sólo de 4 a 5 átomos de espesor. Japón comenzará la producción en masa de chips con un ancho de línea de sólo 0,13 micrones a principios del año 2000. Se espera que estos chips se utilicen ampliamente en los próximos dos años. El siguiente paso es introducir chips con un ancho de línea de 0,1 micras. Con un tamaño tan pequeño, se puede construir un transistor a partir de menos de 100 átomos, dijo Pakan.

Cuando el ancho de la línea del chip es pequeño hasta cierto punto, las líneas interferirán fácilmente entre sí porque están demasiado cerca. Y si la corriente que pasa por la línea es tan débil que sólo quedan decenas o incluso unos pocos electrones, el ruido de fondo de la señal será insoportable. A medida que el tamaño se reduce aún más, entran en acción los efectos cuánticos, lo que hace que la teoría informática tradicional sea completamente ineficaz.

En este caso, los científicos deben utilizar nuevos materiales, métodos de diseño e incluso teorías informáticas para permitir que las industrias de semiconductores y computadoras superen los límites de las teorías tradicionales y encuentren nuevas salidas.

¿Cuál es la corriente principal actual del desarrollo informático? La opinión generalizada en el país y en el extranjero es que

RISC

RISC es la abreviatura en inglés de Reduced Instrucciones Set Computer. El llamado sistema de instrucciones es una colección de comandos de operación que una computadora puede ejecutar. En última instancia, un programa se convierte en una secuencia de instrucciones que la computadora puede ejecutar. Las computadoras tienen su propio sistema de instrucciones. La computadora puede reconocer y ejecutar las instrucciones del sistema de instrucciones local. El reconocimiento significa decodificar: convertir el código binario que representa la operación en la señal de control correspondiente a la operación, para realizar la operación requerida. instrucción. En términos generales, el sistema de instrucciones de la computadora es relativamente rico y sus funciones también son relativamente poderosas. El sistema RISC agiliza el sistema de instrucciones y lo simplifica. El propósito es reducir el tiempo de ejecución de las instrucciones y aumentar la velocidad de procesamiento de la computadora. Las computadoras tradicionales generalmente obtienen una instrucción a la vez, mientras que los sistemas RISC utilizan una estructura de múltiples temas para emitir múltiples instrucciones al mismo tiempo. Por supuesto, esto requiere unidades de ejecución adicionales en el chip.

Tecnología de procesamiento paralelo

La tecnología de procesamiento paralelo también es una dirección importante para mejorar la velocidad de procesamiento de las computadoras. Las computadoras tradicionales generalmente tienen un solo procesador central, y lo que se ejecuta en el procesador central es solo. un programa, la ejecución del programa se realiza secuencialmente una tras otra, y los datos reflejados por el programa a través del procesador también son una serie tras otra, por eso se denominan instrucciones de ejecución en serie. La tecnología de procesamiento paralelo puede ejecutar múltiples programas relacionados o independientes en múltiples procesadores al mismo tiempo. Actualmente existen dos tipos de sistemas de procesamiento paralelo: uno es un sistema de procesamiento paralelo con 4, 8 o incluso 32 procesadores reunidos, o un sistema multiprocesador es un conjunto de más de 100 procesadores, formando un sistema a gran escala; sistema de procesamiento. Estos dos sistemas no solo se diferencian en la cantidad de procesadores, sino también en sus métodos de interconexión interna, métodos de conexión de memoria, soporte de sistema operativo y campos de aplicación.

Hubo un tiempo en el que los superordenadores se construían con materiales diferentes a los de los ordenadores normales. La computadora Cray 1 original se construyó a mano utilizando chips de formas extrañas montados en placas de circuito recubiertas de cobre y refrigeradas por líquido. La computadora Cray 2 parecía aún más extraña, burbujeando en un baño de fluorocarbono líquido enfriado con “sangre artificial”. La tecnología informática paralela cambió todo eso. Ahora, la computadora más rápida del mundo es la "Asci Red" estadounidense. Esta computadora tiene una velocidad de 2,1 billones de operaciones por segundo. Está hecha de los mismos componentes que las computadoras personales y las estaciones de trabajo, excepto que la supercomputadora solo usa una gran cantidad de. componentes y está equipado con 9.000 chips Pentium estándar. Dadas las tendencias actuales en tecnología, una cosa es absolutamente cierta: la distinción entre supercomputadoras y otras computadoras está comenzando a desdibujarse.

Está claro que esta tendencia continuará, al menos en el futuro próximo. Entonces, ¿qué tecnologías futuras probablemente alterarán el panorama informático y desencadenarán la próxima revolución de la supercomputación?

Existen al menos tres de estas tecnologías: computadoras fotónicas, computadoras biológicas y computadoras cuánticas. Las posibilidades de que alguna vez se conviertan en realidad son escasas, pero vale la pena investigarlos debido a su potencial revolucionario.

Ordenador Fotónico

El ordenador fotónico puede ser el más cercano a la tradición entre estas tres nuevas tecnologías. Esta tecnología ha tenido una aplicación limitada durante décadas, especialmente en el procesamiento de señales militares.

En la tecnología de computación de fotones, la luz puede transmitir información tan bien como la electricidad, o incluso mejor. Los rayos de luz son mejores para transmitir información de un lugar a otro que la electricidad. Las compañías telefónicas utilizan cables de fibra óptica para comunicarse. en largas distancias. Lo que hace que la luz sea útil para la comunicación es que no interactúa con el entorno que la rodea, que es una de las diferencias entre ella y la electricidad. Dos rayos de luz pueden penetrar entre sí sin que nadie se dé cuenta. La luz viaja largas distancias unas 100 veces más rápido que las señales electrónicas y el consumo de energía de los dispositivos ópticos es muy bajo. Se espera que las computadoras fotónicas sean entre 1.000 y 10.000 veces más rápidas que las supercomputadoras actuales.

Lamentablemente, es esta independencia extrema la que dificulta la construcción de una computadora totalmente fotónica, porque el procesamiento computacional necesita explotar la influencia de cada uno. Para crear una verdadera computadora fotónica, se deben desarrollar transistores ópticos de modo que un haz de luz pueda usarse para encender y apagar otro haz. Estos dispositivos ya existen, pero crear transistores ópticos con características de rendimiento adecuadas requerirá grandes avances en la ciencia de los materiales.

Biocomputación

En comparación con la tecnología de computación de fotones, la tecnología de biocomputación a gran escala es más difícil de implementar, pero su potencial también es mayor. Imagine una supercomputadora del tamaño de una toronja que pueda realizar procesamiento de imágenes en tiempo real, reconocimiento de voz y razonamiento lógico. Estos ordenadores ya existen: son cerebros humanos. Desde la década de 1970, la gente ha comenzado a estudiar las computadoras biológicas (también llamadas computadoras moleculares). Con el constante desarrollo de la biotecnología, comenzaremos a comprender y manipular los mecanismos genéticos que forman el cerebro.

Las computadoras biológicas tendrán mejor rendimiento que las computadoras electrónicas y las computadoras ópticas. Si el progreso tecnológico continúa al ritmo actual, es posible que en una década o dos surja un gran número de supercomputadoras. Esto puede parecer ciencia ficción, pero en realidad existen experimentos en este ámbito. Por ejemplo, se han producido "biochips" con neuronas especialmente dispuestas y cultivadas en obleas de silicio.

En otros laboratorios, los investigadores han utilizado los datos para codificar hebras individuales de ADN para poder realizar cálculos en matraces. Estos experimentos de biocomputación estaban lejos de ser prácticos, pero eso era todo lo que pensábamos de los circuitos integrados en 1958.

Computadores Cuánticos

La mecánica cuántica es la tercera tecnología que tiene el potencial de crear una revolución en la supercomputación. Este concepto surgió más tarde que los conceptos de computación fotónica o biocomputación, pero tiene un mayor potencial revolucionario. Debido a que las computadoras cuánticas aprovechan las leyes contraintuitivas de la mecánica cuántica, potencialmente pueden funcionar mucho más rápido que las computadoras electrónicas. De hecho, casi no hay límite para la rapidez con la que pueden aumentar. Una computadora cuántica con alrededor de 5.000 qubits puede resolver el problema de los números primos en unos 30 segundos, algo que a una supercomputadora tradicional le llevaría 10 mil millones de años resolver.

Resulta que existe un uso importante para esta operación aparentemente esotérica. Los datos de la computadora se protegen cifrando el código que representa los datos. La "clave" matemática para el descifrado se presenta en forma de un número muy grande (normalmente de hasta 250 dígitos) y sus factores primos. Este cifrado se consideraba indescifrable porque ningún ordenador convencional podía calcular los factores primos de un número tan enorme en el tiempo adecuado. Pero, al menos en teoría, las computadoras cuánticas podrían manejar fácilmente estos esquemas de cifrado de números primos. Por lo tanto, los piratas informáticos cuánticos podrán obtener fácilmente no solo números de tarjetas de crédito y otra información personal que a menudo aparece en varias redes informáticas (incluida Internet), sino también secretos gubernamentales y militares. Esta es la razón por la que algunas agencias gubernamentales que se adhieren al principio de "mejor que otros" han estado invirtiendo mucho en la investigación de computadoras cuánticas.

Quantum Super Network Engine

Es poco probable que las computadoras cuánticas destruyan la integridad de Internet. No solo eso, al final también pueden traer enormes beneficios a Internet. Hace dos años, Love Grover, investigadora de los Laboratorios Bell, descubrió una manera de utilizar computadoras cuánticas para realizar una tarea cotidiana que muchos de nosotros hacemos: buscar información oculta en vastas bases de datos. Encontrar información en una base de datos es como buscar algo en un maletín. Si diferentes combinaciones de estados de qubit buscan diferentes partes de la base de datos, entonces una de las combinaciones de estados encontrará la información que está buscando.

Debido a ciertas limitaciones técnicas, la mejora de velocidad que puede aportar la búsqueda cuántica no es tan grande como se esperaba. Por ejemplo, si desea buscar una dirección entre 100 millones de direcciones, sería necesario que lo hiciera una computadora tradicional. realizar aproximadamente Se necesitan 50 millones de intentos para encontrar la dirección; una computadora cuántica necesitaría alrededor de 10,000 intentos, pero esto ya es una gran mejora, y la mejora será aún mayor si la base de datos es más grande. Además, la búsqueda en bases de datos es una tarea informática muy básica y es probable que cualquier mejora tenga un impacto en una gran cantidad de aplicaciones.

Hasta la fecha, pocos investigadores están dispuestos a predecir si las computadoras cuánticas se utilizarán más ampliamente. No obstante, la tendencia general ha sido prometedora. Aunque muchos físicos (si no todos) inicialmente creyeron que la naturaleza confusa de la mecánica cuántica inevitablemente eliminaría obstáculos esquivos y arraigados a la tecnología práctica de computación cuántica, una investigación profunda y generalizada aún no ha producido una máquina real.

Entonces, ¿qué significa el auge de la investigación en ordenadores cuánticos? La historia de la informática muestra que los avances en hardware y software siempre son lo primero antes de que surjan problemas que deben resolver. Quizás las computadoras cuánticas realmente comiencen a funcionar cuando necesitemos buscar en enormes bases de datos que llevarían meses buscar con computadoras comunes. Investigar las tecnologías que sustituirán a los ordenadores electrónicos no será fácil. Después de todo, las computadoras paralelas que utilizan tecnología de microprocesador estándar están logrando grandes avances cada pocos años. Por tanto, cualquier tecnología que quiera sustituirla debe ser extremadamente buena. Sin embargo, el progreso en el campo de la tecnología informática siempre ha sido muy rápido y lleno de cosas inesperadas. Las predicciones sobre el futuro siempre son poco fiables. En retrospectiva, aquellas afirmaciones de que "este asunto no es factible" son las más tontas.

Además de los superordenadores, ¿en qué otras áreas se desarrollarán los ordenadores en el futuro?

Tecnología multimedia

La tecnología multimedia es una tecnología emergente que amplía aún más el campo de las aplicaciones informáticas. Trata los medios de información como texto, datos, gráficos, imágenes y sonidos como un cuerpo integrado y es procesado por computadoras, lo que lleva a las computadoras a un campo de aplicación donde se integran sonido, texto e imágenes. Los multimedia deben tener una variedad de dispositivos externos como monitores, teclados, ratones, joysticks, cintas/discos de vídeo, cámaras, entradas/salidas y transmisiones de telecomunicaciones. El sistema multimedia combina computadoras, electrodomésticos y equipos de comunicación en un todo controlado y administrado de manera uniforme por la computadora. Los sistemas multimedia tendrán un enorme impacto en la sociedad humana.

Red

La mayoría de los sistemas informáticos actuales son sistemas informáticos conectados a una red. La denominada red se refiere a un sistema compuesto por múltiples computadoras independientes distribuidas geográficamente e interconectadas a través de líneas de comunicación. Dependiendo del tamaño del área de red, las redes informáticas se pueden dividir en redes locales y redes remotas. Las redes informáticas pueden ser tan pequeñas como varios talleres y oficinas en una fábrica, o tan grandes como a través de continentes y océanos. Internet se convertirá en una fuerza invisible y poderosa en la sociedad humana: silenciosamente entrega información diversa a las personas y facilita el trabajo y la vida humana con los medios más rápidos y avanzados. El desarrollo actual de Internet tiende a convertir el mundo en una "aldea global".

Los expertos creen que las PC no desaparecerán pronto y, al mismo tiempo, los dispositivos terminales de función única o limitada (como computadoras de mano y teléfonos inteligentes) desafiarán el estatus de la PC como fuerza impulsora de Innovación informática. Pronto se volverán populares las computadoras "de primera categoría", como la televisión por Internet, que combinan acceso a Internet y capacidades de correo electrónico con capacidades informáticas limitadas. Los terminales de función única eventualmente serán más fáciles de usar

Computadores inteligentes

Nuestra comprensión del cerebro aún es superficial, pero el trabajo de hacer que los ordenadores sean inteligentes no debe esperar hasta que las personas tengan una mejor comprensión del cerebro solo comience después de que tenga suficiente comprensión. Hacer que las computadoras sean más inteligentes ha sido un objetivo que la gente ha perseguido desde el principio. El desarrollo actual del diseño, la traducción, la recuperación, el dibujo, la escritura, el ajedrez, las operaciones mecánicas, etc. asistidos por computadora ha dado un paso hacia la inteligencia de las computadoras. Con la mejora continua del rendimiento de la computadora, la tecnología de inteligencia artificial finalmente encontró una oportunidad para mostrar su rostro después de persistir durante 50 años. El maestro de ajedrez número uno del mundo, Kasparov, se rindió a "Deep Blue", dándole al cerebro humano su primera experiencia. fallar frente a una computadora. La humanidad nunca ha estado tan profundamente temerosa como hoy, y nunca ha sentido la necesidad de entenderse a sí misma con tanta fuerza como hoy.

La mayoría de las computadoras actuales son computadoras von Neumann, que tienen funciones particularmente pobres en el reconocimiento de palabras, el reconocimiento de imágenes, la obediencia y el pensamiento de imágenes. Para hacer que las computadoras sean más inteligentes artificialmente, los científicos han comenzado a hacer que las computadoras simulen las funciones del cerebro humano. En los últimos años, los países avanzados han prestado atención a la investigación de redes neuronales artificiales, dando un paso importante hacia la inteligencia de las computadoras.

Las características y ventajas de las redes neuronales artificiales se reflejan principalmente en tres aspectos: Tiene función de autoaprendizaje.

Al implementar el reconocimiento de imágenes, siempre que se ingresen muchas plantillas de imágenes diferentes y los resultados de reconocimiento correspondientes en la red neuronal artificial, la red aprenderá a reconocer imágenes similares mediante la función de autoaprendizaje. La función de autoaprendizaje es particularmente importante para la predicción. Se espera que en el futuro las computadoras de redes neuronales artificiales proporcionen a los seres humanos pronósticos económicos, pronósticos de mercado y pronósticos de beneficios, y su futuro es muy prometedor.

Tiene función de almacenamiento de asociaciones. El cerebro humano tiene dos funciones. Si alguien te menciona a tu compañero de clase de la infancia, Zhang Moumou. Pensarás en muchas cosas sobre Zhang Moumou. Esta asociación se puede lograr utilizando la red de retroalimentación de redes neuronales artificiales.

Tiene la capacidad de encontrar soluciones óptimas a gran velocidad. Encontrar una solución óptima a un problema complejo a menudo requiere muchos cálculos. Al utilizar una red neuronal artificial de retroalimentación diseñada para un problema determinado y utilizar la potencia informática de alta velocidad de la computadora, se puede encontrar rápidamente la solución óptima.

Las redes neuronales artificiales son un nuevo campo para las aplicaciones de tecnología electrónica en el futuro. La composición de una computadora inteligente puede ser la combinación de la máquina von Neumann como computadora principal y la red neuronal artificial como periférico inteligente.

En general, se cree que las computadoras inteligentes surgirán tan inevitablemente como el cumplimiento de la Ley de Moore (una ley propuesta en 1965 que predice el crecimiento geométrico de las capacidades de los semiconductores). Gordon Moore, el presidente honorario de Intel que propuso esta ley, también estuvo de acuerdo con esta opinión: "La inteligencia del silicio se desarrollará hasta el punto en que será difícil distinguir las computadoras de las personas, pero la inteligencia informática no llegará a ese punto". . Hasta ahora. Muchos científicos afirman que la inteligencia de las máquinas pronto superará a la de Albert Einstein y Hawking juntos. Hawking cree que así como los humanos pueden diseñar computadoras basándose en su capacidad superior para hacer cálculos numéricos, las máquinas inteligentes crearán mejores computadoras. A más tardar a mediados del próximo siglo (y probablemente mucho antes), la inteligencia informática puede superar la comprensión humana.

¿Qué es un lenguaje informático?

Existen muchos tipos de lenguajes informáticos. En términos generales, se pueden dividir en tres categorías: lenguaje de máquina, lenguaje ensamblador y lenguaje de alto nivel. .

Cada acción o paso realizado por la computadora se ejecuta de acuerdo con un programa compilado en lenguaje informático. Un programa es una colección de instrucciones que la computadora debe ejecutar, y todos los programas se programan utilizando nuestro lenguaje escrito. tu dominas. Por lo tanto, si las personas quieren controlar la computadora, deben enviarle comandos a través del lenguaje informático.

El único lenguaje que las computadoras pueden reconocer es el lenguaje de máquina, que es un código compuesto por 0 y 1. Pero normalmente cuando la gente programa, no utiliza el lenguaje de máquina porque es muy difícil de recordar y reconocer.

Actualmente, existen dos formas comunes de lenguajes de programación: lenguaje ensamblador y lenguaje de alto nivel.

La esencia del lenguaje ensamblador es la misma que la del lenguaje máquina. Ambos operan directamente sobre el hardware, sin embargo, las instrucciones utilizan identificadores abreviados en inglés, que son más fáciles de identificar y recordar. También requiere que los programadores escriban cada operación específica en forma de comandos. Los programas ensambladores suelen constar de tres partes: instrucciones, pseudoinstrucciones y macroinstrucciones. Cada instrucción en el programa ensamblador solo puede corresponder a una acción muy sutil en el proceso de operación real, como movimiento e incremento. Por lo tanto, los programas fuente ensambladores son generalmente largos, complejos y propensos a errores, y la programación en lenguaje ensamblador requiere más computadoras. Conocimiento profesional, pero las ventajas del lenguaje ensamblador también son obvias. Las operaciones que se pueden realizar con el lenguaje ensamblador no son posibles con lenguajes ordinarios de alto nivel. Además, el archivo ejecutable generado por el ensamblador del programa fuente no es solo relativamente. pequeño, pero también se ejecuta muy rápidamente.

Los lenguajes de alto nivel son actualmente la elección de la mayoría de programadores. En comparación con el lenguaje ensamblador, no solo sintetiza muchas instrucciones de máquina relacionadas en una sola instrucción, sino que también elimina detalles relacionados con operaciones específicas pero irrelevantes para completar el trabajo, como el uso de pilas, registros, etc., simplificando así enormemente las instrucciones. en el programa. Al mismo tiempo, debido a que se omiten muchos detalles, los programadores no necesitan tener muchos conocimientos profesionales.

El lenguaje de alto nivel es principalmente relativo al lenguaje ensamblador. No se refiere a un lenguaje específico, pero incluye muchos lenguajes de programación, como los actualmente populares VB, VC, FoxPro, Delphi, etc. La sintaxis y los formatos de comando de estos lenguajes son diferentes.

Los programas escritos en lenguajes de alto nivel no pueden ser reconocidos directamente por las computadoras y deben convertirse antes de poder ejecutarse. Se pueden dividir en dos categorías según el método de conversión:

<. p> Tipo de interpretación: métodos de ejecución similares Debido a la "traducción simultánea" en nuestra vida diaria, el intérprete del lenguaje correspondiente "traduce" el código fuente de la aplicación al código de destino (lenguaje de máquina) durante la ejecución. La eficiencia es relativamente baja y no puede generar un ejecutable ejecutable de forma independiente. Para ejecutar un archivo, la aplicación no se puede separar de su intérprete, pero este método es más flexible y puede ajustar y modificar dinámicamente la aplicación.

Clase de compilación: la compilación se refiere a "traducir" el código fuente del programa al código de destino (lenguaje de máquina) antes de que se ejecute el programa fuente de la aplicación, de modo que el programa de destino se pueda ejecutar independientemente de su entorno de lenguaje, mediante comparación. Conveniente y eficiente. Sin embargo, una vez que es necesario modificar la aplicación, primero se debe modificar el código fuente y luego volver a compilarlo para generar un nuevo archivo objeto (*.OBJ) antes de que pueda ejecutarse. Solo hay un archivo objeto pero no hay código fuente. modificación muy inconveniente. La mayoría de los lenguajes de programación actuales están compilados, como Visual C++, Visual Foxpro, Delphi, etc.