Red de conocimiento informático - Programación de la red - La historia del desarrollo de las computadoras se basa en las funciones de las computadoras.

La historia del desarrollo de las computadoras se basa en las funciones de las computadoras.

Historia del desarrollo de las computadoras (1)

En 1945, Estados Unidos produjo la primera computadora digital electrónica completamente automática "ENIAC" (la abreviatura en inglés es ENIAC, es decir, Electronic Numerical Integrador y Calculadora, chino significa integrador y calculadora digital electrónica). Fue desarrollado por el Auberdine Weapons Proving Ground en los Estados Unidos para satisfacer las necesidades de cálculo balístico. Los principales inventores son el ingeniero eléctrico J. Prespen Eckert y el físico Dr. John W. Mauchly. Esta computadora fue entregada en febrero de 1946 y funcionó durante nueve años. Utiliza tubos de electrones como componentes básicos de la computadora y puede realizar 5.000 sumas y restas por segundo. Utiliza 18.000 tubos de electrones, 10.000 condensadores y 7.000 resistencias, tiene un volumen de 3.000 pies cúbicos, una superficie de 170 metros cuadrados, un peso de 30 toneladas y un consumo de energía de 140 a 150 kilovatios. "monstruo".

La llegada de la máquina ENIAC tiene un significado histórico, ya que indica la llegada de la era de la computadora. En los siguientes 40 años, la tecnología informática se desarrolló extremadamente rápido en la historia de la ciencia y la tecnología humanas. Ninguna disciplina que pueda igualar el desarrollo de las computadoras electrónicas es comparable.

A continuación se presenta la estructura del hardware y las características del sistema de cada generación de computadoras:

1. La primera generación (1946~1958): computadoras digitales de tubo

Computadora Los componentes lógicos utilizan tubos de electrones, la memoria principal utiliza líneas de retardo de mercurio, tambores magnéticos y núcleos magnéticos; la memoria externa utiliza cintas magnéticas; el software utiliza principalmente lenguaje de máquina y lenguaje ensamblador; Se caracteriza por su gran tamaño, alto consumo de energía, poca confiabilidad, precio elevado y mantenimiento complicado, pero sentó las bases para la tecnología informática del futuro.

Segunda generación (1958~1964): Computadora digital con transistores

La invención del transistor impulsó el desarrollo de las computadoras. Después de que los transistores se utilizaron en componentes lógicos, el tamaño de la computadora fue. Se reduce considerablemente el consumo de energía, se mejora la confiabilidad y el rendimiento mejora considerablemente en comparación con las computadoras de primera generación.

La memoria principal utiliza núcleos magnéticos y la memoria externa ha comenzado a utilizar discos más avanzados; el software se ha desarrollado enormemente y han aparecido varios lenguajes de alto nivel y sus compiladores, así como el procesamiento por lotes principal. Sistema operativo, sus aplicaciones son principalmente informática científica y procesamiento de diversas transacciones, y ha comenzado a utilizarse en el control industrial.

Tercera generación (1964~1971): computadora digital con circuito integrado

En la década de 1960, los componentes lógicos de las computadoras utilizaban circuitos integrados de pequeña y mediana escala (SSI, MSI), computadoras son más pequeños, consumen menos energía, son más confiables y su rendimiento ha mejorado enormemente en comparación con las computadoras de décima generación. En este momento, las minicomputadoras también florecieron y sus campos de aplicación se expandieron día a día.

La memoria principal todavía utiliza núcleos magnéticos, el software está mejorando gradualmente y muchos lenguajes de alto nivel, como los sistemas operativos de tiempo compartido y los lenguajes conversacionales, tienen nuevos desarrollos.

Cuarta generación (después de 1971): computadora digital con circuito integrado a gran escala.

Todos los componentes lógicos y la memoria principal de la computadora utilizan circuitos integrados a gran escala (LSI). El llamado circuito integrado de gran escala se refiere a un circuito integrado que integra más de 1.000 a 2.000 transistores en una sola oblea de silicio. Su nivel de integración es más de 1 a 2 órdenes de magnitud mayor que el de mediana y pequeña escala. circuitos integrados. En este momento, las computadoras se han desarrollado hasta una etapa de miniaturización, bajo consumo y alta confiabilidad. Los circuitos integrados a gran escala han permitido el desarrollo de la industria militar, la tecnología espacial y la tecnología de energía atómica. El vigoroso desarrollo de estos campos ha planteado mayores requisitos para las computadoras y ha promovido efectivamente el desarrollo sin precedentes de la industria informática. Con el rápido desarrollo de la tecnología de circuitos integrados a gran escala, las computadoras no solo se están desarrollando en la dirección de las supercomputadoras, sino también en la dirección de las computadoras y microcomputadoras ultrapequeñas.

A finales de 1971 nació en Silicon Valley, al sur de San Francisco, EE.UU., el primer microprocesador y microordenador del mundo. Inició una nueva era de los microordenadores. Desde entonces, como hongos después de una lluvia se han desarrollado diversos microprocesadores y microcomputadoras, que han inundado el mercado, convirtiéndose en los productos más vendidos en ese momento. Este impulso todavía está en ascenso hoy en día. Especialmente después del nacimiento de la serie de máquinas IBM-PC, casi dominó el mercado mundial de microcomputadoras y también se lanzaron una tras otra varias máquinas compatibles.

2. Etapa de computadora moderna (es decir, etapa de mainframe tradicional)

2. Etapa de computadora moderna (es decir, etapa de mainframe tradicional)

La llamada computadora moderna se refiere al uso de tecnología electrónica avanzada para reemplazar la tecnología mecánica o de relés obsoleta.

Los ordenadores modernos han experimentado más de medio siglo de desarrollo. Los representantes destacados de este período son el científico británico Turing y el científico estadounidense húngaro von Neumann.

Las aportaciones de Turing a los ordenadores modernos son principalmente: establecer el modelo teórico de las máquinas de Turing, desarrollar la teoría de la computabilidad; proponer el test de Turing para definir la inteligencia de las máquinas;

La principal contribución de von Neumann es: establecer la estructura básica de las computadoras modernas, es decir, la estructura von Neumann. Sus características se pueden resumir de la siguiente manera:

(1) Utilice un único componente de procesamiento para completar el trabajo de cálculo, almacenamiento y comunicación.

(2) La unidad de almacenamiento es lineal de longitud fija; organización

(3) Las unidades de espacio de almacenamiento son direccionables directamente

(4) Utilizando lenguaje de máquina, las instrucciones completan operaciones simples a través de códigos de operación; (5) Realizar control de secuencia centralizado en los cálculos.

El principio de generación de las computadoras modernas se basa principalmente en los diferentes dispositivos electrónicos utilizados en las computadoras. Esto es lo que la gente suele llamar a las cuatro generaciones de tubos de electrones, transistores, circuitos integrados y circuitos integrados de muy gran escala. .

En 1666, Samuel Morland en Inglaterra inventó una máquina contadora mecánica que podía calcular sumandos y restas.

En 1673, Gottfried Leibniz construyó una máquina de contar con una rueda cilíndrica escalonada llamada "Stepped Reckoner". Esta calculadora podía multiplicar números repetidos y sumarlos automáticamente al sumador.

En 1694, el matemático alemán Gottfried Leibniz mejoró Pascalene y construyó una máquina que podía calcular multiplicadores. Aún funcionaba mediante engranajes y diales.

En 1773, Philipp-Matthaus fabricó y vendió un pequeño número de máquinas calculadoras con una precisión de 12 dígitos.

En 1775, el tercer conde de Stanhope inventó una calculadora de multiplicaciones similar a la de Leibniz.

En 1786, J.H. Mueller diseñó un motor diferente, pero lamentablemente no hubo financiación para su fabricación.

En 1801, el telar de Joseph-Marie Jacquard utilizaba tarjetas perforadas conectadas en secuencia para controlar el patrón de tejido.

En 1854, George Boole publicó "Una investigación de las leyes del pensamiento", que describía símbolos y razones lógicas, que más tarde se convirtieron en el concepto básico del diseño informático.

En 1858, una línea telegráfica cruzó por primera vez el Atlántico y prestó servicio durante varios días.

En 1861, una línea telegráfica transcontinental conectaba las costas del Atlántico y el Pacífico.

En 1876, Alexander Graham Bell inventó y patentó el teléfono.

De 1876 a 1878, el barón Kelvin construyó un analizador de armónicos y una máquina de predicción de mareas.

En 1882, William S. Burroughs dejó su trabajo como empleado de banco y se centró en la invención de la máquina sumadora.

La máquina tabuladora eléctrica de Herman Hollerith obtuvo buenos resultados en las competiciones de 1889 y se utilizó en el censo de 1890. Herman Hollerith adoptó el concepto del telar Jacquard para los cálculos. Usó tarjetas para almacenar datos y luego las inyectó en la máquina para compilar los resultados. La máquina permitió producir en sólo seis semanas resultados del censo que habrían tardado diez años.

En 1893 se inventó la primera calculadora de cuatro funciones.

En 1895, Guglielmo Marconi transmitía señales de radiodifusión.

En 1896, Hollerith fundó la Tabulated Machine Company.

En 1901 aparecieron las teclas perforadas y hubo muy pocos cambios en el siguiente medio siglo.

En 1904, John A. Fleming obtuvo la patente del diodo de vacío, sentando las bases de las comunicaciones inalámbricas.

En 1906, Lee de Foredt añadió una tercera válvula al diodo de Felming, creando el tubo de vacío de tres electrodos.

En 1907, la música grabada formó la primera estación de radio oficial en Nueva York.

En 1908, el científico británico Campbell Swinton describió el método de escaneo electrónico y predijo el uso de tubos de rayos catódicos para fabricar televisores.

En 1911, Tabulated Machine Company de Hollerith se fusionó con otras dos empresas para formar Computer Tabulated Recording Company (C-T-R), una empresa de tabulación y grabación. Pero en 1924 pasó a llamarse International Business Machine Corporation (IBM).

En 1911, el físico holandés Kamerlingh Onnes descubrió la superconductividad en la Universidad de Leiden.

En 1931, Vannever Bush inventó una máquina de contar que podía resolver programas diferenciales. Esta máquina podía resolver algunos programas diferenciales complejos que daban dolores de cabeza a matemáticos y científicos.

En 1935, IBM (International Business Machine Corporation) presentó el "IBM 601", una máquina de tarjetas perforadas con un componente aritmético y la capacidad de calcular multiplicadores en un segundo. Desempeña un papel importante en los cálculos científicos y comerciales. Se produjeron un total de 1.500 unidades.

En 1937, Alan Turing ideó el concepto de una "Máquina Universal" que puede ejecutar cualquier algoritmo, formando un concepto básico de "computabilidad". El concepto de Turing es mejor que otros inventos del mismo tipo porque utiliza el concepto de procesamiento de símbolos.

En noviembre de 1939, John Vincent Atannsoff y John Berry construyeron un sumador de 16 bits. Fue la primera máquina en calcular mediante tubos de vacío.

En 1939, Zuse y Schreyer comenzaron a fabricar la "V2" (más tarde llamada Z2). Esta máquina utilizaba la memoria mecánica de la Z1, además de un nuevo componente aritmético que utilizaba Relay Logic. Pero cuando Zuse completó el borrador, el plan fue suspendido por un año.

En 1939-40, Schreyer completó un sumador de 10 bits usando tubos de vacío y una memoria usando lámparas de neón.

En enero de 1940, en los Laboratorios Bell, Samuel Williams y Stibitz completaron una máquina que podía calcular números complejos, llamada "Calculadora de números complejos", que más tarde pasó a llamarse "máquina de conteo modelo I (). Calculadora de relés modelo I)". Utiliza piezas de interruptores telefónicos como componentes lógicos: 145 disyuntores y 10 interruptores de barra horizontal. Los números están representados por "Plus 3BCD". En septiembre del mismo año, se instaló el teletipo en una conferencia matemática conectada desde New Hampshire a Nueva York.

En 1940, Zuse finalmente completó el Z2, que funcionaba mejor pero no era demasiado fiable.

En el verano de 1941, Atanasoff y Berry completaron una calculadora diseñada específicamente para resolver un sistema de ecuaciones lineales simultáneas, más tarde llamada "ABC (Atanasoff-Berry Computer)". en forma de condensadores montados en 2 tambores giratorios y la velocidad del reloj es de 60 Hz.

En febrero de 1941, Zuse completó la "V3" (más tarde llamada Z3), la primera máquina contadora que podía programarse en funcionamiento. También utiliza operaciones de punto flotante, con un exponente de 7 bits, una mantisa de 14 bits y un signo. La memoria puede almacenar 64 palabras, por lo que se necesitan 1400 disyuntores. Tiene más de 1.200 componentes aritméticos y de control, y la programación, entrada y salida son las mismas que las del Z1. En enero de 1943, Howard H. Aiken completó "ASCC Mark I" (Secuencia automática - Calculadora controlada Mark I), también conocida como "Haward Mark I". La máquina medía 51 pies de largo, pesaba 5 toneladas y estaba hecha de 750.000 piezas. Dispone de 72 acumuladores, cada uno con su propia unidad aritmética y registros de 23 bits.

En diciembre de 1943, Tommy Flowers y su equipo completaron el primer "Colossus", que tenía 2.400 tubos de vacío utilizados como componentes lógicos, 5 lectores de bucle de cinta de papel, cada uno de los cuales puede trabajar a 5.000 caracteres por segundo.

En 1943, dirigido por John Brainered, ENIAC inició la investigación. John Mauchly y J. Presper Eckert son responsables de la implementación de este plan.

1946v Se construye en Estados Unidos la primera calculadora electrónica numérica integral (ENIAC).

En 1947 se creó la Asociación Estadounidense de Maquinaria de Computación (ACM).

En 1947, el Reino Unido completó el primer tubo de vacío de almacenamiento. En 1948, la Bell Telephone Company desarrolló un semiconductor.

En 1949, los británicos completaron la construcción de la "Calculadora automática electrónica de almacenamiento retardado" (EDSAC)

En 1950, el término "automatización" se utilizó en la industria del automóvil para primer tiempo.

En 1951, el Instituto Tecnológico de Massachusetts en Estados Unidos fabricó un núcleo magnético.

En 1952 nació la primera "calculadora de programa almacenado".

En 1952, se anunció la finalización del primer sistema informático a gran escala, el IBM701.

En 1952 se inventó con éxito el primer traductor de lenguaje simbólico.

En 1954, la Bell Telephone Company desarrolló con éxito el primer ordenador semiconductor.

En 1954 nació el primer procesador de datos de uso general IBM650.

En 1955 se construyó el primer gran ordenador que utilizaba núcleos magnéticos, el IBM705.

En 1956, IBM lanzó el ordenador Scientific 704.

En 1957 apareció el lenguaje de programación FORTRAN.

En 1959 se desarrolló con éxito la primera calculadora científica pequeña, la IBM620.

En 1960 se desarrolló con éxito el sistema de procesamiento de datos IBM1401.

En 1961 apareció el lenguaje de programación COBOL.

En 1961, el MIT diseñó y completó la primera computadora de subsistema.

En 1963 aparece el lenguaje BASIC.

En 1964 se produjo la tercera generación de ordenadores de la serie IBM360.

En 1965, la American Digital Equipment Corporation lanzó el primer miniordenador, el PDP-8.

En 1969, IBM desarrolló con éxito una máquina de tarjetas de 90 columnas y un sistema informático System-3.

En 1970 se produjo la serie de ordenadores IBM System 1370.

En 1971, la Universidad de Illinois diseñó y completó el superordenador Illiac IV.

En 1971, Intel Corporation desarrolló con éxito el primer microprocesador 4004.

En 1972 se inició la producción y venta en masa de sustratos para microprocesadores.

En 1973, IBM desarrolló con éxito el primer disquete.

En 1975 apareció el microordenador ATARI--8800.

En 1977, Kermodell anunció que había desarrollado con éxito el microordenador totalmente integrado PET-2001.

En 1977 nació el microordenador TRS-80.

En 1977 nació el microordenador Apple II.

En 1978 se empezaron a utilizar circuitos integrados a muy gran escala.

En 1978, la memoria burbuja se utilizó por segunda vez en ordenadores comerciales.

En 1979, Sharp anunció la creación del primer microordenador portátil.

En 1982, las microcomputadoras comenzaron a popularizarse y entraron en grandes cantidades en escuelas y hogares.

En 1984, la industria informática japonesa comenzó a desarrollar "computadoras de quinta generación": computadoras con inteligencia artificial.

Cuatro eras vividas por los componentes

La primera generación de ordenadores de tubos de vacío (1945-1956)

En la Segunda Guerra Mundial, el gobierno estadounidense buscó ordenadores para explotar valor estratégico potencial. Esto promueve la investigación y el desarrollo informático. En 1944, Howard H. Aiken (1900-1973) desarrolló una calculadora totalmente electrónica para dibujar cartas balísticas para la Marina de los Estados Unidos. La máquina, denominada Mark I, tiene la mitad del tamaño de un campo de fútbol y contiene 500 millas de cables. Utiliza señales electromagnéticas para mover piezas mecánicas. Es muy lenta (un cálculo cada 3-5 segundos) y tiene un funcionamiento deficiente. adaptabilidad Solo se utiliza en campos especializados, sin embargo, puede realizar tanto operaciones aritméticas básicas como ecuaciones complejas.

El 14 de febrero de 1946 se hizo público en Filadelfia el ENIAC (Electronic Numerical Integrator and Computer), que marcó el nacimiento de los ordenadores modernos. ENIAC representó un hito en la historia de las computadoras, con su capacidad de programarse mediante recableado entre diferentes partes y sus capacidades de computación paralela. ENIAC fue desarrollado por el gobierno de Estados Unidos y la Universidad de Pensilvania. Utiliza 18.000 tubos de electrones, 70.000 resistencias, 5 millones de puntos de soldadura, consume 160 kilovatios de energía y su velocidad de funcionamiento es 1.000 veces más rápida que la Mark I. ENIAC es el primero. Computadora de propósito general.

A mediados de la década de 1940, John von Neumann (1903-1957) participó en un grupo de la Universidad de Pensilvania. En 1945 diseñó el Electronic Discrete Variable Automatic Computer EDVAC (Electronic Discrete Variable Automatic Computer). , que combina programas y datos en el mismo formato de computadora y se almacena en la memoria. Esto permite que la computadora haga una pausa o reanude el trabajo en cualquier momento. La parte clave de la arquitectura von Neumann es la unidad central de procesamiento, que unifica todas las funciones de la computadora a través de un único recurso.

La característica de la primera generación de computadoras es que las instrucciones de funcionamiento están compiladas para tareas específicas. Cada máquina tiene su propio lenguaje de máquina diferente, las funciones son limitadas y la velocidad es lenta. Otra característica distintiva es el uso de tubos de vacío y tambores magnéticos para almacenar datos.

La segunda generación de ordenadores a transistores (1956-1963)

En 1948, la invención del transistor impulsó en gran medida el desarrollo de los ordenadores. Los transistores sustituyeron a los voluminosos tubos de electrones y al tamaño de los mismos. Los equipos electrónicos siguieron disminuyendo. En 1956, se utilizaron transistores en las computadoras, y los transistores y la memoria de núcleo magnético dieron lugar a la segunda generación de computadoras. Las computadoras de segunda generación son de tamaño pequeño, rápidas, de bajo consumo de energía y de rendimiento más estable. La tecnología de transistores se utilizó por primera vez en las primeras supercomputadoras, principalmente para el procesamiento de datos a gran escala en la ciencia atómica. Estas máquinas eran costosas y se producían en cantidades extremadamente pequeñas.

En 1960 aparecieron una serie de ordenadores de segunda generación que se utilizaron con éxito en empresas, universidades y agencias gubernamentales. La segunda generación de computadoras utilizó transistores en lugar de tubos de electrones, así como algunos componentes de las computadoras modernas: impresoras, cintas, discos, memoria, sistemas operativos, etc. Los programas almacenados en la computadora la hacen adaptable y se puede utilizar de manera más efectiva para fines comerciales. Durante este período, aparecieron lenguajes más avanzados como COBOL (lenguaje común orientado a los negocios) y FORTRAN (traductor de fórmulas), que reemplazaron los códigos de máquina binarios vagos y oscuros con palabras, declaraciones y fórmulas matemáticas, facilitando la programación informática. Nacieron nuevas profesiones (programadores, analistas y expertos en sistemas informáticos) y toda una industria del software.

La tercera generación de ordenadores con circuitos integrados (1964-1971)

Aunque los transistores suponen una clara mejora respecto a los tubos de electrones, aún generan mucho calor, lo que puede dañar los componentes internos. de la computadora. En 1958, el ingeniero de Texas Instruments, Jack Kilby, inventó el circuito integrado (IC), que combinaba tres componentes electrónicos en un pequeño chip de silicio. Los científicos están integrando más componentes en un único chip semiconductor. Como resultado, las computadoras se han vuelto más pequeñas, consumen menos energía y son más rápidas. Los avances durante este período también incluyeron el uso de sistemas operativos, que permitían a las computadoras ejecutar muchos programas diferentes simultáneamente bajo el control y coordinación de un programa central.

La cuarta generación de computadoras con circuitos integrados a gran escala (1971-presente)

Después de la aparición de los circuitos integrados, la única dirección de desarrollo es expandir la escala. Los circuitos integrados a gran escala (LSI) pueden acomodar cientos de componentes en un solo chip. En la década de 1980, los circuitos integrados a muy gran escala (VLSI) albergaban cientos de miles de componentes en el chip y, más tarde (ULSI) ampliaron el número a millones. La capacidad de colocar una cantidad tan grande de componentes en un chip del tamaño de una moneda ha permitido que las computadoras sigan disminuyendo en tamaño y precio mientras aumentan en funcionalidad y confiabilidad.

A mediados de la década de 1970, los fabricantes de computadoras comenzaron a llevar computadoras a los consumidores comunes. En esta época, las minicomputadoras venían con paquetes de software fáciles de usar, programas para no profesionales y los programas de procesamiento de textos y hojas de cálculo más populares. . Los pioneros en este campo incluyen Commodore, Radio Shack y Apple Computers.

En 1981, IBM lanzó el ordenador personal (PC) para su uso en hogares, oficinas y escuelas.

La competencia por las computadoras personales en la década de 1980 hizo que los precios siguieran cayendo, el número de microcomputadoras que se podían poseer siguió aumentando y las computadoras continuaron reduciéndose de tamaño, desde computadoras de escritorio hasta portátiles y portátiles. La serie Apple Macintosh, que competía con la IBM PC, se lanzó en 1984. La Macintosh proporcionaba una interfaz gráfica amigable que los usuarios podían operar fácilmente con un mouse.