Red de conocimiento informático - Espacio del host - Me gustaría solicitar algunos conocimientos introductorios sobre el comercio de acciones.

Me gustaría solicitar algunos conocimientos introductorios sobre el comercio de acciones.

La computadora electrónica, comúnmente conocida como computadora, es una máquina que procesa datos según una serie de instrucciones. La investigación técnica relacionada se llama informática y la investigación con datos como núcleo se llama tecnología de la información.

Existen muchos tipos de ordenadores. En términos prácticos, las computadoras son generalmente herramientas para procesar información. Según la teoría de la máquina de Turing, una computadora con las funciones más básicas debería poder hacer cualquier cosa que cualquier otra computadora pueda hacer. Por lo tanto, siempre que no se tengan en cuenta los factores de tiempo y almacenamiento, cualquier cosa, desde un asistente digital personal (PDA) hasta una supercomputadora debería poder realizar el mismo trabajo. Es decir, incluso los ordenadores con exactamente el mismo diseño, siempre que se modifiquen en consecuencia, deberían poder utilizarse para una variedad de tareas, desde gestionar la nómina de una empresa hasta controlar naves espaciales no tripuladas. Debido al rápido avance de la tecnología, la próxima generación de computadoras siempre puede superar significativamente el rendimiento de su predecesora, un fenómeno al que a veces se hace referencia como "Ley de Moore".

Las computadoras vienen en diferentes formas. Si bien las primeras computadoras eran tan grandes como una casa, algunas computadoras integradas hoy en día pueden ser más pequeñas que una baraja de cartas. Por supuesto, incluso hoy en día, todavía hay una gran cantidad de supercomputadoras muy grandes que satisfacen necesidades de procesamiento de transacciones o computación científica especializada para grandes organizaciones. Las computadoras relativamente pequeñas diseñadas para uso personal se denominan microcomputadoras o, para abreviar, microcomputadoras. Esto es lo que normalmente queremos decir hoy cuando utilizamos la palabra "computadora" todos los días. Sin embargo, la forma de aplicación más común en las computadoras ahora es la integrada. Las computadoras integradas suelen ser relativamente simples y pequeñas, y se utilizan para controlar otros equipos, ya sea un avión, un robot industrial o una cámara digital.

La definición anterior de computadoras electrónicas incluye muchos dispositivos de propósito específico que pueden realizar cálculos o tener funciones limitadas. Sin embargo, cuando se trata de computadoras electrónicas modernas, la característica más importante es que, siempre que se den las instrucciones correctas, cualquier computadora electrónica puede simular el comportamiento de cualquier otra computadora (limitado únicamente por la capacidad de almacenamiento y la velocidad de ejecución de la computadora electrónica). mismo) ). En consecuencia, las computadoras electrónicas modernas también se denominan computadoras electrónicas de uso general en comparación con las primeras computadoras electrónicas.

Historia

ENIAC es un hito en la historia del desarrollo de la informática. Originalmente, la palabra original en inglés "computadora" se refiere a una persona que se dedica al cálculo de datos. Y muchas veces requieren de la ayuda de algún equipo informático mecánico o de ordenadores analógicos. Los antepasados ​​de estos primeros dispositivos informáticos incluyen el ábaco y el mecanismo de Antikythera, que data del 87 a. C. y fue utilizado por los antiguos griegos para calcular los movimientos de los planetas. Con la prosperidad de las matemáticas y la ingeniería en Europa a finales de la Edad Media, en 1623, Wilhelm Schickard tomó la iniciativa en el desarrollo del primer dispositivo informático de Europa. Se trataba de una "calculadora" que podía sumar y restar números de hasta seis dígitos y generar la respuesta. un tono de llamada. Reloj de cálculo”. Utilice el engranaje giratorio para operar.

En 1642, el matemático francés Pascal mejoró la regla de cálculo basándose en la regla de cálculo de WILLIAM Oughtred y pudo realizar cálculos de ocho dígitos. También se vendieron muchos productos que se convirtieron en un bien de moda en aquella época.

En 1801, Joseph Marie Jacquard realizó mejoras en el diseño del telar en las que utilizó una serie de tarjetas de papel perforadas como programa para tejer patrones complejos. Aunque el telar Jacquard no se considera una verdadera computadora, su aparición fue de hecho un paso importante en el desarrollo de las computadoras modernas.

Charles Babbage fue la primera persona en concebir y diseñar una computadora totalmente programable en 1820. Sin embargo, debido a condiciones técnicas, limitaciones financieras y la incapacidad de tolerar constantes modificaciones en el diseño, esta computadora nunca apareció durante su vida. Alrededor de finales del siglo XIX, surgieron muchas tecnologías que resultarían de gran importancia para la informática, incluidas las tarjetas perforadas y los tubos de vacío. Hermann Hollerith diseñó una máquina de tabulación que permitía el procesamiento automático de datos a gran escala mediante tarjetas perforadas.

En la primera mitad del siglo XX, para satisfacer las necesidades de la informática científica, se desarrollaron muchos ordenadores analógicos de un solo propósito y cada vez más complejos.

Estas computadoras utilizan modelos mecánicos o electrónicos de los problemas específicos que abordan como base para sus cálculos. En las décadas de 1930 y 1940, a medida que las computadoras se volvieron cada vez más poderosas y versátiles, se agregaron continuamente características clave de las computadoras modernas.

En 1937, Claude Shannon publicó su gran artículo "An Analysis of Symbols in Relay and Switching Circuits", que menciona por primera vez la aplicación de la tecnología electrónica digital. Mostró cómo utilizar interruptores para realizar operaciones lógicas y matemáticas. A partir de entonces, solidificó aún más sus ideas estudiando el simulador diferencial de Vannevar Bush. Este fue un momento importante que marcó el comienzo del diseño de circuitos electrónicos binarios y la aplicación de puertas lógicas. Entre los pioneros de estas ideas clave se encuentran: Almon Strowger, quien patentó un dispositivo que contiene circuitos de puertas lógicas; Nikolai Strowger, quien solicitó; un dispositivo de circuito que contiene puertas lógicas ya en 1898; Lee De Forest, quien reemplazó los relés con tubos de vacío en 1907.

La computadora Amiga 500 producida por Commodore Company en la década de 1980 siguió un camino tan largo de exploración de arriba a abajo para definir la llamada "primera computadora electrónica". El 12 de mayo de 1941, Konrad Zuse completó su máquina electromecánica "Z3", la primera computadora que presentaba cálculos matemáticos binarios automáticos y capacidades de programación factibles, pero aún no era una computadora "electrónica". Además, otros logros destacables incluyen principalmente: la computadora Atanasoff-Berry, nacida en el verano de 1941, fue la primera computadora electrónica del mundo que utilizó una calculadora de tubo de vacío, valores binarios y memoria reutilizable en el Reino Unido. computadora, demostrada en 1943, que, a pesar de sus capacidades de programación extremadamente limitadas, demostró que los tubos de vacío podían usarse de manera confiable y reprogramarse para la electrificación Harvard Mark I y basado en el binario "ENIAC" (ENIAC, 1944); primera computadora de propósito general, sin embargo, debido a que su diseño estructural no era lo suficientemente flexible, cada reprogramación de la misma significaba un cambio en los circuitos eléctricos y físicos.

El equipo que desarrolló ENIAC perfeccionó aún más el diseño para abordar sus deficiencias y, finalmente, presentó la arquitectura von Neumann (arquitectura de almacenamiento de programas) que conocemos hoy. Este sistema es la base de todas las computadoras actuales. A mediados y finales de los años 40 se empezaron a desarrollar un gran número de ordenadores basados ​​en este sistema, entre los que el Reino Unido fue el primero. Aunque la primera que se desarrolló y puso en funcionamiento fue la "Máquina Experimental de Pequeña Escala" (SSEM), la máquina práctica que realmente se desarrolló fue probablemente la EDSAC.

A lo largo de la década de 1950, las computadoras de válvulas de vacío fueron dominantes. El 12 de septiembre de 1958, bajo el liderazgo de Robert Noyce (fundador de INTEL), se inventó el circuito integrado. Pronto se introdujeron los microprocesadores. Las computadoras diseñadas entre 1959 y 1964 generalmente se denominan computadoras de segunda generación.

En la década de 1960, los ordenadores con transistores los sustituyeron. Los transistores son más pequeños, más rápidos, más baratos y más fiables, lo que permite producirlos comercialmente. Las computadoras de 1964 a 1972 generalmente se denominan computadoras de tercera generación. Se utiliza una gran cantidad de circuitos integrados y el modelo típico es la serie IBM360.

En la década de 1970, la introducción de la tecnología de circuitos integrados redujo en gran medida el costo de producción de computadoras y las computadoras comenzaron a llegar a todos los hogares. Las computadoras posteriores a 1972 se denominan habitualmente computadoras de cuarta generación. Basado en circuitos integrados de gran escala y posteriormente circuitos integrados de muy gran escala. El 1 de abril de 1972 INTEL lanzó el microprocesador 8008. Apple Computer fue fundada por Stephen Wozinak y Stephen Jobs en 1976. y presentó su computadora Apple I. En mayo de 1977, se lanzó la computadora Apple II. El 1 de junio de 1979, INTEL lanzó el microprocesador 8088 de 8 bits.

En 1982, las microcomputadoras comenzaron a popularizarse y entraron en grandes cantidades en escuelas y hogares. La computadora Commodore 64 fue lanzada en enero de 1982, precio: 595 dólares. Publicado en febrero de 1982 80286. La frecuencia del reloj aumenta a 20 MHz y se agrega un modo protegido, que puede acceder a una memoria de 16 M. Admite memoria virtual superior a 1 GB. Ejecuta 2,7 millones de instrucciones por segundo e integra 134.000 transistores.

Noviembre de 1990: Se lanza la primera generación de MPC (Multimedia Personal Computer Standard). Un procesador de al menos 80286/12MHz, luego aumentado a 80386SX/16 MHz, y una unidad óptica con una velocidad de transferencia de al menos 150 KB/seg. El 10 de octubre de 1994, Intel lanzó el procesador Pentium de 75 MHz. Pentium Pro fue lanzado el 1 de noviembre de 1995. La frecuencia principal puede alcanzar los 200 MHz, completa 440 millones de instrucciones por segundo e integra 5,5 millones de transistores. Intel lanzó Pentium MMX el 8 de enero de 1997. Se han mejorado las funciones de juegos y multimedia.

Desde entonces, las computadoras han cambiado rápidamente. La Ley de Moore publicada en 1965 se ha confirmado continuamente y la predicción seguirá siendo aplicable en los próximos 10 a 15 años.

Principio

La estructura principal de una computadora personal:

Monitor

Placa base

CPU (Procesamiento central Unidad)

Almacenamiento primario (memoria)

Tarjeta de expansión

Fuente de alimentación

Unidad óptica

Almacenamiento secundario Disco duro (disco duro)

Teclado

Ratón

Aunque la tecnología informática ha avanzado vertiginosamente desde el nacimiento de la primera computadora electrónica de uso general en la década de 1940 Se ha desarrollado rápidamente, pero las computadoras actuales todavía usan básicamente la estructura del programa almacenado, es decir, la estructura de von Neumann. Esta estructura realiza una computadora práctica de uso general.

La estructura del programa almacenado describe una computadora en cuatro partes principales: unidad aritmética lógica (ALU), circuitos de control, memoria y dispositivos de entrada y salida (E/S). Estos componentes están conectados por un grupo de cables (específicamente, un grupo de cables se llama bus cuando se usan para la transmisión de datos para múltiples propósitos diferentes) y son controlados por un reloj (algunos otros eventos también pueden controlar los circuitos de control).

Conceptualmente, la memoria de una computadora puede verse como un conjunto de unidades "celulares". Cada "celda" tiene un número, llamado dirección; también puede almacenar información más pequeña de longitud fija; Esta información puede ser una instrucción (que le dice a la computadora qué hacer) o datos (el objeto de la instrucción). En principio, cada "celda" puede almacenar cualquiera de las dos.

La Unidad Aritmético Lógica (ALU) puede denominarse el cerebro de la computadora. Puede realizar dos tipos de operaciones: el primer tipo son operaciones aritméticas, como sumar y restar dos números. La función de la unidad de operación aritmética es muy limitada en la ALU. De hecho, algunas ALU no admiten operaciones de multiplicación y división a nivel de circuito (por lo que los usuarios solo pueden realizar operaciones de multiplicación y división mediante programación). El segundo tipo son las operaciones de comparación, es decir, dados dos números, la ALU los compara para determinar cuál es mayor.

El sistema de entrada y salida es el medio por el cual las computadoras reciben información del mundo exterior y retroalimentan los resultados de los cálculos al mundo exterior. Para una computadora personal estándar, los dispositivos de entrada incluyen principalmente el teclado y el mouse, y los dispositivos de salida son el monitor, la impresora y muchos otros dispositivos de E/S que se pueden conectar a la computadora, como se explicará más adelante.

El sistema de control conecta todas las partes del ordenador anteriores. Su función es leer instrucciones y datos de la memoria y de los dispositivos de entrada y salida, decodificar las instrucciones y entregar la entrada correcta que cumpla con los requisitos de instrucción a la ALU, diciéndole a la ALU qué operaciones hacer con estos datos y dónde devolver el resultado. datos. Un componente importante en el sistema de control es un contador que realiza un seguimiento de la dirección de la instrucción actual. Normalmente este contador se incrementa a medida que se ejecuta la instrucción, pero a veces esta regla no se sigue si la instrucción indica un salto.

Desde la década de 1980, la ALU y la unidad de control (las dos sintetizan la unidad central de procesamiento, CPU) se han integrado gradualmente en un circuito integrado, llamado microprocesador.

El modo de trabajo de este tipo de computadora es muy intuitivo: dentro de un ciclo de reloj, la computadora primero recupera instrucciones y datos de la memoria, luego ejecuta las instrucciones, almacena los datos y luego recupera la siguiente instrucción. Este proceso se ejecuta repetidamente hasta que se obtiene un comando de terminación.

Interpretado por el controlador, el conjunto de instrucciones ejecutadas por la unidad aritmética es un conjunto cuidadosamente definido de instrucciones simples con un número muy limitado. Generalmente, se puede dividir en cuatro categorías: 1), movimiento de datos (como copiar un valor de la unidad de almacenamiento A a la unidad de almacenamiento B) 2), operaciones matemáticas (como: calcular la suma de la unidad de almacenamiento A y la unidad de almacenamiento B) y devolver el resultado Unidad de almacenamiento C) 3), verificación de condición (por ejemplo: si el valor en la unidad de almacenamiento A es 100, entonces la dirección de la siguiente instrucción es la unidad de almacenamiento F) 4), cambio de secuencia de instrucciones (por ejemplo: la dirección de la siguiente instrucción es la unidad de almacenamiento F)

Las instrucciones, al igual que los datos, se representan en binario dentro de la computadora. Por ejemplo, 10110000 es un código de instrucción de copia del microprocesador Intel serie x86. El conjunto de instrucciones admitido por una determinada computadora es el lenguaje de máquina de la computadora. Por lo tanto, utilizar un lenguaje de máquina popular facilitará la ejecución del software existente en una computadora nueva. Entonces, aquellos que desarrollan software comercial, normalmente solo se centran en uno o unos pocos lenguajes de máquina diferentes.

Las minicomputadoras, mainframes y servidores más potentes pueden diferir de las computadoras enumeradas anteriormente. Suelen distribuir tareas a diferentes CPU para su ejecución. Hoy en día, los microprocesadores y los ordenadores personales multinúcleo también avanzan en esta dirección.

Las supercomputadoras suelen tener arquitecturas que difieren significativamente de las computadoras básicas con programas almacenados. A menudo tienen miles de CPU, pero estos diseños parecen ser útiles sólo para tareas específicas. En varias computadoras, también hay algunos microcontroladores que utilizan la arquitectura Harvard (arquitectura Harvard), que separa programas y datos.

Implementación de circuitos digitales en computadoras

La implementación física de los diseños conceptuales antes mencionados es diversa. Como mencionamos anteriormente, una computadora con programa almacenado puede ser mecánica de Babbage o basada en electrónica digital. Sin embargo, los circuitos digitales pueden implementar operaciones aritméticas y lógicas utilizando números binarios a través de interruptores controlados electrónicamente, como los relés. El artículo de Shannon nos mostró exactamente cómo organizar relés para formar puertas lógicas que pudieran realizar operaciones booleanas simples. Algunos otros estudiosos se apresuraron a señalar que el uso de tubos de vacío podría reemplazar los circuitos de relé. Los tubos de vacío se utilizaron por primera vez como amplificadores en circuitos de radio y luego comenzaron a utilizarse cada vez más como interruptores rápidos en circuitos electrónicos digitales. Cuando se energiza una clavija del tubo, la corriente puede pasar libremente entre las otras dos terminales.

Podemos diseñar y completar muchas tareas complejas mediante la disposición y combinación de puertas lógicas. Por ejemplo, la máquina sumadora es una de ellas. En el campo de la electrónica, este dispositivo suma dos números y guarda el resultado; en informática, un método para lograr una intención específica a través de un conjunto de operaciones se llama algoritmo. Finalmente, se logró ensamblar con éxito una ALU completa y un controlador a través de una cantidad considerable de circuitos de compuerta lógica. Para decir que hay muchos, basta con mirar CSIRAC, que puede ser la computadora de tubo más pequeña y práctica. La máquina contiene 2.000 tubos de electrones, muchos de los cuales son dispositivos de doble propósito, lo que significa un total de 2.000 a 4.000 dispositivos lógicos.

Los tubos de vacío obviamente no pueden producir circuitos de compuerta a gran escala. Caros, inestables (especialmente en grandes cantidades), inflados, consumidores de energía y no lo suficientemente rápidos, aunque mucho más rápidos que los circuitos de conmutación mecánicos. Todo esto llevó a su sustitución por transistores en la década de 1960. Este último es más pequeño, fácil de operar, tiene alta confiabilidad, ahorra consumo de energía y también tiene un costo menor.

Los circuitos integrados son la base de las computadoras electrónicas actuales. Después de la década de 1960, los transistores comenzaron a ser reemplazados gradualmente por circuitos integrados que colocaban una gran cantidad de transistores, varios otros componentes eléctricos y cables de conexión en una placa de silicio. En la década de 1970, la ALU y el controlador, las dos partes principales de la CPU, comenzaron a integrarse en un chip y se denominaron "microprocesadores". A lo largo de la historia del desarrollo de los circuitos integrados, podemos ver que el número de dispositivos integrados en un chip ha aumentado rápidamente. Los primeros circuitos integrados contenían sólo unas pocas docenas de componentes, pero en 2006, el número de transistores en un procesador Intel Core Duo llegaba a 151 millones.

Ya sean tubos, transistores o circuitos integrados, se pueden utilizar como componente de "memoria" en una arquitectura de programa almacenado mediante el uso de un mecanismo de diseño flip-flop. De hecho, los flip-flops se utilizan como almacenamiento de ultra alta velocidad a pequeña escala. Sin embargo, casi ningún diseño de computadora utiliza flip-flops para el almacenamiento de datos a gran escala. Las primeras computadoras usaban tubos Williams para emitir haces de electrones a una pantalla de televisión o varias líneas de retardo de mercurio (las ondas sonoras viajaban a través de dichas líneas lo suficientemente lentamente como para considerarse "almacenadas" en ellas) y luego las leían para almacenar datos. Por supuesto, estos métodos menos elegantes, aunque efectivos, finalmente fueron reemplazados por el almacenamiento magnético. Por ejemplo, en la memoria del núcleo magnético, la corriente que representa la información puede crear un campo magnético débil permanente en el material de hierro. Cuando este campo magnético se lee nuevamente, se logra la recuperación de datos. También se inventó la memoria dinámica de acceso aleatorio (DRAM). Es un circuito integrado que contiene una gran cantidad de condensadores, y estos dispositivos capacitivos son responsables de almacenar cargas de datos; la intensidad de la carga se define como el valor de los datos.

Dispositivos de entrada y salida

Dispositivos de entrada y salida (E/S) son el término general para los dispositivos que envían información del mundo exterior a la computadora y los dispositivos que devuelven resultados de procesamiento a el mundo exterior. Estos resultados devueltos pueden ser experimentados visualmente por el usuario o como entrada a otros dispositivos controlados por la computadora: para un robot, la salida de la computadora de control es básicamente el propio robot, como la realización de diversos comportamientos.

La primera generación de ordenadores tenía una gama muy limitada de dispositivos de entrada y salida. El dispositivo de entrada habitual es un lector de tarjetas perforadas, que se utiliza para importar instrucciones y datos a la memoria, mientras que el dispositivo de salida utilizado para almacenar resultados suele ser una cinta magnética. Con el avance de la tecnología, ha aumentado la riqueza de dispositivos de entrada y salida. Tomemos como ejemplo una computadora personal: el teclado y el mouse son las principales herramientas para que los usuarios ingresen información directamente en la computadora, mientras que los monitores, impresoras, altavoces y auriculares devuelven los resultados del procesamiento. También hay muchos dispositivos de entrada que aceptan diferentes tipos de información, como cámaras digitales que pueden introducir imágenes. Entre los dispositivos de entrada y salida, hay dos categorías que vale la pena destacar: la primera categoría son los dispositivos de almacenamiento secundario, como discos duros, discos ópticos u otros dispositivos lentos pero de alta capacidad. El segundo son los equipos de acceso a redes informáticas. La transmisión directa de datos entre computadoras a través de ellos aumenta enormemente el valor de las computadoras. Hoy en día, Internet permite que decenas de millones de computadoras se transmitan diversos tipos de datos entre sí.

Programa

En pocas palabras, un programa de computadora es una secuencia de instrucciones que ejecuta una computadora. Pueden ser solo unas pocas instrucciones para realizar una tarea simple, o puede ser una cola de instrucciones compleja que puede operar con grandes cantidades de datos. Muchos programas informáticos contienen millones de instrucciones, muchas de las cuales pueden ejecutarse repetidamente. En 2005, una computadora personal típica podía ejecutar aproximadamente 3 mil millones de instrucciones por segundo. Las computadoras generalmente no ejecutan instrucciones muy complejas para obtener funciones adicionales, sino que ejecutan instrucciones breves más simples pero numerosas según la disposición del programador.

En circunstancias normales, los programadores no utilizan directamente el lenguaje de máquina para escribir instrucciones para el ordenador. El resultado sólo será lento, ineficaz y lleno de lagunas. Por lo tanto, los programadores generalmente escriben programas en un lenguaje de "alto nivel" y luego utilizan algunos programas informáticos especiales, como intérpretes o compiladores, para traducirlos al lenguaje de máquina. Algunos lenguajes de programación se parecen mucho al lenguaje de máquina, como el ensamblador, y se consideran lenguajes de bajo nivel. Otros lenguajes, como Prolog, que se basa en principios abstractos, ignoran por completo los detalles del funcionamiento real de la computadora y pueden describirse como lenguajes de alto nivel. Para una tarea específica, se debe seleccionar el idioma correspondiente en función de sus características de transacción, habilidades de programador, herramientas disponibles y necesidades del cliente, entre las cuales las necesidades del cliente son las más importantes (a menudo se requiere que los proyectos de ingeniería de los militares estadounidenses y chinos utilicen Ada idioma).

Software informático es otro término que no equivale a programa informático. El software de computadora es un término técnico más inclusivo que incluye varios programas y todos los materiales relacionados utilizados para completar tareas. Por ejemplo, un videojuego contiene no sólo el programa en sí, sino también imágenes, sonidos y otros contenidos de datos que crean un entorno de juego virtual. En el mercado minorista, una aplicación en una sola computadora es solo una copia de un software destinado a una gran cantidad de usuarios.

El ejemplo cliché aquí es, por supuesto, el paquete de software de oficina de Microsoft, que incluye una serie de programas interrelacionados orientados a las necesidades generales de la oficina.

El uso de esas instrucciones extremadamente simples en lenguaje de máquina para implementar innumerables aplicaciones de software potentes significa que la escala de su programación está destinada a ser grande. El programa del sistema operativo Windows XP contiene 40 millones de líneas de código fuente en lenguaje de alto nivel C++. Por supuesto, este no es el más grande. Una escala tan grande de software también muestra la importancia de la gestión en el proceso de desarrollo. Al programar realmente, el programa se dividirá en un tamaño que cada programador pueda completar en un período de tiempo aceptable.

Aun así, el proceso de desarrollo de software sigue siendo lento, impredecible y lleno de omisiones. La ingeniería de software emergente se centra en cómo acelerar el progreso del trabajo y mejorar la eficiencia y la calidad.

Bibliotecas y sistemas operativos

Poco después del nacimiento de las computadoras, se descubrió que ciertas tareas, como calcular ciertas funciones matemáticas estándar, se realizaban en muchos programas diferentes. Por razones de eficiencia, las versiones estándar de estos programas se recopilan en una "biblioteca" para que cada programa las llame. Muchas tareas suelen requerir procesamiento adicional de una amplia variedad de interfaces de entrada y salida. Aquí es donde las bibliotecas para la conexión resultan útiles.

En la década de 1960, con la popularización de la industrialización informática, las computadoras se utilizaban cada vez más para procesar diferentes tareas dentro de una organización. Pronto estuvo disponible un software especial que podía programar y ejecutar trabajos automáticamente. El software que controla el hardware y es responsable de la programación del trabajo se denomina "sistema operativo". Un ejemplo de uno de los primeros sistemas operativos es el OS/360 de IBM.

En el proceso de mejora continua, el sistema operativo ha introducido un mecanismo de tiempo compartido: la concurrencia. Esto permite que varios usuarios diferentes utilicen la máquina "simultáneamente" para ejecutar sus propios programas, haciendo que parezca como si cada persona tuviera su propia computadora. Para ello, el sistema operativo necesita proporcionar a cada usuario una "máquina virtual" para separar diferentes programas. A medida que sigue aumentando el número de dispositivos que requieren el control del sistema operativo, uno de ellos es el disco duro. Por lo tanto, el sistema operativo ha introducido la administración de archivos y directorios (carpetas), lo que simplifica enormemente la aplicación de dichos dispositivos de almacenamiento permanente. Además, el sistema operativo también es responsable de los controles de seguridad, garantizando que los usuarios sólo puedan acceder a aquellos archivos para los que se les ha concedido permiso.

Por supuesto, el último paso importante en el desarrollo de sistemas operativos hasta ahora es proporcionar una interfaz gráfica de usuario (GUI) estándar para los programas. Aunque no existe ninguna razón técnica por la que el sistema operativo deba proporcionar estas interfaces, los proveedores de sistemas operativos siempre esperan y alientan que el software que se ejecuta en sus sistemas sea consistente o similar en apariencia y características de comportamiento al sistema operativo.

Además de las funciones principales anteriores, el sistema operativo también encapsula una serie de otras herramientas de uso común. Algunos de ellos no son de gran importancia para la gestión informática, pero son muy útiles para los usuarios. Por ejemplo, Mac OS X de Apple incluye una aplicación de edición de vídeo.

Es posible que algunos sistemas operativos para ordenadores más pequeños no tengan tantas funciones. Las primeras microcomputadoras no proporcionaban funciones adicionales debido a la memoria y la potencia de procesamiento limitadas, mientras que las computadoras integradas usaban un sistema operativo especializado o ningún sistema operativo. A menudo, a menudo representaban directamente ciertas funciones del sistema operativo a través de aplicaciones.

Aplicaciones

La maquinaria controlada por computadora es muy común en la industria

Muchos juguetes modernos producidos en masa, como Furby, no pueden funcionar sin computadoras de procesamiento integradas y baratas

Al principio, los ordenadores digitales grandes y caros se utilizaban principalmente para realizar cálculos científicos, especialmente tareas militares. Por ejemplo, ENIAC se utilizó por primera vez para calcular la trayectoria de la artillería y calcular la densidad de neutrones de la sección transversal al diseñar bombas de hidrógeno (muchas supercomputadoras todavía desempeñan un papel importante en la simulación de pruebas nucleares en la actualidad). El CSIR Mk I, la primera computadora con programa almacenado diseñada en Australia, se utilizó para evaluar las precipitaciones en cuencas para proyectos hidroeléctricos. Otros se utilizaron para descifrar, como la computadora programable británica "Colossus". Aparte de estas primeras aplicaciones científicas o militares, las computadoras también se han promocionado muy rápidamente en otros campos.

Desde el principio, los ordenadores con programas almacenados han estado estrechamente asociados con la resolución de problemas empresariales. Mucho antes de que naciera la primera computadora comercial de IBM, el británico J. Lyons y otros diseñaron y fabricaron LEO para la gestión de activos u otros fines comerciales.

Debido a los continuos controles de tamaño y costos, las computadoras comenzaron a extenderse a organizaciones más pequeñas. Junto con la invención del microprocesador en la década de 1970, las computadoras baratas se convirtieron en una realidad. En la década de 1980, las computadoras personales se hicieron completamente populares. La redacción e impresión de documentos electrónicos, el cálculo de presupuestos y otras tareas repetitivas de informes dependían cada vez más de las computadoras.

A medida que los ordenadores se abarataron, el trabajo artístico creativo también empezó a utilizarlos. La gente usa sintetizadores, gráficos por computadora y animaciones para crear y modificar sonidos, imágenes y videos. La industrialización de los videojuegos también muestra que las computadoras también han creado una nueva historia en el entretenimiento.

Desde la miniaturización de las computadoras, el control de los equipos mecánicos también ha comenzado a depender del soporte de las computadoras. De hecho, fue la construcción de computadoras integradas lo suficientemente pequeñas como para controlar la nave espacial Apolo lo que estimuló el salto adelante en la tecnología de circuitos integrados. Hoy en día es mucho más difícil encontrar un dispositivo mecánico activo que no esté controlado por una computadora que uno que esté incluso parcialmente controlado por computadora. Quizás los dispositivos controlados por computadora más famosos sean los robots, máquinas que tienen una apariencia más o menos humana y poseen un subconjunto de comportamientos humanos. En la producción en masa, los robots industriales son algo común. Sin embargo, los robots totalmente antropomórficos todavía se encuentran en el ámbito de la ciencia ficción o del laboratorio.

La tecnología robótica es esencialmente el eslabón de expresión física en el campo de la inteligencia artificial. La llamada inteligencia artificial es un concepto vagamente definido pero lo cierto es que esta disciplina intenta dotar a los ordenadores de capacidades que actualmente no tienen pero que son inherentes al ser humano. A lo largo de los años, se han desarrollado nuevos métodos para permitir que las computadoras hagan cosas que antes se pensaba que sólo los humanos podían hacer. Como leer y jugar al ajedrez. Sin embargo, hasta ahora, el progreso en el desarrollo de computadoras con inteligencia "holística" similar a la humana ha sido lento.

Red, Internet

Desde la década de 1950, las computadoras se han utilizado como herramienta para coordinar información desde diferentes lugares. El Sage System (SAGE) del ejército estadounidense es el primer sistema en este sentido. Un sistema a gran escala. Después de eso, también surgieron una serie de sistemas comerciales de propósito especial como "Saber".

Después de la década de 1970, los ingenieros informáticos de las principales universidades de Estados Unidos comenzaron a utilizar tecnología de telecomunicaciones para conectar sus ordenadores. Debido a que este trabajo fue patrocinado por ARPA, su red informática se llamó ARPANET. Desde entonces, la tecnología utilizada en la red ARPA se ha extendido y evolucionado rápidamente. Esta red también ha trascendido el ámbito de las universidades y el ejército y, finalmente, ha formado la Internet actual. La aparición de Internet ha llevado a una redefinición de las propiedades y límites de las computadoras. John Gage y Bill Joy de Sun Microsystems señalaron: "La red es la computadora". Los sistemas operativos y las aplicaciones informáticas se están desarrollando con el objetivo de poder acceder a recursos de la red, como otras computadoras en la red. Inicialmente, estos dispositivos de red estaban limitados a trabajadores científicos de alto nivel. Sin embargo, después de la década de 1990, con la proliferación del correo electrónico y las tecnologías de la World Wide Web, así como el abaratamiento de las tecnologías de conexión de red como Ethernet y ADSL, Internet ha cambiado. Estar en todas partes. El número total de computadoras conectadas a Internet hoy en día asciende a decenas de millones; la popularidad de la tecnología de Internet inalámbrica ha convertido a Internet en una sombra en el entorno informático móvil. Por ejemplo, la tecnología Wi-Fi, que se utiliza ampliamente en las computadoras portátiles, es una aplicación representativa del acceso inalámbrico a Internet.

Computadoras de próxima generación

Las computadoras digitales han logrado mejoras considerables en velocidad y capacidad desde sus inicios, pero todavía hay muchos temas que están más allá de las capacidades de las computadoras actuales. Para algunas de estas tareas, las computadoras tradicionales son imposibles de implementar de todos modos, porque el tiempo que lleva encontrar una solución no puede seguir el ritmo de la expansión de la escala del problema. Por ello, los científicos comenzaron a centrar su atención en la tecnología de computación biológica y la teoría cuántica para resolver este tipo de problemas. Por ejemplo, la gente planea utilizar el procesamiento biológico para resolver problemas específicos (computación del ADN). Debido a la forma exponencial en que se dividen las células, es probable que los sistemas informáticos de ADN sean capaces de resolver problemas de la misma escala. Por supuesto, un sistema de este tipo está directamente limitado por la cantidad total de ADN que se puede controlar.

Los ordenadores cuánticos, como su nombre indica, aprovechan las extraordinarias propiedades del mundo físico cuántico. Una vez que se pueda construir una computadora cuántica, su velocidad mejorará más allá de lo que las computadoras comunes pueden igualar. Por supuesto, esta computadora de próxima generación que incluye criptografía y simulaciones de física cuántica aún se encuentra solo en la etapa conceptual.

Ciencias de la Computación

En el mundo actual, casi todas las carreras están estrechamente relacionadas con la informática. Sin embargo, sólo determinadas profesiones y disciplinas profundizan en las técnicas de fabricación, programación y uso de las computadoras. Los significados de varios términos académicos utilizados para explicar diferentes campos de investigación dentro de la disciplina informática cambian constantemente y surgen nuevas disciplinas una tras otra.

La ingeniería informática es una rama de la ingeniería electrónica que estudia principalmente el software y el hardware informático y la relación entre ambos.

La informática es el título tradicional para el estudio académico de las computadoras. Estudia principalmente técnicas informáticas y algoritmos eficientes para la realización de tareas específicas. Este tema nos ayuda a determinar si un problema tiene solución en el campo de la informática, con qué eficiencia se puede resolver y cómo crear un programa más eficiente. Hoy en día, existen muchas ramas dentro de la informática, cada una de las cuales realiza investigaciones en profundidad sobre diferentes tipos de problemas.

La ingeniería de software se centra en la investigación de metodologías y prácticas para desarrollar sistemas de software de alta calidad, e intenta comprimir y predecir los costos y ciclos de desarrollo.

Los Sistemas de Información son el estudio de las aplicaciones informáticas en una amplia gama de entornos organizados (principalmente empresariales).

Muchas disciplinas están entrelazadas con otras disciplinas. Por ejemplo, los expertos en sistemas de información geográfica utilizan tecnología informática para gestionar la información geográfica.

Existen tres organizaciones de gran escala dedicadas a la informática en el mundo: la British Computer Society (BCS); la American Computer Association (ACM); y el Institute of Electrical and Electronics Engineers (IEEE);