Escríbeme un artículo sobre el futuro de las computadoras
Déjame buscarte algunos artículos para tu referencia (simplemente júntalos... jaja.)
Espero que pueda ayudarte
El futuro de computadoras
Resumen
Este artículo analiza la tecnología de clústeres de computadoras, la tecnología de red, la tecnología de servicios web y la tecnología de realidad virtual distribuida, y cree que la idea importante en las computadoras radica en la integración del software existente y Reutilización de sistemas de hardware, logrando así la optimización e integración de recursos, y luego realizando la colaboración de información en un entorno de información masiva. Esta será una dirección de desarrollo de la informática.
Tecnología de clústeres de palabras clave; tecnología de reutilización de software; tecnología de servicios web
Acerca del autor Gong Qianru, mujer, de Nanyang, Henan, es profesora en el Departamento de Ingeniería de la Información de Henan. Colegio Técnico y Profesional Industrial.
1 Introducción
La tecnología informática se ha desarrollado hasta ahora en solo sesenta años, ha alcanzado una gran brillantez, ha cambiado conceptualmente la comprensión de las personas sobre el mundo y ha transformado la sociedad humana. en la era de la información y aceleró el desarrollo de la sociedad humana. Hoy en día, la tecnología informática se ha convertido en una parte indispensable e importante de la vida diaria de las personas, y el desarrollo de la tecnología informática afectará cada vez más el progreso de la sociedad humana. En esta etapa, el desarrollo y el progreso de una serie de tecnologías, como la tecnología de clústeres y la tecnología de redes, han tenido un gran impacto en la vida de las personas. Estas tecnologías tienen ciertas similitudes en algunos niveles.
2 Tendencias de desarrollo informático
2.1 Descripción general
En las condiciones actuales, la base teórica de la informática se está volviendo cada vez más madura. Para promover el progreso de la tecnología informática sobre una base teórica, hasta cierto punto, se requieren mayores esfuerzos. La tecnología de red, la tecnología de clúster, la tecnología de servicios web y la tecnología de reutilización de software han promovido en gran medida el desarrollo de la tecnología informática, promoviendo así la aplicación de la tecnología informática. Todas estas tecnologías reutilizan los sistemas existentes, incluidos los sistemas de software y hardware, en un cierto nivel para lograr combinaciones optimizadas y producir enormes eficiencias.
2.2 Tecnología de clúster
Las computadoras en clúster utilizan redes de comunicación de alta velocidad para conectar un grupo de estaciones de trabajo o PC de alta gama en una determinada estructura, y se desarrollan mediante programación y programación paralelas. integración visual de la interacción persona-computadora Con el apoyo del entorno, se realizan una programación unificada y un procesamiento coordinado para formar un sistema de procesamiento paralelo eficiente. Varias computadoras están conectadas entre sí a través de redes de área local de alta velocidad y están equipadas con cierto software de soporte paralelo, de modo que cada una tiene ciertas funciones específicas. De esta manera, bajo la arquitectura de red existente, se forma un entorno informático paralelo débilmente acoplado para resolver de manera colaborativa. Problemas simultáneos en paralelo. Una pregunta. La tecnología de clúster utiliza la potencia informática de múltiples nodos de la red para virtualizarlos en una computadora con mayor potencia informática. En comparación con otras estructuras, aunque mantiene la estructura y composición del sistema existente, el sistema de clúster tiene las ventajas de un rendimiento de alto costo, buena escalabilidad, alta disponibilidad y alta disponibilidad de energía. En particular, el sistema de clúster tiene un ciclo de desarrollo del sistema corto y un bajo nivel de usuarios. Riesgo de inversión, ahorra recursos del sistema y facilita la programación del usuario.
En la actualidad, la tecnología de clústeres se ha convertido en un punto importante y corriente en el procesamiento paralelo. Los expertos relevantes especulan que "las futuras computadoras y superservidores de alto rendimiento se basarán en estructuras de clústeres". La tecnología de clúster logra computación paralela de alto rendimiento "reutilizando" computadoras existentes e interconectándolas para formar un sistema complejo con una arquitectura determinada sin realizar modificaciones importantes a la arquitectura existente. Tiene ciertas similitudes con la tecnología grid en términos de arquitectura e ideas de diseño.
2.3 Tecnología Grid
La tecnología Grid es una tecnología emergente recientemente, que incluye redes informáticas, redes de información, redes de conocimiento, etc., y se conoce como la tercera ola de tecnología de la información. Ha sido ampliamente utilizado. Utiliza estructuras de red, protocolos y tecnologías de bases de datos existentes para lograr un procesamiento de información distribuido, colaborativo e inteligente.
La tecnología Grid aprovecha al máximo el rendimiento y los recursos de cada computadora en la red de acoplamiento flexible y utiliza la arquitectura de Internet existente para integrar varios recursos ampliamente distribuidos geográficamente, incluidos recursos informáticos, recursos de almacenamiento, recursos de ancho de banda, recursos de software, recursos de datos, información. Los recursos, los recursos de conocimiento, etc. se integran en un todo lógico: una supercomputadora virtual, que proporciona a los usuarios información integrada y servicios de computación, almacenamiento, acceso y otras aplicaciones. La organización virtual finalmente realiza recursos * en este entorno virtual. y trabajar juntos. Realiza la colaboración en un entorno de información de red masiva haciendo un uso completo de los recursos existentes. La adquisición, transmisión, intercambio y utilización de recursos de información de la red ha provocado una revolución, que también provocará enormes cambios en la producción y el estilo de vida humanos.
En la actualidad, la tecnología grid se utiliza principalmente en supercomputación distribuida. La computación distribuida se logra utilizando vías de red interconectadas de alta velocidad. De esta manera, a través de la integración general, se realiza lógicamente una máquina virtual gigante con mayor rendimiento y mayor capacidad, formando una plataforma informática y de procesamiento que es más eficiente que una sola computadora. Su aplicación típica es principalmente en el campo de la realidad virtual. A través del procesamiento distribuido, una sola computadora puede lograr la virtualización de un entorno complejo en su totalidad con sólo unas pocas simulaciones y cálculos.
Se puede decir que la tecnología grid realiza un tipo de reutilización a nivel de hardware mediante la integración de computadoras existentes en la red existente a nivel de software, aprovechando así al máximo los recursos inactivos en la red y logrando La mejora general del rendimiento proporciona una solución económica y eficaz al problema de las enormes necesidades de recursos.
2.4Tecnología WebService
La tecnología WebService define cómo lograr la interoperabilidad en Internet, amplía las funciones de las aplicaciones y realiza la provisión dinámica de software. Para ser precisos, WebService es un objeto implementado en la Web. Tiene las ventajas de la tecnología de objetos y es altamente abierto e interoperable. WebService se basa en tecnología de estándar web abierto y basada en XML y puede establecer una plataforma de aplicaciones distribuidas con buena interoperabilidad. Tiene las características de buena encapsulación, acoplamiento flexible, especificaciones de protocolo estándar y alta integrabilidad. WebService cuenta principalmente con cuatro tecnologías: XML, Protocolo simple de acceso a objetos SOAP, Lenguaje de descripción de servicios web WSDL y Protocolo unificado de descripción, descubrimiento e integración UDD. La tecnología WebService expone las interfaces al mundo exterior, lo que permite llamarlas a través de Internet. En otras palabras, WebService es una aplicación a la que se puede llamar en Internet a través de una interfaz. Permite la colocación de elementos programables en sitios web, lo que permite la computación y el procesamiento distribuidos basados en la web. Los componentes de aplicaciones independientes se publican en el sitio web de forma estándar, y otras aplicaciones web pueden encontrarlos y utilizarlos fácilmente para completar de forma colaborativa una determinada lógica funcional. En cierto sentido, webService es un servicio de aplicación publicado por algunas empresas para satisfacer sus necesidades comerciales específicas. Otras empresas o software de aplicación pueden acceder y utilizar este servicio a través de Internet. Proporciona los componentes básicos necesarios para construir algunas funciones complejas.
Se puede decir que la tecnología WebService es una aplicación exitosa de la tecnología de reutilización de software en la prestación de servicios de red. A través de protocolos y especificaciones unificados, se puede llamar a un módulo funcional varias veces a través de la interfaz de la red, lo que mejora en gran medida la eficiencia del desarrollo de los servicios de red y acorta el ciclo de desarrollo. Al mismo tiempo, favorece la rápida promoción y aplicación de nuevas tecnologías.
2.5 Tecnología de reutilización de software
La tecnología de reutilización de software aprovecha al máximo la experiencia de desarrollo de software existente y la acumulación de componentes mediante la reutilización de tecnologías y productos de software existentes, de modo que el desarrollo de software ya no comienza desde. rascar. De esta manera, durante el proceso de desarrollo de software, los módulos o productos de software eficientes existentes se pueden utilizar plenamente para evitar la duplicación de trabajo y centrar el desarrollo en módulos específicos que deben implementarse para lograr funciones.
Al mismo tiempo, a través de la acumulación continua de componentes, se forma una biblioteca de componentes de cierta escala, que brinda soporte para el desarrollo de software en línea y puede utilizar fácilmente el método de creación rápida de prototipos para el análisis de requisitos de software y el diseño de arquitectura. Además, al actualizar y mejorar los módulos correspondientes, se pueden realizar rápidamente actualizaciones de la versión del software. Desde la perspectiva del usuario, reutilizar la tecnología es beneficioso para reducir los gastos de formación y facilitar su uso por parte de los usuarios. Las ventajas de la tecnología de reutilización de software se pueden resumir en: mejorar la productividad, reducir los costos de mantenimiento, mejorar la interoperabilidad, admitir la creación rápida de prototipos y reducir los gastos de capacitación. Desde un punto de vista práctico, el éxito de UFIDA Software Company es un buen ejemplo. Se basa en años de acumulación de componentes y tecnologías en el campo financiero que permiten a UFIDA lograr un gran éxito en el campo del software financiero.
Hoy en día, la tecnología orientada a objetos se está desarrollando gradualmente y se está convirtiendo cada vez más en la corriente principal del desarrollo de software, proporcionando así la base técnica necesaria para el desarrollo de la tecnología de reutilización de software. La tecnología de reutilización de software se considera una forma eficaz de resolver la actual crisis del software, mejorar la calidad del software y acortar el ciclo de desarrollo del software.
3 Resumen
En el ámbito informático una idea que siempre se ha enfatizado es la idea de reutilización. Porque las computadoras se desarrollan rápidamente y se actualizan rápidamente. Especialmente hoy en día, a medida que Internet se vuelve cada vez más popular, según la Ley de Moore, el rendimiento de la CPU se duplica en 18 meses, según la ley de fibra óptica, el ancho de banda de la red troncal se duplica en 9 meses y la Ley de Metcalf predice que el equipo de red aumentará N veces. por N2. Por lo tanto, si podemos aprovechar al máximo los equipos existentes y lograr la integración de recursos a través de ciertos medios, será un enfoque de desarrollo eficiente, rápido y económico. Por tanto, la reutilización de programas de dispositivos es un medio importante. Esta es también una razón importante por la que los servicios web y la tecnología de clúster pueden utilizarse ampliamente.
Hoy en día, Internet es muy popular y un gran número de ordenadores están interconectados a través de Internet. Sólo en China el número de ordenadores conectados a Internet alcanzó los 7,9 millones en 2005. Se puede decir que la red contiene enormes recursos, en otras palabras, información masiva. Si se pueden utilizar tecnologías de sistemas de hardware y software relevantes para lograr la colaboración de información en un entorno de información tan masivo, se puede lograr el descubrimiento de conocimientos y la extracción de información. Esto utilizará las tecnologías existentes para lograr funciones avanzadas. Esto también coincide con la visión de la escuela conexionista de inteligencia artificial, que también realiza la simulación del cerebro humano desde un nivel superior. Además, en este sistema, las unidades componentes básicas tienen sus propios sistemas de almacenamiento independientes, lo que realiza la simulación de la memoria hasta cierto punto. Por los medios necesarios, reutilizar los sistemas de hardware y software existentes y lograr la cooperación entre múltiples máquinas y sistemas será una importante dirección de desarrollo de las computadoras.
Con el desarrollo de la informática, su base se ha vuelto cada vez más madura. Deberíamos centrarnos más en un nivel superior y lograr la reutilización en los sistemas existentes -incluidos el software, el hardware y los sistemas- para promover la reutilización de la información. Este tipo de reutilización es una tendencia en el desarrollo de computadoras, que inevitablemente conducirá a la colaboración de múltiples máquinas, logrando así la colaboración en un entorno de información masiva.
Referencias
Wang Wenyi, Zhang Ying. Tecnologías clave para la construcción de sistemas informáticos en clúster de alto rendimiento. Revista de la Universidad Tecnológica de Zhengzhou, 2001, 3(1).
Zeng Biqing, Chen Zhigang. Investigación sobre sistemas de cluster de servidores. Investigación de aplicaciones informáticas, 2004.
3 Yang Yan, Tang Shengqun, Zhang Wentao. Discusión sobre la tecnología de servicios XMLWeb. Investigación de aplicaciones informáticas, 2002.
4Gu Ning, Liu Jiamao, Chai Kelu. Principios de WebServices y prácticas de I+D. Beijing: Machinery Industry Press, 2006, (1).
5 Sun Hui, Xu Xuewen. Análisis y reflexión sobre el estado de desarrollo de la tecnología grid en Estados Unidos y Europa. Teoría y práctica de la inteligencia, 2005, (1).
7Mei Hong. Investigación y aplicación de tecnología de reutilización de software. 2002 Foro de Internacionalización de Software de China (Nanjing).
6 Huang Yunzhong, Gu Zhisong, Zhang Shiyong. Discusión e investigación sobre el marco de la tecnología de redes.
Ingeniería Informática, 2003, 8, (l3).
Perspectivas de la tecnología informática en el siglo XXI
La invención de la computadora electrónica es una de las mayores contribuciones de la ciencia al desarrollo social en el siglo XX
Ha cambiado enormemente nuestra humanidad. La forma en que funciona. El papel de las computadoras seguirá siendo crucial en el próximo siglo, porque no sólo seguirá mejorando la forma en que trabajamos y la eficiencia, sino que también traerá enormes cambios a la calidad de vida humana.
La tecnología informática electrónica se puede dividir en tres campos: tecnología de hardware informático, tecnología de software informático
y tecnología de aplicaciones informáticas. Debido a limitaciones de espacio, este artículo solo analiza el desarrollo de tecnología de hardware y software.
1. Tecnología de hardware informático
El campo del hardware informático estudia principalmente los principios estructurales de los sistemas informáticos y la tecnología de construcción de equipos
Los problemas que enfrentamos incluyen estructura, velocidad y almacenamiento. , interconexión, coste y fiabilidad, etc.
.
El desarrollo de la estructura del sistema informático en sí ha experimentado un proceso evolutivo desde la estructura mecánica, la estructura electrónica analógica
la estructura electrónica digital. Desde la década de 1940 hasta la actualidad, la estructura de las computadoras digitales electrónicas ha experimentado cuatro etapas de evolución: tubos de electrones, transistores, circuitos integrados y circuitos integrados a muy gran escala. Desde la década de 1950 hasta la de 1970, las computadoras eran equipos avanzados que las organizaciones sin solidez financiera no podían poseer ni utilizar. En la década de 1980, debido a la aparición de los microprocesadores, el costo de las computadoras fue cada vez menor y sus aplicaciones se hicieron cada vez más populares. A principios de la década de 1950, el tamaño de una máquina con una velocidad de computación de 5000 operaciones por segundo era tan grande como un edificio. La potencia de computación de una computadora de escritorio común en nuestro escritorio hoy es aproximadamente 500 millones de veces por segundo, que es. equivalente a la potencia de cálculo de una computadora compuesta por 100.000 edificios en la década de 1950. La velocidad de computación de las mejores computadoras de escritorio ya ha alcanzado 1.000 millones de veces por segundo. Según la famosa Ley de Moore (es decir, el rendimiento de los circuitos integrados se duplica cada 18 meses
), una computadora con una velocidad de cálculo de mil millones de veces hoy será
El cálculo La velocidad es aproximadamente 128 mil millones de veces, lo que significa que para entonces una computadora de 500 mil millones se puede combinar con 4 computadoras de escritorio, pero hoy necesitamos usar alrededor de 5
00 CPU para construir una de esas máquinas, o más de 500 ordenadores de sobremesa conectados
entre sí. Entonces, cada 10 años, la velocidad de computación de las computadoras de alto rendimiento aumentará 100 veces.
En otras palabras, la velocidad de cálculo de las computadoras de alto rendimiento que desarrollamos hoy alcanzará 1012 (
billones) de veces, alcanzará 1014 veces en 2010 y alcanzará 1016 veces en 2020... …Llegará a 1032 veces en 2100
.
Las computadoras electrónicas en el siglo XX se clasificaron en supercomputadoras, mainframes, computadoras de tamaño mediano, minicomputadoras
y microcomputadoras (computadoras personales). Sin embargo, los conceptos de gigante, grande, etc. son relativos y cambian con el tiempo. Por ejemplo, las supercomputadoras de los años 60 no eran más poderosas que las microcomputadoras de los años 80. En el futuro, las computadoras se dividirán simplemente en dos categorías: servidor (
servidor) y cliente (cliente). Es el servidor que brinda soporte al entorno informático, de procesamiento de datos y de software en Internet, y el cliente es utilizado directamente por los usuarios.
Predicción de la tendencia de la tecnología: las capacidades de los servidores serán cada vez más fuertes en el futuro, los súper servidores utilizados para cálculos científicos alcanzarán más de 1 billón y los súper servicios utilizados para el procesamiento de datos
La velocidad del intercambio de datos y la capacidad de almacenamiento de datos y las capacidades de gestión del servidor serán mucho mayores que las de los servidores actuales
; el desarrollo de las computadoras cliente se está volviendo cada vez más inteligente (tonto)
, personalización), conveniencia (extraíble, empotrado). La inteligencia requiere computadoras con un rendimiento de procesador más potente y tecnología de inteligencia artificial y software más avanzada.
Los ordenadores actuales se basan en tecnología de semiconductores basada en la teoría de la microelectrónica.
El desarrollo del hardware informático depende principalmente del desarrollo de la tecnología y los procesos de circuitos integrados. La Ley de Moore predice con éxito el desarrollo de la tecnología de semiconductores. Sin embargo, con el desarrollo de la tecnología de circuitos integrados a gran escala, el nivel de integración es cada vez mayor, acercándose cada vez más al proceso e incluso al límite físico. En general, se cree que 50 nanómetros será un proceso de precisión difícil de superar para la producción de circuitos integrados a muy gran escala. El nivel de integración más alto actualmente en uso es de alrededor de 180 nanómetros, y se estima que para el año 2010. alcanzará los 50 nanómetros. Por lo tanto, muchos científicos comenzaron a buscar una nueva generación de hardware informático. Las computadoras superconductoras, las computadoras biológicas y las computadoras cuánticas son las tres direcciones que han recibido más atención en muchas exploraciones. Se estima que la frecuencia principal de la computadora superconductora puede operar por encima de 100 GHz, y alrededor de 2010 puede convertirse en un sistema informático que pueda competir con las actuales computadoras de circuito integrado de gran escala, porque para entonces ya habrá dispositivos semiconductores. alcanzado el límite del proceso, la Ley de Moore o la nueva Ley de Moore deben mantenerse mediante computadoras superconductoras. Después de las computadoras superconductoras, probablemente habrá computadoras cuánticas basadas en la teoría óptica. Se considera que las computadoras cuánticas lograrán avances importantes en los primeros 30 años del próximo siglo y se desarrollará con éxito una computadora que pueda usarse comercialmente. 2040. Lo más probable es que las computadoras biológicas sean una nueva generación de computadoras después de las computadoras cuánticas
Aunque la mayoría de sus mecanismos de funcionamiento ahora están claros, ¿cuándo podrán fabricarse?
En comparación con las computadoras actuales que rivalizan Las biocomputadoras en términos de velocidad, confiabilidad, costo, etc. siguen siendo un problema difícil de alcanzar.
Además de la tecnología de la estructura independiente de la computadora en sí,
la tecnología de procesamiento paralelo y la tecnología de procesamiento distribuido para construir computadoras de alto rendimiento también son áreas de investigación importantes en el estructura del sistema informático
Hacer preguntas. La tecnología actual de interconexión de computadoras ha hecho posible conectar decenas de miles de computadoras
para formar una máquina informática con velocidades máximas de cálculo extremadamente altas (por ejemplo, decenas de billones de veces)
máquina, sin embargo, todavía hay muchos problemas sobre cómo utilizar realmente esta computadora de alto rendimiento para resolver un gran problema
La distribución desigual de tareas, la sobrecarga excesiva de comunicación, la espera de correlación de datos del procesamiento anterior
, etc., son dificultades comunes. Para resolver estos problemas, los científicos han estado estudiando durante casi 40 años, tratando de comenzar con la tecnología de interconexión, la tecnología de comunicación rápida, la teoría de la compilación paralela, el sistema operativo de red y el tiempo de ejecución optimizado para explorar varios aspectos, como los sistemas y las bibliotecas de funciones paralelas. /p>
.
Además de la estructura tradicional del sistema informático, el hardware informático también incluye redes informáticas y periféricos.
Las redes informáticas incluyen Internet, Intranet, Extranet, etc. Las computadoras de alto rendimiento utilizan la interconexión y la comunicación como un proceso
y medio intermedio, pero las redes informáticas utilizan la interconexión y la comunicación como tecnologías centrales
para la investigación.
El problema de la investigación de redes informáticas es la conexión fiable y eficaz y el intercambio de recursos de todas las computadoras conectadas a Internet. La tecnología IP y la tecnología de navegación WEB son las piedras angulares del éxito de las redes informáticas en el siglo XX. Por supuesto, la tecnología IP todavía tiene el problema de no tener control de calidad del servicio.
La tecnología de navegación WEB también tiene problemas como una baja eficiencia de recuperación de información y una difícil gestión de recursos.
El corazón del equipo de enrutamiento de red de las redes informáticas del siglo XXI es en realidad una computadora, pero
es solo una computadora utilizada especialmente para la comunicación en red.
Las impresoras, unidades de cinta, trazadores, etc. también son ordenadores diseñados para controlar dispositivos específicos.
2. Tecnología de software informático
El campo del software informático estudia principalmente la tecnología del entorno de uso de la computadora, incluido el software del sistema
ware, el entorno y las herramientas de programación del usuario, la aplicación. software, etc. espere. Los problemas que deben resolverse incluyen
evolución, compatibilidad, reutilización, amabilidad, confiabilidad, etc.
Si el hardware es el cuerpo del ordenador, entonces el software son los nervios y el cerebro del ordenador.
Por tanto, la calidad del software determina directamente la eficiencia y el nivel de aplicación de la computadora. Como uno de los mayores logros del progreso de la civilización humana en el siglo XX, el software informático seguramente se convertirá en una parte importante de la cultura humana. La cultura humana actual se basa en la estructura del lenguaje, el entorno cultural y las obras culturales. El lenguaje es básico, abierto y compartido. Ésta es la garantía fundamental de los seres humanos para que la civilización pueda seguir evolucionando. Al comparar el software de computadora con la cultura humana, el software del sistema es equivalente al lenguaje humano, los entornos y herramientas de programación del usuario son equivalentes al entorno cultural y el software de aplicación es equivalente a las obras culturales. Por el contrario, la gran mayoría del software de los sistemas informáticos aún no es abierto ni compartido. Desde una perspectiva empresarial, si no está impulsado por intereses comerciales, será difícil que este campo se desarrolle en las primeras etapas. Pero en una determinada etapa de desarrollo, si el software del sistema no está abierto, obstaculizará la velocidad de desarrollo de este campo y será perjudicial para la evolución del software. El actual movimiento de código abierto de LINUX está en cierta medida en línea con esta tendencia, por lo que se puede predecir que eventualmente tendrá éxito. En términos de sistemas operativos, el sistema técnicamente más exitoso de este siglo es UNIX, y el más exitoso conceptualmente es la interfaz gráfica de Windows propuesta por la empresa estadounidense Apple. El más exitoso es el sistema operativo WINDOWS de Microsoft. . Los sistemas operativos del próximo siglo heredarán las principales ventajas de los buenos sistemas operativos actuales y se volverán abiertos y evolutivos. Una vez abierto el sistema operativo, la industria del software del sistema se centrará principalmente en la investigación y el desarrollo de plataformas y herramientas del entorno de software. Los entornos y herramientas de programación visual
, las suites ofimáticas, las suites domésticas, las suites de aprendizaje, etc. tendrán mucho margen de desarrollo
.
La velocidad del desarrollo del hardware informático puede explicarse por la Ley de Moore, que se duplica cada 18 meses
Actualmente no existe ninguna ley similar que pueda utilizarse para la velocidad del desarrollo de software. Históricamente
desde una perspectiva histórica, el software ha evolucionado aproximadamente cada 10 años en términos de evolución de los lenguajes de programación informática.
Desde el lenguaje de máquina de los años 50, el lenguaje AL?GOL de los años 1960, el lenguaje FORTR
AN en los años 1970, el lenguaje C en los años 1980 y el lenguaje JAVA en los años 1990. Dado que la existencia del software depende del hardware y el desarrollo del hardware ha cambiado rápidamente en los últimos años, nos costó mucho trasplantar el software de la plataforma anterior a la nueva. Existe una gran cantidad de software que no se puede trasplantar a tiempo por diversas razones y no se ha heredado.
La compatibilidad y reutilización del software
siempre ha sido el objetivo de los esfuerzos de investigación de las personas, es decir, el software de aplicación escrito una vez puede ejecutarse en varios sistemas de hardware, para hacer
. los módulos de programa diseñados se reutilicen de manera efectiva. En términos de compatibilidad de software
, el mayor aporte en el siglo XX fue la invención del lenguaje JAVA. El propósito del diseño del lenguaje
es que "escribir un programa una vez y ejecutarlo". en cualquier lugar (escríbalo una vez, ejecútelo en todas partes)". En la actualidad, la idea de multiplataforma no se ha realizado de manera completa y efectiva, pero creo que se puede completar en la primera década del siglo XXI. Por supuesto, cómo resolver el problema multiplataforma del software que no es JAVA sigue siendo un problema difícil.
Una de las razones por las que el hardware informático puede desarrollarse rápidamente es que el grado de industrialización es relativamente bueno.
Muchos circuitos integrados se convierten en dispositivos estándar según sus funciones, por lo que son buenos funcionales. los bloques se conservarán
Ven y sigue mejorando. Pero hasta ahora, el grado de industrialización del software sigue siendo relativamente bajo y todavía no es posible utilizar continuamente programas tan buenos como el hardware. Muchos algoritmos y programas
han sido implementados muchas veces por muchas personas en diferentes sistemas. Los mismos errores se han cometido una y otra vez en diferentes
lugares, lo cual es un poco como en la antigüedad. En la época anterior a la escritura, la gente difundía la cultura.
De manera similar al conocimiento, lo transmitían de generación en generación y la mayoría de las personas pasaban toda su vida repitiendo lo que otros ya habían hecho. Luego se corrigen los mismos desvíos. a través de la autorreflexión
. Los científicos informáticos y los ingenieros de software han estado estudiando la reutilización de software y las técnicas de reutilización de software durante décadas. Se han propuesto conceptos que incluyen modularización de software, tecnología de reutilización de software
, tecnología de componentes de software, bus de software, etc. Las tecnologías estándar de arquitectura de software y de interfaz de middleware, como CORBA y DCOM Java Bean, son buenos intentos de reutilización del software. En la actualidad, existen algunos componentes de software proporcionados en forma de lenguaje JAVA y funciones de biblioteca en Internet.
Con la estandarización y practicidad de dichos componentes de software, el grado de industrialización de la producción de software de computadora aumentará lentamente. aumentará, y la velocidad del desarrollo de software también se acelerará lentamente
. Se estima que para finales de la primera década del siglo XXI, el grado de industrialización del software debería alcanzar el grado de industrialización del hardware informático a mediados de los años noventa.
La facilidad de uso del software depende principalmente del diseño de la interfaz de usuario y de la
calidad del proceso de interacción persona-computadora. Cuanto más atractiva sea la interfaz y cuanto más se acerque el proceso de interacción persona-computadora a los hábitos de las personas, más amigable será el software. Tecnología multimedia, tecnología de síntesis y reconocimiento de voz, reconocimiento de texto escrito a mano
, tecnología de comprensión del lenguaje natural y traducción automática, tecnología de gráficos y procesamiento de imágenes, tecnología de interfaz gráfica de usuario, tecnología de inteligencia artificial, etc. son tecnologías clave para resolver el problema de la compatibilidad del sistema de software.
Sin embargo, debido a que las computadoras del siglo XX no pueden tolerar la aplicación generalizada de estas tecnologías en términos de velocidad y capacidad de almacenamiento, la situación actual es que las computadoras no son lo suficientemente amigables.
Se espera que esta situación cambie significativamente en los primeros 5 a 10 años del siglo XXI.
La baja calidad del software es otro factor que restringe el desarrollo de software. Producción de software
La calidad se puede mejorar desde dos aspectos. Uno es establecer un sistema de garantía de calidad del software,
para reducir los errores del software mediante la capacitación efectiva del personal de software y la gestión de ingeniería; es desarrollar tecnología de prueba y verificación de la corrección del software, y utilizar pruebas lógicas para encontrar contradicciones en el software para encontrar y localizar errores automáticamente.
El objetivo más alto del sistema de garantía de calidad del software es compilar
programas completamente libres de errores. El objetivo de alto nivel actual es permitir sólo una línea de errores en un millón de líneas de programas. La posibilidad de establecer eficazmente un sistema de garantía de calidad del software depende principalmente de factores de gestión. Esta es la clave del éxito o el fracaso de varios países y regiones en la competencia de la industria del software informático en el siglo XXI. El problema de verificación de la corrección del software se puede atribuir al "problema de satisfacibilidad de la expresión booleana". Este es un "problema difícil" en la informática. El statu quo actual se aplica al método de optimización en la etapa de investigación algorítmica. solución. Europa
En el ámbito aeroespacial, Europa ha comenzado a intentar utilizar esta tecnología para verificar el software. Se estima que en la segunda o tercera década del siglo XXI, la tecnología de prueba y verificación de la corrección del software logrará grandes avances y comenzará a ser práctica. Para entonces, el grado de industrialización del software alcanzará un nivel que estará sólo uno o dos años por detrás del hardware informático.
Software de aplicación, incluidos sistemas informáticos científicos a gran escala, sistemas de gestión de datos masivos, sistemas inteligentes de apoyo a la toma de decisiones, diseño asistido por ordenador, simulación por ordenador y sistemas de control por ordenador
, etc. ., desempeñará un papel más importante en la vida social y el progreso del siglo XXI. El software de aplicaciones de red (como el comercio electrónico) que utiliza tecnología de navegación WEB, tecnología multimedia y sistemas de gestión de información de red y otras tecnologías integrales será el área de desarrollo más grande de la industria del software en el futuro.
Escenario. Entre ellos, la compresión y transmisión de datos multimedia, el cifrado de datos y la tecnología de marca de agua digital, que son puntos calientes en la investigación multimedia, serán el foco de desarrollo a principios del siglo XXI. Los servicios de información junto con el software de aplicaciones de red traerán mayores oportunidades comerciales y más oportunidades de empleo a nuestra sociedad, y la cambiarán lentamente. La estructura del empleo social y el conocimiento humano
Las proporciones estructurales impulsarán la transformación gradual de la sociedad en. El siglo XXI de una sociedad industrial a una sociedad de la información