Red de conocimiento informático - Material del sitio web - Una breve historia y tendencias del desarrollo de la tecnología multimedia en los aspectos básicos de las aplicaciones multimedia.

Una breve historia y tendencias del desarrollo de la tecnología multimedia en los aspectos básicos de las aplicaciones multimedia.

En la historia del desarrollo humano, los periódicos pueden ser los primeros medios de comunicación de masas importantes. Utilizan principalmente contenido de texto, pero también utilizan gráficos e imágenes.

En 1895, el buzo ruso Popov y el ingeniero italiano Guglielmo Marconi lograron de forma independiente la primera transmisión de radio en Rusia e Italia respectivamente. Marconi luego completó la primera transmisión de radio a través del Atlántico en diciembre de 1901, una distancia de 3.700 kilómetros. La radio se inventó originalmente como el telégrafo y ahora se ha convertido en el principal medio de transmisión de audio.

La televisión es un nuevo medio que surgió en el siglo XX, trajo el vídeo y cambió para siempre el mundo de la comunicación grupal.

Vannevar Bush (1890-1974) propuso el sistema Memex en su artículo de 1945 "As We May Think": las bibliotecas almacenan información diversa en microfilmes, los enlaces bibliográficos saltan automáticamente entre ellos. Memex proporciona un medio por el cual cualquier mensaje puede seleccionarse directa y automáticamente de otro mensaje a voluntad. Es más, ambas informaciones también se pueden vincular. Este es el concepto de hipertexto.

Algunos conceptos y métodos de la tecnología multimedia se originaron en la década de 1960. En 1965, Ted Nelson propuso un método para organizar el texto relevante encontrado en archivos de texto para su procesamiento por computadora y acuñó el término "hipertexto" para este método. "Hipertexto". A diferencia de los métodos tradicionales, el hipertexto organiza el texto de forma no lineal, lo que permite a las computadoras responder al pensamiento humano y obtener fácilmente la información requerida en la World Wide Web (WWW) adopta las ideas y tecnologías del hipertexto. Se formó el espacio hipermedia global.

En 1967, Nicholas Negroponte organizó el Architecture Machine Group en el MIT p>En 1969, Nelson y Van Dam desarrollaron un editor de hipertexto en la Universidad de Brown. En 1976, el Grupo de Máquinas de Arquitectura del MIT lo propuso a la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos (DARPA).

La tecnología multimedia se hizo realidad a mediados de los años 80, cuando Apple desarrolló el Macintosh en Estados Unidos. computadora para aumentar las capacidades de procesamiento de gráficos y mejorar el rendimiento. La interfaz de interacción persona-computadora utiliza creativamente mapas de bits, ventanas, íconos y otras tecnologías. La interfaz gráfica de usuario (GUI) generada por esta serie de mejoras es muy popular. junto con la introducción del mouse como dispositivo interactivo, combinado con el uso de la interfaz gráfica de usuario, facilitó enormemente las operaciones del usuario "En 1987, Apple lanzó Hypercard, haciendo que Macintosh fuera más fácil de usar, aprender y procesar información multimedia". sido bien recibido por los usuarios de computadoras.

En 1985, Microsoft lanzó Windows, un entorno operativo gráfico multiusuario que utiliza menús gráficos controlados por el mouse, a partir de Windows 1.x, Windows 3.x, Windows NT, Windows 9x, Windows 2000, Windows XP, etcétera. Windows XP, etc. Es un sistema operativo de ventana de múltiples capas con capacidades multimedia y una interfaz fácil de usar.

En 1985, Commodore lanzó el primer ordenador multimedia del mundo, el sistema Amiga.

La máquina Amiga utiliza el microprocesador Motorola M68000 como CPU y está equipada con tres chips especializados: el chip de procesamiento de gráficos Agnus 8370, el chip de procesamiento de audio Pzula 8364 y ​​el chip de procesamiento de video Denise 8362 desarrollado por Commodore. Las máquinas Amiga tenían su propio sistema operativo dedicado, capaz de realizar múltiples tareas y presentando funciones como menús desplegables, múltiples ventanas, símbolos gráficos y más.

En 1985, Negroponte y Wisner fundaron el MIT Media Laboratory.

En 1986, Philips de Holanda y Sony de Japón desarrollaron y lanzaron conjuntamente CD-I (Compact Disc Interactive) y anunciaron el formato de datos del disco óptico utilizado por el sistema. Esta tecnología tuvo un gran impacto en el desarrollo de discos ópticos para dispositivos de almacenamiento masivo y fue reconocida como estándar internacional por la Organización Internacional de Normalización (ISO). La aparición de discos ópticos de gran capacidad proporciona un medio eficaz para el almacenamiento y rendimiento de medios digitales de alta calidad, como sonido, texto, gráficos y audio.

La investigación sobre la tecnología de audio interactivo también ha atraído mucha atención. Desde 1983, el Centro de Investigación RCA en Princeton, Nueva Jersey, ha organizado a más de 40 expertos en los campos de computadoras, transmisión de televisión y procesamiento de señales para desarrollar sistemas de video digital interactivos. Se basa en tecnología informática y utiliza discos ópticos estándar para almacenar y recuperar datos como imágenes fijas, imágenes en movimiento y sonidos. Después de cuatro años de investigación, la tecnología, denominada "Digital Video Interactive" (DVI: Digital Video Interactive), se demostró en la Segunda Conferencia Anual Internacional sobre Discos Ópticos en marzo de 1987. La diferencia esencial entre DVI y CD-I es que el codificador y decodificador del primero se colocan en una microcomputadora, que es controlada por la microcomputadora para completar el cálculo, integrando tecnología de televisión en color y tecnología informática, mientras que el segundo solo está diseñado para; reproducción Una señal de vídeo grabada en un disco codificado según el método de codificación por compresión CD-I (similar al VCD posterior). (Similar a los reproductores VCD posteriores). Por eso la gente perdió inmediatamente el interés por el CD-I cuando apareció la tecnología DVI.

Aunque no es fácil demostrar quién y cuándo se utilizó por primera vez el término "multimedia", en octubre de 1985, IEEE Computer Magazine publicó la primera monografía completa sobre "Comunicaciones multimedia". información en la literatura.

La aparición de la tecnología multimedia ha tenido un enorme impacto en todo el mundo, indicando claramente la dirección revolucionaria del desarrollo de la tecnología de procesamiento y transmisión de información (es decir, comunicación). A nivel internacional, la Asociación de la Industria de Vídeo y Sonido Interactivo se fundó en 1987. Cuando la organización pasó a llamarse Asociación Multimedia Interactiva (IMA: Asociación Multimedia Interactiva) en 1991, se habían unido más de 200 empresas de 15 países.

Más tarde, la empresa de radio estadounidense RCA vendió el sistema de vídeo digital interactivo DVI a General Electric (GE). En 1987, Intel compró la tecnología a GE y la mejoró. A principios de 1989, DVI se convirtió en un sistema popular. producto. Posteriormente, se asoció con IBM para lanzar la plataforma de desarrollo multimedia Action Media 750 en Comdex/Fall'89. El sistema de hardware de esta plataforma consta de placas enchufables especiales, como una placa de audio, una placa de video y una placa multifunción. Su hardware se basa en el Sistema de soporte de audio/vídeo (AVSS: Audio Video Support System) del sistema DOS. En 1991, Intel e IBM colaboraron para lanzar un Action Media II mejorado.

En este sistema, la parte de hardware se concentra en dos complementos especiales, la placa de adquisición y la placa de usuario, con un mayor grado de integración, y el software adopta el kernel de audio y video basado en Windows (AVK: Audio Video Kernel); Action Media II tiene las ventajas de escalabilidad y portabilidad y las capacidades de procesamiento de video se han mejorado enormemente. Desde la década de 1990, la tecnología multimedia se ha vuelto cada vez más madura. La tecnología multimedia ha pasado del enfoque de investigación y desarrollo al enfoque de aplicación.

En 1989, Tim Berners-Lee propuso la creación de la World Wide Web al Consejo Europeo para la Investigación Nuclear (CERN: Consejo Europeo para la Investigación Nuclear).

En 1990, K. Hooper Woolsey estableció el Apple Multimedia Lab con 100 personas.

Debido a que la tecnología multimedia es una tecnología integral, su implementación específica implica la cooperación técnica en múltiples industrias como la informática, la electrónica, las comunicaciones, el cine y la televisión, y la aplicación de sus productos involucra tanto a investigadores como a consumidores comunes. involucra a todos los niveles de usuarios, por lo que la cuestión de la estandarización es la clave para la implementación específica de la tecnología multimedia. En la etapa de estandarización, cada departamento de investigación y desarrollo primero propone su propio plan y luego, mediante análisis, pruebas, comparación y síntesis, resume los estándares óptimos y más convenientes para la promoción y aplicación para guiar el desarrollo de productos multimedia.

En octubre de 1990, se propuso el estándar MPC 1.0 en una reunión de trabajadores de desarrollo multimedia celebrada por Microsoft y varios fabricantes. En 1993, el Multimedia PC Marketing Council (MPMC), compuesto por docenas de empresas de software y hardware como IBM e Intel, anunció la nueva especificación MPC 3.0 en junio de 1995.

En 1992, se implementó por primera vez en Internet la transmisión de audio de red troncal de transmisión de acceso múltiple (M-Bone).

En 1993, el Centro Nacional de Aplicaciones de Supercomputación (NCSA) de la Universidad de Illinois desarrolló Mosaic, el primer navegador Web.

En 1994, Jim Clark y Marc Andreessen desarrollaron el navegador para la World Wide Web Netscape.

Una de las tecnologías clave de la tecnología multimedia son los algoritmos de compresión (codificación) y descompresión (decodificación) de datos multimedia.

CCITT Group 2 (G2), introducido por el CCITT, el predecesor de la Unión Internacional de Telecomunicaciones (UIT), fue uno de los primeros esquemas de compresión utilizados en sistemas de fax. A éste le siguieron el Grupo 3 del CCITT (1980) y el Grupo 4 del CCITT (1984).

En el siglo XX, las aplicaciones multimedia han experimentado cambios trascendentales. Las empresas continúan actualizándose y desarrollando aplicaciones multimedia. La multimedia se ha convertido en una parte indispensable de la vida y las actividades comerciales de las personas. Para permitir que las empresas logren un mayor y más rápido desarrollo en el negocio multimedia, Beijing Zhongke Yutu Technology Co., Ltd. lanzó la red de aplicaciones multimedia empresariales, que promovió en gran medida el volumen de negocios de diseño y producción multimedia empresarial y mantuvo el rápido desarrollo de las empresas. .

Un estándar para imágenes fijas es el T.81 de la Unión Internacional de Telecomunicaciones (UIT). El estándar principal para imágenes fijas se llama estándar JPEG (ISO/IEC 10918). Es un estándar internacional para imágenes fijas monocromáticas, en color y en múltiples escalas de grises de tonos continuos desarrollado por el Joint Photographic Experts Group (JPEG) establecido conjuntamente por ISO e IEC. El estándar fue adoptado en 1991 como ISO/IEC 10918, que significa "Codificación de compresión digital de imágenes fijas en escala de grises múltiple".

Los principales estándares de vídeo/imagen en movimiento son MPEG-1 (ISO/IEC 11172), MPEG-2 (ISO/IEC 13818) y MPEG-4 (ISO/IEC 14496), que están establecidos por la Organización Internacional de Normalización (Desarrollada por el Grupo de Expertos en Imágenes en Movimiento (MPEG) bajo ISO). Estándar MPEG-4 (ISO/IEC 14496). Los estándares de la Unión Internacional de Telecomunicaciones (UIT) equivalentes a MPEG-1 y MPEG-4 son H.261 (Px64) para videoconferencias y H.263 para videotelefonía.

El nombre oficial del estándar MPEG-1 es "Tecnología de la información: tecnología de la información con una velocidad de datos de 1,5 Mbit".

El nombre oficial del estándar MPEG-1 es "Tecnología de la información: codificación de imagen y sonido de televisión para medios de almacenamiento digital con una velocidad de datos de 1,5 Mbit/s". Fue adoptado por ISO/IEC en 1991. e incluye cinco Secciones: sistema, video, audio, pruebas de conformidad y simulación de software.

El nombre oficial del estándar MPEG-2 es "Tecnología de la información: codificación universal de imágenes en movimiento e información de audio". La velocidad de bits básica de MPEG-2 es de 4 a 8 Mbps, hasta 15 Mbps de MPEG. -2 consta de nueve partes: sistema, vídeo, audio, pruebas de conformidad, simulación de software, comando y control de medios de almacenamiento digital (MPEG-2 consta de nueve partes: sistema, vídeo, audio, prueba de conformidad, simulación de software, comando de medios de almacenamiento digital y control): MPEG-2 incluye nueve partes: sistema, vídeo, audio, prueba de conformidad, simulación de software, extensiones de comando y control de medios de almacenamiento digital (DSM -CC), codificación de audio avanzada (AAC), extensiones de interfaz en tiempo real del decodificador del sistema. , y las pruebas de Extensiones de conformidad DSM-CC del estándar MPEG-4 han completado la edición 2000 de los componentes del Marco de integración multimedia de sistema, vídeo, audio y transporte (DMIF), se adoptó la versión editada de 2001 del software de referencia. 2001.

MPEG también participó en la formulación del estándar de Televisión de Alta Definición (HDTV) el 28 de noviembre de 1995, por parte del American Advanced Television Systems Committee (ATSC, Advanced Television System Committee) que presentó el formato digital. estándar de televisión (DTV) al Comité Asesor de la FCC y lo recomendó como un estándar de transmisión de televisión avanzado.

En el campo de las comunicaciones digitales multimedia (incluidas las videoconferencias, etc.), se ha desarrollado un estándar A. serie de estándares internacionales, la serie de estándares H. Esta serie tiene dos generaciones de estándares: H.320, H.321 y H.322, que se basan en la primera generación de H.320 en la Red Digital de Servicios Integrados (ISDN). ) red adoptada en 1990. estándares; H.323, H.324 y H.310 son los estándares de segunda generación que utilizan el nuevo protocolo de control H.245; H.323, H.324 y H.310 son los estándares de segunda generación; que utilizan el nuevo protocolo de control H.245 Los estándares de segunda generación H.324 y H.310 son estándares de segunda generación que utilizan el nuevo protocolo de control H.245. utiliza el nuevo protocolo de control H.245 y admite una gama de códecs multimedia mejorados.

La Organización Internacional de Normalización (ISO), que desarrolló los estándares MPEG-1, MPEG-2 y MPEG-4. lanzó un nuevo estándar, MPEG-7 (formalmente conocido como MPEG-7, que describe interfaces para contenido multimedia).

Interface de descripción), cuyo objetivo es desarrollar un estándar para describir datos de contenido multimedia para satisfacer las necesidades de aplicaciones en tiempo real y no real. Es diferente de las representaciones basadas en formas de onda y compresión, como MPEG-1 y MPEG-. 2, y también es diferente de las representaciones basadas en objetos MPEG como -4, en lugar de estandarizar descripciones de diferentes tipos de información multimedia y vincular descripciones al contenido descrito para una búsqueda rápida y eficiente. Tiene siete componentes, a saber, sistema, lenguaje de definición de descripción (DDL), vídeo, audio, esquema de descripción multimedia, software de referencia y pruebas de conformidad. La norma fue propuesta en octubre de 1998 y finalizada y publicada en 2001.

Otro nuevo estándar es el estándar MPEG-21 (ISO/IEC 18034), conocido formalmente como Multimedia Framework, cuyo objetivo es integrar de forma transparente tecnologías que admitan recursos multimedia distribuidos en varias redes y dispositivos, para soportar una amplia gama de funcionalidades que incluyen: creación de contenidos, producción de contenidos, distribución de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos , gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos, gestión de contenidos: creación de contenidos, producción de contenidos, distribución de contenidos, consumo y uso de contenidos, empaquetado de contenidos, gestión y protección de la propiedad intelectual, identificación y descripción de contenidos, gestión financiera, privacidad del usuario, abstracción de recursos de terminal y red, representación de contenido e informes de eventos, etc. El marco multimedia MPEG-21 identifica y define los elementos clave necesarios para soportar una cadena de entrega multimedia, las relaciones entre ellos y las operaciones que soportan.

Además, ISO también ha emitido estándares unificados para las especificaciones y formatos de datos de los sistemas de almacenamiento de discos ópticos, el equipo central de la tecnología multimedia, especialmente para las unidades de discos ópticos populares y diversos sistemas ópticos basados ​​en CD de audio y vídeo. unidades de disco. Se han publicado estándares unificados para varias propiedades de las ROM. Con la formulación y aplicación de varios estándares multimedia, se ha promovido enormemente el desarrollo de la industria multimedia. Muchos estándares multimedia y métodos de implementación (como JPEG, MPEG, etc.) han alcanzado el nivel de chip y se comercializan como productos maduros. Al mismo tiempo, también están surgiendo sin cesar diversos sistemas de software y herramientas relacionados con el campo multimedia. Estos no solo resuelven los problemas que deben resolverse en el proceso de desarrollo de multimedia, sino que también brindan soporte técnico confiable para la popularización y aplicación de multimedia, y promueven el sólido y rápido desarrollo de multimedia como industria.

Uno de los acontecimientos representativos del vigoroso desarrollo es el desarrollo de chips y procesadores multimedia. En enero de 1997, Intel presentó el procesador Pentium utilizando tecnología MMX (Multimedia eXtensions), convirtiéndolo en un estándar para computadoras multimedia. La estructura de un procesador Pentium estándar tiene tres características principales: (1) Se agregan nuevas instrucciones para darle al hardware de la computadora capacidades de procesamiento multimedia (57 nuevos conjuntos de instrucciones multimedia), que pueden procesar datos de video, audio y gráficos de manera más eficiente. (2) El procesamiento de datos múltiples de instrucción única (SIMD: proceso de datos múltiples de instrucción única) reduce los múltiples bucles que consumen mucho tiempo y que a menudo ocurren en el procesamiento de video, audio, gráficos y animación. (3) Una caché en el chip más grande reduce la cantidad de veces que el procesador accede a la memoria de baja velocidad fuera del chip. Los procesadores Pentium han duplicado la velocidad de los multimedia y han comenzado a reemplazar algunas placas de funciones comunes.

Además de los procesadores Pentium con tecnología MMX, las especificaciones AGP, las tecnologías MPEG-2, AC-97, PC-98, acelerador de gráficos 2D/3D y código Java (chip de procesador) también se utilizan para multimedia A. Se ha agregado un nuevo miembro a la familia.

Otro evento representativo de esta moda es la introducción del sonido envolvente Dolby Digital AC97. En el ámbito visual del espacio visual 3D, la audición también impone exigencias al sonido envolvente y estéreo.

Los cineastas exigen efectos de sonido realistas e inmersivos antes de realizar grandes escenas. Además, el estímulo de los juegos de ordenador personal (PC Games) también aumentará la demanda de efectos de sonido. En esta situación, AC97 (Audio Codec 97) fue promovido por Creative, el fundador de Sound Blaster, y producido por Analog Device, NS, Yamaha e Intel, que están profundamente involucrados en este campo. La solución de hardware AC97 consta de dos circuitos integrados, el controlador (generador de sonido) y el códec IC.

Con el auge de los ordenadores en red (Internet PC, NC) y los productos electrónicos de consumo de nueva generación (como descodificadores, DVD, videoteléfonos, videoconferencias, etc.), los procesadores de señales digitales (DSP : Procesador de señal digital) se enfatizan los conceptos, enfatizando la aplicación del procesamiento óptimo de imágenes y comunicaciones. Después de ser empaquetado en otra estructura, el DSP (procesador de señal digital) puede ingresar a los mercados de procesadores multimedia de consumo y de consultoría a través de la configuración de software.