Una breve historia de la tecnología de compresión de datos
La compresión de datos en las computadoras es en realidad similar al ejercicio de adelgazamiento que realizan las bellezas, excepto que tiene dos funciones principales. Primero, ahorre espacio. En lo que respecta a las bellezas, si un taxi tiene capacidad para ocho bellezas, ¡se puede ahorrar mucho dinero! En segundo lugar, reduzca el uso de ancho de banda. Por ejemplo, todos esperamos ver DVD a una velocidad de menos de 100 Kbps a través de GPRS. Esto es como esas chicas delgadas que siempre quieren recortar siete camisetas sin mangas con un pie de tela. Esto necesita un gran avance en la tecnología de compresión de datos. sobre su Perseverancia y perseverancia.
En pocas palabras, sin compresión de datos, no podemos usar WinRAR para reducir los archivos adjuntos en los correos electrónicos; sin compresión de datos, las grabadoras digitales en el mercado solo pueden grabar menos de 20 minutos de voz; Toma medio año descargar una película de Internet. …pero ¿cómo sucede todo? ¿Cómo se desarrolló la tecnología de compresión de datos desde cero? Hace más de mil años, los literatos chinos sabían utilizar la abreviatura "Ban Ma" para referirse a Ban Gu y Sima Qian. Este simple hábito ha continuado hasta la era actual de Internet: cuando usamos "7456" para representarlo en BBS Cuando ". 7456" o "B4" se utiliza para representar "Antes", al menos debemos saber que este es en realidad el método de compresión de datos más simple.
Estrictamente hablando, la compresión de datos se origina en la comprensión que las personas tienen de la probabilidad. Cuando codificamos información textual, si asignamos códigos más cortos a letras con mayor probabilidad de ocurrencia y códigos más largos a letras con menor probabilidad de ocurrencia, la longitud total del código se puede acortar mucho. Mucho antes que las computadoras, el famoso código Morse implementó con éxito esta regla. En la tabla de código Morse, cada letra corresponde a una combinación única de puntos, siendo la letra e con mayor probabilidad de aparición codificada como un punto "". La letra e con mayor probabilidad de aparición se codifica como un punto ".", mientras que la letra z con menor probabilidad de aparición se codifica como "--." Obviamente, esto puede acortar efectivamente la longitud del código final.
C. Shannon, el padre de la teoría de la información, fue el primero en aclarar la relación entre probabilidad y redundancia de información en términos matemáticos. En su artículo de 1948 "La teoría matemática de la comunicación", Shannon señaló que existe redundancia en cualquier información y que el tamaño de la redundancia está relacionado con la probabilidad o incertidumbre de la aparición de cada símbolo (número, letra o palabra) en la información. Shannon se basó en el concepto de termodinámica y llamó a la cantidad promedio de información después de eliminar la redundancia "entropía de la información" y dio una expresión matemática para calcular la entropía de la información. Este gran artículo fue posteriormente aclamado como la base de la teoría de la información, y la entropía de la información también sentó las bases teóricas para todos los algoritmos de compresión de datos. En esencia, el propósito de la compresión de datos es eliminar la redundancia de información, y la entropía de la información y los teoremas relacionados describen el grado de redundancia de la información por medios matemáticos. Utilizando la fórmula de entropía de la información, se puede calcular el límite de codificación de la información, es decir, bajo un determinado modelo de probabilidad, la longitud de codificación de la compresión sin pérdidas no puede ser menor que el resultado dado por la fórmula de entropía de la información.
Con una teoría completa, necesitamos encontrar formas de implementar algoritmos específicos e intentar que la salida del algoritmo se acerque al límite de la entropía de la información. Por supuesto, como saben la mayoría de los ingenieros, traducir la teoría de fórmulas matemáticas a tecnología práctica no es tan fácil como intentar construir un arma nuclear basada en la fórmula E=mc 2. El proceso de diseño de un algoritmo de compresión específico suele ser más bien un juego matemático. Los desarrolladores primero deben encontrar una manera de calcular o estimar la probabilidad de que un símbolo aparezca en el mensaje con la mayor precisión posible y luego diseñar un conjunto de reglas de codificación para describir cada símbolo con la codificación más corta posible. El conocimiento estadístico es bastante eficaz para la primera tarea, y hasta ahora se han aplicado modelos estadísticos probabilísticos como los modelos estáticos, semiestáticos, adaptativos, de Markov y de predicción de coincidencia parcial. Por el contrario, el desarrollo de métodos de codificación ha sido más tortuoso.
En 1948, Shannon propuso la teoría de la entropía de la información y dio un método de codificación simple: la codificación de Shannon. En 1952, R. M. Fano propuso además la codificación Fano.
Estos primeros métodos de codificación revelaron las reglas básicas de la codificación de longitud variable y, de hecho, podían lograr un cierto efecto de compresión, pero aún estaban lejos de ser un algoritmo de compresión verdaderamente práctico.
El primer método práctico de codificación fue propuesto por D. A. Huffman en su artículo de 1952 "Un método para la construcción de códigos mínimos de redundancia". Hasta el día de hoy, muchos libros de texto sobre "estructura de datos" todavía mencionan este método, la codificación de Huffman, cuando se habla de árboles binarios. La codificación de Huffman es tan famosa en el mundo de la informática que incluso el proceso de codificación en sí se ha convertido en un tema de discusión. Se dice que en 1952, cuando un joven Huffman todavía era estudiante en el MIT, ideó este método de codificación simple pero de gran alcance para demostrar a sus profesores que podía saltarse el examen final de un determinado curso.
La codificación Huffman es eficiente, rápida y flexible, y ha sido ampliamente utilizada en el campo de la compresión de datos desde la década de 1960. Por ejemplo, el programa de compresión COMPACT, menos familiar, de los primeros sistemas UNIX era en realidad una implementación de la codificación adaptativa de orden cero de Huffman. A principios de la década de 1980, la codificación Huffman reapareció en los sistemas CP/M y DOS, representada por el programa SQ. Hoy en día, la codificación Huffman se puede encontrar en muchas herramientas y algoritmos de compresión conocidos, como WinRAR, gzip y JPEG. Sin embargo, la longitud del código obtenida mediante la codificación de Huffman es solo una aproximación del resultado del cálculo de la entropía de la información y realmente no puede acercarse al límite de la entropía de la información. Debido a esto, las técnicas de compresión modernas a menudo tratan a Huffman como el método de codificación definitivo en lugar de como el principio y el fin de los algoritmos de compresión de datos.
Los científicos nunca han abandonado su ideal de desafiar los límites de la entropía de la información. Alrededor de 1968, P. Elias desarrolló los métodos de codificación de Shannon y Fano, construyendo el código matemáticamente perfecto de Shannon-Fano-Elias. Siguiendo la línea de este método de codificación, J. Rissanen propuso en 1976 la codificación aritmética, un método de codificación que puede acercarse con éxito al límite de la entropía de la información. En 1982, Risanen, junto con G. G. Langdon, mejoraron la codificación aritmética. Posteriormente, la codificación aritmética se combinó con el modelo predictivo de coincidencia parcial (PPM) propuesto por J. G. Cleary e I. H. Witten en 1984 para desarrollar un algoritmo de compresión casi perfecto. El algoritmo de compresión universal conocido hoy como PPMC, PPMD o PPMZ, que afirma ser el mejor algoritmo de compresión del mundo, es en realidad la implementación de esta idea.
Para una compresión sin pérdidas, el modelo PPM combinado con codificación aritmética puede acercarse al límite de la entropía de la información en la mayor medida posible. El desarrollo de la tecnología de compresión parece haberse detenido aquí. Desafortunadamente, las cosas no siempre son tan simples como se imagina: si bien la codificación aritmética produce la longitud de codificación más corta posible, su complejidad inherente hace que cualquier implementación concreta de codificación aritmética funcione tan lenta como un caracol. Incluso hoy en día, cuando prevalece la Ley de Moore y las velocidades de la CPU aumentan rápidamente, es difícil que la velocidad de los programas de codificación aritmética satisfaga las necesidades de las aplicaciones diarias. Si no fuera por los dos judíos de los que hablaremos más adelante, no sabemos cuándo hubiéramos tenido acceso a una herramienta de compresión tan cómoda y útil como WinZIP. El pensamiento inverso es siempre la clave del éxito de la ciencia y la tecnología. Mientras la mayoría de la gente intentaba mejorar la codificación Huffman o la codificación aritmética para obtener un código "perfecto" que combinara velocidad y compresión, dos judíos inteligentes, J. Ziv y A. Lempel, adoptaron un enfoque diferente y se salieron con la suya por completo. La combinación de la codificación Huffman y la codificación aritmética crea una serie de códigos que son más eficientes que la codificación Huffman. Crearon una familia de algoritmos de compresión que eran más eficientes que Huffman y más rápidos que la codificación aritmética. Estos algoritmos se conocen colectivamente como la familia de algoritmos LZ, derivados de dos abreviaturas judías.
En orden cronológico, el desarrollo de los algoritmos de la serie LZ es aproximadamente el siguiente: Ziv y Lempel publicaron un artículo titulado "Un algoritmo universal para la compresión de datos secuenciales" en 1977. En 1977, Ziv y Lempel publicaron un artículo titulado "Un algoritmo universal para la compresión de datos secuenciales", que describía un algoritmo que se conoció como algoritmo LZ77. En 1978, publicaron una secuela de este artículo, "Compresión de secuencias únicas mediante codificación de velocidad variable", que describe un algoritmo de compresión que más tarde se denominó LZ78. Describe el algoritmo de compresión posteriormente denominado LZ78. En 1984, T. A. Welch publicó un artículo titulado "Técnicas de compresión de datos de alto rendimiento" que describe su trabajo en el Sperry Research Center (posteriormente incorporado a Unisys). Unisys), que era una variante del algoritmo LZ78 que pasó a ser conocido como algoritmo LZW. Después de 1990, T. C. Bell y otros hicieron muchas variaciones o mejoras a la serie de algoritmos LZ.
Para ser honesto, la idea del algoritmo LZ no es nueva. No tienen una base teórica profunda ni fórmulas matemáticas complejas. Simplemente mantienen el respeto y la preferencia de la gente por los diccionarios durante miles de años y aplican la tecnología de los diccionarios a la compresión de datos generales de una manera extremadamente inteligente. En términos sencillos, cuando reemplaza cada palabra del artículo con el número de página y el número de línea en el diccionario, realmente domina el verdadero significado del algoritmo de la serie LZ. Esta idea basada en el modelo de diccionario es muy diferente de los métodos estadísticos iniciados por Shannon, Huffman y otros, pero de hecho también puede acercarse al límite de la entropía de la información. Además, se puede demostrar teóricamente que los algoritmos de la serie LZ siguen cumpliendo la ley básica de la entropía de la información.
La superioridad del algoritmo LZ se demostró rápidamente en el campo de la compresión de datos, y el número de herramientas y software que utilizan el algoritmo LZ aumentó considerablemente. Los primeros programas de compresión que utilizaban el algoritmo LZW aparecieron en los sistemas UNIX y rápidamente se convirtió en el estándar de compresión en el mundo UNIX. El programa se convirtió rápidamente en el estándar de compresión en el mundo UNIX. Posteriormente apareció el programa ARC para MS-DOS, así como PKWare, PKARC y otras imitaciones. En la década de 1980, las famosas herramientas de compresión LHarc y ARJ fueron destacados representantes del algoritmo LZ77.
Hoy en día, los algoritmos LZ77, LZ78 y LZW y sus variantes monopolizan el campo de la compresión de datos general. Estamos familiarizados con herramientas de compresión como PKZIP, WinZIP, WinRAR y gzip, así como con formatos de archivo como ZIP. , GIF y PNG Beneficiarios del algoritmo LZ. Incluso los formatos de archivos cifrados como PGP eligen los algoritmos de la serie LZ como estándar para la compresión de datos.
Nadie puede negar la contribución de dos judíos a la tecnología de compresión de datos. Lo que quiero enfatizar es que en el campo de la ingeniería, la búsqueda de la perfección teórica es a menudo sólo la mitad de la batalla. Si podemos pensar como Ziv y Lempel, usted y yo podemos inventar un nuevo algoritmo que pasará a la historia. tecnología. Los algoritmos de la serie LZ básicamente resuelven el problema de combinar velocidad y efecto de compresión en la compresión de datos generales. Sin embargo, existe un campo más amplio de compresión de datos que espera ser explorado. La teoría de la información de Shannon nos dice que cuanto más conocimiento previo tengamos sobre la información, menos información podremos comprimir. En otras palabras, si el objetivo del algoritmo de compresión no es una fuente de datos arbitraria, sino datos especializados cuyas propiedades básicas se conocen, el efecto de compresión mejorará aún más. Esto nos recuerda que además de desarrollar algoritmos de compresión generales, también debemos estudiar cuidadosamente algoritmos de compresión dedicados para varios datos especiales.
Por ejemplo, en la vida digital actual, la información de imagen, audio y vídeo contenida en cámaras digitales, grabadoras digitales, walkmans digitales, videocámaras digitales y otros dispositivos digitales debe comprimirse eficazmente antes de poder almacenarse en un disco duro o transmitirse mediante un cable USB. De hecho, la compresión de información multimedia siempre ha sido un tema importante en el campo de la compresión de datos. Cada rama tiene el potencial de dominar las tendencias tecnológicas futuras y brindar oportunidades comerciales ilimitadas a los desarrolladores de productos digitales, equipos de comunicación y software de aplicaciones.
Comencemos con la compresión de datos de imágenes. En términos generales, las imágenes se pueden dividir en diferentes tipos, como imágenes binarias, imágenes en escala de grises e imágenes en color. El método de compresión de cada imagen también es diferente.
La invención y el uso generalizado de la tecnología del fax promovieron el rápido desarrollo de algoritmos de compresión de imágenes binarias. CCITT (Comité Consultivo sobre Telégrafos y Teléfonos Internacionales, una organización de la Unión Internacional de Telecomunicaciones (UIT)) ha desarrollado una serie de estándares de compresión de imágenes para comprimir y transmitir imágenes binarias en aplicaciones de tipo fax. Estas normas incluyen en términos generales los Grupos 1 y 2 del CCITT a finales de la década de 1970, el Grupo 3 del CCITT en 1980 y el Grupo 4 del CCITT en 1984. Para adaptarse a diferentes tipos de imágenes de fax, los métodos de codificación utilizados en estos estándares incluyen codificación MH unidimensional y codificación MR bidimensional; esta última utiliza técnicas tales como codificación de longitud de ejecución (RLE) y codificación Huffman. Hoy en día, la mayoría de los faxes enviados y recibidos en la oficina o en el hogar utilizan el estándar de compresión CCITT Grupo 3, mientras que algunos dispositivos de fax digital basados en red y archivos TIFF que guardan imágenes binarias utilizan el estándar de compresión CCITT Grupo 4. En 1993, CCITT e ISO (Organización Internacional de Normalización)**** establecieron el Grupo Conjunto de Expertos en Imágenes de Dos Niveles (JBIG) para que la compresión de imágenes binarias se desarrolle aún más hasta convertirse en un estándar JBIG más general.
De hecho, para imágenes binarias, así como imágenes en color y escala de grises discontinuas, muchos algoritmos de compresión generales, incluidos los algoritmos de la serie LZ, pueden lograr buenos efectos de compresión. Por ejemplo, el formato de archivo de imagen GIF nacido en 1987 utiliza el algoritmo de compresión LZW, y el formato PNG que apareció en 1995 es mejor que el formato GIF. Eligió zlib, una variante del algoritmo LZ77, para comprimir datos de imagen. Además, muchos algoritmos de compresión de imágenes eficaces se construyen utilizando los modelos de codificación Huffman, codificación aritmética y PPM mencionados anteriormente.
Sin embargo, para imágenes ordinarias en escala de grises o en color (como fotografías digitales) donde los valores de píxeles varían continuamente en el espacio, las ventajas de los algoritmos de compresión generales no son tan obvias. Afortunadamente, los científicos han descubierto que si permite que cambien algunos valores de píxeles menos importantes o permite cierta pérdida de precisión al comprimir este tipo de datos de imagen (nunca toleraremos ninguna pérdida de precisión al comprimir datos de uso general, pero al comprimir Y al mostrar fotografías digitales, si algunas hojas del bosque se vuelven ligeramente más oscuras (lo que normalmente no es perceptible para la persona que ve la foto), tenemos el potencial de lograr una mejor compresión que la compresión universal. Es posible que logremos un gran avance en los efectos de compresión. Esta idea es revolucionaria en el campo de la compresión de datos: al perder algo de precisión dentro de los límites del usuario, podemos comprimir imágenes (además de audio y vídeo) a una décima, una centésima o incluso mil de su original. tamaño 1 en 1, que está mucho más allá de las capacidades de los algoritmos de compresión de propósito general. Esto puede ser similar a lo que la gente suele decir: "dar un paso atrás conducirá a un futuro mejor".
Este tipo de compresión que permite la pérdida de precisión también se denomina compresión con pérdida. En el campo de la compresión de imágenes, el famoso estándar JPEG es un algoritmo típico de compresión con pérdida. El estándar JPEG fue desarrollado por el Joint Photographic Experts Group (JPEG) en 1986 y se convirtió en un estándar internacional después de 1994. JPEG utiliza la transformada de coseno discreta (DCT) como algoritmo central para controlar la precisión y el tamaño de la imagen ajustando el factor de calidad.
Para imágenes en escala de grises o en color que varían continuamente (como fotografías), JPEG normalmente puede comprimir la imagen entre una décima y una vigésima parte del tamaño original manteniendo la calidad de la imagen. Si la calidad de la imagen no es un problema, JPEG puede incluso comprimir imágenes a tamaños "infinitamente pequeños".
El último desarrollo del estándar JPEG es JPEG 2000, que se formuló en 1996 y se convirtió en un estándar internacional en 2001. JPEG 2000 ofrece mejoras significativas sobre JPEG, la más importante de las cuales es la sustitución de la transformada de coseno discreta en el estándar JPEG por la transformada wavelet discreta (DWT). Las imágenes comprimidas JPEG 2000 producen imágenes de mayor calidad con menos pérdida de precisión que JPEG para el mismo tamaño de archivo. Como nuevo estándar, JPEG 2000 aún no se ha utilizado ampliamente, pero muchas empresas, incluidos los fabricantes de cámaras digitales, son optimistas sobre sus perspectivas de aplicación. No debería estar muy lejos cuando JPEG 2000 muestre su talento en el campo de la compresión de imágenes. .
El concepto de diseño del estándar JPEG de perder precisión a cambio de la compresión tiene un impacto directo en la compresión de datos de vídeo. El CCITT desarrolló un proyecto de recomendación H.261 para telefonía y videoconferencia en 1988. La idea básica de H.261 es utilizar un algoritmo similar al estándar JPEG para comprimir cada cuadro en la transmisión de video, mientras se usa predicción entre cuadros con compensación de movimiento para eliminar información redundante en la dimensión temporal de la transmisión de video. Sobre esta base, la Organización Internacional de Normalización adoptó el estándar MPEG-1 propuesto por el Grupo de Expertos en Imágenes en Movimiento (MPEG) en 1993. MPEG-1 puede codificar eficientemente datos de vídeo de calidad normal. La mayoría de los VCD que vemos hoy en día utilizan el estándar MPEG-1 para comprimir datos de vídeo.
Para admitir imágenes de vídeo más claras, especialmente para aplicaciones de alta gama como la televisión digital, ISO propuso el nuevo estándar MPEG-2 (equivalente al estándar H.262 del CCITT) en 1994. MPEG-2 realiza un procesamiento jerárquico de la calidad de la imagen y puede adaptarse a aplicaciones de vídeo de diferente calidad, como programas de televisión normales, televisión de conferencias y televisión digital de alta definición. El estándar MPEG-2 se utiliza en los DVD para proporcionar imágenes de alta definición a nuestras vidas.
El desarrollo de Internet ha planteado mayores requisitos para la compresión de vídeo. Estimulada por las nuevas demandas de interacción de contenidos, edición de objetos y acceso aleatorio, la Organización Internacional de Normalización adoptó el estándar MPEG-4 (equivalente a los estándares H.263 y H.263 del CCITT) en 1999. El estándar MPEG-4 presenta relaciones de compresión más altas, soporte para flujos simultáneos de codificación, operaciones interactivas basadas en contenido, acceso aleatorio temporal mejorado, tolerancia a fallas, variabilidad de escala basada en contenido y otras características avanzadas. Los formatos de archivos DivX y XviD emergentes en Internet utilizan el estándar MPEG-4 para comprimir datos de vídeo, proporcionando vídeo de alta definición comparable a los DVD con menos espacio de almacenamiento o ancho de banda de comunicación, haciendo realidad el sueño de distribuir o descargar películas digitales a través de Internet.
Así como la compresión de vídeo es inseparable del desarrollo de la industria de la televisión, la compresión de datos de audio fue desarrollada por primera vez por técnicos en los campos de la radiodifusión y las comunicaciones de voz. Entre ellos, la investigación sobre tecnología de codificación y compresión de voz es la más activa. Desde que H. Dudley inventó el vocoder en 1939, se han inventado sucesivamente la modulación por código de impulsos (PCM), la predicción lineal (LPC), la cuantificación vectorial (VQ), la codificación por transformada adaptativa (ATC), la codificación de subbanda (SBC), etc. y tecnología de procesamiento. Estas tecnologías del habla generalmente pueden reducir la información redundante mientras capturan características del habla y obtienen señales digitales. Al igual que JPEG en el mundo de la compresión de imágenes, la mayoría de las técnicas de codificación de voz permiten cierto grado de pérdida de precisión para lograr una mayor eficiencia de codificación.
Además, para almacenar o transmitir mejor señales de voz como datos binarios, estas tecnologías de codificación de voz siempre utilizan algoritmos de compresión generales (como la codificación de Huffman y la codificación aritmética) para reducir aún más la cantidad de datos en el flujo de datos después de convertir la señal de voz. en información digital.
Para la información de audio normal almacenada en ordenadores y dispositivos digitales (como grabadoras digitales y walkmans digitales), el método de compresión más utilizado es el estándar de compresión de audio de la serie MPEG. Por ejemplo, el estándar MPEG-1 proporciona tres estándares de compresión de audio opcionales: Capa I, Capa II y Capa III***. MPEG-2 introduce además el estándar de compresión de audio AAC (Advanced Audio Coding), mientras que MPEG-4 es el estándar de audio. La parte admite codificación de sonido sintético y codificación de sonido natural. La parte de audio del estándar MPEG-4 admite codificación de sonido sintético y codificación de sonido natural, adecuada para diferentes tipos de aplicaciones. Entre estos estándares de compresión de audio, el más famoso es MPEG-1 Layer III, también conocido como estándar de compresión de audio MP3. Desde reproductores MP3 hasta teléfonos móviles MP3, desde montañas de archivos MP3 en discos duros hasta descargas de MP3 en Internet, el MP3 ha trascendido el alcance de la tecnología de compresión de datos y se ha convertido en un símbolo de moda y cultura.
Obviamente, en la era digital donde la información multimedia se ha convertido gradualmente en la forma de información principal, la tecnología de compresión de datos, especialmente la tecnología de compresión de imágenes, audio y video, todavía tiene mucho espacio para desarrollarse. Estamos preocupados por la cantidad y calidad de la información. La búsqueda es interminable. Desde la entropía de la información hasta la codificación aritmética, desde los judíos hasta WinRAR, desde JPEG hasta MP3, la historia del desarrollo de la tecnología de compresión de datos es como una historia llena de "innovaciones", "desafíos", "avances" y "cambios". "Y Transformación" escrito en un pergamino. Quizás el propósito de enumerar estas épocas, personajes, estándares y documentos en detalle sea simplemente decirles a todos que los logros de los predecesores son solo objetivos que las generaciones futuras deben superar. ¿Quién sabe cuántos Shannon y Huffman aparecerán en los años venideros?
Hablando del futuro, también podemos agregar algunos temas relacionados con las tendencias de desarrollo de la tecnología de compresión de datos.
En 1994, M. Burrows y D. J. Wheeler *** propusieron conjuntamente un nuevo algoritmo general de compresión de datos. La idea central de este algoritmo es ordenar y transformar la matriz de caracteres obtenida después de la rotación de la cadena. Un algoritmo de transformación similar se llama transformación de Burrows-Wheeler, o BWT para abreviar. Al igual que las alternativas de Ziv y Lempel, Burrows y Wheeler diseñaron el algoritmo BWT de una manera radicalmente diferente de todos los algoritmos de compresión de propósito general anteriores. Hoy en día, el algoritmo BWT ha logrado un gran éxito en la herramienta de compresión de código abierto bzip, que comprime archivos de texto mucho mejor que las herramientas que utilizan la familia de algoritmos LZ. Esto al menos muestra que incluso en el campo cada vez más maduro de la compresión general de datos, mientras podamos seguir innovando en pensamiento y tecnología, todavía podemos encontrar nuevos avances.
La compresión fractal es un tema candente en el campo de la compresión de imágenes en los últimos años. Esta tecnología tiene su origen en la geometría fractal, creada por B. Mandelbrot en 1977. M. Barnsley sentó las bases teóricas de la compresión fractal a finales de los años 1980. Desde la década de 1990, A. Jacquin et al. han propuesto muchos algoritmos experimentales de compresión fractal. Hoy en día, mucha gente considera que la compresión fractal es uno de los sistemas más prometedores en el campo de la compresión de imágenes, pero muchos otros lo descartan. Independientemente de sus perspectivas, la investigación y el desarrollo de la tecnología de compresión fractal muestran que después de décadas de rápido desarrollo, tal vez necesitemos una nueva teoría o varios modelos matemáticos más efectivos para respaldar y promover el rápido desarrollo de la tecnología de compresión de datos.
La inteligencia artificial es otra palabra clave que puede tener un impacto significativo en el futuro de la tecnología de compresión de datos.
Dado que Shannon cree que si la información se puede comprimir y el grado de compresión están directamente relacionados con la incertidumbre de la información, suponiendo que la tecnología de inteligencia artificial madure en un cierto punto, suponiendo que las computadoras puedan adivinar información posterior en función de una pequeña cantidad de contexto conocido. como los humanos, entonces comprimir información a una diezmilésima o incluso a una cienmilésima de su tamaño original puede que ya no sea una quimera.
Después de mirar hacia atrás en la historia, a la gente siempre le gusta imaginar el futuro. Pero el futuro es el futuro. Si usted y yo pudiéramos explicar las tendencias tecnológicas futuras en unas pocas palabras, ¿no sería aburrido el trabajo de la innovación tecnológica? Lo importante es descargar unos cuantos éxitos de taquilla de Internet, tumbarse en el sofá y disfrutar de la felicidad infinita que nos aporta la compresión de datos.