fbpx
Wikipedia

Compresión de datos

En ciencias de la computación, la compresión de datos es la reducción del volumen de datos tratables para representar una determinada información empleando una menor cantidad de espacio[1]​. Al acto de compresión de datos se denomina «compresión», y al contrario «descompresión».

El espacio que ocupa una información codificada (datos, señal digital, etc.) sin compresión es el producto entre la frecuencia de muestreo y la resolución. Por tanto, cuantos más bits se empleen mayor será el tamaño del archivo. No obstante, la resolución viene impuesta por el sistema digital con que se trabaja y no se puede alterar el número de bits a voluntad; por ello, se utiliza la compresión, para transmitir la misma cantidad de información que ocuparía una gran resolución en un número inferior de bits.

La compresión es un caso particular de la codificación, cuya característica principal es que el código resultante tiene menor tamaño que el original.

La compresión de datos se basa fundamentalmente en buscar repeticiones en series de datos para después almacenar solo el dato junto al número de veces que se repite. Así, por ejemplo, si en un fichero aparece una secuencia como "AAAAAA", ocupando 6 bytes se podría almacenar simplemente "6A" que ocupa solo 2 bytes, en algoritmo RLE.

En realidad, el proceso es mucho más complejo, ya que raramente se consigue encontrar patrones de repetición tan exactos (salvo en algunas imágenes). Se utilizan algoritmos de compresión:

  • Por un lado, algunos buscan series largas que luego codifican en formas más breves.
  • Por otro lado, algunos algoritmos, como el algoritmo de Huffman, examinan los caracteres más repetidos para luego codificar de forma más corta los que más se repiten.
  • Otros, como el LZW, construyen un diccionario con los patrones encontrados, a los cuales se hace referencia de manera posterior.
  • La codificación de bytes pares es otro sencillo algoritmo de compresión muy fácil de entender.

A la hora de hablar de compresión hay que tener presentes dos conceptos:

  1. Redundancia: Datos que son repetitivos o previsibles.
  2. Entropía: La información nueva o esencial que se define como la diferencia entre la cantidad total de datos de un mensaje y su redundancia.

La información que transmiten los datos puede ser de tres tipos:

  • Redundante: información repetitiva o predecible.
  • Irrelevante: información que no podemos apreciar y cuya eliminación por tanto no afecta al contenido del mensaje. Por ejemplo, si las frecuencias que es capaz de captar el oído humano están entre 16/20 Hz y 16 000/20 000 Hz, serían irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores.
  • Básica: la relevante. La que no es ni redundante ni irrelevante. La que debe ser transmitida para que se pueda reconstruir la señal.

Teniendo en cuenta estos tres tipos de información, se establecen tres tipologías de compresión de la información:

  • Sin pérdidas reales: es decir, transmitiendo toda la entropía del mensaje (toda la información básica e irrelevante, pero eliminando la redundante).
  • Subjetivamente sin pérdidas: es decir, además de eliminar la información redundante se elimina también la irrelevante.
  • Subjetivamente con pérdidas: se elimina cierta cantidad de información básica, por lo que el mensaje se reconstruirá con errores perceptibles pero tolerables (por ejemplo: la videoconferencia).

Diferencias entre compresión con pérdida y sin ella

El objetivo de la compresión es siempre reducir el tamaño de la información, intentando que esta reducción de tamaño no afecte al contenido. No obstante, la reducción de datos puede afectar o no a la calidad de la información:

  • Compresión sin pérdida: los datos antes y después de comprimirlos son exactos en la compresión sin pérdida. En el caso de la compresión sin pérdida una mayor compresión solo implica más tiempo de proceso. La tasa de bits siempre es variable en la compresión sin pérdida. Se utiliza principalmente en la compresión de texto.
  • Un algoritmo de compresión con pérdida puede eliminar datos para disminuir aún más el tamaño, con lo que reduce la calidad. En la compresión con pérdida, la tasa de bits puede ser constante o variable. Una vez realizada la compresión, no se puede obtener la señal original, aunque sí una aproximación cuya semejanza con la original dependerá del tipo de compresión. Este tipo de compresión se da principalmente en imágenes, videos y sonidos. Además de estas funciones la compresión permite que los algoritmos usados para reducir las cadenas del código desechen información redundante de la imagen. Uno de los formatos que permite compensar esta perdida es el JPG, que emplea técnicas que suavizan los bordes y áreas que tienen un color similar permitiendo que la falta de información sea invisible a simple vista. Este método permite un alto grado de compresión con pérdidas en la imagen que, muchas veces, solo es visible mediante el zoom.

Usos

Imagen

La codificación de entropía se originó en la década de 1940 con la introducción de la codificación Shannon-Fano, [2]​ la base de la codificación Huffman que se desarrolló en 1950.[3]​ La codificación por transformada se remonta a finales de la década de 1960, con la introducción de la transformada rápida de Fourier (FFT) en 1968 y la transformada Hadamard en 1969.[4]

Una importante técnica de compresión de imágenes es la transformada de coseno discreta (DCT), una técnica desarrollada a principios de la década de 1970.[5]​ La DCT es la base del JPEG, un formato de compresión con pérdidas que fue introducido por el Joint Photographic Experts Group (JPEG) en 1992.[6]​ JPEG reduce en gran medida la cantidad de datos necesarios para representar una imagen a costa de una reducción relativamente pequeña de la calidad de la misma y se ha convertido en el formato de archivo de imagen más utilizado.[7][8]​ Su algoritmo de compresión altamente eficiente basado en la DCT fue en gran parte responsable de la amplia proliferación de imágenes digitales y fotos digitales.[9]

Lempel-Ziv-Welch (LZW) es un algoritmo de compresión sin pérdidas desarrollado en 1984. Se utiliza en el formato GIF, introducido en 1987.[10]DEFLATE, un algoritmo de compresión sin pérdidas especificado en 1996, se utiliza en el formato Portable Network Graphics (PNG).[11]

La compresión wavelet, el uso de wavelets en la compresión de imágenes, comenzó tras el desarrollo de la codificación DCT.[12]​ El estándar JPEG 2000 se introdujo en el año 2000.[13]​ A diferencia del algoritmo DCT utilizado por el formato JPEG original, JPEG 2000 utiliza en su lugar algoritmos de transformada de ondícula discreta (DWT).[14]​ }}[15][16]​ La tecnología JPEG 2000, que incluye la extensión Motion JPEG 2000, fue seleccionada como el estándar de codificación de vídeo para el cine digital en 2004.[17]

Audio

La compresión de datos de audio, que no debe confundirse con la compresión de rango dinámico, tiene el potencial de reducir el ancho de banda y los requisitos de almacenamiento de los datos de audio. [Los algoritmos de compresión de audio se implementan en software como códecs de audio. Tanto en la compresión con pérdidas como en la compresión sin pérdidas, se reduce la redundancia de la información, utilizando métodos como la codificación, la cuantización, la transformada de coseno discreta y la predicción lineal para reducir la cantidad de información utilizada para representar los datos sin comprimir.

Los algoritmos de compresión de audio con pérdidas proporcionan una mayor compresión y se utilizan en numerosas aplicaciones de audio, como Vorbis y MP3. Estos algoritmos se basan casi todos en la psicoacústica para eliminar o reducir la fidelidad de los sonidos menos audibles, reduciendo así el espacio necesario para almacenarlos o transmitirlos. [18][19]

La compensación aceptable entre la pérdida de calidad de audio y el tamaño de transmisión o almacenamiento depende de la aplicación. Por ejemplo, un disco compacto (CD) de 640 MB contiene aproximadamente una hora de música de alta fidelidad sin comprimir, menos de 2 horas de música comprimida sin pérdidas o 7 horas de música comprimida en el formato MP3 a una tasa de bits media. Una grabadora de sonido digital puede almacenar normalmente unas 200 horas de habla claramente inteligible en 640 MB.[20]

La compresión de audio sin pérdidas produce una representación de los datos digitales que puede descodificarse en un duplicado digital exacto del original. Los ratios de compresión se sitúan en torno al 50-60% del tamaño original,[21]​ que es similar a los de la compresión genérica de datos sin pérdidas. Los códecs sin pérdidas utilizan el ajuste de curvas o la predicción lineal como base para estimar la señal. Los parámetros que describen la estimación y la diferencia entre la estimación y la señal real se codifican por separado.[22]

Existen varios formatos de compresión de audio sin pérdidas. Véase lista de códecs sin pérdidas para obtener una lista. Algunos formatos están asociados a un sistema distinto, como Direct Stream Transfer, utilizado en Super Audio CD y Meridian Lossless Packing, utilizado en DVD-Audio, Dolby TrueHD, Blu-ray y HD DVD.

Algunos formatos de archivo de audio presentan una combinación de un formato con pérdidas y una corrección sin pérdidas; esto permite eliminar la corrección para obtener fácilmente un archivo con pérdidas. Estos formatos incluyen MPEG-4 SLS (Scalable to Lossless), WavPack y OptimFROG DualStream.

Cuando se van a procesar archivos de audio, ya sea por compresión posterior o para edición, es deseable trabajar a partir de un original inalterado (sin comprimir o comprimido sin pérdidas). El procesamiento de un archivo comprimido sin pérdidas para algún fin suele producir un resultado final inferior a la creación del mismo archivo comprimido a partir de un original sin comprimir. Además de para la edición o la mezcla de sonido, la compresión de audio sin pérdidas se utiliza a menudo para el almacenamiento de archivos, o como copias maestras.

Compresión de audio con pérdidas

 
Comparación de espectrogramas de audio en un formato sin comprimir y en varios formatos con pérdidas. Los espectrogramas con pérdidas muestran bandlimiting de las frecuencias más altas, una técnica común asociada a la compresión de audio con pérdidas.

La compresión de audio con pérdidas se utiliza en una amplia gama de aplicaciones. Además de las aplicaciones independientes de reproducción de archivos en reproductores MP3 u ordenadores, los flujos de audio comprimidos digitalmente se utilizan en la mayoría de los DVD de vídeo, la televisión digital, los medios de transmisión en Internet, la radio por satélite y por cable, y cada vez más en las emisiones de radio terrestre. La compresión con pérdidas suele lograr una compresión mucho mayor que la compresión sin pérdidas, al descartar los datos menos críticos basándose en optimizaciones psicoacústicas.[23]

La psicoacústica reconoce que no todos los datos de un flujo de audio pueden ser percibidos por el sistema auditivo humano. La mayor parte de la compresión con pérdidas reduce la redundancia identificando primero los sonidos perceptualmente irrelevantes, es decir, los sonidos que son muy difíciles de oír. Ejemplos típicos son las frecuencias altas o los sonidos que se producen al mismo tiempo que los sonidos más fuertes. Esos sonidos irrelevantes se codifican con menor precisión o no se codifican en absoluto.

Debido a la naturaleza de los algoritmos con pérdidas, la calidad del audio sufre una pérdida de generación digital cuando se descomprime y recomprime un archivo. Esto hace que la compresión con pérdidas sea inadecuada para almacenar los resultados intermedios en aplicaciones profesionales de ingeniería de audio, como la edición de sonido y la grabación multipista. Sin embargo, los formatos con pérdidas, como el MP3, son muy populares entre los usuarios finales, ya que el tamaño del archivo se reduce al 5-20% del tamaño original y un megabyte puede almacenar aproximadamente un minuto de música con la calidad adecuada.

Métodos de codificación

Para determinar qué información de una señal de audio es irrelevante desde el punto de vista perceptivo, la mayoría de los algoritmos de compresión con pérdidas utilizan transformaciones como la transformada de coseno discreta (MDCT) para convertir las formas de onda muestreadas en el dominio del tiempo en un dominio de transformación, normalmente el dominio de la frecuencia. Una vez transformadas, las frecuencias de los componentes pueden priorizarse según su audibilidad. La audibilidad de los componentes espectrales se evalúa utilizando el umbral absoluto de audición y los principios de enmascaramiento simultáneo-el fenómeno en el que una señal es enmascarada por otra señal separada por la frecuencia-y, en algunos casos, enmascaramiento temporal-en el que una señal es enmascarada por otra señal separada por el tiempo. También se pueden utilizar los contornos de igual sonoridad para ponderar la importancia perceptiva de los componentes. Los modelos de la combinación oído-cerebro humano que incorporan estos efectos suelen denominarse modelo psicoacústicos.[24]

Otros tipos de compresores con pérdidas, como la codificación predictiva lineal utilizada con el habla, son codificadores basados en la fuente. La LPC utiliza un modelo del tracto vocal humano para analizar los sonidos del habla e inferir los parámetros utilizados por el modelo para producirlos momento a momento. Estos parámetros cambiantes se transmiten o almacenan y se utilizan para impulsar otro modelo en el descodificador que reproduce el sonido.

Los formatos con pérdidas se utilizan a menudo para la distribución de audio en streaming o la comunicación interactiva (como en las redes de telefonía móvil). En estas aplicaciones, los datos deben descomprimirse a medida que fluyen, en lugar de hacerlo después de que se haya transmitido todo el flujo de datos. No todos los códecs de audio pueden utilizarse para aplicaciones de streaming.[23]

La Latencia es introducida por los métodos utilizados para codificar y decodificar los datos. Algunos códecs analizan un segmento más largo, llamado trama, de los datos para optimizar la eficiencia, y luego lo codifican de manera que se requiera un segmento más grande de datos a la vez para decodificar. La latencia inherente al algoritmo de codificación puede ser crítica; por ejemplo, cuando hay una transmisión bidireccional de datos, como en una conversación telefónica, los retrasos significativos pueden degradar seriamente la calidad percibida.

A diferencia de la velocidad de compresión, que es proporcional al número de operaciones que requiere el algoritmo, aquí la latencia se refiere al número de muestras que hay que analizar antes de procesar un bloque de audio. En el caso mínimo, la latencia es de cero muestras (por ejemplo, si el codificador/decodificador simplemente reduce el número de bits utilizados para cuantificar la señal). Los algoritmos del dominio del tiempo, como el LPC, también suelen tener latencias bajas, de ahí su popularidad en la codificación del habla para la telefonía. Sin embargo, en algoritmos como el MP3, hay que analizar un gran número de muestras para implementar un modelo psicoacústico en el dominio de la frecuencia, y la latencia es del orden de 23 ms.

Codificación del habla

La codificación del habla es una categoría importante de la compresión de datos de audio. Los modelos perceptivos utilizados para estimar qué aspectos del habla puede escuchar el oído humano suelen ser algo diferentes de los utilizados para la música. El rango de frecuencias necesario para transmitir los sonidos de una voz humana es normalmente mucho más estrecho que el necesario para la música, y el sonido es normalmente menos complejo. Por ello, la voz puede codificarse con alta calidad utilizando una tasa de bits relativamente baja.

Esto se consigue, en general, mediante una combinación de dos enfoques:

  • Codificar solo los sonidos que podría emitir una sola voz humana.
  • Desechar la mayor parte de los datos de la señal, conservando solo lo suficiente para reconstruir una voz "inteligible" en lugar de toda la gama de frecuencias del oído humano.

Los primeros algoritmos utilizados en la codificación del habla (y en la compresión de datos de audio en general) fueron el algoritmo A-law y el algoritmo μ-law.

Historia

 
Solidyne 922: La primera tarjeta de sonido comercial de compresión de bits de audio para PC, 1990

Las primeras investigaciones sobre audio se realizaron en los Laboratorios Bell. Allí, en 1950, C. Chapin Cutler presentó la patente de la modulación diferencial por código de impulsos (DPCM).[25]​ En 1973, P. Cummiskey, Nikil S. Jayant y James L. Flanagan introdujeron la DPCM adaptativa (ADPCM).[26][27]

La codificación perceptiva se utilizó por primera vez para la compresión de la codificación del habla, con la codificación predictiva lineal (LPC).[28]​ Los conceptos iniciales de LPC se remontan a los trabajos de Fumitada Itakura (Universidad de Nagoya) y Shuzo Saito (Nippon Telegraph and Telephone) en 1966.[29]​ Durante la década de 1970, Bishnu S. Atal y Manfred R. Schroeder en Bell Labs desarrollaron una forma de LPC llamada codificación predictiva adaptativa (APC), un algoritmo de codificación perceptiva que explotaba las propiedades de enmascaramiento del oído humano, seguido a principios de los años ochenta con el algoritmo de predicción lineal excitada por código (CELP), que logró una relación de compresión significativa para su época. [28]​ La codificación perceptual es utilizada por los formatos modernos de compresión de audio como MP3[28]​ y AAC.

La transformada de coseno discreta (DCT), desarrollada por Nasir Ahmed, T. Natarajan y K. R. Rao en 1974,[30]​ proporcionó la base para la transformada discreta del coseno modificada (MDCT) utilizada por los formatos modernos de compresión de audio como el MP3,[31]Dolby Digital,[32][33]​ y AAC.[34]​ El MDCT fue propuesto por J. P. Princen, A. W. Johnson y A. B. Bradley en 1987,[35]​ tras un trabajo anterior de Princen y Bradley en 1986.[36][30]

El primer sistema comercial de automatización de emisiones de audio del mundo fue desarrollado por Oscar Bonello, un profesor de ingeniería de la Universidad de Buenos Aires. [37][38]​ En 1983, utilizando el principio psicoacústico del enmascaramiento de las bandas críticas publicado por primera vez en 1967,[39]​ comenzó a desarrollar una aplicación práctica basada en el recién desarrollado ordenador IBM PC, y el sistema de automatización de la radiodifusión fue lanzado en 1987 bajo el nombre de Audicom. Veinte años después, casi todas las emisoras de radio del mundo utilizaban una tecnología similar fabricada por varias empresas.

En febrero de 1988 se publicó un compendio bibliográfico sobre una gran variedad de sistemas de codificación de audio en el Journal on Selected Areas in Communications (JSAC) del IEEE. Aunque había algunos artículos de antes, esta colección documentaba toda una variedad de codificadores de audio acabados y en funcionamiento, casi todos ellos utilizando técnicas perceptivas y algún tipo de análisis de frecuencia y codificación sin ruido de fondo.[40]

Vídeo

El vídeo sin comprimir requiere una tasa de datos muy alta. Aunque los códecs mediante compresión de vídeo sin pérdidas funcionan con un factor de compresión de 5 a 12, un vídeo típico de compresión con pérdidas H.264 tiene un factor de compresión de entre 20 y 200.[41]

Las dos técnicas clave de compresión de vídeo utilizadas en los estándares de codificación de vídeo son la transformada de coseno discreta (DCT) y la compensación de movimiento (MC). La mayoría de los estándares de codificación de vídeo, como los formatos H.26x y MPEG, suelen utilizar la codificación de vídeo DCT con compensación de movimiento (compensación de movimiento en bloque).[42][43]

La mayoría de los códecs de vídeo se utilizan junto con las técnicas de compresión de audio para almacenar los flujos de datos separados pero complementarios como un paquete combinado utilizando los llamados formato contenedors.[44]

Teoría de la codificación

Los datos de vídeo pueden representarse como una serie de fotogramas de imágenes fijas. Estos datos suelen contener abundantes cantidades de redundancia espacial y temporal. Los algoritmos de compresión de vídeo intentan reducir la redundancia y almacenar la información de forma más compacta.

La mayoría de los formatos de compresión de vídeo y códecs explotan la redundancia espacial y temporal (por ejemplo, mediante la codificación de diferencias con compensación de movimiento). Las similitudes pueden codificarse almacenando solo las diferencias entre, por ejemplo, fotogramas temporalmente adyacentes (codificación intercuadro) o píxeles espacialmente adyacentes (codificación intracuadro). La compresión Inter-frame (una codificación delta temporal) (re)utiliza los datos de uno o más fotogramas anteriores o posteriores de una secuencia para describir el fotograma actual. La codificación intracuadro, por el contrario, utiliza solo datos del cuadro actual, siendo en realidad una compresión de imagen.[24]

Los formatos de codificación de vídeo entre fotogramas utilizados en las videocámaras y en la edición de vídeo emplean una compresión más simple que utiliza solo la predicción intra-frame. Esto simplifica el software de edición de vídeo, ya que evita que un fotograma comprimido se refiera a datos que el editor ha eliminado.

Normalmente, la compresión de vídeo emplea además técnicas de compresión con pérdidas como la cuantización que reducen aspectos de los datos de origen que son (más o menos) irrelevantes para la percepción visual humana explotando características perceptivas de la visión humana. Por ejemplo, las pequeñas diferencias de color son más difíciles de percibir que los cambios de brillo. Los algoritmos de compresión pueden promediar un color a través de estas áreas similares de una manera similar a los utilizados en la compresión de imágenes JPEG.[45]​ Como en toda compresión con pérdidas, hay un compromiso entre la calidad de vídeo y la tasa de bits, el coste de procesar la compresión y la descompresión, y los requisitos del sistema. Los vídeos muy comprimidos pueden presentar artefactos de compresión visibles o molestos.

Otros métodos distintos de los formatos de transformación basados en la DCT, como la compresión fractal, la búsqueda de coincidencias y el uso de una transformada wavelet discreta (DWT), han sido objeto de algunas investigaciones, pero no suelen utilizarse en productos prácticos. La compresión wavelet se utiliza en codificadores de imágenes fijas y de vídeo sin compensación de movimiento. El interés por la compresión fractal parece estar disminuyendo, debido a los recientes análisis teóricos que muestran una falta de eficacia comparativa de tales métodos.[24]

Codificación entre fotogramas

En la codificación entre fotogramas, se comparan los fotogramas individuales de una secuencia de vídeo de un fotograma a otro, y el códec de compresión de vídeo registra las diferencias respecto al fotograma de referencia. Si el fotograma contiene áreas en las que no se ha movido nada, el sistema puede simplemente emitir un breve comando que copie esa parte del fotograma anterior en el siguiente. Si hay secciones del fotograma que se mueven de forma sencilla, el compresor puede emitir un comando (ligeramente más largo) que indique al descompresor que desplace, rote, aclare u oscurezca la copia. Este comando más largo sigue siendo mucho más corto que los datos generados por la compresión intracuadro. Normalmente, el codificador también transmite una señal de residuo que describe las restantes diferencias más sutiles con respecto a las imágenes de referencia. Utilizando la codificación de entropía, estas señales de residuo tienen una representación más compacta que la señal completa. En las zonas de vídeo con más movimiento, la compresión debe codificar más datos para mantener el ritmo del mayor número de píxeles que cambian. Normalmente, durante las explosiones, las llamas, las bandadas de animales y en algunas tomas panorámicas, el detalle de alta frecuencia provoca una disminución de la calidad o un aumento de la tasa de bits variable.

Formatos de transformación híbridos basados en bloques

 
Etapas de procesamiento de un codificador de vídeo típico.

En la actualidad, casi todos los métodos de compresión de vídeo más utilizados (por ejemplo, los que figuran en las normas aprobadas por la UIT-T o la ISO) comparten la misma arquitectura básica que se remonta a la norma H.261, estandarizada en 1988 por la UIT-T. Se basan principalmente en la DCT, aplicada a bloques rectangulares de píxeles vecinos, y en la predicción temporal mediante vectores de movimiento, así como, actualmente, en una etapa de filtrado en bucle.

En la etapa de predicción, se aplican varias técnicas de deduplicación y de codificación de diferencias que ayudan a decorrelacionar los datos y a describir los nuevos datos basándose en los ya transmitidos.

A continuación, los bloques rectangulares de datos de píxeles restantes se transforman en el dominio de la frecuencia. En la principal etapa de procesamiento con pérdidas, los datos del dominio de la frecuencia se cuantifican para reducir la información que es irrelevante para la percepción visual humana.

En la última etapa, la redundancia estadística se elimina en gran medida mediante un codificador de entropía que suele aplicar alguna forma de codificación aritmética.

En una etapa adicional de filtrado en bucle se pueden aplicar varios filtros a la señal de imagen reconstruida. Al computar estos filtros también dentro del bucle de codificación pueden ayudar a la compresión porque pueden aplicarse al material de referencia antes de que se utilice en el proceso de predicción y pueden guiarse utilizando la señal original. El ejemplo más popular son los filtros de desbloqueo que eliminan los artefactos de bloqueo de las discontinuidades de cuantificación en los límites de los bloques de transformación.

Historia

En 1967, A.H. Robinson y C. Cherry propusieron un esquema de compresión de ancho de banda de codificación de longitud de carrera para la transmisión de señales de televisión analógicas.[46]​ La transformada de coseno discreta (DCT), que es fundamental para la compresión de vídeo moderna,[47]​ fue introducida por Nasir Ahmed, T. Natarajan y K. R. Rao en 1974.[30][48]

H.261 , que debutó en 1988, introdujo comercialmente la arquitectura básica prevalente de la tecnología de compresión de vídeo.[49]​ Fue el primer formato de codificación de vídeo basado en la compresión DCT.[47]​ H.261 fue desarrollado por varias empresas, entre ellas Hitachi, PictureTel, NTT, BT y Toshiba.[50]

Los estándares de codificación de vídeo más populares utilizados para los códecs han sido los estándares MPEG. MPEG-1 fue desarrollado por el Motion Picture Experts Group (MPEG) en 1991, y fue diseñado para comprimir vídeo de calidad VHS. Fue sucedido en 1994 por MPEG-2/H.262,[49]​ que fue desarrollado por varias empresas, principalmente Sony, Thomson y Mitsubishi Electric.[51]​ MPEG-2 se convirtió en el formato de vídeo estándar para DVD y televisión digital SD.[49]​ En 1999, le siguió MPEG-4/H.263 .[49]​ También fue desarrollado por varias empresas, principalmente Mitsubishi Electric, Hitachi y Panasonic.[52]

H.264/MPEG-4 AVC fue desarrollado en 2003 por varias organizaciones, principalmente Panasonic, Godo Kaisha IP Bridge y LG Electronics.[53]​ AVC introdujo comercialmente los modernos algoritmos de codificación aritmética binaria adaptable al contexto (CABAC) y codificación de longitud variable adaptable al contexto (CAVLC). AVC es el principal estándar de codificación de vídeo para los discos Blu-ray, y es ampliamente utilizado por los sitios web para compartir vídeos y los servicios de transmisión por Internet como YouTube, Netflix, Vimeo y iTunes Store, el software web como Adobe Flash Player y Microsoft Silverlight, y varias emisiones de HDTV por televisión terrestre y por satélite.

Genética

Los algoritmos de compresión genómica son la última generación de algoritmos sin pérdidas que comprimen datos (normalmente secuencias de nucleótidos) utilizando tanto algoritmos de compresión convencionales como algoritmos genéticos adaptados al tipo de datos específico. En 2012, un equipo de científicos de la Universidad Johns Hopkins publicó un algoritmo de compresión genética que no utiliza un genoma de referencia para la compresión. HAPZIPPER se adaptó a los datos del HapMap y logra una compresión de más de 20 veces (95% de reducción del tamaño del archivo), proporcionando una compresión de 2 a 4 veces mejor y es menos intensiva desde el punto de vista computacional que las principales utilidades de compresión de uso general. Para ello, Chanda, Elhaik y Bader introdujeron la codificación basada en MAF (MAFE), que reduce la heterogeneidad del conjunto de datos clasificando los SNP por su frecuencia alélica menor, homogeneizando así el conjunto de datos.[54]​ Otros algoritmos desarrollados en 2009 y 2013 (DNAZip y GenomeZip) tienen ratios de compresión de hasta 1200 veces, lo que permite almacenar 6.000 millones de pares de bases de genomas humanos diploides en 2. 5 megabytes (en relación con un genoma de referencia o promediado entre muchos genomas).[55][56]​ Para una referencia en compresores de datos genéticos/genómicos, véase [57]​.

Hipótesis

El trabajo de investigación científica de Boris Weisler se centraba en una línea árida de la matemática: la teoría de grupos algebraicos. El vocablo “grupo” se utiliza para designar al conjunto de simetrías de un objeto y la manera en que estas interactúan. Obviamente, el grupo dependerá de la geometría del objeto en cuestión. Ahora bien, la abstracción matemática permite definir la noción de grupo sin un objeto subyacente, y a partir de su estructura interna reconstruir dicho objeto. La relevancia de este proceso radica en que ha permitido descubrir de manera abstracta nuevas e insospechadas geometrías. Al lidiar directamente con grupos se utilizan métodos algebraicos de gran formalidad. De alguna manera, se trabaja solo con variables e incógnitas pensando siempre en que hay un objeto por detrás, pero sin aferrarse nunca a él. Si mediante estos métodos se logra establecer un resultado, entonces este tendrá consecuencias -a veces insospechadas- sobre estos objetos “nebulosos” y su geometría. Su Gran Teorema, espectacular, puede leerse de la siguiente manera: “todo subgrupo del grupo de matrices de entradas enteras y determinante 1 que es denso en la topología Zarisky es casi denso en la topología de congruencias”. Aunque parece un trabalenguas, lo cierto es que este resultado de 1984 es una verdadera joya de la matemática, y tardó años en ser completamente comprendido y asimilado por la comunidad académica.

Del mismo, de difícil comprensión, se deduciría un nuevo diferente concepto de "compresión sin compresión" basado, en principios "matemáticos-semánticos". Un terreno todavía muy poco explorado. Si somos capaces de comprender la información a "comprimir" como un mero lenguaje convencional, que consta de significado pero que se expresa como significante, y somos capaces de traducir estos significantes a números, números susceptibles de operaciones matemáticas, la "compresión" de la información, deja de entenderse como tal pasando a ser, sencillamente, la reducción de un número (que puede ser extraordinariamente grande), una fórmula, o clave numérica resultante de operaciones matemáticas sobre el "objeto-información" a reducir (comprimir, en el lenguaje habitual). El ejemplo al que se recurre como demostración suele ser del siguiente tipo: Traducimos una información, un texto, un libro con 100.000 palabras. Lo convertimos a su equivalente numérico binario, pero, para entender mejor el ejemplo, volvemos a convertirlo a su equivalente decimal. Nos queda entonces, un número enorme, con una determinada terminación, secuencia numérica. Elegimos, de esas originales 100.000 palabras (ahora representadas como números decimales) las últimas 5000 (la elección es convencional, y de acuerdo a las necesidades prefijadas). Tomamos estas 5000 palabras finales del texto-número como "patrón". Y las restamos n veces, hasta llegar a obtener un número menor que el patrón utilizado. Le llamaremos, convencionalmente, "resto". Así, nos quedan también dos claves. Les llamaremos, "claves de reconstrucción de la información inicial". Simplemente, habrá que coger luego ese resto y sumar n veces el patrón elegido, hasta que comprobemos que tal patrón coincide con el final de la información inicial o totalidad. Y de esas dos claves, habremos reconstruido el total de la información. Por supuesto, este es solo un ejemplo modelo muy simplificado. Con la base de los principios aquí explicados, y las herramientas matemáticas e informáticas disponibles se puede avanzar más allá de los límites aparentes. Téngase en cuenta que ni siquiera nos hemos referido a recursos como la recursividad, también aplicable a este método y perfectamente tratable informáticamente.

Referencias

  1. Wade, Graham (1994). Signal coding and processing (2 edición). Cambridge University Press. p. 34. ISBN 978-0-521-42336-6. Consultado el 22 de diciembre de 2011. «The broad objective of source coding is to exploit or remove 'inefficient' redundancy in the PCM source and thereby achieve a reduction in the overall source rate R. » 
  2. Claude Elwood Shannon (1948). «A Mathematical Theory of Communication». En Alcatel-Lucent, ed. Bell System Technical Journal 27 (3–4): 379-423, 623-656. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:11858/00-001M-0000-002C-4314-2. Consultado el 21 de abril de 2019. 
  3. David Albert Huffman (September 1952), «A method for the construction of minimum-redundancy codes», Proceedings of the IRE 40 (9): 1098-1101, doi:10.1109/JRPROC.1952.273898 .
  4. Pratt, W.K.; Kane, J.; Andrews, H.C. (1969). «Hadamard transform image coding». Proceedings of the IEEE 57: 58-68. doi:10.1109/PROC.1969.6869. 
  5. Ahmed, Nasir (January 1991). «How I Came Up With the Discrete Cosine Transform». Digital Signal Processing 1 (1): 4-5. doi:10.1016/1051-2004(91)90086-Z. 
  6. «T.81 - COMPRESIÓN DIGITAL Y CODIFICACIÓN DE IMÁGENES FIJAS DE TONO CONTINUO - REQUISITOS Y DIRECTRICES». CCITT. Septiembre 1992. Consultado el 12 de julio de 2019. 
  7. . BT.com. BT Group. 31 de mayo de 2018. Archivado desde el original el 5 de agosto de 2019. Consultado el 5 de agosto de 2019. 
  8. Baraniuk, Chris (15 de octubre de 2015). «Las protecciones de copia podrían llegar a los JPEG». BBC News. BBC. Consultado el 13 de septiembre de 2019. 
  9. «¿Qué es un JPEG? El objeto invisible que ves todos los días». The Atlantic. 24 de septiembre de 2013. Consultado el 13 de septiembre de 2019. 
  10. «La controversia del GIF: A Software Developer's Perspective». Consultado el 26 de mayo de 2015. 
  11. DEFLATE Compressed Data Format Specification version 1.3, p. 1. sec. Abstract, doi:10.17487/RFC1951, RFC 1951 .
  12. Hoffman, Roy (2012). Data Compression in Digital Systems. Springer Science & Business Media. p. 124. ISBN 9781461560319. «Basically, wavelet coding is a variant on DCT-based transform coding that reduces or eliminates some of its limitations. (...) Another advantage is that rather than working with 8 × 8 blocks of pixels, as do JPEG and other block-based DCT techniques, wavelet coding can simultaneously compress the entire image. » 
  13. Taubman, David; Marcellin, Michael (2012). Fundamentos, estándares y práctica de la compresión de imágenes JPEG2000: Fundamentos, normas y práctica de la compresión de imágenes. Springer Science & Business Media. ISBN 9781461507994. 
  14. Unser, M.; Blu, T. (2003). «Mathematical properties of the JPEG2000 wavelet filters». IEEE Transactions on Image Processing 12 (9): 1080-1090. Bibcode:2003ITIP...12.1080U. PMID 18237979. S2CID 2765169. doi:10.1109/TIP.2003.812329. 
  15. Sullivan, Gary (8-12 de diciembre de 2003). «Características generales y consideraciones de diseño para la codificación de vídeo de subbanda temporal». UIT-T. Video Coding Experts Group. Consultado el 13 de septiembre de 2019. 
  16. Bovik, Alan C. (2009). La guía esencial del procesamiento de vídeo. Academic Press. p. 355. ISBN 9780080922508. 
  17. Swartz, Charles S. (2005). Understanding Digital Cinema: A Professional Handbook. Taylor & Francis. p. 147. ISBN 9780240806174. 
  18. Mahdi, O.A.; Mohammed, M.A.; Mohamed, A.J. (November 2012). «Implementing a Novel Approach an Convert Audio Compression to Text Coding via Hybrid Technique». International Journal of Computer Science Issues 9 (6, No. 3): 53-59. Consultado el 6 de marzo de 2013. 
  19. Cunningham, Stuart; McGregor, Iain (2019). «Evaluación subjetiva de la música comprimida con el códec ACER en comparación con AAC, MP3 y PCM sin comprimir». International Journal of Digital Multimedia Broadcasting (en inglés) 2019: 1-16. doi:10.1155/2019/8265301. 
  20. The Olympus WS-120 digital speech recorder, according to its manual, can store about 178 hours of speech-quality audio in .WMA format in 500 MB of flash memory.
  21. Coalson, Josh. «FLAC Comparison». Consultado el 23 de agosto de 2020. 
  22. «Format overview». Consultado el 23 de agosto de 2020. 
  23. Jaiswal, R.C. (2009). Audio-Video Engineering. Pune, Maharashtra: Nirali Prakashan. p. 3.41. ISBN 9788190639675. 
  24. Faxin Yu; Hao Luo; Zheming Lu (2010). Three-Dimensional Model Analysis and Processing. Berlin: Springer. p. 47. ISBN 9783642126512. 
  25. Plantilla:US patent reference
  26. Cummiskey, P.; Jayant, N. S.; Flanagan, J. L. (1973). «Cuantización adaptativa en la codificación PCM diferencial del habla». Bell System Technical Journal 52 (7): 1105-1118. doi:10.1002/j.1538-7305.1973.tb02007.x. 
  27. Cummiskey, P.; Jayant, Nikil S.; Flanagan, J. L. (1973). «Cuantización adaptativa en la codificación PCM diferencial del habla». The Bell System Technical Journal 52 (7): 1105-1118. ISSN 0005-8580. doi:10.1002/j.1538-7305.1973.tb02007.x. 
  28. Schroeder, Manfred R. (2014). id=d9IkBAAAQBAJ&pg=PA388 «Laboratorios Bell». Acústica, información y comunicación: Volumen conmemorativo en honor de Manfred R. Schroeder. Springer. p. 388. ISBN 9783319056609. 
  29. Gray, Robert M. (2010). «A History of Realtime Digital Speech on Packet Networks: Parte II de la Codificación Predictiva Lineal y el Protocolo de Internet». Found. Trends Signal Process. 3 (4): 203-303. ISSN 1932-8346. doi:10.1561/2000000036. 
  30. Nasir Ahmed; T. Natarajan; Kamisetty Ramamohan Rao (January 1974). «Discrete Cosine Transform». IEEE Transactions on Computers. C-23 (1): 90-93. S2CID 149806273. doi:10.1109/T-C.1974.223784. 
  31. Guckert, John (Primavera 2012). math.utah.edu/~gustafso/s2012/2270/web-projects/Guckert-audio-compression-svd-mdct-MP3.pdf «El uso de la FFT y la MDCT en la compresión de audio MP3». Universidad de Utah. Consultado el 14 de julio de 2019. 
  32. Luo, Fa-Long (2008). Normas de difusión multimedia móvil: Tecnología y práctica. Springer Science & Business Media. p. 590. ISBN 9780387782638. 
  33. Britanak, V. (2011). «Sobre propiedades, relaciones e implementación simplificada de bancos de filtros en los estándares de codificación de audio Dolby Digital (Plus) AC-3». IEEE Transactions on Audio, Speech, and Language Processing 19 (5): 1231-1241. S2CID 897622. doi:10.1109/TASL.2010.2087755. 
  34. Brandenburg, Karlheinz (1999). archive.org/web/20170213191747/https://graphics.ethz.ch/teaching/mmcom12/slides/mp3_and_aac_brandenburg.pdf «Explicación de MP3 y AAC». Archivado desde el original el 13 de febrero de 2017. 
  35. Princen, J.; Johnson, A.; Bradley, A. (1987). «Codificación de subbanda/transformación utilizando diseños de bancos de filtros basados en la cancelación de aliasing en el dominio del tiempo». ICASSP '87. IEEE International Conference on Acoustics, Speech, and Signal Processing 12. pp. 2161-2164. S2CID 58446992. doi:10.1109/ICASSP.1987.1169405. 
  36. Princen, J.; Bradley, A. (1986). «Diseño de banco de filtros de análisis/síntesis basado en la cancelación de aliasing en el dominio del tiempo». IEEE Transactions on Acoustics, Speech, and Signal Processing 34 (5): 1153-1161. doi:10.1109/TASSP.1986.1164954. 
  37. . Brief History of Solidyne. Buenos Aires: Solidyne. Archivado desde el original el 8 de marzo de 2013. Consultado el 6 de marzo de 2013. Plantilla:Sps
  38. Esta fuente autopublicada no es lo suficientemente buena como para verificar esta significativa primicia. Octubre 2021,
  39. Zwicker, Eberhard (1967). . Melville, NY: Acoustical Society of America. Archivado desde el original el 14 de septiembre de 2000. Consultado el 11 de noviembre de 2011. 
  40. «File Compression Possibilities». A Brief guide to compress a file in 4 different ways. 17 de febrero de 2017. 
  41. Dmitriy Vatolin (March 2007), Lossless Video Codecs Comparison '2007, Moscow State University .
  42. Chen, Jie; Koc, Ut-Va; Liu, KJ Ray (2001). Diseño de sistemas de codificación de vídeo digital: Un enfoque completo de dominio comprimido. CRC Press. p. 71. ISBN 9780203904183. 
  43. Li, Jian Ping (2006). Proceedings of the International Computer Conference 2006 on Wavelet Active Media Technology and Information Processing: Chongqing, China, 29-31 de agosto de 2006. World Scientific. p. 847. ISBN 9789812709998. 
  44. . CSIP website. Center for Signal and Information Processing, Georgia Institute of Technology. Archivado desde el original el 23 de mayo de 2013. Consultado el 6 de marzo de 2013. 
  45. Lane, Tom. «JPEG Image Compression FAQ, Part 1». Internet FAQ Archives. Independent JPEG Group. Consultado el 6 de marzo de 2013. 
  46. Robinson, A. H.; Cherry, C. (1967). «Resultados de un prototipo de esquema de compresión de ancho de banda de televisión». Proceedings of the IEEE (IEEE) 55 (3): 356-364. doi:10.1109/PROC.1967.5493. 
  47. Ghanbari, Mohammed (2003). Standard Codecs: De la compresión de imágenes a la codificación de vídeo avanzada. Institución de Ingeniería y Tecnología. pp. 1-2. ISBN 9780852967102. 
  48. Reader, Cliff (31 de agosto de 2016). «Patent landscape for royalty-free video coding». En Tescher, Andrew G, ed. . Applications of Digital Image Processing XXXIX 9971. San Diego, California: Society of Photo-Optical Instrumentation Engineers. pp. 99711B. Bibcode:2016SPIE.9971E..1BR. doi:10.1117/12.2239493. Archivado desde el original|urlarchivo= requiere |url= (ayuda) el 8 de diciembre de 2016.  Lecture recording, from 3:05:10.
  49. com/resources/digital-video-file-formats/ «Infografía sobre la historia de los formatos de archivo de vídeo - RealPlayer». 22 de abril de 2012. 
  50. «Declaración de patente registrada como H261-07». ITU. Consultado el 11 de julio de 2019. 
  51. «Lista de patentes de MPEG-2». MPEG LA. Consultado el 7 de julio de 2019. 
  52. «MPEG-4 Visual - Lista de patentes». MPEG LA. Consultado el 6 de julio de 2019. 
  53. «AVC/H.264 [[:Plantilla:Ndash]] Lista de patentes». MPEG LA. Consultado el 6 de julio de 2019.  Wikienlace dentro del título de la URL (ayuda)
  54. Chanda P, Bader JS, Elhaik E (27 de julio de 2012). «HapZipper: sharing HapMap populations just got easier». Nucleic Acids Research 40 (20): e159. PMC 3488212. PMID 22844100. doi:10.1093/nar/gks709. 
  55. Christley S, Lu Y, Li C, Xie X (Jan 15, 2009). «Human genomes as email attachments». Bioinformatics 25 (2): 274-5. PMID 18996942. doi:10.1093/bioinformatics/btn582. 
  56. Pavlichin DS, Weissman T, Yona G (September 2013). «The human genome contracts again». Bioinformatics 29 (17): 2199-202. PMID 23793748. doi:10.1093/bioinformatics/btt362. 
  57. Hosseini, Morteza; Pratas, Diogo; Pinho, Armando (2016). «A Survey on Data Compression Methods for Biological Sequences». Information 7 (4): 56. doi:10.3390/info7040056. 

Véase también

Enlaces externos

  • Lista de manuales de algoritmos de compresión sin pérdida
  • Compresión de archivos: formas, tipos y métodos
  •   Datos: Q2493
  •   Multimedia: Data compression / Q2493

compresión, datos, ciencias, computación, compresión, datos, reducción, volumen, datos, tratables, para, representar, determinada, información, empleando, menor, cantidad, espacio, acto, compresión, datos, denomina, compresión, contrario, descompresión, espaci. En ciencias de la computacion la compresion de datos es la reduccion del volumen de datos tratables para representar una determinada informacion empleando una menor cantidad de espacio 1 Al acto de compresion de datos se denomina compresion y al contrario descompresion El espacio que ocupa una informacion codificada datos senal digital etc sin compresion es el producto entre la frecuencia de muestreo y la resolucion Por tanto cuantos mas bits se empleen mayor sera el tamano del archivo No obstante la resolucion viene impuesta por el sistema digital con que se trabaja y no se puede alterar el numero de bits a voluntad por ello se utiliza la compresion para transmitir la misma cantidad de informacion que ocuparia una gran resolucion en un numero inferior de bits La compresion es un caso particular de la codificacion cuya caracteristica principal es que el codigo resultante tiene menor tamano que el original La compresion de datos se basa fundamentalmente en buscar repeticiones en series de datos para despues almacenar solo el dato junto al numero de veces que se repite Asi por ejemplo si en un fichero aparece una secuencia como AAAAAA ocupando 6 bytes se podria almacenar simplemente 6A que ocupa solo 2 bytes en algoritmo RLE En realidad el proceso es mucho mas complejo ya que raramente se consigue encontrar patrones de repeticion tan exactos salvo en algunas imagenes Se utilizan algoritmos de compresion Por un lado algunos buscan series largas que luego codifican en formas mas breves Por otro lado algunos algoritmos como el algoritmo de Huffman examinan los caracteres mas repetidos para luego codificar de forma mas corta los que mas se repiten Otros como el LZW construyen un diccionario con los patrones encontrados a los cuales se hace referencia de manera posterior La codificacion de bytes pares es otro sencillo algoritmo de compresion muy facil de entender A la hora de hablar de compresion hay que tener presentes dos conceptos Redundancia Datos que son repetitivos o previsibles Entropia La informacion nueva o esencial que se define como la diferencia entre la cantidad total de datos de un mensaje y su redundancia La informacion que transmiten los datos puede ser de tres tipos Redundante informacion repetitiva o predecible Irrelevante informacion que no podemos apreciar y cuya eliminacion por tanto no afecta al contenido del mensaje Por ejemplo si las frecuencias que es capaz de captar el oido humano estan entre 16 20 Hz y 16 000 20 000 Hz serian irrelevantes aquellas frecuencias que estuvieran por debajo o por encima de estos valores Basica la relevante La que no es ni redundante ni irrelevante La que debe ser transmitida para que se pueda reconstruir la senal Teniendo en cuenta estos tres tipos de informacion se establecen tres tipologias de compresion de la informacion Sin perdidas reales es decir transmitiendo toda la entropia del mensaje toda la informacion basica e irrelevante pero eliminando la redundante Subjetivamente sin perdidas es decir ademas de eliminar la informacion redundante se elimina tambien la irrelevante Subjetivamente con perdidas se elimina cierta cantidad de informacion basica por lo que el mensaje se reconstruira con errores perceptibles pero tolerables por ejemplo la videoconferencia Indice 1 Diferencias entre compresion con perdida y sin ella 2 Usos 2 1 Imagen 2 2 Audio 2 2 1 Compresion de audio con perdidas 2 2 1 1 Metodos de codificacion 2 2 1 2 Codificacion del habla 2 2 2 Historia 2 3 Video 2 3 1 Teoria de la codificacion 2 3 1 1 Codificacion entre fotogramas 2 3 2 Formatos de transformacion hibridos basados en bloques 2 3 3 Historia 2 4 Genetica 2 5 Hipotesis 3 Referencias 4 Vease tambien 5 Enlaces externosDiferencias entre compresion con perdida y sin ella EditarEl objetivo de la compresion es siempre reducir el tamano de la informacion intentando que esta reduccion de tamano no afecte al contenido No obstante la reduccion de datos puede afectar o no a la calidad de la informacion Compresion sin perdida los datos antes y despues de comprimirlos son exactos en la compresion sin perdida En el caso de la compresion sin perdida una mayor compresion solo implica mas tiempo de proceso La tasa de bits siempre es variable en la compresion sin perdida Se utiliza principalmente en la compresion de texto Un algoritmo de compresion con perdida puede eliminar datos para disminuir aun mas el tamano con lo que reduce la calidad En la compresion con perdida la tasa de bits puede ser constante o variable Una vez realizada la compresion no se puede obtener la senal original aunque si una aproximacion cuya semejanza con la original dependera del tipo de compresion Este tipo de compresion se da principalmente en imagenes videos y sonidos Ademas de estas funciones la compresion permite que los algoritmos usados para reducir las cadenas del codigo desechen informacion redundante de la imagen Uno de los formatos que permite compensar esta perdida es el JPG que emplea tecnicas que suavizan los bordes y areas que tienen un color similar permitiendo que la falta de informacion sea invisible a simple vista Este metodo permite un alto grado de compresion con perdidas en la imagen que muchas veces solo es visible mediante el zoom Usos EditarImagen Editar Articulo principal Compresion de imagenes La codificacion de entropia se origino en la decada de 1940 con la introduccion de la codificacion Shannon Fano 2 la base de la codificacion Huffman que se desarrollo en 1950 3 La codificacion por transformada se remonta a finales de la decada de 1960 con la introduccion de la transformada rapida de Fourier FFT en 1968 y la transformada Hadamard en 1969 4 Una importante tecnica de compresion de imagenes es la transformada de coseno discreta DCT una tecnica desarrollada a principios de la decada de 1970 5 La DCT es la base del JPEG un formato de compresion con perdidas que fue introducido por el Joint Photographic Experts Group JPEG en 1992 6 JPEG reduce en gran medida la cantidad de datos necesarios para representar una imagen a costa de una reduccion relativamente pequena de la calidad de la misma y se ha convertido en el formato de archivo de imagen mas utilizado 7 8 Su algoritmo de compresion altamente eficiente basado en la DCT fue en gran parte responsable de la amplia proliferacion de imagenes digitales y fotos digitales 9 Lempel Ziv Welch LZW es un algoritmo de compresion sin perdidas desarrollado en 1984 Se utiliza en el formato GIF introducido en 1987 10 DEFLATE un algoritmo de compresion sin perdidas especificado en 1996 se utiliza en el formato Portable Network Graphics PNG 11 La compresion wavelet el uso de wavelets en la compresion de imagenes comenzo tras el desarrollo de la codificacion DCT 12 El estandar JPEG 2000 se introdujo en el ano 2000 13 A diferencia del algoritmo DCT utilizado por el formato JPEG original JPEG 2000 utiliza en su lugar algoritmos de transformada de ondicula discreta DWT 14 15 16 La tecnologia JPEG 2000 que incluye la extension Motion JPEG 2000 fue seleccionada como el estandar de codificacion de video para el cine digital en 2004 17 Audio Editar Vease tambien Codec de audio La compresion de datos de audio que no debe confundirse con la compresion de rango dinamico tiene el potencial de reducir el ancho de banda y los requisitos de almacenamiento de los datos de audio Los algoritmos de compresion de audio se implementan en software como codecs de audio Tanto en la compresion con perdidas como en la compresion sin perdidas se reduce la redundancia de la informacion utilizando metodos como la codificacion la cuantizacion la transformada de coseno discreta y la prediccion lineal para reducir la cantidad de informacion utilizada para representar los datos sin comprimir Los algoritmos de compresion de audio con perdidas proporcionan una mayor compresion y se utilizan en numerosas aplicaciones de audio como Vorbis y MP3 Estos algoritmos se basan casi todos en la psicoacustica para eliminar o reducir la fidelidad de los sonidos menos audibles reduciendo asi el espacio necesario para almacenarlos o transmitirlos 18 19 La compensacion aceptable entre la perdida de calidad de audio y el tamano de transmision o almacenamiento depende de la aplicacion Por ejemplo un disco compacto CD de 640 MB contiene aproximadamente una hora de musica de alta fidelidad sin comprimir menos de 2 horas de musica comprimida sin perdidas o 7 horas de musica comprimida en el formato MP3 a una tasa de bits media Una grabadora de sonido digital puede almacenar normalmente unas 200 horas de habla claramente inteligible en 640 MB 20 La compresion de audio sin perdidas produce una representacion de los datos digitales que puede descodificarse en un duplicado digital exacto del original Los ratios de compresion se situan en torno al 50 60 del tamano original 21 que es similar a los de la compresion generica de datos sin perdidas Los codecs sin perdidas utilizan el ajuste de curvas o la prediccion lineal como base para estimar la senal Los parametros que describen la estimacion y la diferencia entre la estimacion y la senal real se codifican por separado 22 Existen varios formatos de compresion de audio sin perdidas Vease lista de codecs sin perdidas para obtener una lista Algunos formatos estan asociados a un sistema distinto como Direct Stream Transfer utilizado en Super Audio CD y Meridian Lossless Packing utilizado en DVD Audio Dolby TrueHD Blu ray y HD DVD Algunos formatos de archivo de audio presentan una combinacion de un formato con perdidas y una correccion sin perdidas esto permite eliminar la correccion para obtener facilmente un archivo con perdidas Estos formatos incluyen MPEG 4 SLS Scalable to Lossless WavPack y OptimFROG DualStream Cuando se van a procesar archivos de audio ya sea por compresion posterior o para edicion es deseable trabajar a partir de un original inalterado sin comprimir o comprimido sin perdidas El procesamiento de un archivo comprimido sin perdidas para algun fin suele producir un resultado final inferior a la creacion del mismo archivo comprimido a partir de un original sin comprimir Ademas de para la edicion o la mezcla de sonido la compresion de audio sin perdidas se utiliza a menudo para el almacenamiento de archivos o como copias maestras Compresion de audio con perdidas Editar Comparacion de espectrogramas de audio en un formato sin comprimir y en varios formatos con perdidas Los espectrogramas con perdidas muestran bandlimiting de las frecuencias mas altas una tecnica comun asociada a la compresion de audio con perdidas La compresion de audio con perdidas se utiliza en una amplia gama de aplicaciones Ademas de las aplicaciones independientes de reproduccion de archivos en reproductores MP3 u ordenadores los flujos de audio comprimidos digitalmente se utilizan en la mayoria de los DVD de video la television digital los medios de transmision en Internet la radio por satelite y por cable y cada vez mas en las emisiones de radio terrestre La compresion con perdidas suele lograr una compresion mucho mayor que la compresion sin perdidas al descartar los datos menos criticos basandose en optimizaciones psicoacusticas 23 La psicoacustica reconoce que no todos los datos de un flujo de audio pueden ser percibidos por el sistema auditivo humano La mayor parte de la compresion con perdidas reduce la redundancia identificando primero los sonidos perceptualmente irrelevantes es decir los sonidos que son muy dificiles de oir Ejemplos tipicos son las frecuencias altas o los sonidos que se producen al mismo tiempo que los sonidos mas fuertes Esos sonidos irrelevantes se codifican con menor precision o no se codifican en absoluto Debido a la naturaleza de los algoritmos con perdidas la calidad del audio sufre una perdida de generacion digital cuando se descomprime y recomprime un archivo Esto hace que la compresion con perdidas sea inadecuada para almacenar los resultados intermedios en aplicaciones profesionales de ingenieria de audio como la edicion de sonido y la grabacion multipista Sin embargo los formatos con perdidas como el MP3 son muy populares entre los usuarios finales ya que el tamano del archivo se reduce al 5 20 del tamano original y un megabyte puede almacenar aproximadamente un minuto de musica con la calidad adecuada Metodos de codificacion Editar Para determinar que informacion de una senal de audio es irrelevante desde el punto de vista perceptivo la mayoria de los algoritmos de compresion con perdidas utilizan transformaciones como la transformada de coseno discreta MDCT para convertir las formas de onda muestreadas en el dominio del tiempo en un dominio de transformacion normalmente el dominio de la frecuencia Una vez transformadas las frecuencias de los componentes pueden priorizarse segun su audibilidad La audibilidad de los componentes espectrales se evalua utilizando el umbral absoluto de audicion y los principios de enmascaramiento simultaneo el fenomeno en el que una senal es enmascarada por otra senal separada por la frecuencia y en algunos casos enmascaramiento temporal en el que una senal es enmascarada por otra senal separada por el tiempo Tambien se pueden utilizar los contornos de igual sonoridad para ponderar la importancia perceptiva de los componentes Los modelos de la combinacion oido cerebro humano que incorporan estos efectos suelen denominarse modelo psicoacusticos 24 Otros tipos de compresores con perdidas como la codificacion predictiva lineal utilizada con el habla son codificadores basados en la fuente La LPC utiliza un modelo del tracto vocal humano para analizar los sonidos del habla e inferir los parametros utilizados por el modelo para producirlos momento a momento Estos parametros cambiantes se transmiten o almacenan y se utilizan para impulsar otro modelo en el descodificador que reproduce el sonido Los formatos con perdidas se utilizan a menudo para la distribucion de audio en streaming o la comunicacion interactiva como en las redes de telefonia movil En estas aplicaciones los datos deben descomprimirse a medida que fluyen en lugar de hacerlo despues de que se haya transmitido todo el flujo de datos No todos los codecs de audio pueden utilizarse para aplicaciones de streaming 23 La Latencia es introducida por los metodos utilizados para codificar y decodificar los datos Algunos codecs analizan un segmento mas largo llamado trama de los datos para optimizar la eficiencia y luego lo codifican de manera que se requiera un segmento mas grande de datos a la vez para decodificar La latencia inherente al algoritmo de codificacion puede ser critica por ejemplo cuando hay una transmision bidireccional de datos como en una conversacion telefonica los retrasos significativos pueden degradar seriamente la calidad percibida A diferencia de la velocidad de compresion que es proporcional al numero de operaciones que requiere el algoritmo aqui la latencia se refiere al numero de muestras que hay que analizar antes de procesar un bloque de audio En el caso minimo la latencia es de cero muestras por ejemplo si el codificador decodificador simplemente reduce el numero de bits utilizados para cuantificar la senal Los algoritmos del dominio del tiempo como el LPC tambien suelen tener latencias bajas de ahi su popularidad en la codificacion del habla para la telefonia Sin embargo en algoritmos como el MP3 hay que analizar un gran numero de muestras para implementar un modelo psicoacustico en el dominio de la frecuencia y la latencia es del orden de 23 ms Codificacion del habla Editar La codificacion del habla es una categoria importante de la compresion de datos de audio Los modelos perceptivos utilizados para estimar que aspectos del habla puede escuchar el oido humano suelen ser algo diferentes de los utilizados para la musica El rango de frecuencias necesario para transmitir los sonidos de una voz humana es normalmente mucho mas estrecho que el necesario para la musica y el sonido es normalmente menos complejo Por ello la voz puede codificarse con alta calidad utilizando una tasa de bits relativamente baja Esto se consigue en general mediante una combinacion de dos enfoques Codificar solo los sonidos que podria emitir una sola voz humana Desechar la mayor parte de los datos de la senal conservando solo lo suficiente para reconstruir una voz inteligible en lugar de toda la gama de frecuencias del oido humano Los primeros algoritmos utilizados en la codificacion del habla y en la compresion de datos de audio en general fueron el algoritmo A law y el algoritmo m law Historia Editar Solidyne 922 La primera tarjeta de sonido comercial de compresion de bits de audio para PC 1990 Las primeras investigaciones sobre audio se realizaron en los Laboratorios Bell Alli en 1950 C Chapin Cutler presento la patente de la modulacion diferencial por codigo de impulsos DPCM 25 En 1973 P Cummiskey Nikil S Jayant y James L Flanagan introdujeron la DPCM adaptativa ADPCM 26 27 La codificacion perceptiva se utilizo por primera vez para la compresion de la codificacion del habla con la codificacion predictiva lineal LPC 28 Los conceptos iniciales de LPC se remontan a los trabajos de Fumitada Itakura Universidad de Nagoya y Shuzo Saito Nippon Telegraph and Telephone en 1966 29 Durante la decada de 1970 Bishnu S Atal y Manfred R Schroeder en Bell Labs desarrollaron una forma de LPC llamada codificacion predictiva adaptativa APC un algoritmo de codificacion perceptiva que explotaba las propiedades de enmascaramiento del oido humano seguido a principios de los anos ochenta con el algoritmo de prediccion lineal excitada por codigo CELP que logro una relacion de compresion significativa para su epoca 28 La codificacion perceptual es utilizada por los formatos modernos de compresion de audio como MP3 28 y AAC La transformada de coseno discreta DCT desarrollada por Nasir Ahmed T Natarajan y K R Rao en 1974 30 proporciono la base para la transformada discreta del coseno modificada MDCT utilizada por los formatos modernos de compresion de audio como el MP3 31 Dolby Digital 32 33 y AAC 34 El MDCT fue propuesto por J P Princen A W Johnson y A B Bradley en 1987 35 tras un trabajo anterior de Princen y Bradley en 1986 36 30 El primer sistema comercial de automatizacion de emisiones de audio del mundo fue desarrollado por Oscar Bonello un profesor de ingenieria de la Universidad de Buenos Aires 37 38 En 1983 utilizando el principio psicoacustico del enmascaramiento de las bandas criticas publicado por primera vez en 1967 39 comenzo a desarrollar una aplicacion practica basada en el recien desarrollado ordenador IBM PC y el sistema de automatizacion de la radiodifusion fue lanzado en 1987 bajo el nombre de Audicom Veinte anos despues casi todas las emisoras de radio del mundo utilizaban una tecnologia similar fabricada por varias empresas En febrero de 1988 se publico un compendio bibliografico sobre una gran variedad de sistemas de codificacion de audio en el Journal on Selected Areas in Communications JSAC del IEEE Aunque habia algunos articulos de antes esta coleccion documentaba toda una variedad de codificadores de audio acabados y en funcionamiento casi todos ellos utilizando tecnicas perceptivas y algun tipo de analisis de frecuencia y codificacion sin ruido de fondo 40 Video Editar Vease tambien Codec de video El video sin comprimir requiere una tasa de datos muy alta Aunque los codecs mediante compresion de video sin perdidas funcionan con un factor de compresion de 5 a 12 un video tipico de compresion con perdidas H 264 tiene un factor de compresion de entre 20 y 200 41 Las dos tecnicas clave de compresion de video utilizadas en los estandares de codificacion de video son la transformada de coseno discreta DCT y la compensacion de movimiento MC La mayoria de los estandares de codificacion de video como los formatos H 26x y MPEG suelen utilizar la codificacion de video DCT con compensacion de movimiento compensacion de movimiento en bloque 42 43 La mayoria de los codecs de video se utilizan junto con las tecnicas de compresion de audio para almacenar los flujos de datos separados pero complementarios como un paquete combinado utilizando los llamados formato contenedors 44 Teoria de la codificacion Editar Los datos de video pueden representarse como una serie de fotogramas de imagenes fijas Estos datos suelen contener abundantes cantidades de redundancia espacial y temporal Los algoritmos de compresion de video intentan reducir la redundancia y almacenar la informacion de forma mas compacta La mayoria de los formatos de compresion de video y codecs explotan la redundancia espacial y temporal por ejemplo mediante la codificacion de diferencias con compensacion de movimiento Las similitudes pueden codificarse almacenando solo las diferencias entre por ejemplo fotogramas temporalmente adyacentes codificacion intercuadro o pixeles espacialmente adyacentes codificacion intracuadro La compresion Inter frame una codificacion delta temporal re utiliza los datos de uno o mas fotogramas anteriores o posteriores de una secuencia para describir el fotograma actual La codificacion intracuadro por el contrario utiliza solo datos del cuadro actual siendo en realidad una compresion de imagen 24 Los formatos de codificacion de video entre fotogramas utilizados en las videocamaras y en la edicion de video emplean una compresion mas simple que utiliza solo la prediccion intra frame Esto simplifica el software de edicion de video ya que evita que un fotograma comprimido se refiera a datos que el editor ha eliminado Normalmente la compresion de video emplea ademas tecnicas de compresion con perdidas como la cuantizacion que reducen aspectos de los datos de origen que son mas o menos irrelevantes para la percepcion visual humana explotando caracteristicas perceptivas de la vision humana Por ejemplo las pequenas diferencias de color son mas dificiles de percibir que los cambios de brillo Los algoritmos de compresion pueden promediar un color a traves de estas areas similares de una manera similar a los utilizados en la compresion de imagenes JPEG 45 Como en toda compresion con perdidas hay un compromiso entre la calidad de video y la tasa de bits el coste de procesar la compresion y la descompresion y los requisitos del sistema Los videos muy comprimidos pueden presentar artefactos de compresion visibles o molestos Otros metodos distintos de los formatos de transformacion basados en la DCT como la compresion fractal la busqueda de coincidencias y el uso de una transformada wavelet discreta DWT han sido objeto de algunas investigaciones pero no suelen utilizarse en productos practicos La compresion wavelet se utiliza en codificadores de imagenes fijas y de video sin compensacion de movimiento El interes por la compresion fractal parece estar disminuyendo debido a los recientes analisis teoricos que muestran una falta de eficacia comparativa de tales metodos 24 Codificacion entre fotogramas Editar Vease tambien Compensacion de movimiento En la codificacion entre fotogramas se comparan los fotogramas individuales de una secuencia de video de un fotograma a otro y el codec de compresion de video registra las diferencias respecto al fotograma de referencia Si el fotograma contiene areas en las que no se ha movido nada el sistema puede simplemente emitir un breve comando que copie esa parte del fotograma anterior en el siguiente Si hay secciones del fotograma que se mueven de forma sencilla el compresor puede emitir un comando ligeramente mas largo que indique al descompresor que desplace rote aclare u oscurezca la copia Este comando mas largo sigue siendo mucho mas corto que los datos generados por la compresion intracuadro Normalmente el codificador tambien transmite una senal de residuo que describe las restantes diferencias mas sutiles con respecto a las imagenes de referencia Utilizando la codificacion de entropia estas senales de residuo tienen una representacion mas compacta que la senal completa En las zonas de video con mas movimiento la compresion debe codificar mas datos para mantener el ritmo del mayor numero de pixeles que cambian Normalmente durante las explosiones las llamas las bandadas de animales y en algunas tomas panoramicas el detalle de alta frecuencia provoca una disminucion de la calidad o un aumento de la tasa de bits variable Formatos de transformacion hibridos basados en bloques Editar Etapas de procesamiento de un codificador de video tipico En la actualidad casi todos los metodos de compresion de video mas utilizados por ejemplo los que figuran en las normas aprobadas por la UIT T o la ISO comparten la misma arquitectura basica que se remonta a la norma H 261 estandarizada en 1988 por la UIT T Se basan principalmente en la DCT aplicada a bloques rectangulares de pixeles vecinos y en la prediccion temporal mediante vectores de movimiento asi como actualmente en una etapa de filtrado en bucle En la etapa de prediccion se aplican varias tecnicas de deduplicacion y de codificacion de diferencias que ayudan a decorrelacionar los datos y a describir los nuevos datos basandose en los ya transmitidos A continuacion los bloques rectangulares de datos de pixeles restantes se transforman en el dominio de la frecuencia En la principal etapa de procesamiento con perdidas los datos del dominio de la frecuencia se cuantifican para reducir la informacion que es irrelevante para la percepcion visual humana En la ultima etapa la redundancia estadistica se elimina en gran medida mediante un codificador de entropia que suele aplicar alguna forma de codificacion aritmetica En una etapa adicional de filtrado en bucle se pueden aplicar varios filtros a la senal de imagen reconstruida Al computar estos filtros tambien dentro del bucle de codificacion pueden ayudar a la compresion porque pueden aplicarse al material de referencia antes de que se utilice en el proceso de prediccion y pueden guiarse utilizando la senal original El ejemplo mas popular son los filtros de desbloqueo que eliminan los artefactos de bloqueo de las discontinuidades de cuantificacion en los limites de los bloques de transformacion Historia Editar En 1967 A H Robinson y C Cherry propusieron un esquema de compresion de ancho de banda de codificacion de longitud de carrera para la transmision de senales de television analogicas 46 La transformada de coseno discreta DCT que es fundamental para la compresion de video moderna 47 fue introducida por Nasir Ahmed T Natarajan y K R Rao en 1974 30 48 H 261 que debuto en 1988 introdujo comercialmente la arquitectura basica prevalente de la tecnologia de compresion de video 49 Fue el primer formato de codificacion de video basado en la compresion DCT 47 H 261 fue desarrollado por varias empresas entre ellas Hitachi PictureTel NTT BT y Toshiba 50 Los estandares de codificacion de video mas populares utilizados para los codecs han sido los estandares MPEG MPEG 1 fue desarrollado por el Motion Picture Experts Group MPEG en 1991 y fue disenado para comprimir video de calidad VHS Fue sucedido en 1994 por MPEG 2 H 262 49 que fue desarrollado por varias empresas principalmente Sony Thomson y Mitsubishi Electric 51 MPEG 2 se convirtio en el formato de video estandar para DVD y television digital SD 49 En 1999 le siguio MPEG 4 H 263 49 Tambien fue desarrollado por varias empresas principalmente Mitsubishi Electric Hitachi y Panasonic 52 H 264 MPEG 4 AVC fue desarrollado en 2003 por varias organizaciones principalmente Panasonic Godo Kaisha IP Bridge y LG Electronics 53 AVC introdujo comercialmente los modernos algoritmos de codificacion aritmetica binaria adaptable al contexto CABAC y codificacion de longitud variable adaptable al contexto CAVLC AVC es el principal estandar de codificacion de video para los discos Blu ray y es ampliamente utilizado por los sitios web para compartir videos y los servicios de transmision por Internet como YouTube Netflix Vimeo y iTunes Store el software web como Adobe Flash Player y Microsoft Silverlight y varias emisiones de HDTV por television terrestre y por satelite Genetica Editar Los algoritmos de compresion genomica son la ultima generacion de algoritmos sin perdidas que comprimen datos normalmente secuencias de nucleotidos utilizando tanto algoritmos de compresion convencionales como algoritmos geneticos adaptados al tipo de datos especifico En 2012 un equipo de cientificos de la Universidad Johns Hopkins publico un algoritmo de compresion genetica que no utiliza un genoma de referencia para la compresion HAPZIPPER se adapto a los datos del HapMap y logra una compresion de mas de 20 veces 95 de reduccion del tamano del archivo proporcionando una compresion de 2 a 4 veces mejor y es menos intensiva desde el punto de vista computacional que las principales utilidades de compresion de uso general Para ello Chanda Elhaik y Bader introdujeron la codificacion basada en MAF MAFE que reduce la heterogeneidad del conjunto de datos clasificando los SNP por su frecuencia alelica menor homogeneizando asi el conjunto de datos 54 Otros algoritmos desarrollados en 2009 y 2013 DNAZip y GenomeZip tienen ratios de compresion de hasta 1200 veces lo que permite almacenar 6 000 millones de pares de bases de genomas humanos diploides en 2 5 megabytes en relacion con un genoma de referencia o promediado entre muchos genomas 55 56 Para una referencia en compresores de datos geneticos genomicos vease 57 Hipotesis Editar El trabajo de investigacion cientifica de Boris Weisler se centraba en una linea arida de la matematica la teoria de grupos algebraicos El vocablo grupo se utiliza para designar al conjunto de simetrias de un objeto y la manera en que estas interactuan Obviamente el grupo dependera de la geometria del objeto en cuestion Ahora bien la abstraccion matematica permite definir la nocion de grupo sin un objeto subyacente y a partir de su estructura interna reconstruir dicho objeto La relevancia de este proceso radica en que ha permitido descubrir de manera abstracta nuevas e insospechadas geometrias Al lidiar directamente con grupos se utilizan metodos algebraicos de gran formalidad De alguna manera se trabaja solo con variables e incognitas pensando siempre en que hay un objeto por detras pero sin aferrarse nunca a el Si mediante estos metodos se logra establecer un resultado entonces este tendra consecuencias a veces insospechadas sobre estos objetos nebulosos y su geometria Su Gran Teorema espectacular puede leerse de la siguiente manera todo subgrupo del grupo de matrices de entradas enteras y determinante 1 que es denso en la topologia Zarisky es casi denso en la topologia de congruencias Aunque parece un trabalenguas lo cierto es que este resultado de 1984 es una verdadera joya de la matematica y tardo anos en ser completamente comprendido y asimilado por la comunidad academica Del mismo de dificil comprension se deduciria un nuevo diferente concepto de compresion sin compresion basado en principios matematicos semanticos Un terreno todavia muy poco explorado Si somos capaces de comprender la informacion a comprimir como un mero lenguaje convencional que consta de significado pero que se expresa como significante y somos capaces de traducir estos significantes a numeros numeros susceptibles de operaciones matematicas la compresion de la informacion deja de entenderse como tal pasando a ser sencillamente la reduccion de un numero que puede ser extraordinariamente grande una formula o clave numerica resultante de operaciones matematicas sobre el objeto informacion a reducir comprimir en el lenguaje habitual El ejemplo al que se recurre como demostracion suele ser del siguiente tipo Traducimos una informacion un texto un libro con 100 000 palabras Lo convertimos a su equivalente numerico binario pero para entender mejor el ejemplo volvemos a convertirlo a su equivalente decimal Nos queda entonces un numero enorme con una determinada terminacion secuencia numerica Elegimos de esas originales 100 000 palabras ahora representadas como numeros decimales las ultimas 5000 la eleccion es convencional y de acuerdo a las necesidades prefijadas Tomamos estas 5000 palabras finales del texto numero como patron Y las restamos n veces hasta llegar a obtener un numero menor que el patron utilizado Le llamaremos convencionalmente resto Asi nos quedan tambien dos claves Les llamaremos claves de reconstruccion de la informacion inicial Simplemente habra que coger luego ese resto y sumar n veces el patron elegido hasta que comprobemos que tal patron coincide con el final de la informacion inicial o totalidad Y de esas dos claves habremos reconstruido el total de la informacion Por supuesto este es solo un ejemplo modelo muy simplificado Con la base de los principios aqui explicados y las herramientas matematicas e informaticas disponibles se puede avanzar mas alla de los limites aparentes Tengase en cuenta que ni siquiera nos hemos referido a recursos como la recursividad tambien aplicable a este metodo y perfectamente tratable informaticamente Referencias Editar Wade Graham 1994 Signal coding and processing 2 edicion Cambridge University Press p 34 ISBN 978 0 521 42336 6 Consultado el 22 de diciembre de 2011 The broad objective of source coding is to exploit or remove inefficient redundancy in the PCM source and thereby achieve a reduction in the overall source rate R Claude Elwood Shannon 1948 A Mathematical Theory of Communication En Alcatel Lucent ed Bell System Technical Journal 27 3 4 379 423 623 656 doi 10 1002 j 1538 7305 1948 tb01338 x hdl 11858 00 001M 0000 002C 4314 2 Consultado el 21 de abril de 2019 David Albert Huffman September 1952 A method for the construction of minimum redundancy codes Proceedings of the IRE 40 9 1098 1101 doi 10 1109 JRPROC 1952 273898 Pratt W K Kane J Andrews H C 1969 Hadamard transform image coding Proceedings of the IEEE 57 58 68 doi 10 1109 PROC 1969 6869 Ahmed Nasir January 1991 How I Came Up With the Discrete Cosine Transform Digital Signal Processing 1 1 4 5 doi 10 1016 1051 2004 91 90086 Z T 81 COMPRESIoN DIGITAL Y CODIFICACIoN DE IMAGENES FIJAS DE TONO CONTINUO REQUISITOS Y DIRECTRICES CCITT Septiembre 1992 Consultado el 12 de julio de 2019 El formato de imagen JPEG explicado BT com BT Group 31 de mayo de 2018 Archivado desde el original el 5 de agosto de 2019 Consultado el 5 de agosto de 2019 Baraniuk Chris 15 de octubre de 2015 Las protecciones de copia podrian llegar a los JPEG BBC News BBC Consultado el 13 de septiembre de 2019 Que es un JPEG El objeto invisible que ves todos los dias The Atlantic 24 de septiembre de 2013 Consultado el 13 de septiembre de 2019 La controversia del GIF A Software Developer s Perspective Consultado el 26 de mayo de 2015 DEFLATE Compressed Data Format Specification version 1 3 p 1 sec Abstract doi 10 17487 RFC1951 RFC 1951 Hoffman Roy 2012 Data Compression in Digital Systems Springer Science amp Business Media p 124 ISBN 9781461560319 Basically wavelet coding is a variant on DCT based transform coding that reduces or eliminates some of its limitations Another advantage is that rather than working with 8 8 blocks of pixels as do JPEG and other block based DCT techniques wavelet coding can simultaneously compress the entire image Taubman David Marcellin Michael 2012 Fundamentos estandares y practica de la compresion de imagenes JPEG2000 Fundamentos normas y practica de la compresion de imagenes Springer Science amp Business Media ISBN 9781461507994 Unser M Blu T 2003 Mathematical properties of the JPEG2000 wavelet filters IEEE Transactions on Image Processing 12 9 1080 1090 Bibcode 2003ITIP 12 1080U PMID 18237979 S2CID 2765169 doi 10 1109 TIP 2003 812329 Sullivan Gary 8 12 de diciembre de 2003 Caracteristicas generales y consideraciones de diseno para la codificacion de video de subbanda temporal UIT T Video Coding Experts Group Consultado el 13 de septiembre de 2019 Bovik Alan C 2009 La guia esencial del procesamiento de video Academic Press p 355 ISBN 9780080922508 Swartz Charles S 2005 Understanding Digital Cinema A Professional Handbook Taylor amp Francis p 147 ISBN 9780240806174 Mahdi O A Mohammed M A Mohamed A J November 2012 Implementing a Novel Approach an Convert Audio Compression to Text Coding via Hybrid Technique International Journal of Computer Science Issues 9 6 No 3 53 59 Consultado el 6 de marzo de 2013 Cunningham Stuart McGregor Iain 2019 Evaluacion subjetiva de la musica comprimida con el codec ACER en comparacion con AAC MP3 y PCM sin comprimir International Journal of Digital Multimedia Broadcasting en ingles 2019 1 16 doi 10 1155 2019 8265301 The Olympus WS 120 digital speech recorder according to its manual can store about 178 hours of speech quality audio in WMA format in 500 MB of flash memory Coalson Josh FLAC Comparison Consultado el 23 de agosto de 2020 Format overview Consultado el 23 de agosto de 2020 a b Jaiswal R C 2009 Audio Video Engineering Pune Maharashtra Nirali Prakashan p 3 41 ISBN 9788190639675 a b c Faxin Yu Hao Luo Zheming Lu 2010 Three Dimensional Model Analysis and Processing Berlin Springer p 47 ISBN 9783642126512 Plantilla US patent reference Cummiskey P Jayant N S Flanagan J L 1973 Cuantizacion adaptativa en la codificacion PCM diferencial del habla Bell System Technical Journal 52 7 1105 1118 doi 10 1002 j 1538 7305 1973 tb02007 x Cummiskey P Jayant Nikil S Flanagan J L 1973 Cuantizacion adaptativa en la codificacion PCM diferencial del habla The Bell System Technical Journal 52 7 1105 1118 ISSN 0005 8580 doi 10 1002 j 1538 7305 1973 tb02007 x a b c Schroeder Manfred R 2014 id d9IkBAAAQBAJ amp pg PA388 Laboratorios Bell Acustica informacion y comunicacion Volumen conmemorativo en honor de Manfred R Schroeder Springer p 388 ISBN 9783319056609 Gray Robert M 2010 A History of Realtime Digital Speech on Packet Networks Parte II de la Codificacion Predictiva Lineal y el Protocolo de Internet Found Trends Signal Process 3 4 203 303 ISSN 1932 8346 doi 10 1561 2000000036 a b c Nasir Ahmed T Natarajan Kamisetty Ramamohan Rao January 1974 Discrete Cosine Transform IEEE Transactions on Computers C 23 1 90 93 S2CID 149806273 doi 10 1109 T C 1974 223784 Guckert John Primavera 2012 math utah edu gustafso s2012 2270 web projects Guckert audio compression svd mdct MP3 pdf El uso de la FFT y la MDCT en la compresion de audio MP3 Universidad de Utah Consultado el 14 de julio de 2019 Luo Fa Long 2008 Normas de difusion multimedia movil Tecnologia y practica Springer Science amp Business Media p 590 ISBN 9780387782638 Britanak V 2011 Sobre propiedades relaciones e implementacion simplificada de bancos de filtros en los estandares de codificacion de audio Dolby Digital Plus AC 3 IEEE Transactions on Audio Speech and Language Processing 19 5 1231 1241 S2CID 897622 doi 10 1109 TASL 2010 2087755 Brandenburg Karlheinz 1999 archive org web 20170213191747 https graphics ethz ch teaching mmcom12 slides mp3 and aac brandenburg pdf Explicacion de MP3 y AAC Archivado desde el original el 13 de febrero de 2017 Princen J Johnson A Bradley A 1987 Codificacion de subbanda transformacion utilizando disenos de bancos de filtros basados en la cancelacion de aliasing en el dominio del tiempo ICASSP 87 IEEE International Conference on Acoustics Speech and Signal Processing 12 pp 2161 2164 S2CID 58446992 doi 10 1109 ICASSP 1987 1169405 Princen J Bradley A 1986 Diseno de banco de filtros de analisis sintesis basado en la cancelacion de aliasing en el dominio del tiempo IEEE Transactions on Acoustics Speech and Signal Processing 34 5 1153 1161 doi 10 1109 TASSP 1986 1164954 Summary of some of Solidyne s contributions to Broadcast Engineering Brief History of Solidyne Buenos Aires Solidyne Archivado desde el original el 8 de marzo de 2013 Consultado el 6 de marzo de 2013 Plantilla Sps Esta fuente autopublicada no es lo suficientemente buena como para verificar esta significativa primicia Octubre 2021 Zwicker Eberhard 1967 The Ear As A Communication Receiver Melville NY Acoustical Society of America Archivado desde el original el 14 de septiembre de 2000 Consultado el 11 de noviembre de 2011 File Compression Possibilities A Brief guide to compress a file in 4 different ways 17 de febrero de 2017 Dmitriy Vatolin March 2007 Lossless Video Codecs Comparison 2007 Moscow State University Chen Jie Koc Ut Va Liu KJ Ray 2001 Diseno de sistemas de codificacion de video digital Un enfoque completo de dominio comprimido CRC Press p 71 ISBN 9780203904183 Li Jian Ping 2006 Proceedings of the International Computer Conference 2006 on Wavelet Active Media Technology and Information Processing Chongqing China 29 31 de agosto de 2006 World Scientific p 847 ISBN 9789812709998 Video Coding CSIP website Center for Signal and Information Processing Georgia Institute of Technology Archivado desde el original el 23 de mayo de 2013 Consultado el 6 de marzo de 2013 Lane Tom JPEG Image Compression FAQ Part 1 Internet FAQ Archives Independent JPEG Group Consultado el 6 de marzo de 2013 Robinson A H Cherry C 1967 Resultados de un prototipo de esquema de compresion de ancho de banda de television Proceedings of the IEEE IEEE 55 3 356 364 doi 10 1109 PROC 1967 5493 a b Ghanbari Mohammed 2003 Standard Codecs De la compresion de imagenes a la codificacion de video avanzada Institucion de Ingenieria y Tecnologia pp 1 2 ISBN 9780852967102 Reader Cliff 31 de agosto de 2016 Patent landscape for royalty free video coding En Tescher Andrew G ed Applications of Digital Image Processing XXXIX Applications of Digital Image Processing XXXIX 9971 San Diego California Society of Photo Optical Instrumentation Engineers pp 99711B Bibcode 2016SPIE 9971E 1BR doi 10 1117 12 2239493 Archivado desde el original urlarchivo requiere url ayuda el 8 de diciembre de 2016 Lecture recording from 3 05 10 a b c d com resources digital video file formats Infografia sobre la historia de los formatos de archivo de video RealPlayer 22 de abril de 2012 Declaracion de patente registrada como H261 07 ITU Consultado el 11 de julio de 2019 Lista de patentes de MPEG 2 MPEG LA Consultado el 7 de julio de 2019 MPEG 4 Visual Lista de patentes MPEG LA Consultado el 6 de julio de 2019 AVC H 264 Plantilla Ndash Lista de patentes MPEG LA Consultado el 6 de julio de 2019 Wikienlace dentro del titulo de la URL ayuda Chanda P Bader JS Elhaik E 27 de julio de 2012 HapZipper sharing HapMap populations just got easier Nucleic Acids Research 40 20 e159 PMC 3488212 PMID 22844100 doi 10 1093 nar gks709 Christley S Lu Y Li C Xie X Jan 15 2009 Human genomes as email attachments Bioinformatics 25 2 274 5 PMID 18996942 doi 10 1093 bioinformatics btn582 Pavlichin DS Weissman T Yona G September 2013 The human genome contracts again Bioinformatics 29 17 2199 202 PMID 23793748 doi 10 1093 bioinformatics btt362 Hosseini Morteza Pratas Diogo Pinho Armando 2016 A Survey on Data Compression Methods for Biological Sequences Information 7 4 56 doi 10 3390 info7040056 Vease tambien EditarAnexo Formatos de compresion multimedia 7z Algoritmo de compresion con perdida Bzip2 CAB archivo DGCA Formato de compresion AFA Formato de compresion ZIP GCA formato de archivos gzip KGB Archiver LHA lzip RAREnlaces externos EditarProcesamiento Digital de Senales Acusticas utilizando Wavelets Lista de manuales de algoritmos de compresion sin perdida Compresion en Bases de datos Teradata Compresion de archivos formas tipos y metodos Datos Q2493 Multimedia Data compression Q2493 Obtenido de https es wikipedia org w index php title Compresion de datos amp oldid 149253583, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos