fbpx
Wikipedia

Distributed Video Coding

Paradigma de codificación que permite reducir la complejidad de los codificadores de vídeo. Este nuevo paradigma ha permitido que los teléfonos móviles de tercera generación o cámaras de vigilancia de circuito cerrado pudieran transmitir vídeo de una manera mucho más eficiente.

Hasta ahora la investigación y estandarización de los algoritmos de codificación de vídeo ha adoptado un paradigma donde el codificador es el encargado de explorar la estadística de la fuente, dando lugar a codificadores complejos y decodificadores sencillos. Este paradigma está fuertemente condicionado por aplicaciones como la radiodifusión (broadcasting), el vídeo bajo demanda y el streaming de vídeo. En todos estos casos, los contenidos se generan por uno(o unos pocos) codificadores y se dirigen a un gran número de decodificadores, cuyo coste debe mantenerse reducido para garantizar un acceso económico a los servicios.

Así por ejemplo, los estándares más utilizados de codificación de vídeo como el MPEG-2, MPEG-4, H-263, son cada vez más eficientes gracias a un mejor modelado y explotación de las características estadísticas de la señal de vídeo, pero también resultan más complejos debido a la cantidad de cálculos complejos que deben realizar. De esta manera, el conjunto codificador-descodificador (códec) es totalmente asimétrico con codificadores que suelen ser de 5 a 10 veces más complejos que los decodificadores

Datos generales

La codificación distribuida de vídeo responde a unas nuevas necesidades como son las cámaras de vigilancia de baja potencia, las cámaras inalámbricas por PC o las cámaras de teléfonos móviles. En estas arquitecturas es importante tener un bajo consumo de potencia tanto en el codificador como en el decodificador. Esto requiere disponer de un codificador de bajo coste y baja complejidad mientras que el decodificador puede ser más complejo y costoso.

En cambio la codificación de vídeo tradicional se basan en la aplicación de una transformada matemática (eliminación de la redundancia espacial) y en la aplicación de la estimación y compensación del movimiento (eliminación de la redundancia temporal). Esta codificación supone una gran complejidad en el codificador del orden de 5 a 10 veces más complejo que el descodificador. De tal manera que el codificador es el máximo responsable en lograr el máximo ratio de compresión mientras que el decodificador se limita a ejecutar las órdenes dictadas por el codificador. Este tipos de codificación funciona de manera muy eficiente cuando el vídeo es codificado una sola vez y en cambio va a ser decodificado muchos más veces. Este es el caso del vídeo bajo demanda.

Características

La codificación de vídeo se basa en dos resultados derivados de la Teoría de la Información: los teoremas de Slepian-Wolf y de Wyner-Ziv. Estos teoremas proponen que en la codificación de dos o más secuencias aleatorias, dependientes una de la otra, son codificadas de una manera independiente. Un único descodificador intenta explotar las dependencias existentes entre los dos flujos originales. Esta codificación nos permito desplazar la complejidad del codificador al descodificador.

 
Figura 2.Codificación de dos fuentes estadísticaente dependientes

Antecedentes

En los años setenta se formularon dos teoremas de Slepian–Wolf y Wyner-Ziv que permitían codificar dos señales estadísticamente independientes de una manera distribuida (codificación separada, decodificación conjunta) utilizando un flujo de transmisión parecida a los sistemas tradicionales de codificación de vídeo. El teorema de Slepian–Wolf también se conoce como codificación distribuida sin pérdidas. Y el teorema de Wyner-Ziv se conoce como codificación distribuida con pérdidas.

Dos fuentes X e Y, estadísticamente dependientes y codificadas de forma conjunta, la transmisión sin pérdidas puede realizarse a una tasa binaria R igual o superior a su entropía conjunta H(X,Y).

El Teorema de Slepian-Wolf establece que la transmisión de X e Y, con una probabilidad de error cercana a cero puede realizarse a una tasa H(X,Y) cuando ambas fuentes se codifican separadamente pero se decodifican conjuntamente.

Un codificador que explota este hecho recibe el nombre de codificador de Slepian-Wolf (SWC – del inglés Slepian Wolf Coder). En concreto, si X e Y se codifican con tasas RX e RY respectivamente, entonces la transmisión con una probabilidad de error cercana a cero puede realizarse si RX ³ H(X/Y), RY³ H(Y/X) y RX + RY³ H(X,Y) (ver Figura 3). Evidentemente, el caso óptimo consiste en realizar la codificación en aquellas tasas (RX, RY) en las que RX +RY es H(X,Y) (límites de Slepian-Wolf).

 
Figura 3.Diagrama de bloques de un codificador Wyner-Ziv

Por ejemplo, la señal Y (llamada información lateral) puede transmitirse primero a una tasa RY = H(Y) mientras que la señal X (llamada señal principal) puede transmitirse después a una tasa RX = H(X/Y), ya que Y estará en el decodificador y podrá ser utilizada en la decodificación (Figura 4).

 
Figura 4.Región de tasas que se pueden conseguir

Los teoremas Slepian-Wolf y Wyner-Ziv no describen el diseño constructivo de códigos que permitan una codificación de fuente óptima o aproximadamente óptima desde el punto de vista tasa-distorsión. De hecho, el paradigma de codificación que proponen estos teoremas no ha sido explotado desde un punto de vista práctico, hasta muy recientemente con la aparición de aplicaciones y escenarios en los que resulta necesario realizar una codificación de baja complejidad.

Implementación

Dentro de la Codificación Distribuida de Vídeo hay dos modelos propuestos por dos facultades americanas que son la referencia y a partir de los cuales se parte en los diferentes proyectos versados en este tema; los modelos propuestos por Girod (Stanford)y Ramchamdran (Berkeleley). En el siguiente diagrama se muestra el modelo standford.

Modelo Stanford

 
Figura 5.Modelo Stanford

El modelo Stanford basado en técnicas de codificación de canal. La idea es tratar la información lateral (Y) como una versión ruidosa de la señal principal (X). Entonces Y debe ser enviada usando una codificación convencional (Intraframe) mientras que X es enviada a una tasa menor que su entropía.

Modelo Berkeley

El Modelo Berkeley basado en técnicas de codificación mediante síndromes, se desarrollaron dos arquitecturas:

  • DISCUSS (DIstributed Source Coding Using Syndromes).
  • PRISM (Power-efficient Robust hIgh-compression Syndrome-based Multimedia coding).

En 2002 se hizo una propuesta PRISM para transmisión multimedia sobre redes inalámbricas. La solución que proponía era combinar una baja complejidad de codificación utilizando la codificación interframe. El resultado fue que todavía estaba por debajo de la eficiencia de compresión de otros estándares de codificación tradicional.

Modelos actuales

El mismo año haciendo uso de turbo codecs para la codificación del canal, añadiendo la transformada DCT y añadiendo información adicional para ayudar al decodificador a mejorar la estimación del movimiento se consiguió unos resultados muy parecidos a los estándares de codificación tradicional.

El año 2005 el Instituto Superior Técnico (IST) de Lisboa se desarrolló un otra propuesta de DVC basada en turbo codecs.

El proyecto europeo DISCOVER está formado por un grupo de universidades. Su objetivo es valorar y explotar todas las posibilidades que ofrece el DVC para así especificar arquitecturas que se puedan integrar en sistemas de comunicaciones.

Aplicaciones

La codificación distribuida de vídeo es apropiada en todas aquellas aplicaciones en las que los terminales que deban realizar la codificación tengan restricciones significativas con respecto a la energía disponible, la capacidad computacional o su coste.

Dentro de este conjunto de aplicaciones podríamos hacer una distinción entre entornos monocámara (monoview) y multicámara (multiview), es decir, entornos en los cuales usamos una cámara y por tanto hay un solo codificador o entornos en los que el decodificador recibe información procedente de varias cámaras.

Los sistemas de comunicación que implementan este paradigma de codificación abarcan un amplio abanico de aplicaciones como son las cámaras de vigilancia (circuito cerrado), sensores de red o videoconferencia.

Aplicaciones prácticas que se están desarrollando actualmente:

  • Sistemas de imagen multivista. En aquellas aplicaciones de vídeovigilancia en las que se requiere información visual de un determinado escenario con gran fidelidad, suelen utilizarse redes de cámaras situadas en posiciones precisas que permiten obtener imágenes del escenario desde distintos ángulos. El conocimiento de la posición y parámetros de las cámaras permite una renderización de la información visual de la escena, pudiendo dar lugar a representaciones de gran calidad. Aunque entre las diversas imágenes captadas puede existir una gran correlación espacial, ésta no puede ser utilizada por los codificadores puesto que las cámaras no suelen poder comunicarse entre ellas. En estas aplicaciones, es aconsejable que la correlación que hay entre las imágenes captadas se explote en el decodificador, tal y como propone la DVC. Además, el uso de DVC reduce el coste del sistema mediante el abaratamiento de la red de cámaras.
  • Transmisión de vídeo en comunicaciones móviles. El valor de los dispositivos móviles inalámbricos está íntimamente relacionado con la duración de la batería, por lo que las aplicaciones que hacen uso de estos dispositivos tienen que limitar el consumo de energía y consecuentemente, la complejidad computacional.
  • Redes de vídeosensores para vigilancia. Las redes de cámaras de vídeo utilizadas para la vigilancia de edificios, autopistas, aeropuertos, etc., suelen integrar un gran número de cámaras. Recientemente, el uso de cámaras inalámbricas en estas aplicaciones está recibiendo un gran interés ya que gracias a las conexiones inalámbricas, las cámaras pueden se pueden instalar en casi cualquier sitio sin necesidad de una infraestructura cara de cableado que proporcione energía y capacidad de comunicación a las cámaras. Como en cualquier red de sensores inalámbricos, las señales captadas se deben comprimir para reducir la anchura de banda de transmisión. Además, los algoritmos de compresión también consumen energía del sensor, especialmente si es complejo. En este escenario, los algoritmos DVC pueden conseguir un buen compromiso entre la ganancia de energía debida a la reducción de la cantidad de datos a transmitir y la debida a la menor complejidad de los algoritmos utilizados.
  • Cámaras desechables. El uso de cámaras digitales desechables o de muy bajo coste resulta de gran interés en aquellas aplicaciones en las que las cámaras se destruyen (como en la filmación de procesos de combustión) o puedan ser dañadas (en la vigilancia de eventos públicos en grandes áreas). En este tipo de aplicaciones, la DVC también es de indudable interés gracias a que el elemento de mayor complejidad y coste, el decodificador, puede utilizarse una y otra vez.

Así pues, resultará fundamental combinar las estrategias de codificación distribuida (con baja complejidad en el codificador) con las convencionales (baja complejidad en el decodificador) para poder obtener sistemas totalmente funcionales.

Futuras líneas de investigación de la codificación de vídeo distribuido

Algunas aplicaciones concretas en las que se prevé que esta tecnología tendrá un fuerte impacto las encontramos en dos escenarios bien definidos: la transmisión de vídeo en comunicaciones móviles y la compresión de señales provenientes de redes de vídeosensores.

En el caso de la codificación distribuida para transmisión de vídeo en redes móviles, se pretende evaluar las prestaciones de estas técnicas teniendo en cuenta las características propias de este escenario (limitación en ancho de banda, adaptación al ancho de banda de canal, robustez ante errores, posibilidad de canales de retorno).

Además, se considera especialmente relevante valorar las posibilidades de análisis de las imágenes que se pueden realizar en las estaciones base con objeto de optimizar el uso de la información lateral. El objetivo es pues introducir métodos de análisis más sofisticados que permitan mejorar los resultados actuales. Además, el análisis de la imagen en el decodificador puede proporcionar información de alto nivel (metadatos) que pueden resultar útiles como valor añadido a los servicios de vídeo en terminales móviles.

En el caso de la codificación distribuida aplicada a la compresión de señales de una red de vídeosensores, el objetivo es el de estudiar la eficacia de este tipo de compresión cuando se consideran todos los tipos de correlaciones existentes (dentro de una misma señal o entre varias señales).

Los algoritmos publicados hasta la fecha, explotan la correlación existente dentro de cada señal de vídeo o la correlación espacial entre varias señales, pero no todas las correlaciones simultáneamente. Evidentemente, el contenido de cada escena o la disposición de las cámaras y de los objetos puede hacer que sólo parte de la correlación temporal o espacial sea útil como información lateral.

Enlaces a otras páginas

  • proyecto europeo de donde se puede descargar el códec
  • la universidad politécnica de Lausana también ha participado en el códec discover (enlace roto disponible en Internet Archive; véase el historial, la primera versión y la última).
  • proyecto universidad Berkeley donde se encuentra documentación de su modelo
  • explica cómo se está implementando el DVC con otros sistemas de codificació en el 3G
  • explica el desarrollo de los turbocódecs
  •   Datos: Q5808690

distributed, video, coding, este, artículo, sección, sobre, tecnología, necesita, wikificado, favor, edítalo, para, cumpla, convenciones, estilo, este, aviso, puesto, enero, 2008, versión, actual, este, artículo, sección, parece, estar, escrita, modo, publicid. Este articulo o seccion sobre tecnologia necesita ser wikificado por favor editalo para que cumpla con las convenciones de estilo Este aviso fue puesto el 6 de enero de 2008 La version actual de este articulo o seccion parece estar escrita a modo de publicidad Para satisfacer los estandares de calidad de Wikipedia y procurar un punto de vista neutral este articulo o seccion puede requerir limpieza Por favor discute este problema en la pagina de discusion Paradigma de codificacion que permite reducir la complejidad de los codificadores de video Este nuevo paradigma ha permitido que los telefonos moviles de tercera generacion o camaras de vigilancia de circuito cerrado pudieran transmitir video de una manera mucho mas eficiente Hasta ahora la investigacion y estandarizacion de los algoritmos de codificacion de video ha adoptado un paradigma donde el codificador es el encargado de explorar la estadistica de la fuente dando lugar a codificadores complejos y decodificadores sencillos Este paradigma esta fuertemente condicionado por aplicaciones como la radiodifusion broadcasting el video bajo demanda y el streaming de video En todos estos casos los contenidos se generan por uno o unos pocos codificadores y se dirigen a un gran numero de decodificadores cuyo coste debe mantenerse reducido para garantizar un acceso economico a los servicios Asi por ejemplo los estandares mas utilizados de codificacion de video como el MPEG 2 MPEG 4 H 263 son cada vez mas eficientes gracias a un mejor modelado y explotacion de las caracteristicas estadisticas de la senal de video pero tambien resultan mas complejos debido a la cantidad de calculos complejos que deben realizar De esta manera el conjunto codificador descodificador codec es totalmente asimetrico con codificadores que suelen ser de 5 a 10 veces mas complejos que los decodificadores Indice 1 Datos generales 2 Caracteristicas 3 Antecedentes 4 Implementacion 5 Modelo Stanford 6 Modelo Berkeley 7 Modelos actuales 8 Aplicaciones 9 Futuras lineas de investigacion de la codificacion de video distribuido 10 Enlaces a otras paginasDatos generales EditarLa codificacion distribuida de video responde a unas nuevas necesidades como son las camaras de vigilancia de baja potencia las camaras inalambricas por PC o las camaras de telefonos moviles En estas arquitecturas es importante tener un bajo consumo de potencia tanto en el codificador como en el decodificador Esto requiere disponer de un codificador de bajo coste y baja complejidad mientras que el decodificador puede ser mas complejo y costoso En cambio la codificacion de video tradicional se basan en la aplicacion de una transformada matematica eliminacion de la redundancia espacial y en la aplicacion de la estimacion y compensacion del movimiento eliminacion de la redundancia temporal Esta codificacion supone una gran complejidad en el codificador del orden de 5 a 10 veces mas complejo que el descodificador De tal manera que el codificador es el maximo responsable en lograr el maximo ratio de compresion mientras que el decodificador se limita a ejecutar las ordenes dictadas por el codificador Este tipos de codificacion funciona de manera muy eficiente cuando el video es codificado una sola vez y en cambio va a ser decodificado muchos mas veces Este es el caso del video bajo demanda Caracteristicas EditarLa codificacion de video se basa en dos resultados derivados de la Teoria de la Informacion los teoremas de Slepian Wolf y de Wyner Ziv Estos teoremas proponen que en la codificacion de dos o mas secuencias aleatorias dependientes una de la otra son codificadas de una manera independiente Un unico descodificador intenta explotar las dependencias existentes entre los dos flujos originales Esta codificacion nos permito desplazar la complejidad del codificador al descodificador Figura 2 Codificacion de dos fuentes estadisticaente dependientesAntecedentes EditarEn los anos setenta se formularon dos teoremas de Slepian Wolf y Wyner Ziv que permitian codificar dos senales estadisticamente independientes de una manera distribuida codificacion separada decodificacion conjunta utilizando un flujo de transmision parecida a los sistemas tradicionales de codificacion de video El teorema de Slepian Wolf tambien se conoce como codificacion distribuida sin perdidas Y el teorema de Wyner Ziv se conoce como codificacion distribuida con perdidas Dos fuentes X e Y estadisticamente dependientes y codificadas de forma conjunta la transmision sin perdidas puede realizarse a una tasa binaria R igual o superior a su entropia conjunta H X Y El Teorema de Slepian Wolf establece que la transmision de X e Y con una probabilidad de error cercana a cero puede realizarse a una tasa H X Y cuando ambas fuentes se codifican separadamente pero se decodifican conjuntamente Un codificador que explota este hecho recibe el nombre de codificador de Slepian Wolf SWC del ingles Slepian Wolf Coder En concreto si X e Y se codifican con tasas RX e RY respectivamente entonces la transmision con una probabilidad de error cercana a cero puede realizarse si RX H X Y RY H Y X y RX RY H X Y ver Figura 3 Evidentemente el caso optimo consiste en realizar la codificacion en aquellas tasas RX RY en las que RX RY es H X Y limites de Slepian Wolf Figura 3 Diagrama de bloques de un codificador Wyner Ziv Por ejemplo la senal Y llamada informacion lateral puede transmitirse primero a una tasa RY H Y mientras que la senal X llamada senal principal puede transmitirse despues a una tasa RX H X Y ya que Y estara en el decodificador y podra ser utilizada en la decodificacion Figura 4 Figura 4 Region de tasas que se pueden conseguir Los teoremas Slepian Wolf y Wyner Ziv no describen el diseno constructivo de codigos que permitan una codificacion de fuente optima o aproximadamente optima desde el punto de vista tasa distorsion De hecho el paradigma de codificacion que proponen estos teoremas no ha sido explotado desde un punto de vista practico hasta muy recientemente con la aparicion de aplicaciones y escenarios en los que resulta necesario realizar una codificacion de baja complejidad Implementacion EditarDentro de la Codificacion Distribuida de Video hay dos modelos propuestos por dos facultades americanas que son la referencia y a partir de los cuales se parte en los diferentes proyectos versados en este tema los modelos propuestos por Girod Stanford y Ramchamdran Berkeleley En el siguiente diagrama se muestra el modelo standford Modelo Stanford Editar Figura 5 Modelo Stanford El modelo Stanford basado en tecnicas de codificacion de canal La idea es tratar la informacion lateral Y como una version ruidosa de la senal principal X Entonces Y debe ser enviada usando una codificacion convencional Intraframe mientras que X es enviada a una tasa menor que su entropia Modelo Berkeley EditarEl Modelo Berkeley basado en tecnicas de codificacion mediante sindromes se desarrollaron dos arquitecturas DISCUSS DIstributed Source Coding Using Syndromes PRISM Power efficient Robust hIgh compression Syndrome based Multimedia coding En 2002 se hizo una propuesta PRISM para transmision multimedia sobre redes inalambricas La solucion que proponia era combinar una baja complejidad de codificacion utilizando la codificacion interframe El resultado fue que todavia estaba por debajo de la eficiencia de compresion de otros estandares de codificacion tradicional Modelos actuales EditarEl mismo ano haciendo uso de turbo codecs para la codificacion del canal anadiendo la transformada DCT y anadiendo informacion adicional para ayudar al decodificador a mejorar la estimacion del movimiento se consiguio unos resultados muy parecidos a los estandares de codificacion tradicional El ano 2005 el Instituto Superior Tecnico IST de Lisboa se desarrollo un otra propuesta de DVC basada en turbo codecs El proyecto europeo DISCOVER esta formado por un grupo de universidades Su objetivo es valorar y explotar todas las posibilidades que ofrece el DVC para asi especificar arquitecturas que se puedan integrar en sistemas de comunicaciones Aplicaciones EditarLa codificacion distribuida de video es apropiada en todas aquellas aplicaciones en las que los terminales que deban realizar la codificacion tengan restricciones significativas con respecto a la energia disponible la capacidad computacional o su coste Dentro de este conjunto de aplicaciones podriamos hacer una distincion entre entornos monocamara monoview y multicamara multiview es decir entornos en los cuales usamos una camara y por tanto hay un solo codificador o entornos en los que el decodificador recibe informacion procedente de varias camaras Los sistemas de comunicacion que implementan este paradigma de codificacion abarcan un amplio abanico de aplicaciones como son las camaras de vigilancia circuito cerrado sensores de red o videoconferencia Aplicaciones practicas que se estan desarrollando actualmente Sistemas de imagen multivista En aquellas aplicaciones de videovigilancia en las que se requiere informacion visual de un determinado escenario con gran fidelidad suelen utilizarse redes de camaras situadas en posiciones precisas que permiten obtener imagenes del escenario desde distintos angulos El conocimiento de la posicion y parametros de las camaras permite una renderizacion de la informacion visual de la escena pudiendo dar lugar a representaciones de gran calidad Aunque entre las diversas imagenes captadas puede existir una gran correlacion espacial esta no puede ser utilizada por los codificadores puesto que las camaras no suelen poder comunicarse entre ellas En estas aplicaciones es aconsejable que la correlacion que hay entre las imagenes captadas se explote en el decodificador tal y como propone la DVC Ademas el uso de DVC reduce el coste del sistema mediante el abaratamiento de la red de camaras Transmision de video en comunicaciones moviles El valor de los dispositivos moviles inalambricos esta intimamente relacionado con la duracion de la bateria por lo que las aplicaciones que hacen uso de estos dispositivos tienen que limitar el consumo de energia y consecuentemente la complejidad computacional Redes de videosensores para vigilancia Las redes de camaras de video utilizadas para la vigilancia de edificios autopistas aeropuertos etc suelen integrar un gran numero de camaras Recientemente el uso de camaras inalambricas en estas aplicaciones esta recibiendo un gran interes ya que gracias a las conexiones inalambricas las camaras pueden se pueden instalar en casi cualquier sitio sin necesidad de una infraestructura cara de cableado que proporcione energia y capacidad de comunicacion a las camaras Como en cualquier red de sensores inalambricos las senales captadas se deben comprimir para reducir la anchura de banda de transmision Ademas los algoritmos de compresion tambien consumen energia del sensor especialmente si es complejo En este escenario los algoritmos DVC pueden conseguir un buen compromiso entre la ganancia de energia debida a la reduccion de la cantidad de datos a transmitir y la debida a la menor complejidad de los algoritmos utilizados Camaras desechables El uso de camaras digitales desechables o de muy bajo coste resulta de gran interes en aquellas aplicaciones en las que las camaras se destruyen como en la filmacion de procesos de combustion o puedan ser danadas en la vigilancia de eventos publicos en grandes areas En este tipo de aplicaciones la DVC tambien es de indudable interes gracias a que el elemento de mayor complejidad y coste el decodificador puede utilizarse una y otra vez Asi pues resultara fundamental combinar las estrategias de codificacion distribuida con baja complejidad en el codificador con las convencionales baja complejidad en el decodificador para poder obtener sistemas totalmente funcionales Futuras lineas de investigacion de la codificacion de video distribuido EditarAlgunas aplicaciones concretas en las que se preve que esta tecnologia tendra un fuerte impacto las encontramos en dos escenarios bien definidos la transmision de video en comunicaciones moviles y la compresion de senales provenientes de redes de videosensores En el caso de la codificacion distribuida para transmision de video en redes moviles se pretende evaluar las prestaciones de estas tecnicas teniendo en cuenta las caracteristicas propias de este escenario limitacion en ancho de banda adaptacion al ancho de banda de canal robustez ante errores posibilidad de canales de retorno Ademas se considera especialmente relevante valorar las posibilidades de analisis de las imagenes que se pueden realizar en las estaciones base con objeto de optimizar el uso de la informacion lateral El objetivo es pues introducir metodos de analisis mas sofisticados que permitan mejorar los resultados actuales Ademas el analisis de la imagen en el decodificador puede proporcionar informacion de alto nivel metadatos que pueden resultar utiles como valor anadido a los servicios de video en terminales moviles En el caso de la codificacion distribuida aplicada a la compresion de senales de una red de videosensores el objetivo es el de estudiar la eficacia de este tipo de compresion cuando se consideran todos los tipos de correlaciones existentes dentro de una misma senal o entre varias senales Los algoritmos publicados hasta la fecha explotan la correlacion existente dentro de cada senal de video o la correlacion espacial entre varias senales pero no todas las correlaciones simultaneamente Evidentemente el contenido de cada escena o la disposicion de las camaras y de los objetos puede hacer que solo parte de la correlacion temporal o espacial sea util como informacion lateral Enlaces a otras paginas Editarproyecto europeo de donde se puede descargar el codec departamento de investigacion de la upc involucrado en el desarrollo del codec la universidad politecnica de Lausana tambien ha participado en el codec discover enlace roto disponible en Internet Archive vease el historial la primera version y la ultima proyecto universidad Stanford donde se encuentra el codigo fuente y algorismos del codec LDPC proyecto universidad Berkeley donde se encuentra documentacion de su modelo explica mas detalladamente los teoremas de Wyner Ziv explica como se esta implementando el DVC con otros sistemas de codificacio en el 3G explica el desarrollo de los turbocodecs Datos Q5808690Obtenido de https es wikipedia org w index php title Distributed Video Coding amp oldid 127743260, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos