fbpx
Wikipedia

Edición de video

La edición de vídeo es un proceso por el cual un editor coloca fragmentos de vídeo, fotografías, gráficos, audio, efectos digitales y cualquier otro material audiovisual en una cinta o un archivo informático. El objetivo de la edición es presentar un programa terminado para emitirlo por televisión, generar copias para su venta o servir como base para otros más acabados.

Sistema de edición analógico-digital

El término «edición» solía confundirse con la palabra «montaje» por ser actividades parecidas, pero la edición se refería únicamente al vídeo y empleaba diferentes medios técnicos a los del montaje cinematográfico. En el siglo XXI la informatización ha unido los dos procesos.

En la era digital los tipos de edición se han restringido a cuatro: por corte o A/B roll, on-line y off-line. Cuando se utilizaba la edición lineal existían otras, pero la edición no lineal con acceso aleatorio las hizo desaparecer.

La evolución de la edición de vídeo ha pasado por varias fases. Inicialmente, 1958, se trató de imitar el proceso cinematográfico de cortar y pegar trozos de cinta. El siguiente paso se dio en la década de 1970 con la edición lineal, empleando dos o más magnetoscopios y muchas veces dos salas con equipamiento distinto. En 1988 apareció el primer sistema digital y en 1992 surgió el primero totalmente digital gracias a las memorias flash y los algoritmos de compresión para vídeo. Ya no existe consenso entre los expertos sobre cómo será el futuro. Técnicamente lo ideal quizá sería una unión entre la norma de cine y de la televisión, pero intereses de distintos tipos pueden impedirlo.

Definición

Editar un vídeo consiste simplemente en manipularlo, es decir, ir uniendo unas imágenes a otras, eliminando algunas, añadiendo efectos digitales o títulos, incorporando música y cualquier otro material que permitiese un producto listo para ser duplicado o emitido.[1]

Todo el proceso se realizaba inicialmente sobre una cinta llamada máster de vídeo. Luego esta cinta se utilizaría para emitir el programa u obtener de ella copias para su alquiler, venta o distribución. Pero, con el nacimiento de la edición digital en la década de 1980, se fue prescindiendo paulatinamente del soporte físico y todo el proceso comenzó a realizarse sobre un archivo informático, el llamado máster digital de vídeo (MDV).[2]

Tipos de edición

Susana Espinosa y Eduardo Abbate recopilan cuatro tipos diferentes, dependiendo del criterio elegido.[3]

  • Según la facilidad para acceder al material: si se puede aumentar o reducir cualquier parte de la edición sin afectar al resto sería una «edición no lineal». En cambio, la «edición lineal» exige volver a editar todo el trabajo posterior a la parte modificada.[n. 1]
  • Según la calidad del acabado: si el producto final tiene la calidad deseada, es un producto ya terminado, sería edición on-line. Por el contrario, si se obtiene un resultado intermedio, para dar una idea de lo que se desea, sería edición off-line.
  • Edición en cinta: era la realizada en una cinta de vídeo grabando un plano tras otro, de tal forma que la edición terminaba cuando se terminaba la última toma.[n. 2]
  • Según la técnica de grabación utilizada: si la edición se ha realizado en una cinta virgen, los autores la definen como edición por asamble. Por el contrario, si se grababa solo la imagen, respetando el sonido y la pista con código de tiempo, se denominaba edición por inserto. Estas ediciones se dejaron de utilizar con la llegada de los másteres digitales de vídeo.[4]

Ohanian (1996) añade otro criterio:

Diferencias entre montaje y edición

En ocasiones pueden aparecer las dos palabras como sinónimos,[1]​ aun cuando se refieren a procesos diferentes. Sucede algo similar con los términos cuadro y fotograma o grabación y filmación, que pueden escucharse indistintamente en los ámbitos de vídeo y cine, cuando son o eran también distintos. La razón de diferenciar los dos términos es porque cada palabra indica implícitamente los procesos previos requeridos, el material necesario o la calidad con la que se trabajará.

 
Imágenes impresas a la misma resolución. El PAL es el segundo cuadro más pequeño. El 35 mm equivaldría al más grande.

El montaje se realizaba con película de cine, ya fuese de 16 o 35 mm, 70 mm en el caso del IMAX, pero siempre partiendo de una emulsión fotosensible.[5]​ Por tanto, se debía recurrir a procesos químicos para realizar copias o duplicados con los que trabajar, lo que suponía líquidos, grandes espacios, cámaras oscuras, tiempos de espera...

La edición es un término propio de los soportes magnéticos, ya sean cintas, memorias flash o discos duros. Se utiliza material audiovisual grabado electrónicamente para obtener una cinta o un archivo de computadora. Suele requerir muchos menos procesos y unos costes bastante inferiores a los del montaje, pero la calidad de la imagen era también inferior, por lo menos hasta la llegada del siglo XXI.[6]

La diferencia de resultados que podían lograrse con uno y otro sistema se aprecia mejor al pasar las imágenes a papel. Si se imprimiese un fotograma de 35 mm a 200 puntos por pulgada, calidad de impresión habitual para las publicaciones de color, sus más de 2000 líneas de definición permitiría una ilustración de aproximadamente medio A4. Si se hiciese más grande el ojo humano notaría el pixelado. Mientras, un cuadro de PAL impreso a la misma calidad sería del tamaño de un sello postal, sus 576 líneas visibles no darían para más.[7]

En el siglo XXI se fue produciendo una convergencia de los dos sistemas, que sólo se diferenciaban por su formato y calidad, no necesariamente por su soporte. Los dos podían ser digitales y manejados en ocasiones con equipos idénticos.[4]​ Pero por razones de amortización, coste o preferencias a veces se continúa recurriendo a medios distintos para el cine y el vídeo.[8]

Problemas iniciales

 
Negativo de 35 mm del que se pueden obtener positivos.

Cuando nació la televisión, el cine constituía el único sistema conocido para concatenar las tomas adecuadas y prescindir de las innecesarias. El proceso según Konigsberg (2004, p. 183 y 184) era el siguiente: al revelar las cintas filmadas en exteriores o en estudio solía crearse un positivo con el que se montaba una copia de trabajo. Una vez conseguido el montaje deseado, se anotaban los número de fotograma en una lista de corte de negativo. Con los números anotados en esa lista se cortaban físicamente los negativos y se positivaban las partes elegidas. Finalmente se unían las partes positivadas creando una cinta limpia.[n. 3]​ Sobre la cinta ya montada se añadían titulaciones, efectos especiales, cortinillas, banda sonora.... El resultado final era una y solo una cinta máster. De ella se obtenían después los interpositivos necesarios con los que producir los cientos o miles de copias precisas.[5]

La televisión por su parte solo podía emitir imágenes en directo cuando apareció en la década de 1920. Según Pérez Vega y Zamanillo Sainz de la Maza (2003, p. 72) la televisión siempre trató de grabar su señal siguiendo un sistema parecido al del sonido, pero el ancho de banda que requería y requiere la imagen lo hacía difícil, aun siendo en blanco y negro. Así pues, hasta encontrar una solución, los programas se podían realizar de tres formas: en vivo, desde un disco de cristal utilizando un proceso parecido al empleado para grabar discos de vinilo o bien proyectando una película de cine en una pantalla mientras una cámara de televisión recogía las imágenes y transmitía la señal hasta el emisor. Las dos últimas soluciones podían resultar lentas, complicadas e imposibles de modificar.[9]​ Fue con el nacimiento del vídeo en 1956 cuando se pudo hacer algo parecido al montaje cinematográfico.[10]

 
Cinta de 2 pulgadas (50 mm) de bobina abierta.

En 1956 Ampex logró desarrollar el primer magnetoscopio, llamado Cuadruplex. La máquina grababa en grandes bobinas magnéticas abiertas de dos pulgadas (5,08 centímetros) movidas a gran velocidad por motores de potencia considerable.[11]​ Pese a su aparatosidad y precio, el magnetoscopio no solo permitió conservar las emisiones, además aportó a la televisión numerosas ventajas frente al cine: se podía grabar el sonido al mismo tiempo que la imagen y en el mismo soporte, no necesitaba esperar al revelado, no requería crear una copia de trabajo, los equipos y soportes eran más baratos o iban camino de serlo... Pero el vídeo estaba lejos de ser la solución de los problemas. Para empezar la definición era mucho más baja que la del cine, además mirando una cinta magnética resulta imposible saber en que comienza el cuadro deseado porque no se ve, mientras que los fotogramas si se ven mirándolos al trasluz (Ohanian, 1996, p. 30 y siguientes).[n. 4]​ Sin embargo, puede que el vídeo no alcanzase la calidad visual de las películas fotosensibles y se necesitaran un reproductor para cada formato, pero seguía resultar más económico, aún con todos los problemas y empleando los equipos más costosos.[12]

Evolución de la edición de vídeo

 
Fotograma de 35 mm. Tanto este formato como el de 16 mm permiten ver las imágenes y los espacios para cortar; el vídeo no.

Primera edición no lineal

Con la entrada de las cintas de vídeo los editores trataron de imitar el proceso de montaje cinematográfico. Era el único método conocido. La fórmula de cortar con cizalla y pegar con pegamento permitía reducir la duración de cualquier escena. También era posible incrementar la duración de los planos; resultaba más laborioso pero era posible.[n. 5]​ Para facilitar el trabajo, Ampex lanzó al mercado en 1958 una empalmadora. Ohanian (1996, p. 31) describe así el proceso: los distintos cuadros de la cinta se marcaban con una serie de partículas metálicas, se cortaba físicamente la parte deseada, se colocaban los fragmentos en la empalmadora, se unían empleando un pegamento especial, tóxico y cancerígeno, y se montaba nuevamente la cinta ya pegada en el magnetoscopio.

Era una edición no lineal porque permitía reducir o ampliar cualquier secuencia sin afectar a las anteriores o posteriores.[13]​ Sin embargo, utilizar empalmadoras como la de Ampex se confesó poco eficiente por lo impreciso del sistema y el tiempo que llevaba sacar la bobina del magnetoscopio, manipularla y volver a colocarla. No es que la técnica cinematográfica fuera más rápida, pero se comprobó que había una forma más eficiente cuando mejoró la calidad de los aparatos y de las copias.[13]Ohanian (1996, p. 31) afirma:

¡Qué ironía, mirando al pasado, que se empleara tanto tiempo y esfuerzo intentando emular la no linealidad del cine mediante sistemas electrónicos de edición no lineal!
Ohanian

Edición lineal

 
Detalle del equipamiento para realizar ediciones lineales. Varios monitores y magnetoscopios, mesa para la edición de sonido y consola con línea de tiempos con el botón de Previo en la izquierda, los dos amarillos en el centro para introducir los puntos de entrada y de salida y los de cortinillas en violeta.

Los problemas de la edición no lineal se salvaban utilizando dos o más magnetoscopios, también llamado VTR por las siglas en inglés de Video Tape Record. El proceso era el siguiente: un VTR haría las veces de fuente, también llamado «lector», «reproductor» o «player». Dotado con un monitor, este magnetoscopio mostraba en todo momento la imagen que serviría. El otro magnetoscopio, llamado «grabador» o «recorder», iba creando la edición en una «cinta máster». Este último VTR también contaba con un monitor para saber el punto donde comenzaría la grabación.

La edición lineal perdía un 8 % de calidad aproximadamente, al necesitar una segunda generación, pero quedaba resuelto el problema de ver los cuadros exactos de reproducción y de grabación sin desmontar nada. Las dos máquinas podían conectarse directamente para realizar la llamada edición por corte. También era posible conectar varios magnetoscopios fuentes a un mezclador de vídeo con el que realizar cortinillas, fundidos o encadenados, creando así la edición A/B roll. Con mezclador o sin él, el empleo de varios magnetoscopios trajo la edición lineal.[14]​ Para Konigsberg (2004, p. 183) este nuevo sistema resultaba mejor, pero el sector audiovisual tardó unos tres lustros en implantarlo.[14]

Con el fin de reducir el tiempo para localizar el cuadro exacto en la fuente y en el máster, en 1967 la empresa EECO produjo las primeras cintas dotadas de una pista con código de tiempo, la cual mostraba la hora, minuto, segundo y cuadro que se estaba visionando. Cinco años después, la SMPTE (Society of Motion Picture and Television Engineers) y la UER (Unión Europea de Radiodifusión) crearon el estándar SMPTE para códigos de tiempo. Esto permitía saltar al punto deseado en la fuente y en el máster. Además, las mejoras electrónicas posibilitaron el nacimiento de las mesas de edición, también llamadas consolas, que sincronizaban los magnetoscopios e incorporaban las capacidades del mezclador de vídeo añadiendo posibilidades como el "previo" o ver el resultado antes de grabarlo. Estos dispositivos trajeron un ahorro en horas de trabajo considerable. Solo el hecho de teclear en la consola el cuadro deseado y que ella moviera la cinta sola supuso un ahorro de tiempo inmenso.[14]

Este sistema de trabajo permitía tres nuevas formas de edición lineal, según Browne (2003): la Playrec, donde el magnetoscopio añadía el código de tiempos a la cinta virgen, lo que se denomina pistar una cinta; el Assemble, y el Inserto. Los tres desaparecerían con la llegada de los equipos digitales.

Problemas e inconvenientes

Browne (2003) destaca:

  • Era posible cambiar la duración de la última secuencia, pero no más atrás sin afectar a las siguientes. Si se modificaba la duración de una parte intermedia, el máster debía ser editado de nuevo por assemble desde ese punto, introduciendo todos los valores de entrada y salida uno por uno.
  • No se guardaba un histórico, por tanto, si se repetía la edición por el motivo que fuera, la duración de los encadenados, los niveles de sonido, los tipos de cortinillas, etc., debían ser vueltos a elegir.
  • En ausencia del máster, las sucesivas copias se debían realizar desde otra copia, perdiendo calidad de imagen y sonido.[n. 6]
  • Según Carrasco (2010, p. 133), la política y la técnica crearon nuevas normas para emitir la señal de televisión, pero las diferentes oportunidades ofrecidas por la técnica para unificarlas fueron desaprovechadas. Al contrario del cine, que con el tiempo terminó en dos anchos de películas compatibles con cualquier reproductor del mundo, en el vídeo muchos de los trabajos profesionales debían terminarse pensando en obtener copias para el NTSC estadounidense; pero también para el PAL europeo e incluso para el SECAM francés.[n. 7]​ Esta variedad de sistemas exigía salas de edición con magnetoscopios de varios formatos. Además existían inconveniente añadidos a la hora de pasar el cine al formato vídeo.[n. 8]

Equipamiento necesario

 
Sala on-line en 1999.

Según Ohanian (1996) los equipos para realizar una edición lineal podían ir desde dos monitores y dos magnetoscopios interconectados, hasta costosas habitaciones con máquinas dedicadas, capaces de generar efectos similares a los del cine. Pero una sala dotada de todos los medios resultaba cara de instalar y alquilar, Ohanian (1996, p. 64) calculaba que podía oscilar entre 500 000 y un millón de dólares y su alquiler entre los 300 y los 1000 dólares la hora, todo a precios de los años 1990. Para economizar costes se podían habilitar instalaciones más modestas por importes comprendidos entre 20 000 y 40 000 dólares y alquileres entre los 50 y 150 la hora. Eran las llamadas salas off-line La idea era conseguir depurar el proyecto todo lo posible antes de alquilar una cara sala on-line. Así nacieron las preediciones, llamadas técnicamente ediciones off-line, una cinta de vídeo con algo parecido al resultado final. Ohanian (1996) añade a la edición off-line la lista de decisiones de edición (EDL del inglés Edition Decision List) y la lista de corte de negativo cuando se trataba de cine.

La división del trabajo en dos salas debía funcionar en teoría, pero en la práctica los equipos de la sala off-line eran demasiado pobres como para poder hacerse una idea del resultado, las EDL no se podían exportar a los equipos de la sala on-line debido a problemas de compatibilidad, tampoco contenía absolutamente todos los detalles como la velocidad de los fundidos o las variaciones en la pista de sonido. Por tanto, muchas decisiones debían volverse a meditar en la cara sala on-line.[15]

Edición no lineal

 
Teclado del CMX 600 la primera máquina para la edición con acceso aleatorio.

La diferencia entre esta edición y la que utilizaba empalmadoras estriba en tres aspectos:

  • El empleo de computadoras en algún momento del proceso.
  • Poder editar sin ningún orden, incluso duplicando tomas, y saltar a cualquier cuadro de la fuente o del master, de ahí el término acceso aleatorio.[16]
  • Los procesos de assamble, pistado de cinta o inserto ya no eran necesarios. Las instrucciones eran guardabas en un archivo informático y se modificaban cuantas veces fuese necesario, pudiendo también duplicar dicho archivo.[17]

La edición no lineal perseguía sustituir a la sala off-line, que no había cumplido sus expectativas,[17]​ pero pronto se comprobó que sería capaz de mucho más.[18]

El primer intento de crear un sustituto a la edición lineal lo llevó a cabo CMX Editing Systems cuando sacó al mercado el CMX 600. Este sistema utilizaba discos magnéticos de 36 MB para grabar la imagen de una manera híbrida, no totalmente digital.[17]​ Con un lápiz electrónico se podía acceder a cualquier escena del material bruto, borrar cualquier escena ya editada, ampliar la duración, reducirla, etc.[19]​ Desgraciadamente sus 200 000 $ dólares de coste y la programación aún no depurada le impidieron ser un éxito comercial, pese a seguir en uso durante años para edición de sonido digital.[20]Ohanian (1996, p. 81) apunta que se trataba de un sistema muy avanzado para su época, quizá demasiado.

Primera generación (por vídeocinta)

 
Cintas de vídeo Betamax y VHS, sobre las que se basaba la primera generación de edición no lineal con acceso aleatorio.

Estos equipos constaban de un magnetoscopio grabador y varios reproductores, hasta 27 en algunos casos. El editor seleccionaba una secuencia, después una segunda, luego una tercera y así sucesivamente. Por su parte, el sistema colocaba uno de los magnetoscopios al principio de la primera secuencia, otro al principio de la segunda, un tercero al principio de la tercera, etc, los ponía en marcha cuando correspondiera obteniendo un visionado y una grabación continuos. Cuando el número de fragmentos era superior al de magnetoscopios, el primero libre que tuviera la secuencia deseada se desplazaba hasta el primer cuadro de la misma y la reproducía cuando llegara el momento.[21]

Los equipos basados en cinta de vídeo aparecieron a principios de los ochenta, poco después de nacer los aparatos reproductores y grabadores domésticos.[18]​ Según Ohanian (1996, p. 88) el primero en nacer se denominó Montage Picture Processor y salió al mercado en 1984. Para Jacobson (2010, p. 423) tal honor le corresponde al Ediflex, comercializado en 1983. Touch Visión lanzó por su parte el BHP Touch Vision de 1986. Todos empleaban cintas VHS o Betamax y ofrecían como mínimo una EDL, una lista de corte de negativo y una copia de visionado. Otra novedad fue un nuevo tipo de máster, el máster digital de vídeo (MDV), un archivo informático que, como cualquier otro archivo, puede duplicarse infinidad de veces sin pérdida de calidad. Sin embargo, no podía visionarse separado de las fuentes, como si lo hacían los masters basados en cinta de vídeo.[22]

El hecho de que la primera generación siguiera funcionando hasta la entrada de los equipos digitales es prueba de su éxito, pero presentaba varios problemas. Uno lo constituía el volcado del material, que debía realizarse previamente a una o más cintas de vídeo. Otro era el denominaba «colapso», cuando ninguna máquina tenía tiempo suficiente para llegar la siguiente imagen, debe tenerse en cuenta que acceder a un determinado cuadro podía llevar varios decenas de segundos, dependiendo de cuanto debiera rebobinar o avanzar el magnetoscopio. Una posible solución era colocar la misma grabación en múltiples magnetoscopios, pero eso reducía la cantidad de material bruto disponible. Por todo, estos sistemas resultaron más adecuados para editar series de televisión o películas que para informativos o anuncios.[23]

Segunda generación (por videodisco)

 
Reproductor de discos láser.

Según John Purcell (2007, p. 73) y Jacobson (2010, p. 423) el mismo año que salió el primer editor por cinta de vídeo, 1984, George Lucas anunció el lanzamiento de su Editdroid. Este sistema contaba con cuatro máquinas reproductoras de videodisco, una suministraba las imágenes A, otra el sonido de las imágenes A, una tercera las imágenes B y una cuarta con el sonido de las imágenes B. Además era el primero en incluir una interfaz gráfica con línea de tiempo.[24]​ Junto al Sounddroid, podía realizar todas las labores de vídeo y sonido. Aunque Lucas no vendió muchas unidades, su tecnología fue adquirida posteriormente por la empresa AVID en el vídeo y por Sony en lo referente al sonido.[25]

El Editdroid empleaba lectores de discos láser del tipo velocidad angular constante (CAV en inglés), otros posteriores utilizaron los de velocidad lineal constante (CLV).[n. 9]​ Cuando la tecnología mejoró y aparecieron los discos láser de doble cara y reproductores con doble cabezal el número mínimo de máquinas se redujo a dos.[26]

Al Editdroid le siguieron el CMX 6000 en 1988, el Epix en 1989 y el Laser Edit, que ya introdujo los reproductores de doble cabezal.[27]​ Todos ellos reducían bastante los problemas de colapso, especialmente cuando surgieron los lectores de discos con dos cabezales; pero no llegaban a eliminarlos. El tiempo de acceso a las imágenes también mejoró notablemente al ser de dos segundos como máximo.[26]

Com inconvenientes de la segunda generación Ohanian (1996, p. 106 y siguientes) citan tres: el aumento en el tiempo de volcado, por ser el proceso de grabación más lento y difícil en un videodisco que en una cinta; la escasa cantidad de material bruto disponible o bien el elevado número de máquinas reproductoras y, por último, la necesidad de ir añadiendo más equipamiento, ya que las cortinillas y los efectos visuales se realizaban tanto por programación como añadiendo nuevos dispositivos físicos. Pese a estas desventajas, los sistemas basados en esta tecnología siguieron existiendo hasta bien entrada la década de 1990 y se utilizaron tanto para series y películas como para informativos y anuncios.[23]

Tercera generación (por disco magnético)

 
Diferencias entre los distintos formatos de vídeo. Las dos normas de alta definición, por sus grandes tamaños, escapaban en la práctica de las posibilidades técnicas de la tercera generación.

En 1988 apareció el primer editor no lineal con todo el material almacenado en un ordenador, desde las fuentes hasta el resultado final. Se llamó EMC2 y lo fabricó Editing Machines Corporation usando como plataforma un IBM PC que comprimía las imágenes usando el algoritmo intracuadro JPEG.[n. 10]​ En un principio el sistema utilizaba la resolución visible del NTSC (720 columnas por 480 líneas), pero se amplió en versiones posteriores. Respecto al audio sus resoluciones podían variar entre 16 y 48 kHz. En total poseía una capacidad máxima de 24 horas de material. A este sistema le siguieron otros como el Avid Media Composer o el Lightworks.[28]

La tercera generación trajo varias novedades, entre otras cabe citar:[29]

  • El acceso a cualquier parte del material era realmente aleatorio.
  • Se podía exportar un historial completo con todas las decisiones sobre cortinillas o sonidos.
  • Varios efectos podían crearse con el propio aparato, caso de las titulaciones.

En cambio, esta tercera generación adolecía de desventajas:[29]​ por una parte estaba el tiempo de procesamiento que necesitaban los efectos y las copias de visionado, al ser imprescindible renderizar el resultado final. La calidad de las imágenes con que se podía trabajar no era mucha o, en caso de trabajar a la máxima calidad, el espacio para los brutos se reducía considerablemente. Pero quizá uno de lo más grandes escollo era la digitalización del material. Aunque Sony había lanzado en 1986 la primera cinta digital, la D1, y estaba trabajando en el sistema de registro Betacam Digital; cuando nació la tercera generación todavía no era posible utilizar brutos de cámara digitales. Resultaba imprescindible volcar previamente las imágenes de vídeo o telecinar las de cine, con la correspondiente perdía calidad y tiempo.[18]

Según Rosenberg (2011), estos sistemas constituían una inversión considerable. Cada uno incluía una tarjeta gráfica potente para mostrar las imágenes en pantalla, un procesador también potente, una tarjeta compresora y descompresora para tratar el algoritmo JPEG, mucha memoria RAM para la época y varios discos duros de gran capacidad. Tanto es así que una hora de material en sistema PAL ocupaba 8.2 gigabytes (GB en adelante), cuando un gigabyte podía llegar a costar 1000 dólares de la época.[n. 11]​ Por lo tanto, un equipo capaz de editar una hora de programa superaría el medio millón de dólares, solo en soportes de almacenamiento.[n. 12]

Cuarta generación (los formatos de compresión para vídeo)

 
El Avid Media Composer, uno de los editores digitales con acceso aleatorio más populares.

Ante las ventajas aportadas por la informática, expertos como Ohanian (1996) presagiaban un momento donde la sala off-line y la on-line se unirían en un mismo equipo, es decir, con un solo sistema se podría concatenar planos, incluir la titulación, crear efectos digitales, añadir las capturas, los cromas o trabajar varias pista de audio. Todo con calidad suficiente como para ser emitido. Desde 1992 fueron surgiendo productos capaces de manejar los brutos de cámara directamente, pero fallaban a la hora de generar grandes efectos visuales.

El Avid Media Composer 8000 apareció en 1999. Podía producir anuncios y programas de televisión con calidad suficiente como para sustituir a las dos salas.[30]​ Esto se debió a varios factores entre los que destacan el nacimiento de la familia de algoritmos intercuadro.[n. 13]​ Con algoritmos son diversos, uno de ellos es el MPEG pero no es el único,[31]​ el abaratamiento en los sistemas de almacenamiento, tanto de memoria RAM como de disco, y las mejores en los programas para tratar imagen y sonido.

Sin embargo, la cuarta generación seguía presentando limitaciones:

  • El volcado del material continuaba siendo necesario en muchos casos, porque muchos sistemas de registro grababan en formatos o soportes propios.[32]
  • La capacidad de realizar cualquier efecto estaba lejos de conseguirse por la falta de potencia. Un Pentium II podía realizar como máximo 16 operaciones audiovisuales por segundo, y no siempre, cuando manipular imágenes en movimiento, añadir personajes o borrar cualquier detalle requería entre 64 y 128 operaciones, algo solo al alcance de máquinas dedicadas como el Quantel Painbox.[33]
  • La posibilidad de generar cine digital también se veía lejana debido a la resolución necesaria. La norma de televisión con más líneas era la PAL, pero el formato de cine digital equivalente al 16 mm, el 2K, duplica esta cantidad y el equivalente al 35 mm, el 4K, la cuadruplica;[34]​ por lo que una hora de película a estas resoluciones ocuparía 24 y 48 GB respectivamente, cantidades que sería necesario multiplicar por 65 para digitalizar todo el material filmado. Cuantías así escapaban con mucho de cualquier lógica económica.

Quinta generación (gestor de medios digitales)

 
La quinta generación de sistemas no lineales ya es capaz de crear cualquier imagen en pantalla para vídeo y también para cine 2K o 4K.

La quinta generación de edición digital se diferenciaba de las demás por poder trabajar con brutos de cámara digitales en su formato nativo, el Raw, y por poder crear personajes totalmente virtuales partiendo de capturas de movimiento.[35]​ Estas capacidades hacían realidad el concepto de gestor de medios digitales, es decir, un sistema o equipo capaz de generar y manejar todos o casi todos los efectos que se quisieran, por complicados que llegasen a ser.[36]​ Así, el Avid Film Composer podía trabajar en resolución 4K y muestreo 4:4:4.[n. 14]​ Se llegó al punto de que tres estaciones de la familia Media Composer trabajando en red fueron capaces de crear un personaje totalmente digital, Gollum, y gestionar los 128 000 GB de imágenes, pertenecientes a 2200 horas de filmación obtenidas en la trilogía de El hobbit (Peter Jackson, 2012).[35]​ Esto se debió a la confluencia de varios factores:

Por una parte, la mejora en la tecnología de las memorias flash contribuyó a poder almacenar 100 GB en una sola tarjeta de memoria.[37]​ Gracias a esto surgieron cámaras como la Red One, capaces de grabar digitalmente, a 30 cuadros por segundo y con calidad cinematográfica.[38]

En segundo lugar mencionar la comercialización de procesadores con varios núcleos. Con ellos ya era factible calcular 128 o más operaciones visuales por segundo, con lo cual un mismo sistema informático podía realizar todo tipo de incrustaciones, etalonados, efectos... Si a esto sumamos el abaratamiento de las memorias RAM y de las tarjetas gráficas, se comprueba que hasta los equipos domésticos contaban con potencia suficiente para procesar televisión de alta definición, tanto HD Ready como Full HD. Por último y según Carrasco (2010, p. 268), también ayudó la implantación de los dos sistemas de Televisión Digital Terrestre o TDT. Esto trajo, por una parte, la entrada de la llamada televisión de alta definición y, por otra, la salida de los equipos analógicos aún en funcionamiento, el denominado «apagón» analógico.

Futuro

 
Comparación de las distintas resoluciones. La SD se fue abandonando en la década de 2010 y la televisión ha tratado de imitar el formato apaisado cinematográfico. El siguiente reto es alcanzar la calidad del 8K y unificar vídeo y cine.

En 1990 se vivía un consenso casi total sobre cuál sería el sistema imperante en la edición de vídeo.[39]​ Sin embargo, en el siglo XXI, autores como Carrasco (2010), Aguilera, Morante y Arroyo (2011) coinciden en lo incierto del futuro para esta forma de trabajar. No porque se dude de su continuidad, sino porque no se atisba el camino que seguirá.

El cine vive un momento difícil ante la competencia de otros medios audiovisuales, por lo que no resulta sencillo pronosticar cuáles y cómo serán sus siguientes pasos. Para Carrasco (2010) la gran pantalla parece ir hacia un aumento de calidad con la entrada de la resolución 8K. Sería deseable, según él, que la televisión y el cine convergieran en un mismo formato y, por tanto, ambas ediciones fuesen idénticas. No idénticas solo en resolución y equipamiento, algo ya conseguido, sino en todos los detalles incluido el formato panorámico.

Sin embargo, el mismo autor advierte que numerosos intereses no facilitarán esta tendencia. El cine ha visto a la televisión como un medio competidor desde su nacimiento, con razón o sin ella. Por tanto, siempre ha tratado de distinguirse lanzando películas en tres dimensiones o ampliando la pantalla, inicialmente muy parecida a la televisión. Según esto, concluye Carrasco (2010), posiblemente los estudios de cine desarrollen nuevas normas para diferenciarse. Una opinión diferente mantienen expertos como Nicholas Negroponte (1995), quien afirma que no es el cine, sino la televisión quien tiene los días contados. Si bien el directivo del MIT reconoce que la entrada de las TDT han aplazado su final, la potencia y versatilidad de los dispositivos móviles condenarán a este electrodoméstico al olvido, por lo que carecerá de sentido la existencia de otra norma que no sea la del cine. Bien es verdad que con la entrada de los teléfonos con cámara incorporada la cantidad de formatos existentes se ha multiplicado, como indica Carrasco (2010).

Véase también

Notas

  1. De no hacerse así aparecerían las llamadas roturas en la pista en el vídeo y en el sonido. Carrasco (2010, p. 43) y otros autores indican que la edición lineal desapareció con la llegada de los medios digitales que no utilizan cintas con pistas.
  2. Esta edición también desapareció con la entrada de los equipos digitales que graban en archivos independientes, reproducibles por orden alfabético, por peso del archivo o por cualquier otro criterio.
  3. Este paso era necesario porque la copia de trabajo sacada en el revelado solía estar deteriorada por los sucesivos manipulados.
  4. El no ver los cuadros solo fue uno de los problemas. Pese a ser Ampex la primera empresa en lanzar la grabación en cinta, este soporte no llegó a convertirse en algo homologado que se pudiera reproducir en cualquier magnetoscopio del mundo, según Ohanian (1996). El autor utiliza el ejemplo de los sistemas de registro: Hasta la década de 1970 las ediciones profesionales se realizaban en cintas de dos pulgadas o 2'' (5.08 cm de anchura). En 1971 la empresa Sony comercializó el formato U-Matic en cinta de 3/4 de pulgada (1.905 cm). En 1978 salió la cinta de vídeo C1 de bobina abierta y una pulgada (2,54 cm), que se convirtió en el estándar profesional durante la década de 1980 Ohanian (1996). Por su parte Sony desarrolló en 1982 el Betacam, con 625 líneas de definición en cinta cerrada y pistas helicoidales, inclinadas Konigsberg (2004, p. 116). Por si todos estos sistemas eran pocos, Konigsberg (2004, p. 116 y 117) señala también la existencia de otros semidomésticos, como el S-VHS o Hi-8, y domésticos, como el VHS del consorcio liderado por JVC, el Betamax de Sony, el 2000 alemán o 8mm también de Sony. Sergio Alcón Marcos (2014, p. 40) recoge la definición aproximada de dichos sistemas: los semidomésticos contaban con una resolución horizontal (la cantidad de filas que forman la imagen) de unas 420 líneas y los domésticos de una 250 como máximo. Según Konigsberg (2004), toda esta variedad de tamaños, formatos y resoluciones conllevaba varios procesos de conversión que a veces podían ser largos y caros, necesitando incluso máquinas especiales.
  5. Ampliar una secuencia requería volver a cortar, empalmar más metraje previamente cortado y unir la parte ampliada con la siguiente.
  6. Konigsberg (2004, p. 116 y 117) destaca la existencia de cintas de vídeo digitales como D-1 de una pulgada (2,54 cm) o la D-2 de 3/4 de pulgada (1,9 cm), capaces de generar sucesivas generaciones sin pérdida de calidad, pero aparecieron casi al mismo tiempo que la tercera generación de sistemas de la edición no lineal, los cuales trabajaban ya con discos de ordenador.
  7. Este sistema francés lo adoptaron las colonias de París y la URSS por motivos políticos, pero con la entrada de la televisión digital y la alta definición no se intentó un SECAM digital, pasándose sus usuarios al sistema PAL digital, ver Carrasco (2010) para más detalles.
  8. Las películas de 16 mm o de 35 mm reproducían a 24 fotogramas por segundo, cuando el NTSC lo hacía a 30 cuadros por segundo y el PAL a 25, ver Carrasco (2010, p. 133).
  9. El tipo CAV permite movimiento lento, imagen congelada y el avance cuadro a cuadro, a cambio de tener solo 30 minutos de imágenes por cara. Los de Velocidad lineal constante (CLV) ofrecían 60 minutos de material pero sin las posibilidades de los anteriores, según Ohanian (1996, p. 106 y siguientes)
  10. El disminuir la cantidad de información tratando de no alterar la percepción humana constituye una constante del mundo audiovisual desde sus comienzos. El que las películas de cine se filmen y reproduzcan a 24 fotogramas por segundo perseguía este mismo fin. Resultaría más agradable visualmente filmar a 40 o más, como se hizo después con la entrada del cine digital; pero eso hubiera supuesto pasar de 20 kilogramos por película, incluida su lata de transporte, a casi el doble, lo que imposibilitaría una distribución mundial o nacional (Carrasco, 2010, p. 41). De la misma forma, para obtener una hora de material terminado se necesitan unas 65 horas de negativos guardados en latas herméticas para evitar la luz. Cada lata solía ser asegurada por si quedase inservible la película debido a un accidente y fuese necesario repetir el rodaje. En caso de duplicarse el número de fotogramas por segundo, y con él el de latas, sería necesario duplicar el importe de los seguros. A la televisión, prosigue Cuenca, Garrido y Quiles (1999, p. 68), le sucede algo parecido. El ancho de banda por el que se transmite no deja de ser un espacio limitado y no puede ampliarse, crearía interferencias con radares, señales de teléfono, satélites, etc. Por este motivo no se emite toda la información, sino que se intenta adaptar al ojo humano, mucho más sensible a la luz que al color. Así aparecen los muestreos 4:2:2, 4:2:0 o 4:1:1, donde la luminancia se muestrea totalmente, pero los dos formatos de crominancia sufren una reducción.
  11. El cómputo realizado por Rosenberg (2011) es el siguiente:
    • Una trama de 680 x 420 pixeles = 307 200 bits.
    • Cada pixel necesita 24 bit de color (ocho para el rojo, ocho para el verde y ocho para el azul): 307 200 x 24 = 7 372 800 bits = 7.37 Mbits.
    • Cada trama coloreada es mostrada a un ritmo de 25 por segundo: 7.37 Mb x 25 = 184.25 Mb/s.
    • Cada hora se compone de 3600 segundos: 184.25 Mb/s x 3600 segundos = 662 400 Mbits/h.
    • Puesto que cada byte lo forman 8 bits: 662 400 / 8 = 82 200 MBytes, aproximadamente 82.2 GB.
    • Tras aplicarle una compresión por hardware del algoritmo JPEG sin demasiada pérdida, un ratio de 10:1, la cantidad de memoria total sería: 82.2 GB / 10 = 8.2 GB.
  12. Rosenberg (2004) calcula esta cifra partiendo del ratio 65/1, es decir, hacen falta 65 horas de material bruto para obtener una ya editada, por tanto, si cada hora ocupaba 8.2 GB y hacían falta unas 65 horas de material serían necesarios 533 GB de espacio en disco. Como cada GB costaba unos 1000 dólares, el monto total de un equipo con esa capacidad podía superar los 533 000 dólares.
  13. La diferencia entre la compresión intracuadro y la intercuadro es que la primera comprime cada fotograma o cuadro por separado, la segunda comprime en su totalidad el primer fotograma o cuadro y de los siguientes solo comprime la parte de la pantalla que cambia, tomando el resto de la información del primero. Para imágenes con mucho movimiento la diferencia entre una familia de algoritmos y la otra es pequeña, pero cuando parte de la imagen permanece quieta la ventaja del intercuadro es considerable.
  14. La más alta calidad porque no tiene compresión con pérdida ni en la luminancia ni en los dos canales de crominancia, ver Cuenca, Garrido y Quiles (1999, p. 68).

Referencias

  1. Aguilera, Morante y Arroyo, 2011, p. 303.
  2. Konigsberg, 2004, p. 183 y siguientes.
  3. Espinosa y Abbate, 2005, p. 161.
  4. Carrasco, 2010, p. 43.
  5. Konigsberg, 2004, p. 327 y siguientes.
  6. Konigsberg, 2004, p. 183.
  7. Carrasco, 2010, p. 67.
  8. Konigsberg, 2004, p. 183 y 184.
  9. Ohanian, 1996, p. 30.
  10. Pérez Vega y Zamanillo Sainz de la Maza, 2003, p. 21 y siguientes.
  11. Pérez Vega y Zamanillo Sainz de la Maza, 2003, p. 72.
  12. Carrasco, 2010, p. 33.
  13. Ohanian, 1996, p. 31.
  14. Ohanian, 1996, p. 31 y siguientes.
  15. Ohanian, 1996, p. 69 y 70.
  16. Ohanian, 1996, p. 128.
  17. «CMX 600 Promo» (Vídeo) (en inglés). Sunnyvale: CMX. 1971. Consultado el 14 de junio de 2014. 
  18. Konigsberg, 2004.
  19. (HTML) (en inglés). Sierra Madre: Archive.org. 2007. Archivado desde el original el 10 de febrero de 2008. Consultado el 14 de junio de 2014. 
  20. Ohanian, 1996, p. 87.
  21. Ohanian, 1996, p. 89 y siguientes.
  22. Ohanian, 1966, p. 88 y siguientes.
  23. Ohanian, 1996, p. 90 y siguientes.
  24. Rosenberg, 2011.
  25. Purcell, 2007, p. 2007.
  26. Ohanian, 1996, p. 106 y siguientes.
  27. Ohanian, 1996, p. 110 y 111.
  28. Ohanian, 1996, p. 367.
  29. Ohanian, 1996, p. 367 y siguientes.
  30. Konigsberg, 2004, p. 184.
  31. Cuenca, Garrido y Quiles, 1999, p. 105 y siguientes.
  32. Alcón Marcos, 2014, p. 39.
  33. «Quantel Paintbox Demo». Berkshire: Quantel. 1990. Consultado el 16 de junio de 2014. 
  34. Carrasco, 2010, p. 70.
  35. «La trilogía de El hobbit cobra vida con la magia de Media Composer». Los Ángeles: Avid Technology. 2014. Consultado el 19 de junio de 2014. 
  36. Ohanian, 1996, p. 299 y siguientes.
  37. (en inglés). Los Ángeles: Red.com. 2014. Archivado desde el original el 29 de septiembre de 2015. Consultado el 19 de junio de 2014. 
  38. (en inglés). Lo Ángeles: Red.com. 2014. Archivado desde el original el 7 de septiembre de 2016. Consultado el 19 de junio de 2014. 
  39. Reams, Patrick (1995). «Non-linear Editing» (en inglés). Londres: BBC. 

Bibliografía

  1. Aguilera, Purificación; Morante, María; Arroyo, Eva (2011). Vídeo digital (Aplicaciones ofimáticas). Madrid: Editex. ISBN 9788490030806. 
  2. Alcón Marcos, Sergio (2014). Elaboración y edición de presentaciones con aplicaciones informáticas - UF0329. Madrid: Paraninfo. ISBN 9788428337106. 
  3. Browne, Steven E. (2003). Edición de vídeo. Madrid: Instituto Oficial de Radio Televisión Española. ISBN 9788488788535. 
  4. Carrasco, Jorge (2010). Cine y televisión digital. Manual técnico. Barcelona: Ediciones de la Universidad de Barcelona. ISBN 978-84-475-3457-9. 
  5. Cuenca, Pedro Ángel; Garrido, Antonio José; Quiles, Francisco José (1999). Codificación y transmisión robusta de señales de vídeo MEPG-2 de caudal variable sobre redes de transmisión asíncrona ATM. Toledo: Universidad de Castilla La Mancha. ISBN 9788484270133. 
  6. Espinosa, Susana; Abbate, Eduardo (2005). La producción de vídeo en el aula. Buenos Aires: Ediciones Colihue. ISBN 9505817592. (requiere registro). 
  7. Evans, Russell (2006). Practical DV Filmmaking (en inglés) (segunda edición). Oxford: Focal Press. ISBN 978-0-240-80738-6. 
  8. Jacobson, Mitch (2010). Mastering Multicamera Techniques: From Pre-production to Editing and Deliverables (en inglés). Oxford: Focal Press. ISBN 978-0-240-81176-5. 
  9. Konigsberg, Ira (2004). Diccionario técnico Akal de cine. Madrid: Akal. ISBN 9788446019022. 
  10. Negroponte, Nicholas (1995). Ser digital. Buenos Aires: Atlántida. ISBN 9789500814737. 
  11. Ohanian, Thomas A. (1996). Edición digital no lineal. Madrid: Instituto Oficial de Radio Televisión Española. ISBN 9788488788177. 
  12. Pérez Vega, Constantino; Zamanillo Sainz de la Maza, José María (2003). Fundamentos de televisión analógica y digital. Santander: Universidad de Cantabria. ISBN 84-8102-355-8. 
  13. Purcell, John (2007). Dialogue Editing for Motion Pictures: A Guide to the Invisible Art (en inglés). Burlington: Focal Press. ISBN 9780415828178. 
  14. Rosenberg, John (2011). The Healthy Edit: Creative Techniques for Perfecting Your Movie (en inglés). Oxford: Focal Press. ISBN 978-0-240-81446-9. 

Enlaces externos

  • Avid Technology
  • Lightworks
  • Quantel
  • Videos Baratos
  • Clipchamp


  •   Datos: Q1154312
  •   Multimedia: Video editing
  •   Libros y manuales: Edición de vídeo

edición, video, edición, vídeo, proceso, cual, editor, coloca, fragmentos, vídeo, fotografías, gráficos, audio, efectos, digitales, cualquier, otro, material, audiovisual, cinta, archivo, informático, objetivo, edición, presentar, programa, terminado, para, em. La edicion de video es un proceso por el cual un editor coloca fragmentos de video fotografias graficos audio efectos digitales y cualquier otro material audiovisual en una cinta o un archivo informatico El objetivo de la edicion es presentar un programa terminado para emitirlo por television generar copias para su venta o servir como base para otros mas acabados Sistema de edicion analogico digital El termino edicion solia confundirse con la palabra montaje por ser actividades parecidas pero la edicion se referia unicamente al video y empleaba diferentes medios tecnicos a los del montaje cinematografico En el siglo XXI la informatizacion ha unido los dos procesos En la era digital los tipos de edicion se han restringido a cuatro por corte o A B roll on line y off line Cuando se utilizaba la edicion lineal existian otras pero la edicion no lineal con acceso aleatorio las hizo desaparecer La evolucion de la edicion de video ha pasado por varias fases Inicialmente 1958 se trato de imitar el proceso cinematografico de cortar y pegar trozos de cinta El siguiente paso se dio en la decada de 1970 con la edicion lineal empleando dos o mas magnetoscopios y muchas veces dos salas con equipamiento distinto En 1988 aparecio el primer sistema digital y en 1992 surgio el primero totalmente digital gracias a las memorias flash y los algoritmos de compresion para video Ya no existe consenso entre los expertos sobre como sera el futuro Tecnicamente lo ideal quiza seria una union entre la norma de cine y de la television pero intereses de distintos tipos pueden impedirlo Indice 1 Definicion 2 Tipos de edicion 3 Diferencias entre montaje y edicion 4 Problemas iniciales 5 Evolucion de la edicion de video 5 1 Primera edicion no lineal 5 2 Edicion lineal 5 2 1 Problemas e inconvenientes 5 2 2 Equipamiento necesario 5 3 Edicion no lineal 5 3 1 Primera generacion por videocinta 5 3 2 Segunda generacion por videodisco 5 3 3 Tercera generacion por disco magnetico 5 3 4 Cuarta generacion los formatos de compresion para video 5 3 5 Quinta generacion gestor de medios digitales 6 Futuro 7 Vease tambien 8 Notas 9 Referencias 10 Bibliografia 11 Enlaces externosDefinicion EditarEditar un video consiste simplemente en manipularlo es decir ir uniendo unas imagenes a otras eliminando algunas anadiendo efectos digitales o titulos incorporando musica y cualquier otro material que permitiese un producto listo para ser duplicado o emitido 1 Todo el proceso se realizaba inicialmente sobre una cinta llamada master de video Luego esta cinta se utilizaria para emitir el programa u obtener de ella copias para su alquiler venta o distribucion Pero con el nacimiento de la edicion digital en la decada de 1980 se fue prescindiendo paulatinamente del soporte fisico y todo el proceso comenzo a realizarse sobre un archivo informatico el llamado master digital de video MDV 2 Tipos de edicion EditarSusana Espinosa y Eduardo Abbate recopilan cuatro tipos diferentes dependiendo del criterio elegido 3 Segun la facilidad para acceder al material si se puede aumentar o reducir cualquier parte de la edicion sin afectar al resto seria una edicion no lineal En cambio la edicion lineal exige volver a editar todo el trabajo posterior a la parte modificada n 1 Segun la calidad del acabado si el producto final tiene la calidad deseada es un producto ya terminado seria edicion on line Por el contrario si se obtiene un resultado intermedio para dar una idea de lo que se desea seria edicion off line Edicion en cinta era la realizada en una cinta de video grabando un plano tras otro de tal forma que la edicion terminaba cuando se terminaba la ultima toma n 2 Segun la tecnica de grabacion utilizada si la edicion se ha realizado en una cinta virgen los autores la definen como edicion por asamble Por el contrario si se grababa solo la imagen respetando el sonido y la pista con codigo de tiempo se denominaba edicion por inserto Estas ediciones se dejaron de utilizar con la llegada de los masteres digitales de video 4 Ohanian 1996 anade otro criterio Segun las transiciones empleadas si la transicion entre planos es brusca se denomina edicion por corte Si por el contrario la transicion entre planos se hace progresivamente por algun tipo de fundido cortinilla o encadenado seria una edicion A B roll Diferencias entre montaje y edicion EditarEn ocasiones pueden aparecer las dos palabras como sinonimos 1 aun cuando se refieren a procesos diferentes Sucede algo similar con los terminos cuadro y fotograma o grabacion y filmacion que pueden escucharse indistintamente en los ambitos de video y cine cuando son o eran tambien distintos La razon de diferenciar los dos terminos es porque cada palabra indica implicitamente los procesos previos requeridos el material necesario o la calidad con la que se trabajara Imagenes impresas a la misma resolucion El PAL es el segundo cuadro mas pequeno El 35 mm equivaldria al mas grande El montaje se realizaba con pelicula de cine ya fuese de 16 o 35 mm 70 mm en el caso del IMAX pero siempre partiendo de una emulsion fotosensible 5 Por tanto se debia recurrir a procesos quimicos para realizar copias o duplicados con los que trabajar lo que suponia liquidos grandes espacios camaras oscuras tiempos de espera La edicion es un termino propio de los soportes magneticos ya sean cintas memorias flash o discos duros Se utiliza material audiovisual grabado electronicamente para obtener una cinta o un archivo de computadora Suele requerir muchos menos procesos y unos costes bastante inferiores a los del montaje pero la calidad de la imagen era tambien inferior por lo menos hasta la llegada del siglo XXI 6 La diferencia de resultados que podian lograrse con uno y otro sistema se aprecia mejor al pasar las imagenes a papel Si se imprimiese un fotograma de 35 mm a 200 puntos por pulgada calidad de impresion habitual para las publicaciones de color sus mas de 2000 lineas de definicion permitiria una ilustracion de aproximadamente medio A4 Si se hiciese mas grande el ojo humano notaria el pixelado Mientras un cuadro de PAL impreso a la misma calidad seria del tamano de un sello postal sus 576 lineas visibles no darian para mas 7 En el siglo XXI se fue produciendo una convergencia de los dos sistemas que solo se diferenciaban por su formato y calidad no necesariamente por su soporte Los dos podian ser digitales y manejados en ocasiones con equipos identicos 4 Pero por razones de amortizacion coste o preferencias a veces se continua recurriendo a medios distintos para el cine y el video 8 Problemas iniciales Editar Negativo de 35 mm del que se pueden obtener positivos Cuando nacio la television el cine constituia el unico sistema conocido para concatenar las tomas adecuadas y prescindir de las innecesarias El proceso segun Konigsberg 2004 p 183 y 184 era el siguiente al revelar las cintas filmadas en exteriores o en estudio solia crearse un positivo con el que se montaba una copia de trabajo Una vez conseguido el montaje deseado se anotaban los numero de fotograma en una lista de corte de negativo Con los numeros anotados en esa lista se cortaban fisicamente los negativos y se positivaban las partes elegidas Finalmente se unian las partes positivadas creando una cinta limpia n 3 Sobre la cinta ya montada se anadian titulaciones efectos especiales cortinillas banda sonora El resultado final era una y solo una cinta master De ella se obtenian despues los interpositivos necesarios con los que producir los cientos o miles de copias precisas 5 La television por su parte solo podia emitir imagenes en directo cuando aparecio en la decada de 1920 Segun Perez Vega y Zamanillo Sainz de la Maza 2003 p 72 la television siempre trato de grabar su senal siguiendo un sistema parecido al del sonido pero el ancho de banda que requeria y requiere la imagen lo hacia dificil aun siendo en blanco y negro Asi pues hasta encontrar una solucion los programas se podian realizar de tres formas en vivo desde un disco de cristal utilizando un proceso parecido al empleado para grabar discos de vinilo o bien proyectando una pelicula de cine en una pantalla mientras una camara de television recogia las imagenes y transmitia la senal hasta el emisor Las dos ultimas soluciones podian resultar lentas complicadas e imposibles de modificar 9 Fue con el nacimiento del video en 1956 cuando se pudo hacer algo parecido al montaje cinematografico 10 Cinta de 2 pulgadas 50 mm de bobina abierta En 1956 Ampex logro desarrollar el primer magnetoscopio llamado Cuadruplex La maquina grababa en grandes bobinas magneticas abiertas de dos pulgadas 5 08 centimetros movidas a gran velocidad por motores de potencia considerable 11 Pese a su aparatosidad y precio el magnetoscopio no solo permitio conservar las emisiones ademas aporto a la television numerosas ventajas frente al cine se podia grabar el sonido al mismo tiempo que la imagen y en el mismo soporte no necesitaba esperar al revelado no requeria crear una copia de trabajo los equipos y soportes eran mas baratos o iban camino de serlo Pero el video estaba lejos de ser la solucion de los problemas Para empezar la definicion era mucho mas baja que la del cine ademas mirando una cinta magnetica resulta imposible saber en que comienza el cuadro deseado porque no se ve mientras que los fotogramas si se ven mirandolos al trasluz Ohanian 1996 p 30 y siguientes n 4 Sin embargo puede que el video no alcanzase la calidad visual de las peliculas fotosensibles y se necesitaran un reproductor para cada formato pero seguia resultar mas economico aun con todos los problemas y empleando los equipos mas costosos 12 Evolucion de la edicion de video Editar Fotograma de 35 mm Tanto este formato como el de 16 mm permiten ver las imagenes y los espacios para cortar el video no Primera edicion no lineal Editar Con la entrada de las cintas de video los editores trataron de imitar el proceso de montaje cinematografico Era el unico metodo conocido La formula de cortar con cizalla y pegar con pegamento permitia reducir la duracion de cualquier escena Tambien era posible incrementar la duracion de los planos resultaba mas laborioso pero era posible n 5 Para facilitar el trabajo Ampex lanzo al mercado en 1958 una empalmadora Ohanian 1996 p 31 describe asi el proceso los distintos cuadros de la cinta se marcaban con una serie de particulas metalicas se cortaba fisicamente la parte deseada se colocaban los fragmentos en la empalmadora se unian empleando un pegamento especial toxico y cancerigeno y se montaba nuevamente la cinta ya pegada en el magnetoscopio Era una edicion no lineal porque permitia reducir o ampliar cualquier secuencia sin afectar a las anteriores o posteriores 13 Sin embargo utilizar empalmadoras como la de Ampex se confeso poco eficiente por lo impreciso del sistema y el tiempo que llevaba sacar la bobina del magnetoscopio manipularla y volver a colocarla No es que la tecnica cinematografica fuera mas rapida pero se comprobo que habia una forma mas eficiente cuando mejoro la calidad de los aparatos y de las copias 13 Ohanian 1996 p 31 afirma Que ironia mirando al pasado que se empleara tanto tiempo y esfuerzo intentando emular la no linealidad del cine mediante sistemas electronicos de edicion no lineal Ohanian Edicion lineal Editar Articulo principal Edicion lineal Detalle del equipamiento para realizar ediciones lineales Varios monitores y magnetoscopios mesa para la edicion de sonido y consola con linea de tiempos con el boton de Previo en la izquierda los dos amarillos en el centro para introducir los puntos de entrada y de salida y los de cortinillas en violeta Los problemas de la edicion no lineal se salvaban utilizando dos o mas magnetoscopios tambien llamado VTR por las siglas en ingles de Video Tape Record El proceso era el siguiente un VTR haria las veces de fuente tambien llamado lector reproductor o player Dotado con un monitor este magnetoscopio mostraba en todo momento la imagen que serviria El otro magnetoscopio llamado grabador o recorder iba creando la edicion en una cinta master Este ultimo VTR tambien contaba con un monitor para saber el punto donde comenzaria la grabacion La edicion lineal perdia un 8 de calidad aproximadamente al necesitar una segunda generacion pero quedaba resuelto el problema de ver los cuadros exactos de reproduccion y de grabacion sin desmontar nada Las dos maquinas podian conectarse directamente para realizar la llamada edicion por corte Tambien era posible conectar varios magnetoscopios fuentes a un mezclador de video con el que realizar cortinillas fundidos o encadenados creando asi la edicion A B roll Con mezclador o sin el el empleo de varios magnetoscopios trajo la edicion lineal 14 Para Konigsberg 2004 p 183 este nuevo sistema resultaba mejor pero el sector audiovisual tardo unos tres lustros en implantarlo 14 Con el fin de reducir el tiempo para localizar el cuadro exacto en la fuente y en el master en 1967 la empresa EECO produjo las primeras cintas dotadas de una pista con codigo de tiempo la cual mostraba la hora minuto segundo y cuadro que se estaba visionando Cinco anos despues la SMPTE Society of Motion Picture and Television Engineers y la UER Union Europea de Radiodifusion crearon el estandar SMPTE para codigos de tiempo Esto permitia saltar al punto deseado en la fuente y en el master Ademas las mejoras electronicas posibilitaron el nacimiento de las mesas de edicion tambien llamadas consolas que sincronizaban los magnetoscopios e incorporaban las capacidades del mezclador de video anadiendo posibilidades como el previo o ver el resultado antes de grabarlo Estos dispositivos trajeron un ahorro en horas de trabajo considerable Solo el hecho de teclear en la consola el cuadro deseado y que ella moviera la cinta sola supuso un ahorro de tiempo inmenso 14 Este sistema de trabajo permitia tres nuevas formas de edicion lineal segun Browne 2003 la Playrec donde el magnetoscopio anadia el codigo de tiempos a la cinta virgen lo que se denomina pistar una cinta el Assemble y el Inserto Los tres desaparecerian con la llegada de los equipos digitales Problemas e inconvenientes Editar Browne 2003 destaca Era posible cambiar la duracion de la ultima secuencia pero no mas atras sin afectar a las siguientes Si se modificaba la duracion de una parte intermedia el master debia ser editado de nuevo por assemble desde ese punto introduciendo todos los valores de entrada y salida uno por uno No se guardaba un historico por tanto si se repetia la edicion por el motivo que fuera la duracion de los encadenados los niveles de sonido los tipos de cortinillas etc debian ser vueltos a elegir En ausencia del master las sucesivas copias se debian realizar desde otra copia perdiendo calidad de imagen y sonido n 6 Segun Carrasco 2010 p 133 la politica y la tecnica crearon nuevas normas para emitir la senal de television pero las diferentes oportunidades ofrecidas por la tecnica para unificarlas fueron desaprovechadas Al contrario del cine que con el tiempo termino en dos anchos de peliculas compatibles con cualquier reproductor del mundo en el video muchos de los trabajos profesionales debian terminarse pensando en obtener copias para el NTSC estadounidense pero tambien para el PAL europeo e incluso para el SECAM frances n 7 Esta variedad de sistemas exigia salas de edicion con magnetoscopios de varios formatos Ademas existian inconveniente anadidos a la hora de pasar el cine al formato video n 8 Equipamiento necesario Editar Articulos principales Sala on liney Sala off line Sala on line en 1999 Segun Ohanian 1996 los equipos para realizar una edicion lineal podian ir desde dos monitores y dos magnetoscopios interconectados hasta costosas habitaciones con maquinas dedicadas capaces de generar efectos similares a los del cine Pero una sala dotada de todos los medios resultaba cara de instalar y alquilar Ohanian 1996 p 64 calculaba que podia oscilar entre 500 000 y un millon de dolares y su alquiler entre los 300 y los 1000 dolares la hora todo a precios de los anos 1990 Para economizar costes se podian habilitar instalaciones mas modestas por importes comprendidos entre 20 000 y 40 000 dolares y alquileres entre los 50 y 150 la hora Eran las llamadas salas off line La idea era conseguir depurar el proyecto todo lo posible antes de alquilar una cara sala on line Asi nacieron las preediciones llamadas tecnicamente ediciones off line una cinta de video con algo parecido al resultado final Ohanian 1996 anade a la edicion off line la lista de decisiones de edicion EDL del ingles Edition Decision List y la lista de corte de negativo cuando se trataba de cine La division del trabajo en dos salas debia funcionar en teoria pero en la practica los equipos de la sala off line eran demasiado pobres como para poder hacerse una idea del resultado las EDL no se podian exportar a los equipos de la sala on line debido a problemas de compatibilidad tampoco contenia absolutamente todos los detalles como la velocidad de los fundidos o las variaciones en la pista de sonido Por tanto muchas decisiones debian volverse a meditar en la cara sala on line 15 Edicion no lineal Editar Teclado del CMX 600 la primera maquina para la edicion con acceso aleatorio Articulo principal Sistema de edicion no lineal La diferencia entre esta edicion y la que utilizaba empalmadoras estriba en tres aspectos El empleo de computadoras en algun momento del proceso Poder editar sin ningun orden incluso duplicando tomas y saltar a cualquier cuadro de la fuente o del master de ahi el termino acceso aleatorio 16 Los procesos de assamble pistado de cinta o inserto ya no eran necesarios Las instrucciones eran guardabas en un archivo informatico y se modificaban cuantas veces fuese necesario pudiendo tambien duplicar dicho archivo 17 La edicion no lineal perseguia sustituir a la sala off line que no habia cumplido sus expectativas 17 pero pronto se comprobo que seria capaz de mucho mas 18 El primer intento de crear un sustituto a la edicion lineal lo llevo a cabo CMX Editing Systems cuando saco al mercado el CMX 600 Este sistema utilizaba discos magneticos de 36 MB para grabar la imagen de una manera hibrida no totalmente digital 17 Con un lapiz electronico se podia acceder a cualquier escena del material bruto borrar cualquier escena ya editada ampliar la duracion reducirla etc 19 Desgraciadamente sus 200 000 dolares de coste y la programacion aun no depurada le impidieron ser un exito comercial pese a seguir en uso durante anos para edicion de sonido digital 20 Ohanian 1996 p 81 apunta que se trataba de un sistema muy avanzado para su epoca quiza demasiado Primera generacion por videocinta Editar Cintas de video Betamax y VHS sobre las que se basaba la primera generacion de edicion no lineal con acceso aleatorio Estos equipos constaban de un magnetoscopio grabador y varios reproductores hasta 27 en algunos casos El editor seleccionaba una secuencia despues una segunda luego una tercera y asi sucesivamente Por su parte el sistema colocaba uno de los magnetoscopios al principio de la primera secuencia otro al principio de la segunda un tercero al principio de la tercera etc los ponia en marcha cuando correspondiera obteniendo un visionado y una grabacion continuos Cuando el numero de fragmentos era superior al de magnetoscopios el primero libre que tuviera la secuencia deseada se desplazaba hasta el primer cuadro de la misma y la reproducia cuando llegara el momento 21 Los equipos basados en cinta de video aparecieron a principios de los ochenta poco despues de nacer los aparatos reproductores y grabadores domesticos 18 Segun Ohanian 1996 p 88 el primero en nacer se denomino Montage Picture Processor y salio al mercado en 1984 Para Jacobson 2010 p 423 tal honor le corresponde al Ediflex comercializado en 1983 Touch Vision lanzo por su parte el BHP Touch Vision de 1986 Todos empleaban cintas VHS o Betamax y ofrecian como minimo una EDL una lista de corte de negativo y una copia de visionado Otra novedad fue un nuevo tipo de master el master digital de video MDV un archivo informatico que como cualquier otro archivo puede duplicarse infinidad de veces sin perdida de calidad Sin embargo no podia visionarse separado de las fuentes como si lo hacian los masters basados en cinta de video 22 El hecho de que la primera generacion siguiera funcionando hasta la entrada de los equipos digitales es prueba de su exito pero presentaba varios problemas Uno lo constituia el volcado del material que debia realizarse previamente a una o mas cintas de video Otro era el denominaba colapso cuando ninguna maquina tenia tiempo suficiente para llegar la siguiente imagen debe tenerse en cuenta que acceder a un determinado cuadro podia llevar varios decenas de segundos dependiendo de cuanto debiera rebobinar o avanzar el magnetoscopio Una posible solucion era colocar la misma grabacion en multiples magnetoscopios pero eso reducia la cantidad de material bruto disponible Por todo estos sistemas resultaron mas adecuados para editar series de television o peliculas que para informativos o anuncios 23 Segunda generacion por videodisco Editar Reproductor de discos laser Segun John Purcell 2007 p 73 y Jacobson 2010 p 423 el mismo ano que salio el primer editor por cinta de video 1984 George Lucas anuncio el lanzamiento de su Editdroid Este sistema contaba con cuatro maquinas reproductoras de videodisco una suministraba las imagenes A otra el sonido de las imagenes A una tercera las imagenes B y una cuarta con el sonido de las imagenes B Ademas era el primero en incluir una interfaz grafica con linea de tiempo 24 Junto al Sounddroid podia realizar todas las labores de video y sonido Aunque Lucas no vendio muchas unidades su tecnologia fue adquirida posteriormente por la empresa AVID en el video y por Sony en lo referente al sonido 25 El Editdroid empleaba lectores de discos laser del tipo velocidad angular constante CAV en ingles otros posteriores utilizaron los de velocidad lineal constante CLV n 9 Cuando la tecnologia mejoro y aparecieron los discos laser de doble cara y reproductores con doble cabezal el numero minimo de maquinas se redujo a dos 26 Al Editdroid le siguieron el CMX 6000 en 1988 el Epix en 1989 y el Laser Edit que ya introdujo los reproductores de doble cabezal 27 Todos ellos reducian bastante los problemas de colapso especialmente cuando surgieron los lectores de discos con dos cabezales pero no llegaban a eliminarlos El tiempo de acceso a las imagenes tambien mejoro notablemente al ser de dos segundos como maximo 26 Com inconvenientes de la segunda generacion Ohanian 1996 p 106 y siguientes citan tres el aumento en el tiempo de volcado por ser el proceso de grabacion mas lento y dificil en un videodisco que en una cinta la escasa cantidad de material bruto disponible o bien el elevado numero de maquinas reproductoras y por ultimo la necesidad de ir anadiendo mas equipamiento ya que las cortinillas y los efectos visuales se realizaban tanto por programacion como anadiendo nuevos dispositivos fisicos Pese a estas desventajas los sistemas basados en esta tecnologia siguieron existiendo hasta bien entrada la decada de 1990 y se utilizaron tanto para series y peliculas como para informativos y anuncios 23 Tercera generacion por disco magnetico Editar Diferencias entre los distintos formatos de video Las dos normas de alta definicion por sus grandes tamanos escapaban en la practica de las posibilidades tecnicas de la tercera generacion En 1988 aparecio el primer editor no lineal con todo el material almacenado en un ordenador desde las fuentes hasta el resultado final Se llamo EMC2 y lo fabrico Editing Machines Corporation usando como plataforma un IBM PC que comprimia las imagenes usando el algoritmo intracuadro JPEG n 10 En un principio el sistema utilizaba la resolucion visible del NTSC 720 columnas por 480 lineas pero se amplio en versiones posteriores Respecto al audio sus resoluciones podian variar entre 16 y 48 kHz En total poseia una capacidad maxima de 24 horas de material A este sistema le siguieron otros como el Avid Media Composer o el Lightworks 28 La tercera generacion trajo varias novedades entre otras cabe citar 29 El acceso a cualquier parte del material era realmente aleatorio Se podia exportar un historial completo con todas las decisiones sobre cortinillas o sonidos Varios efectos podian crearse con el propio aparato caso de las titulaciones En cambio esta tercera generacion adolecia de desventajas 29 por una parte estaba el tiempo de procesamiento que necesitaban los efectos y las copias de visionado al ser imprescindible renderizar el resultado final La calidad de las imagenes con que se podia trabajar no era mucha o en caso de trabajar a la maxima calidad el espacio para los brutos se reducia considerablemente Pero quiza uno de lo mas grandes escollo era la digitalizacion del material Aunque Sony habia lanzado en 1986 la primera cinta digital la D1 y estaba trabajando en el sistema de registro Betacam Digital cuando nacio la tercera generacion todavia no era posible utilizar brutos de camara digitales Resultaba imprescindible volcar previamente las imagenes de video o telecinar las de cine con la correspondiente perdia calidad y tiempo 18 Segun Rosenberg 2011 estos sistemas constituian una inversion considerable Cada uno incluia una tarjeta grafica potente para mostrar las imagenes en pantalla un procesador tambien potente una tarjeta compresora y descompresora para tratar el algoritmo JPEG mucha memoria RAM para la epoca y varios discos duros de gran capacidad Tanto es asi que una hora de material en sistema PAL ocupaba 8 2 gigabytes GB en adelante cuando un gigabyte podia llegar a costar 1000 dolares de la epoca n 11 Por lo tanto un equipo capaz de editar una hora de programa superaria el medio millon de dolares solo en soportes de almacenamiento n 12 Cuarta generacion los formatos de compresion para video Editar El Avid Media Composer uno de los editores digitales con acceso aleatorio mas populares Ante las ventajas aportadas por la informatica expertos como Ohanian 1996 presagiaban un momento donde la sala off line y la on line se unirian en un mismo equipo es decir con un solo sistema se podria concatenar planos incluir la titulacion crear efectos digitales anadir las capturas los cromas o trabajar varias pista de audio Todo con calidad suficiente como para ser emitido Desde 1992 fueron surgiendo productos capaces de manejar los brutos de camara directamente pero fallaban a la hora de generar grandes efectos visuales El Avid Media Composer 8000 aparecio en 1999 Podia producir anuncios y programas de television con calidad suficiente como para sustituir a las dos salas 30 Esto se debio a varios factores entre los que destacan el nacimiento de la familia de algoritmos intercuadro n 13 Con algoritmos son diversos uno de ellos es el MPEG pero no es el unico 31 el abaratamiento en los sistemas de almacenamiento tanto de memoria RAM como de disco y las mejores en los programas para tratar imagen y sonido Sin embargo la cuarta generacion seguia presentando limitaciones El volcado del material continuaba siendo necesario en muchos casos porque muchos sistemas de registro grababan en formatos o soportes propios 32 La capacidad de realizar cualquier efecto estaba lejos de conseguirse por la falta de potencia Un Pentium II podia realizar como maximo 16 operaciones audiovisuales por segundo y no siempre cuando manipular imagenes en movimiento anadir personajes o borrar cualquier detalle requeria entre 64 y 128 operaciones algo solo al alcance de maquinas dedicadas como el Quantel Painbox 33 La posibilidad de generar cine digital tambien se veia lejana debido a la resolucion necesaria La norma de television con mas lineas era la PAL pero el formato de cine digital equivalente al 16 mm el 2K duplica esta cantidad y el equivalente al 35 mm el 4K la cuadruplica 34 por lo que una hora de pelicula a estas resoluciones ocuparia 24 y 48 GB respectivamente cantidades que seria necesario multiplicar por 65 para digitalizar todo el material filmado Cuantias asi escapaban con mucho de cualquier logica economica Quinta generacion gestor de medios digitales Editar La quinta generacion de sistemas no lineales ya es capaz de crear cualquier imagen en pantalla para video y tambien para cine 2K o 4K La quinta generacion de edicion digital se diferenciaba de las demas por poder trabajar con brutos de camara digitales en su formato nativo el Raw y por poder crear personajes totalmente virtuales partiendo de capturas de movimiento 35 Estas capacidades hacian realidad el concepto de gestor de medios digitales es decir un sistema o equipo capaz de generar y manejar todos o casi todos los efectos que se quisieran por complicados que llegasen a ser 36 Asi el Avid Film Composer podia trabajar en resolucion 4K y muestreo 4 4 4 n 14 Se llego al punto de que tres estaciones de la familia Media Composer trabajando en red fueron capaces de crear un personaje totalmente digital Gollum y gestionar los 128 000 GB de imagenes pertenecientes a 2200 horas de filmacion obtenidas en la trilogia de El hobbit Peter Jackson 2012 35 Esto se debio a la confluencia de varios factores Por una parte la mejora en la tecnologia de las memorias flash contribuyo a poder almacenar 100 GB en una sola tarjeta de memoria 37 Gracias a esto surgieron camaras como la Red One capaces de grabar digitalmente a 30 cuadros por segundo y con calidad cinematografica 38 En segundo lugar mencionar la comercializacion de procesadores con varios nucleos Con ellos ya era factible calcular 128 o mas operaciones visuales por segundo con lo cual un mismo sistema informatico podia realizar todo tipo de incrustaciones etalonados efectos Si a esto sumamos el abaratamiento de las memorias RAM y de las tarjetas graficas se comprueba que hasta los equipos domesticos contaban con potencia suficiente para procesar television de alta definicion tanto HD Ready como Full HD Por ultimo y segun Carrasco 2010 p 268 tambien ayudo la implantacion de los dos sistemas de Television Digital Terrestre o TDT Esto trajo por una parte la entrada de la llamada television de alta definicion y por otra la salida de los equipos analogicos aun en funcionamiento el denominado apagon analogico Futuro Editar Comparacion de las distintas resoluciones La SD se fue abandonando en la decada de 2010 y la television ha tratado de imitar el formato apaisado cinematografico El siguiente reto es alcanzar la calidad del 8K y unificar video y cine En 1990 se vivia un consenso casi total sobre cual seria el sistema imperante en la edicion de video 39 Sin embargo en el siglo XXI autores como Carrasco 2010 Aguilera Morante y Arroyo 2011 coinciden en lo incierto del futuro para esta forma de trabajar No porque se dude de su continuidad sino porque no se atisba el camino que seguira El cine vive un momento dificil ante la competencia de otros medios audiovisuales por lo que no resulta sencillo pronosticar cuales y como seran sus siguientes pasos Para Carrasco 2010 la gran pantalla parece ir hacia un aumento de calidad con la entrada de la resolucion 8K Seria deseable segun el que la television y el cine convergieran en un mismo formato y por tanto ambas ediciones fuesen identicas No identicas solo en resolucion y equipamiento algo ya conseguido sino en todos los detalles incluido el formato panoramico Sin embargo el mismo autor advierte que numerosos intereses no facilitaran esta tendencia El cine ha visto a la television como un medio competidor desde su nacimiento con razon o sin ella Por tanto siempre ha tratado de distinguirse lanzando peliculas en tres dimensiones o ampliando la pantalla inicialmente muy parecida a la television Segun esto concluye Carrasco 2010 posiblemente los estudios de cine desarrollen nuevas normas para diferenciarse Una opinion diferente mantienen expertos como Nicholas Negroponte 1995 quien afirma que no es el cine sino la television quien tiene los dias contados Si bien el directivo del MIT reconoce que la entrada de las TDT han aplazado su final la potencia y versatilidad de los dispositivos moviles condenaran a este electrodomestico al olvido por lo que carecera de sentido la existencia de otra norma que no sea la del cine Bien es verdad que con la entrada de los telefonos con camara incorporada la cantidad de formatos existentes se ha multiplicado como indica Carrasco 2010 Vease tambien EditarServidor de Video Montaje HDV Efecto Ken Burns AnimacionNotas Editar De no hacerse asi aparecerian las llamadas roturas en la pista en el video y en el sonido Carrasco 2010 p 43 y otros autores indican que la edicion lineal desaparecio con la llegada de los medios digitales que no utilizan cintas con pistas Esta edicion tambien desaparecio con la entrada de los equipos digitales que graban en archivos independientes reproducibles por orden alfabetico por peso del archivo o por cualquier otro criterio Este paso era necesario porque la copia de trabajo sacada en el revelado solia estar deteriorada por los sucesivos manipulados El no ver los cuadros solo fue uno de los problemas Pese a ser Ampex la primera empresa en lanzar la grabacion en cinta este soporte no llego a convertirse en algo homologado que se pudiera reproducir en cualquier magnetoscopio del mundo segun Ohanian 1996 El autor utiliza el ejemplo de los sistemas de registro Hasta la decada de 1970 las ediciones profesionales se realizaban en cintas de dos pulgadas o 2 5 08 cm de anchura En 1971 la empresa Sony comercializo el formato U Matic en cinta de 3 4 de pulgada 1 905 cm En 1978 salio la cinta de video C1 de bobina abierta y una pulgada 2 54 cm que se convirtio en el estandar profesional durante la decada de 1980 Ohanian 1996 Por su parte Sony desarrollo en 1982 el Betacam con 625 lineas de definicion en cinta cerrada y pistas helicoidales inclinadas Konigsberg 2004 p 116 Por si todos estos sistemas eran pocos Konigsberg 2004 p 116 y 117 senala tambien la existencia de otros semidomesticos como el S VHS o Hi 8 y domesticos como el VHS del consorcio liderado por JVC el Betamax de Sony el 2000 aleman o 8mm tambien de Sony Sergio Alcon Marcos 2014 p 40 recoge la definicion aproximada de dichos sistemas los semidomesticos contaban con una resolucion horizontal la cantidad de filas que forman la imagen de unas 420 lineas y los domesticos de una 250 como maximo Segun Konigsberg 2004 toda esta variedad de tamanos formatos y resoluciones conllevaba varios procesos de conversion que a veces podian ser largos y caros necesitando incluso maquinas especiales Ampliar una secuencia requeria volver a cortar empalmar mas metraje previamente cortado y unir la parte ampliada con la siguiente Konigsberg 2004 p 116 y 117 destaca la existencia de cintas de video digitales como D 1 de una pulgada 2 54 cm o la D 2 de 3 4 de pulgada 1 9 cm capaces de generar sucesivas generaciones sin perdida de calidad pero aparecieron casi al mismo tiempo que la tercera generacion de sistemas de la edicion no lineal los cuales trabajaban ya con discos de ordenador Este sistema frances lo adoptaron las colonias de Paris y la URSS por motivos politicos pero con la entrada de la television digital y la alta definicion no se intento un SECAM digital pasandose sus usuarios al sistema PAL digital ver Carrasco 2010 para mas detalles Las peliculas de 16 mm o de 35 mm reproducian a 24 fotogramas por segundo cuando el NTSC lo hacia a 30 cuadros por segundo y el PAL a 25 ver Carrasco 2010 p 133 El tipo CAV permite movimiento lento imagen congelada y el avance cuadro a cuadro a cambio de tener solo 30 minutos de imagenes por cara Los de Velocidad lineal constante CLV ofrecian 60 minutos de material pero sin las posibilidades de los anteriores segun Ohanian 1996 p 106 y siguientes El disminuir la cantidad de informacion tratando de no alterar la percepcion humana constituye una constante del mundo audiovisual desde sus comienzos El que las peliculas de cine se filmen y reproduzcan a 24 fotogramas por segundo perseguia este mismo fin Resultaria mas agradable visualmente filmar a 40 o mas como se hizo despues con la entrada del cine digital pero eso hubiera supuesto pasar de 20 kilogramos por pelicula incluida su lata de transporte a casi el doble lo que imposibilitaria una distribucion mundial o nacional Carrasco 2010 p 41 De la misma forma para obtener una hora de material terminado se necesitan unas 65 horas de negativos guardados en latas hermeticas para evitar la luz Cada lata solia ser asegurada por si quedase inservible la pelicula debido a un accidente y fuese necesario repetir el rodaje En caso de duplicarse el numero de fotogramas por segundo y con el el de latas seria necesario duplicar el importe de los seguros A la television prosigue Cuenca Garrido y Quiles 1999 p 68 le sucede algo parecido El ancho de banda por el que se transmite no deja de ser un espacio limitado y no puede ampliarse crearia interferencias con radares senales de telefono satelites etc Por este motivo no se emite toda la informacion sino que se intenta adaptar al ojo humano mucho mas sensible a la luz que al color Asi aparecen los muestreos 4 2 2 4 2 0 o 4 1 1 donde la luminancia se muestrea totalmente pero los dos formatos de crominancia sufren una reduccion El computo realizado por Rosenberg 2011 es el siguiente Una trama de 680 x 420 pixeles 307 200 bits Cada pixel necesita 24 bit de color ocho para el rojo ocho para el verde y ocho para el azul 307 200 x 24 7 372 800 bits 7 37 Mbits Cada trama coloreada es mostrada a un ritmo de 25 por segundo 7 37 Mb x 25 184 25 Mb s Cada hora se compone de 3600 segundos 184 25 Mb s x 3600 segundos 662 400 Mbits h Puesto que cada byte lo forman 8 bits 662 400 8 82 200 MBytes aproximadamente 82 2 GB Tras aplicarle una compresion por hardware del algoritmo JPEG sin demasiada perdida un ratio de 10 1 la cantidad de memoria total seria 82 2 GB 10 8 2 GB Rosenberg 2004 calcula esta cifra partiendo del ratio 65 1 es decir hacen falta 65 horas de material bruto para obtener una ya editada por tanto si cada hora ocupaba 8 2 GB y hacian falta unas 65 horas de material serian necesarios 533 GB de espacio en disco Como cada GB costaba unos 1000 dolares el monto total de un equipo con esa capacidad podia superar los 533 000 dolares La diferencia entre la compresion intracuadro y la intercuadro es que la primera comprime cada fotograma o cuadro por separado la segunda comprime en su totalidad el primer fotograma o cuadro y de los siguientes solo comprime la parte de la pantalla que cambia tomando el resto de la informacion del primero Para imagenes con mucho movimiento la diferencia entre una familia de algoritmos y la otra es pequena pero cuando parte de la imagen permanece quieta la ventaja del intercuadro es considerable La mas alta calidad porque no tiene compresion con perdida ni en la luminancia ni en los dos canales de crominancia ver Cuenca Garrido y Quiles 1999 p 68 Referencias Editar a b Aguilera Morante y Arroyo 2011 p 303 Konigsberg 2004 p 183 y siguientes Espinosa y Abbate 2005 p 161 a b Carrasco 2010 p 43 a b Konigsberg 2004 p 327 y siguientes Konigsberg 2004 p 183 Carrasco 2010 p 67 Konigsberg 2004 p 183 y 184 Ohanian 1996 p 30 Perez Vega y Zamanillo Sainz de la Maza 2003 p 21 y siguientes Perez Vega y Zamanillo Sainz de la Maza 2003 p 72 Carrasco 2010 p 33 a b Ohanian 1996 p 31 a b c Ohanian 1996 p 31 y siguientes Ohanian 1996 p 69 y 70 Ohanian 1996 p 128 a b c CMX 600 Promo Video en ingles Sunnyvale CMX 1971 Consultado el 14 de junio de 2014 a b c Konigsberg 2004 CMX 600 HTML en ingles Sierra Madre Archive org 2007 Archivado desde el original el 10 de febrero de 2008 Consultado el 14 de junio de 2014 Ohanian 1996 p 87 Ohanian 1996 p 89 y siguientes Ohanian 1966 p 88 y siguientes a b Ohanian 1996 p 90 y siguientes Rosenberg 2011 Purcell 2007 p 2007 a b Ohanian 1996 p 106 y siguientes Ohanian 1996 p 110 y 111 Ohanian 1996 p 367 a b Ohanian 1996 p 367 y siguientes Konigsberg 2004 p 184 Cuenca Garrido y Quiles 1999 p 105 y siguientes Alcon Marcos 2014 p 39 Quantel Paintbox Demo Berkshire Quantel 1990 Consultado el 16 de junio de 2014 Carrasco 2010 p 70 a b La trilogia de El hobbit cobra vida con la magia de Media Composer Los Angeles Avid Technology 2014 Consultado el 19 de junio de 2014 Ohanian 1996 p 299 y siguientes RED ONE the first 4K digital cinema camera from RED Digital Cinema en ingles Los Angeles Red com 2014 Archivado desde el original el 29 de septiembre de 2015 Consultado el 19 de junio de 2014 The History of RED Digital Cinema en ingles Lo Angeles Red com 2014 Archivado desde el original el 7 de septiembre de 2016 Consultado el 19 de junio de 2014 Reams Patrick 1995 Non linear Editing en ingles Londres BBC Bibliografia EditarAguilera Purificacion Morante Maria Arroyo Eva 2011 Video digital Aplicaciones ofimaticas Madrid Editex ISBN 9788490030806 Alcon Marcos Sergio 2014 Elaboracion y edicion de presentaciones con aplicaciones informaticas UF0329 Madrid Paraninfo ISBN 9788428337106 Browne Steven E 2003 Edicion de video Madrid Instituto Oficial de Radio Television Espanola ISBN 9788488788535 Carrasco Jorge 2010 Cine y television digital Manual tecnico Barcelona Ediciones de la Universidad de Barcelona ISBN 978 84 475 3457 9 Cuenca Pedro Angel Garrido Antonio Jose Quiles Francisco Jose 1999 Codificacion y transmision robusta de senales de video MEPG 2 de caudal variable sobre redes de transmision asincrona ATM Toledo Universidad de Castilla La Mancha ISBN 9788484270133 Espinosa Susana Abbate Eduardo 2005 La produccion de video en el aula Buenos Aires Ediciones Colihue ISBN 9505817592 requiere registro Evans Russell 2006 Practical DV Filmmaking en ingles segunda edicion Oxford Focal Press ISBN 978 0 240 80738 6 Jacobson Mitch 2010 Mastering Multicamera Techniques From Pre production to Editing and Deliverables en ingles Oxford Focal Press ISBN 978 0 240 81176 5 Konigsberg Ira 2004 Diccionario tecnico Akal de cine Madrid Akal ISBN 9788446019022 Negroponte Nicholas 1995 Ser digital Buenos Aires Atlantida ISBN 9789500814737 Ohanian Thomas A 1996 Edicion digital no lineal Madrid Instituto Oficial de Radio Television Espanola ISBN 9788488788177 Perez Vega Constantino Zamanillo Sainz de la Maza Jose Maria 2003 Fundamentos de television analogica y digital Santander Universidad de Cantabria ISBN 84 8102 355 8 Purcell John 2007 Dialogue Editing for Motion Pictures A Guide to the Invisible Art en ingles Burlington Focal Press ISBN 9780415828178 Rosenberg John 2011 The Healthy Edit Creative Techniques for Perfecting Your Movie en ingles Oxford Focal Press ISBN 978 0 240 81446 9 Enlaces externos EditarAvid Technology Lightworks Quantel Videos Baratos Clipchamp Datos Q1154312 Multimedia Video editing Libros y manuales Edicion de video Obtenido de https es wikipedia org w index php title Edicion de video amp oldid 136456620, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos