MATERIAL DE ESTUDIO / V.A. y D. Fuente: CINE Y TELEVISIÓN DIGITAL AUTOR: Jorge Carrasco.
PRÓLOGO
La
imagen
estática,
aplicaciones curso
las
industriales
de
los
últimos
películas
cinematográficas,
y
científicas
veinte
años,
han
el
la
televisión
ampliado
empleo
y
el
y
las
múltiple;
considerablemente, tratamiento
de
en
la
e
imagen
digital. Por consiguiente, el conocimiento de los principios y las funciones de la digitalización
ha
adquirido
cada
vez
mayor
importancia
para
los
directores
d
> Calidad e información
Cada
uno
menor
de
de
imagen,
estos
bits
más
cinco
de
conceptos
información.
correctamente
se
puede
estimar
Inequívocamente,
representará
la
en
una
cuantos
realidad
y,
cantidad
más por
bits
ende,
mayor tenga
más
o una
calidad
objetiva o técnica tendrá. Esta
es
una
norma
general
e
indiscutible
del
audiovisual
digital
que
hay
que
tener en cuenta: a mayor información, mayor calidad. Por
otro
lado,
cuanta
mos
que gestionar, mayores
tanto
de
ceptos caseros, ciones relación
más
información
serán
las
captación
(cámaras)
como
informáticos
generales,
e
valen
igualmente
significará
mejores
calidad/precio
de
el
mundo
los
cuantos de
postproducción
incluso
para
manejemos, exigencias propios
audiovisual
se
mantiene
en
el
bits
tenga-
equipamientos,
(ordenadores).
Los
de
ordenadores
nuestros
digital.
calidades y, generalmente, aumento en los
también
más
nuestros
equipamiento
Mayores
conpresta-
precios. La digital,
pero con
la novedosa ventaja de que la propia idiosincrasia de la industria informáti- ca nos
ha
permitido
tener
precios más asequibles.
en
los
últimos
años cada
vez
mejores
prestaciones
a
3. La resolución
» Definición
La está
resolución
es
formada
una
un
concepto
imagen
sencillo:
digital.
A
indica
mayor
el
número
número
de
de
píxeles
píxeles,
de
mayor
los
que
resolución,
lo que significa mayor calidad.
/ Resoluciones / 4.096 p(h)
En este gráfico se muestran las resoluciones de cine digital Full Aperture, no las ya mencionadas del DCI. Las diferencias se explican más adelante.
» 67
3. LA RESOLUCIÓN
En fotografía digital se suele hablar de más o menos "megapíxeles" o millones de píxeles. En cine y televisión lo habitual es referirnos a la resolución por una sola cifra: bien la del número de líneas o bien el número de columnas. Pero el sentido es el mismo: contar píxeles. » Cine y televisión
En el gráfico anterior podemos del mundo de la televisión y el cine. Como En
el
ya
caso
apunté, del
cine
las
ver
todas
resoluciones
digital,
nada
las
de
nos
resoluciones
televisión
impediría
estandarizadas
siempre
digitalizar
son un
propias
más
precisas.
fotograma
a
una
resolución tipo 3K (3.072 x 2.240), por ejemplo. O incluso en el futuro podamos trabajar con resoluciones de 8K (8.192 x 5.980). Tampoco lución
nadie
extraña,
nos
como
impide, 1.345
x
en 713.
internet, Pero
formatear nunca
una
serían
obra
en
una
resoluciones
reso-
estándares,
profesionales, Broadcast.
Resolucione s HDTV
Una
vez
más,
el
marco
estandarizado
de la HDTV es el que nos permitirá fijar la base de calidad. En
cuanto
a
la
resolución,
tampo-
co hay hoy en día un único formato. Por
razones
históricas
y
comerciales
que no viene al caso comentar, la recomendación ciones
ITU
profesionales:
admite
dos
1.920
1.280x720.
Hay que señalar que, a día de hoy, la inmensa mayoría de las cadenas de televisión emiten en SD, y, por eso, aún no está fijada totalmente la normativa general de la HDTV Pero de los cuatro parámetros, sólo la cadencia parece todavía en discusión. Hay un intento de crear una nueva y única cadencia, 23,976 fps, en progresivo, pero no parece que vaya a salir adelante. Véase el anexo “Non Drop Frame / Drop Frame".
x
resolu1.080
y
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Cambio de relación de aspecto (aspect ratio)
El formato de pantalla o relación de aspecto (AR) es la relación entre el número de columnas y el número de filas de nuestra pantalla (entre el ancho y el largo, si se quiere). Se suele expresar bien por una fracción (4/3,16/9), por el resultado de esta
división
(1,33
y
1,78
respectivamente)
o
también
por
la
relación
expresada
en referencia a la unidad (1:1,33, 1:1,78). Al contrario que, por ejemplo, en el mundo de la fotografía, donde cada cual puede el
“formatear"
mundo
de
o
la
encuadrar
televisión
sus
y
el
obras cine
en
el
tamaño
profesional
exige
y
relación
unas
que
normativas
desee, estrictas.
Sobre todo, el mundo de la televisión, pues es inviable que en cada hogar cada uno opte por una relación de aspecto diferente. Observamos que la televisión SD, tanto PAL como NTSC, ofrecía una relación de aspecto de 4/3 (1:1,33). En HD, la relación cambia, y siempre será 16/9 (1:1,78). Por eso nos basta con una cifra para saber siempre el número total de píxeles, y ya hemos comentado que en el mundo de la televisión se suele hablar de líneas o resolución vertical. Así pues, nos referimos a estas resoluciones como 720 o 1.080, sin más, obviando la cifra de resolución horizontal. » Dos estándares
Que
haya
dos
tipos
culiaridades
del
de
resoluciones
mundo
audiovisual
estándar, en
un
y
no
tiempo
sólo
de
una,
se
transición.
debe En
a
pe-
un
primer
momento, la Rec. 701 hablaba de un formato 1.080 interlazado y otro 720 progresivo
(hablaremos
de
estos
términos
en
el
capítulo
dedicado
a
la
cadencia),
que
ofrecían una calidad visual muy similar. Sin embargo, hoy también se admite el formato 1.080 progresivo, que es claramente superior a los otros dos. En
la
actualidad,
dependiendo es
trabajar
el
generalmente
mercado del
ofrece
fabricante,
con el formato 1.080, pues
equipamiento pero
la
en
tendencia
las
dos
cada
resoluciones,
vez
más
proporciona más información y,
clara
por ende,
más calidad, en especial si es en modo progresivo. No niente más
obstante, a
la
el
formato
transmisión
eficientemente
720
de
no
la
comprimido,
debe
señal. y
Al
ocupar
descartarse,
sobre
todo
en
tener
menos
información,
menor
“ancho
de
banda”
lo
concer-
puede o
ser
bitrate
(algo menos de la mitad que el 1.080). Esto lo convierte en una opción óptima para
algunos
canales
de
distribución,
como
internet
o
la
televisión
digital
te-
rrestre. También es menor el coste de fabricación de los televisores y, cosa no despreciable,
se
pueden
fabricar
de
menor
tamaño:
¿quién
va
a
instalar
un
32
pulgadas en la cocina de su casa? Hablaré de ello en la parte dedicada a la distribución.
» 69
3. LA RESOLUCIÓN
En cualquier caso, y como ambas resoluciones son estándares, compatibles: un monitor 1.080 debe poder mostrar una señal 720, y viceversa.
han
de
ser
» HD Ready y Full HD
Comercialmente,
se
crearon
dos
etiquetas
de
cara
al
usuario
no
profesional
que
han tenido cierto éxito: HD Ready y Full HD. En
las
parecía
tiendas
más
fácil
que permite una
de
electrodomésticos
explicarlo
con
no
estos
resolución de 720
(un
suelen
nombres.
hablar
de
HD
tecnología,
Ready
sería
así
el
que
monitor
mínimo de 1.280 x 720 píxeles)
y Full
HD aquel que permite la reproducción en formato nativo de una señal 1.080 (un mínimo de 1.920 x 1.080 píxeles de resolución). ¿Eran digo,
sólo
tecnología
necesarias tenemos informática,
estas dos
etiquetas?
Lo
eran,
resoluciones
de
televisión,
donde
las
posibles
porque
a
estos
resoluciones
pesar
de
monitores
son
mucho
que, se
como
basan
más
en
amplias:
VGA, XGA, SXGA, etc. Lo veremos un poco más adelante. A la postre, hoy se asocian HDReady al 720, y HDFull al 1.080.
>> Ultra High Definition
Tampoco
se
soluto
nuevos
maras
para
pueden el
estandarización están
descartar
estándares futuro. como
trabajando
abcá-
Organismos la
en
en
y nuevas
la
de
SMPTE
ya
normativa
que
definiría a largo plazo la televisión de ultra
alta
propuestas
definición. serían
En
dos:
este caso, UHD
las
4.320
UHD 2.160. Sería conveniente, aunque poco probable, que los estándares futuros de cine digital (8K) coincidieran con los de la televisión UHDTV Una vez más, estarán en juego las cuestiones comerciales.
Resolución en el cine digital y HR
» Formato de pantalla
El cine no comparte ni tamaño de pantalla ni relación de aspecto con la televisión.
» 70
y
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Después
de
todo,
cualquier
resolución,
que
por
sale
el
en
una
sala
simplemente
proyector.
de
cine
nosotros
“cacheando”
Podríamos,
(del
incluso,
hablar
podríamos
proyectar
inglés
catch)
la
de
resoluciones
casi
imagen en
forma
de círculo, ¿por qué no? No
obstante,
cinematográfica nes
de
y
en
sabemos,
ya
en
diferentes estándares.
sus
académico inicios.
Una
vez
que
difícil
que
pueda
Sin
embargo,
de
coste
utilizar
otras
relaciones
de
una
etapas La
(Academy),
equipamiento.
dena
es
precisamente
consideradas
formato
televisión
evitar
estableció
aspecto
denominada
para
excesiva
de
su
clásica
fue
y
que
la
televisión
cambiarlo, en
pues
cine
aspecto,
fue
y
así
historia en la
la
tiempo
que
adoptó un
toda
mucho
surgieron
relaciola
1:1,37,
(1,33)
formato,
cambiar
supone
industria
algunas
su
adopta
implica
no
variedad,
varios,
la
como
la
problema
cani
generalmente
intentando diferenciarse de lo que ofrecía su gran competidora, la televisión.
Surgieron
así
los
formatos
panorámicos,
de
los
que
ha
habido
varios
ejemplos.
Pero, a día de hoy, y abandonado el académico, el cine suele trabajar con sólo tres relaciones de aspecto: 1:1,66, 1:1,85 y 1:2,35. Y el primero de ellos está en franco abandono.
El formato televisivo 16/9 o 1,78 es muy similar al cinematográfico 1:1,85, pero no son iguales. La diferencia estriba en un 4 %; es pequeña, pero puede producir efectos indeseados si no se tiene en cuenta.
» 71
3. LA RESOLUCIÓN
» Resolución horizontal
Al haber diversas opciones, en cine se adoptó la costumbre, mucho antes de que se
popularizara
líneas de
la
o píxeles
píxeles
alta
definición,
verticales,
horizontales
de
nombrar
sino por
siempre
los
ficheros
no por
el número de píxeles
permanecería
inalterable,
el
número de
horizontales.
El número
y
el
de
los
verticales
vendría dado por la relación de aspecto que escojamos. En cine lo usual es encontrarnos, pues, con dos resoluciones: 2K y 4K. "K”, en este caso, no es más que la inicial de "kilo”. Y kilo, en informática, sabemos que significa no 1.000 (103), sino más exactamente 1.024 (2a). 2K es entonces 2 x 1.024, lo que da un total de 2.048 píxeles de resolución horizontal.
Si
relación de una
hemos
decidido,
por
ejemplo,
aspecto de 1:1,85, basta
resolución
vertical
de
con
2.048/1,85
que
nuestra
hacer una
=
1.107
película
tenga
una
simple operación para obtener
píxeles
(el
redondeo
es
obligatorio,
pues no podemos contar con decimales de píxel). De
la
misma
manera,
4K
significa
4
x
1.024
=
4.096
píxeles
de
resolución
horizontal. 2K
y
4K son
pues
las cifras
que notan
la
resolución
en
el
mundo
de
la
cinematografía digital. » Recomendación DCI
En
la
actualidad
estamos
en
medio
de
un
proceso
de
digitalización
de
todas
las salas de proyección de cine del mundo. Al contrario que en la televisión, no hay
organismos
ciones
técnicas
internacionales de
formatos.
producción
y
distribución
conocidas
como
majors)
de las
que En
cine que
supervisen
este
caso,
el han
proceso sido
norteamericanas
han
sacado
y
las
con
adelante
hagan
grandes
sede una
en
recomendacompañías
Hollywood
iniciativa
de
de (las
estanda-
rización que, a día de hoy, parece ser la que está alcanzando más consenso. Es lo que o
se
conoce
simplemente
como DCI,
Digital que
Cinema
veremos
con
Initiative, detalle
requisitos en
los
DCI capítulos
(DCI
Compliment)
dedicados
a
la
distribución (parte IV del libro). La normativa DCI ha decidido optar por sólo dos formatos de pantalla: el 1,85 y
el
2:39,
abandonando
definitivamente
el
resto,
y
dentro
de
los
dos
tamaños
citados: 2K y 4K. En el caso del 2K, y para que quepan correctamente estos dos aspects ratios, el formato contenedor tendrá un máximo de 2.048 x 1.080 píxeles (es decir, muy semejante al 1.080 de la televisión). Si la película es de formato 2,39 (se han redondeando las cifras, por el motivo antedicho), la parte visible será 2.048 x 858.
» 72
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Si el formato es 1,85, entonces tendremos una parte activa de 1.998 x 1.080. Los cálculos son similares para el 4K DCI.
/ Resoluciones DCI para cine: 4K / 4K (4.096x2.160)
» 73
3. LA RESOLUCIÓN
» E-Cinema
Los
datos
citados
son
la
propuesta
de
incorrectamente
“D-Cinema".
Actualmente,
de
mundial,
que
la
taquilla
potente en
asociación
inglés
de
imponer de
contenidos,
de
la
una
así
majors
Nacional
que
podría
por
que
finalmente
de
lo
la
de
veamos. como
Cines)
exclusivamente
DCI se
también casi
que
(conocida
Propietarios
favorecer
DCI,
dominan
será
norteamericana
norma lo
recomendación
probablemente
exhibidores
Asociación
la las
presentó
a
80
La
también siglas
quiso
dejarse
los
la
%
NATO,
no
a
llamada
el
proveedores
SMPTE
para
su
normalización.
SMPTE son las siglas de Sooiety of Motion Picture and Televisión Engineers o Saciedad de Ingenieros de Televisión e Imagen en Movimiento. La SMPTE ejerce como agencia de
normalización,
neutral.
En
privada
España
y
norteamericana,
actuaría
la
AENOR,
pero
la
internacionalmente
Agencia
Española
de
reconocida
como
Normalización, o
en
Francia la AFNOR. Los países de la UE suelen actuar de manera coordinada, si bien no ha ocurrido así en el tema del cine digital.
Un
único
que
estándar
descartar
utiliza
resoluciones
ocasiones, eventos que
para
otros
está
el
propias
único
musicales
cine del
utilizable. o
teniendo
retransmisión
el
estándares,
puede
ser
una
como
el
E-Cinema
HDTV Por
y
que
ejemplo,
es en
deportivos directamente
mucho
auge
y
con
buena mucho el
en
gran
pero
más
caso las
siempre
de
de
tampoco
hay
Cinema),
económico
que y,
en
retransmisiones
pantallas
respuesta
víasatélite por medios televisivos,
idea,
(Electronic
de
público.
cine, Al
de algo
ser
una
tendremos que pensar en
HDTV y no en 2K. No hay cámaras de televisión ni unidades móviles ni en general
ningún
equipo
televisivo
broadcast
que
trabajen
con
resoluciones
2K
o
4K. Así pues, será 1.080 o 720. Dado
que
en
ocasiones
se
usan
proyectores
más
baratos,
que
pueden
conte-
ner una señal HD, se habla de cine 1,4K, o 1,3K (que corresponderían al formato 720 o HD Ready). Hablaré de ello más extensamente en la parte IV dedicada a la distribución. » Full Aperture
Las
resoluciones
DCI
mencionadas
son
las
que
finalmente
verá
el
espectador
en la pantalla. No obstante, es usual trabajar en la industria del cine con el formato
conocido
como
Full
Aperture
(FA),
Open
Gate
abierta". También es común llamar a este formato Súper 35 mm.
» 74
o,
en
castellano,
"ventanilla
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
La idea es simple: en vez de cachear (darle
el
a
imagen)
la
las
formato o
escenas,
relación de aspecto
durante
se deja
la
filmación
de
/ Formato Full Aperture (Súper 35mm) / 1. Negativo Full Aperture (FA)
este proceso pa-
ra el final, cuando se tiran las copias positivadas
(o,
hoy
en
día,
las
Virtual
Prints o copias digitales). El
fotograma
todo
el
cuatro
del
espacio
negativo
disponible
perforaciones,
utiliza
entrelas
incluyendo
el
es-
pacio que en el positivo se reserva para la banda de sonido (en fotoquímico, el sonido siempre se graba en una herramienta como
distinta
vemos,
aspecto
de
ventanilla unos
de
nos
la
da
cámara).
una
de
1,33.
La
aproximadamente abierta
nos
"márgenes"
de
Esto,
relación
permite
tener
seguridad
(safe
area) para, por ejemplo, evitar la entrada de un micro en el encuadre correcto. Durante
el
rodaje,
tanto
el
director
como el operador tienen en su monitor unas líneas que les señalan el encuadre correcto. Si por alguna razón lo necesitaran, drar
siempre
verticalmente
podrían
reencua-
poco
el plano en
un
la postproducción, pues el resto de la información
también
se
imprime
en el
negativo. Cuando Kodak y otras empresas desarrollaron
los
digitalización años
ochenta,
taba ya
de la
primeros
sistemas
de
negativo,
allá
los
ventanilla
por
abierta
muy popularizada, por
es-
lo que
al crear el formato original Cineon optaron por darle las dos resoluciones 4K o 2K pero con ventanilla abierta y formato 1,33.
» 75
3. LA RESOLUCIÓN
Así
pues,
es
costumbre
digitalizar
toda
la
información
en
ficheros
con
reso-
luciones de 4.096 x 3.112 para un formato 4K Full Aperture y de 2.048 x 1.536 para un formato 2K Full Aperture.
No hay que confundir el Full Aperture, FA, con el Full Frame, FF. Éste es un término que se usa en el mundo de la fotografía tradicional, pero que ya se está incorporando a las soluciones más avanzadas de cine digital. Se hablará de ello en la parte dedicada a la cámara, en la sección de los sensores captadores. » Captación 2K / 4K
Las cámaras de HDTV como hemos dicho, tendrán siempre una resolución máxima de 1.920 x 1.080 líneas. En el caso de las cámaras de la categoría que llamamos de HR pueden darse dos
opciones:
una,
que
mantengan
esta
resolución
pero
amplíen
otras
calidades,
como el muestreo o la profundidad de color. La
otra
Estaríamos
opción entonces
es
que
ante
mayor número de píxeles siempre
será
existen
magnetoscopios
en
soporte
allá de las 1.080 líneas HD.
ofrezcan
cámaras
resoluciones
específicas
de
superiores, cine
del
digital,
tipo con
y
4K.
sensores
2K
con
que los tradicionales HD. Por este motivo, la grabación rígido
(VTR,
(IT), Video
sea
en
Tape
tarjetas
o en discos duros, pues
Recorder)
para
grabar
señales
no más
Sin embargo, realidad, ción. Es
el mercado nos ofrece algunas cifras y nombres más. No son, en
resoluciones decir,
propias
afectan
en
de el
formato,
sino
momento de
de
"visionado"
o
de
monitoriza-
visualizar los trabajos, no de trabajar
con ellos (al menos en un entorno profesional). Analicémoslas.
>> Resolución “nativa”
Debemos tener en cuenta estos datos a la hora de elegir un monitor o un proyector
digital
para
nuestro
trabajo
de
postproducción
y
exhibición.
Las
resoluciones
de cine y televisión digital no suelen coincidir casi nunca con las informáticas. La idea es considerar
la resolución del aparato, que siempre vendrá dada en térmi-
nos informáticos (VGA y otros) como un “contenedor‟‟ capaz de mostrar de manera “nativa” el formato de cine o vídeo que hayamos seleccionado para el trabajo. En caso contrario, lo que hará nuestro equipo será un reescalado (resizé), bien hacia arriba o hacia abajo, de la resolución del archivo. Y eso influirá tanto en su
definición,
luminosidad
en las proporciones.
y
contraste,
como
en
posibles
aberraciones
ópticas
1 Equivalencias entre señal y monitor 1
WHXGA (5.120 x 3.200)
j
4K Full Aperture (4.096 x 3.112)
"'-........,
:;;
., e z
:;;: m
z
d (j)
r¡j O· ;o
ñ
o (j)
o m :;;:
1:1 z o Gi m
r
1i'
" \0
3. LA RESOLUCIÓN
Por esa razón, es conveniente el formato que estemos trabajando.
trabajar
siempre
con
"nativos”
monitores
para
Haré una pequeña tabla de equivalencias
>> Megapíxeles
Ultimamente, cifra viene
es
común
“megapíxeles"
de
heredada
del
encontrarse en
en
referencia
mundo
de
la
algunas a
la
cámaras
resolución
fotografía,
y
de del
se
cine
digital
sensor.
Esta
obtiene
sumando
con
una
costumbre el
número
total de fotodiodos que tiene el sensor (imager). Por ejemplo,
en ocasiones
se señala como “3 CCD de 2 megapíxeles” que-
riendo indicar que consta de tres sensores de tipo CCD, cada uno de ellos de 1.920 p(h) x 1.080 p(v). La “12
confusión
es
más
evidente
o
“21
megapíxeles”,
de
la
megapíxeles",
resolución
nativa
en
herramienta
cámaras
con
no
puede
si
nos
se
un
desconocen
único dar
sensor.
una
otros
La
idea
datos,
cifra
exacta como
de
de la
el
tipo
es
lo
que
audiovisual
es
más
de máscara Bayer de que dispone. Por
otra
parte,
tampoco
es
correcto
asociar
un
“fotodiodo”,
que
contiene un sensor, a un píxel, que es lo que forma una imagen. En
definitiva,
el
uso
de
“megapíxeles"
en
el
mundo
un elemento comercial que técnico, y puede llevar a confusiones. Profundizaremos en estos conceptos al hablar de cámaras.
del
4. Profundidad de color
» Etapa A/D
Hemos están
visto
antes
divididos
en
corrientes
al
ser
que
los
sensores
fotodiodos
excitados
que
por
a
una
captadores su
vez
intensidad
de
las
producen lumínica
cámaras
variaciones (por
los
electrónicas en
pequeñas
fotones
presentes
en la luz). Hemos visto también que se precisan tres sensores, uno por cada color primario, para lograr una representación pancromática. En
una
producen una
cámara
siempre
cámara
digital
se
digital,
analógica interpone
este
variaciones estas un
esquema
en
la
variaciones
paso
previo,
se
mantiene.
intensidad se una
de
guardan etapa
El
sensor
o
microcorrientes. tal
que
cual
en
convierte
la la
los
sensores
Pero
si
en
cinta,
en
una
señal
analógica
en digital, cuantificándola en bits. Este es el proceso o etapa A/D, y es clave en la calidad digital que proporcione. » Color expresado en bits
Durante
esta
valores
numéricos.
etapa
la
onda
Cuantos
analógica más
del
valores
chip seamos
se
convierte capaces
en de
diferencias o gradaciones tendremos en nuestra imagen. Si sólo aplicáramos dos
/ Niveles de bits /
una
serie
distinguir,
de más
4. PROFUNDIDAD DE COLOR
valores
(negro
nocible,
sólo
absoluto los
y
blanco
contornos,
sin
absoluto)
ningún
tendríamos
tipo de
matiz.
una
imagen
A medida
poco que
reco-
ampliemos
la gama de tonos, obtendremos más definición. Si usáramos el sistema decimal, plos
de
10:
100,
1.000,
10.000
lo natural hubiera sido convertirlo en
tonos.
Pero
como
hemos
dicho,
el
múlti-
sistema
que
empleamos es el binario, por lo que es lógico usar sus múltiplos: 2, 22, 23, 24,..., 28, que nos proporcionarán, respectivamente, 2, 4, 8,16, 32, ..., 256 niveles. ¿Cuál es el límite? El ojo humano es muy sensible, una herramienta de precisión perfeccionada a lo largo de millones de años de evolución. Sería impensable alcanzar su grado de exactitud a una tasa de bits manejable. Así pues, es necesario
un
compromiso.
Este
compromiso
debe
ponderar,
por
un
lado,
conseguir
una representación creíble de la realidad; y por el otro, un flujo de datos, una cantidad de información manejable por nuestras herramientas. » El estándar 8 bits
El grado de compromiso para el mundo de la HDTV se fijó en 8 bits por canal: en realidad no son ocho bits, sino que 8 es el exponente: 28 = 256 niveles o tonos de gama. Como hemos dicho, en color contamos con tres canales, por lo que si calculamos
el
número
x 256 =
224
de
combinaciones
posibles
de
colores
tenemos
que
256
x
256
= 16.777.216 diferentes tonos de colores representa bles (los cono-
cidos 16 millones de colores que nos muestran nuestros ordenadores). Estamos, pues, ante una señal de 8 bits de profundidad de color. Más exactamente,
sería una
señal de "24 bits”;
al hablar de 8 bits damos por supuesto
que nos referimos a la profundidad de color por canal.
» 84
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Se suele hablar de bits por canal, y no del total de bits, pues el número de canales puede variar. Una imagen en blanco y negro, por ejemplo, sólo tiene un canal. O puede haber una imagen con los tres canales de color primarios más un cuarto, el "alfa”, que permite albergar una información de transparencia.
Si, por ejemplo, el chip capta mucha intensidad de luz, cercana a su límite, el conversor A/D le asignará una cifra alta entre el 0 y 255 (el 0, en binario, también es un valor): digamos 232. Si llega poca luz, el conversor le asignará un número bajo: 16, por ejemplo. Un gris intermedio lo cuantificar con el valor 178... » Canales separados
de “gris
Hablamos
medio”, pero
como hemos dicho que trabajamos en un sis-
tema RGB, este “gris" en realidad es un rojo, o un azul o un verde intermedio. Lógicamente, ni las ondas ni los bits se “tiñen” de ningún color,
pero nuestros
dispositivos asocian este número a uno de los tres canales. Pero,
por
otra
parte,
trabajar
con
ellos.
y
una
manera
de
al
ser
Podemos
pura
decirle
sencilla
información
a
nuestro
tendremos
una
numérica,
ordenador
imagen
“reasociarlos”,
es fácil
que
invierta
negativa,
los
donde
el
canales azul
se
trabajo
en
convierte en amarillo, el rojo en can y el verde en magenta. Este
punto
postproducción “trabajo
como
es
clave
para
entender
que
permiten
las
por
componentes
las
enormes
herramientas (de
posibilidades
digitales.
color)”,
Es
terminología
lo
ya
de que
usada
se en
conoce analógico
(véase página 393). » 10, 12 bits
¿Qué
pasaría
nuestro
si
captador,
nuestro
conversor
decidiera
darnos
A/D, más
aprovechando posibilidades?
la Sería
gran
sensibilidad
entonces
una
de cuan-
tificación de nivel superior: por ejemplo, de 10 bits por canal. El
número
al
1.023).
0
posibilidades,
de 2
pues
niveles bits ya
o
grados
más,
por
como
no serían
16
canal
sería
entonces
vemos,
nos
multiplican
millones
de
posibilidades
de
1.024
(210,
del
exponencialmente de
color,
las
sino más
de mil millones (1.0243 = 1.073.741.824) de posibles tonos o colores distintos. La
magia
de
la
cuantificación
significativamente el número de
binaria
colores
nos
por
canales
basta
con
es
que
añadir dos
para bits
aumentar más a la
señal, es decir, sólo un 20 % más de información. 8 bits por canal proporciona una gran fiabilidad con respecto a la representación de la realidad. Por eso, 8 bits es el estándar de la industria televisiva, y será
asimismo
el
que
necesitemos
para
trabajar
en
alta
definición
para
televisión
(HDTV).
»85
4. PROFUNDIDAD DE COLOR
Sin
embargo,
permite
el
realmente
demuestran
que
negativo
captar
de
35
gamas
alcanzaría
del
mm
aún
orden
es
más de
un
formato
realistas.
unos
13
de
gran
calidad
Técnicamente,
bits
(el
cálculo
los no
que
estudios puede
ser
(las
que
exacto, dado que es un soporte fotoquímico, no digital). Por
eso,
llamamos ya
las
HR)
calidades
cámaras
intentan
de
10
pensadas
ofrecer
y
12
esa
bits.
específicamente mayor
para
calidad,
Tecnológicamente,
y
es
cine
digital
muchas
probable
de
ellas
que
a
ofrecen
corto
plazo
puedan ofrecer 14 bits, lo que alcanzaría la calidad del negativo. Y a más largo plazo,
incluso
se
podrían
superar
estas
calidades
con
sensores
aún
más
sensibles
y etapas A/D de mayor potencia de cálculo. » Otras terminologías
A
esta
contraste término
característica o,
muy
apropiado
la
llamamos
comúnmente, es
latitud,
indiferentemente
rango que
se
dinámico entiende
profundidad
(Dynamic como
el
de
color,
Range).
En
número
gama, cine
el
pasos
de
dinámico
se
de
diafragma o stops que permite capturar un negativo. En expresa
electrónica en
de
ocasiones
consumo
(televisores
en
relación
una
y
tipo
proyectores),
el
rango
1.000:1,2.000:1,4.000:1,
etc.
Se
podría
asociar 4.096:1 a un rango dinámico de 12 bits, y 1.024:1 a uno de 8 bits, pero no
es
» 86
exacto,
pues
aquí
la
terminología
no
está
clara.
Hay
varias
maneras
de
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
“vender” una cifra así. Se puede referir a una medición ANSI o FF (dos formas de medir el contraste), y los fabricantes no se ponen de acuerdo en el uso de una única terminología. Además, siderar lumínica dad
en
la
el
luz del
puede
contraste
ambiente, proyector.
ofrecer
de
el Un
una
un
proyector
material proyector
mejor
(incluso
donde de
profesional)
se
proyecta,
así
poco
contraste
pero
respuesta que
otro de
mayor
hay
como
que la
mucha
con-
potencia luminosi-
contraste pero
menor
potencia lumínica. » SNR: signal
Si
hablamos
mente una
por
noise ratio de
el
cámaras,
rango
tecnología
la
dinámico
analógica,
que
profundidad
de
que
ofrecer
se
puede mide
en
color
viene el
determinada
sensor.
decibelios,
que
Pero es
principal-
el
sensor
como
se
es
expresa
generalmente el RD en las especificaciones: 54 dB, 60 dB, 66 dB... Sólo tras su paso por
la etapa A/D se cuantifica en digital. La equivalencia estaría en torno
a 1 bit aprox 6 dB. La equivalencia no es exacta, pues son dos señales distintas. Una fórmula en uso es: n° dB = 6,02 x n° bits + 1,76. Una señal de 8 bits sería equivalente a 6,02 x 8 + 1,76 aprox 50 dB.
Más y está
concretamente,
ruido
(Signal
un
Noise
inseparablemente
ampliación
y
sensor Ratio,
unida
profesional SNR,
a
transformación.
un
Este
debe
S/N). ruido
ruido
reflejar
Como
hemos
subyacente,
por
lo
la
relación
producto
general
entre
comentado, se
toda
de
su
asocia
a
señal imagen
captación, los
niveles
bajos de la señal (las sombras o negros). Un equipo debe asegurar una señal útil "limpia”, con un número de gradaciones
suficiente entre su máximo nivel
y su mínimo ausente de ruido, por debajo
del cual deja de ser una señal útil. La cifra de SNR es siempre más precisa en este caso que el simple RD o rango dinámico. Una vez más, los fabricantes no se ponen de acuerdo en usar un único dato, pudiendo leerse en las especificaciones indistintamente el valor SNR o el RD, por lo
que
en
buena
lógica
entenderemos
que
el
dato
RD
siempre
será
ligeramente
superior al SNR, y por tanto menos fiable. Como sensores,
veremos esta
señal
con
más
analógica
detenimiento expresada
bits a su paso por la etapa A/D.
en en
la
parte
decibelios
dedicada es
lo
que
a
las se
cámaras convierte
y en
Ambas etapas son importantes para determinar
la calidad de un dispositivo.
» 87
5. El muestreo
» Muestreo total y parcial
Con
lo
este
capítulo
dedicado
color
bastarían
para
hablar
explicado
de
hasta
ahora, al
determinar
muestreo es
el
mundo
muestreo
porque
reducido
del
(Sampling).
la
calidad
es
un
de
un
cine
digital
Resolución
y
formato digital.
elemento que aparece en
no
necesitaría
profundidad Si
tenemos
el mundo
de que
de la
televisión. En cine digital, el muestreo es algo que se obvia, pues sólo se contempla una opción: muestreo total o RGB. Con esto queremos decir que se cuenta con toda la información proveniente del sensor, sin eliminar ninguna muestra. Sin
embargo,
información:
los
realizan
sistemas
de
televisión
“muestreo
un
parcial”
estándar o
eliminan
una
submuestreo
de
parte
lo
de
obtenido
la en
los sensores en lo que conocemos como espacio YUV. Esto de
la
implica verdadera
compatibilidad
evidentemente capacidad
sistemas
de
una una
anteriores
pérdida cámara,
y
de
de pero
un
calidad, se
mejor
un
explica
desaprovechamiento
por
la
aprovechamiento
necesidad del
de
limitado
espacio radioeléctrico. Una señal RGB (la que sale directamente de los sensores de las cámaras) se transforma en una señal YUV mediante dos procesos: •
Una reordenación o transformación de la señal para su compatibilidad con los monitores en blanco y negro.
•
La eliminación de una parte de la información para reducir el flujo de datos o ancho de banda.
Hablamos entonces de dos espacios de color diferentes: RGB puro o de muestreo total, y YUV o muestreo parcial. » De la televisión en blanco y negro al color
Hasta
la
década
de
1950,
la
televisión
comercial
trabajaba
en
analógico
y
en
blanco y negro (un solo canal o “escala de grises”). Una señal en color, como
» 89
5. EL MUESTREO
hemos dicho, consta de sendos canales para reproducir entonces la sensación de “blanco y negro”?
los
tres
colores
primarios.
¿Como
Esta necesidad era una condición sine cua non para el mundo de la televisión. Al contrario que en el cine, donde un proyector sirve tanto para copias en blanco y
negro
las
como
señales
en
de
color,
los
televisión
televisores
en
color.
en
Era
blanco
necesario
y negro adquirir
no
un
podrían
nuevo
reproducir
aparato
para
poder verlas. Este
dilema
(de
alguna
manera
semejante
a
la
actual
transición
entre
SD
y
HD) planteaba tres problemas comerciales. El primero, que no se podía obligar a los
espectadores
exigían
que
a
las
adquirir
nuevas
nuevos
emisiones
equipamientos.
en
color
fueran
Los
organismos
compatibles
con
reguladores
los
televisores
monocromos ya instalados en los hogares. El segundo problema es que a las propias a
cadenas
emitir
deberían
de
en
televisión
no
pues
suponía
color,
ser
captadas
también
les
interesaba
una
por
gran
todos
perder
mejora
los
audiencia. técnica,
espectadores,
Querían
pero no
empezar
estas
sólo
emisiones
por
aquellos
con capacidad económica suficiente para adquirir un nuevo televisor en color. Y
el
tercer
problema,
no
menos
importante,
en
aprovechar
adecuadamente
el
espacio radioeléctrico, sin eliminar operadores. » Luminancia y crominancia
La
solución
aparentemente
más
sencilla
(una
mezcla
ponderada
al
33
%
de
las
tres señales) no era visualmente correcta. La razón es que el ojo humano es más sensible
al
color
verde
que
orígenes
selváticos
como
primates.
primarios
no
equivaldría
a
a la
los
otros
Una
sensación
dos
primarios,
ponderación de
por
contraste
quizá igual
entre
de
debido
a
nuestros
los
tres
colores
blancos
y
negros
tal
señal
en
como la percibe nuestro cerebro. Por
esa
razón,
y
tras
diversas
pruebas
técnicas,
se
convino
en
la
blanco y negro más apropiada, a la que a partir de ahora llamaremos luminancia (luminance, cuyo símbolo es la letra y griega mayúscula, Y), y era un balance de los tres canales en la siguiente proporción:
Y = 0.299R + 0,587G +0.114B
que se suele redondear para decir que la luminancia es la suma del 30 % de la señal del canal rojo, más el 60 % del verde, más el 11 % del azul.
Es importante no confundir luminancia con intensidad lumínica o luminosidad (ligthness). Luminancia es equivalente a la escala de grises o señal en blanco y negro.
» 90
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
El
resto
letra
de
ce
la
información
mayúscula,
C)
y
tricolor
está
se
formada
denomina a
su
vez
crominancia por
dos
(notada
señales
con
la
denominadas
arbitrariamente U y V. La fórmula, igualmente sencilla, es:
U = Y-R V = Y-B C = U+V Asimismo, no hay que confundir crominancia con información de color.
Como se observa, la conversión de RGB a YUV es una sencilla operación aritmética
que
no
requiere
ni
tecnología
avanzada
ni
grandes
complicaciones.
Bajo
esta
norma, si se quisiera volver a obtener el canal rojo, bastaría con hacer una resta:
Y-U = Y-(Y-R) = R
Un monitor en blanco y negro funciona tomando la señal Y y mostrándola en la pantalla, desechando la señal de crominancia. En el caso de un monitor en color, toma la señal YUV y la vuelve a convertir en
RGB,
aplicando
la
fórmula
inversa.
Una
vez
convertida
en
RGB
la
muestra
en la pantalla con sus colores originales. Se conseguía así color
en
salvar
televisión, que era
el principal la
escollo de
compatibilidad con
aquella
etapa de transición al
los equipamientos
y televisores
ya establecidos en blanco y negro.
» 91
5. EL MUESTREO
>> Las limitaciones del espacio radioeléctrico El otro gran reto de esa deducir, en
una
señal
analógico
o
de
etapa fue también de índole comercial. Como podemos
color
bitrate
triplica
en
la
digital)
cantidad
de
una
de
señal
información
en
blanco
(ancho
y
de
negro
de
banda iguales
características. Aquí
nos
enfrentábamos
emisión.
Las
emisiones
emisiones vía
terrestres
satélite
accesible para
o
a
otro
tipo
científicas
y
o
cable)
todos
los
de
limitaciones
emisiones, y
una
como
para
señales
señales las
espectro
radioeléctrico
tradicional
(conocidas
distinguirlas
del
espacio
espacio
las
últimamente,
del
antena
parte
Este
privadas,
y,
vía
Terrestrian-,
ocupan
operadores.
públicas militares
las
televisión
-Aerial
por
radiofrecuencias
a
de
ha de
de
tener
radio,
frecuencias
las
realizadas
radioeléctrico
de
satélite,
de
de como
público,
cabida
también
las
comunicaciones
de
radar,
para
la
de
aplicaciones
telefonía
móvil
y
destinada
a
las soluciones wifi y Bluetooth. Esto
significaba
televisión
que,
si
(tradicionalmente
Frecuency-
o
VHF)
en
la
conocida "caber”
podían
banda como 12
del
espacio
radioeléctrico
de
muy
alta
frecuencia
canales
en
blanco
y
negro,
-Very
High
sólo
podría
haber espacio para 4 en color. Triplicar
el
ancho
de
banda
de
la
señal
implicaba,
además,
graves
problemas
tecnológicos por lo que se refiere al cableado, equipamiento, mezcla y almacenamiento de la información. Todos los costes se multiplicarían asimismo por tres. » El submuestro o muestreo parcial Por
esa
razón,
los
ingenieros
buscaron
una
solución
que
permitiría
reducir
el
ancho de banda de la señal a algo más razonable. En aquel tiempo, el concepto de
compresión
digital
no
se
manejaba,
así
que
hicieron
sus
pruebas
en
función
del espectador medio (el naked eye u ojo desnudo, no el ojo experto del profesional).
Se
aparente”
buscaba
o
sensible a
una
subjetiva. los
reducción
En
cambios
estas
de
de
la
pruebas
contraste
información
advirtieron
lumínicos,
pero
que no
objetiva el
pero
ojo
tanto
“pérdida
sin
humano a
los
es
muy
cambios
de
tono o color. Dicho con
un
ejemplo
quiere
profusión
de
colores
verdes
con
tinguiremos
un
conejo
blanco:
decir que
si
y
y
pardos
sabremos
casi
caminamos muchas
por
un
sombras,
inmediatamente
que
denso enseguida es
bosque, dis-
blanco
y
también que es un conejo. Por el contrario, si el conejo es gris o pardo, probablemente
lo
confundamos
con
un
tronco
o una
piedra
o,
aunque
se
mueva,
no
distinguiríamos su forma de la de cualquier otro animal (y por esa misma razón de supervivencia, los conejos árticos son blancos, y no pardos).
» 92
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Bajo
este
luminancia
razonamiento
se
intocable
pero
era
decidió que
que
las
una
otras
vez dos
obtenida señales,
la que
señal juntas
YUV,
la
formaban
la crominancia, se podían reducir a la mitad sin que el "ojo desnudo” apreciara una pérdida significativa de la calidad. Es
lo
que
la
técnica
llama
submuestreo
(subsampling)
o
muestreo
parcial,
y
entra dentro de las recomendaciones ITU 609 (para SD) y 701 (para HD), siendo el
estándar
internacional
de
la
televisión.
Por
esta
razón
se
entiende
que
toda
señal YUV de televisión está submuestreada. » Submuestreo analógico
En términos numéricos, la señal SD analógica tiene un canal Y con una cantidad de muestras de 13,5 MHz, mientras la señal U tiene sólo la mitad, 6,75 MHz y V otros 6,75 MHz. En HDTV la señal Y tiene 75 MHz, U = 37,5 MHz y V = 37,5 MHz. Como U + V = C, se dice entonces que el muestreo de luminancia Y es igual al
de
crominancia
C,
en
ocasiones
referida
en
una
señal
multiplexada
como
la
subportadora de color (insistiendo una vez más en que crominancia no es la señal de color, sólo una parte de ella). » TV 4:2:2
En digital se utiliza una convención numérica conocida como 4:2:2. Lo único que quiere
decir
de
manera
muy
arbitraria
(se
podían
haber
elegido
otros
números,
como 10:5:5) es que de cada 4 muestras de Y, sólo obtendremos 2 de U y otras 2 de V. 4:2:2 es el equivalente digital al espacio de color analógico YUV (si bien se usan
indistintamente).
En
ocasiones
también
encontramos
las
siglas
Y
Pb
Pe,
que se refieren al muestreo parcial para señales de alta definición.
» 93
5. EL MUESTREO
» Cine 4:4:4
Como ya hemos dicho, el cine digital es siempre un formato 4:4:4, y como tal siempre se transfiere así a los archivos que maneja. 4:4:4 es sinónimo de RGB. EL espacio de color RGB es propiamente televisivo e informático. En ocasiones, las soluciones de cine digital usan un espacio de color específico, conocido como XYZ, ligeramente diferente, pero también con muestreo total 4:4:4. Se profundizará en estos aspectos en la parte dedicada a la postproducción.
Incluso
en
la
completamente
actualidad con
muchas
muestreos
cámaras
RGB,
de
sin
gama
pérdida
alta
de
HDTV
pueden
información,
por
trabajar lo
que
pueden considerarse ya cámaras del segmento HR. Por png,
definición,
etc.),
así
también
como
los
todo
ficheros
lo
y
formatos
relacionado
con
de
la
gráficos
informática,
(dpx,
son
tiff,
bmp,
siempre
RGB,
sin submuestreo. » Reducción de flujo de datos
Es fácil calcular que si una señal con muestreo completo RGB ocupa el 100 % de
un
determinado
ancho
de
banda,
la
misma
imagen
submuestreada
en
YUV
ocupa sólo el 66 %. Esto
quiere
decir,
ni
más
ni
menos,
que
donde
antes
emitían
12
canales
en
blanco y negro, pueden emitir hasta 6 canales en color YUV y no tan sólo 4 en RGB. La
misma
provechosa ciendo
reducción
para
costes.
el
De
de
ancho
diseño ahí
que
de
banda
o
bitrate
del
33
y
funcionamiento
del
equipamiento
el
espacio
que
no
YUV
%
es
igualmente
televisivo,
presenta
pérdidas
redu-
aparentes
de calidad, tenga grandes ventajas de orden económico. » Pérdida de calidad efectiva
Por
pura
lógica,
no
4:2:2
YUV
siempre
RGB
4:4:4.
Las
obstante,
tendrá
pérdidas
también
menos en
la
calidad parte
de
debemos
comprender
que
señal
una
crominancia
que
con
quizá
una
muestreo no
sean
señal completo
apreciables
por el espectador medio, pero sí lo son en el entorno profesional. Por
esa
televisión,
razón, pero
un
4:2:2
siempre
exigente
será
trabajo
un de
estándar
admitido
cinematografía
en
digital
el
mundo
optará
por
de
la
trabajar
con imágenes 4:4:4. Esta tendencia se observa también en el mercado. Casi todas las cámaras que hemos calificado como de Higher Resolution (HR) ofrecen una captación 4:4:4.
» 94
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
E
incluso
empiezan
a
aparecer
equipamientos
de
HDTV
que
pueden
ofrecer
esta
opción. Después de todo, la conversión RGB/YUV es un proceso añadido al flujo de
información
cámaras
propio
captan
la
de
señal
la
en
cámara,
RGB,
y
que es
encarece
una
el
etapa
equipamiento:
interna la
todas
las
que convierte
esta
señal original en YUV En yos
cuestión
catódicos
desuso.
Sus
de
monitorización,
(CRT,
analógicos)
sustitutos,
los
trabajan
siempre
en
co
muestran
señales
(si
los
monitores
RGB
al
en
es
tipo
que
tradicionales
YUV
planos
igual
YUV
televisores
trabajan
Pero
LCD,
cualquier
porque
TFT,
otro
internamente
de
esta
tubo
de
tecnología plasma
y
de
en
similares,
equipamiento constan
ra-
está
informáti-
un
conversor
RGB/YUV en la entrada correspondiente). Tecnológicamente, televisiva ya
trabajara
comentado
hoy en
de
no
RGB.
la
supondría Excepto
limitación
ningún
en
del
el
problema
caso de
espacio
toda
la
las emisiones,
que
por
radioeléctrico.
También
industria el
hace
tema tiempo
que se dejaron de vender televisores en blanco y negro. Sin embargo, la necesaria
compatibilidad
siendo
el
con
estándar
los
equipamientos
televisivo
profesional,
previos, como
permiten
recogen
que
todas
el
las
4:2:2
siga
normativas
y
recomendaciones internacionales (véase página 394). No es impensable suponer que a medio plazo las opciones de grabación y postproducción de todas las cámaras sean 4:4:4. El 4:2:2 se mantendrá como una conversión final para su posible emisión por las televisiones y canales tradicionales.
» Número de muestras
Si
pensamos
en
digital,
la
reducción
de
muestras
se
realiza
en
el
número
de
muestras horizontales. Siempre mantendremos la resolución vertical. En una señal HD 1.080, sabemos que cada canal RGB necesitará 1.920 x 1.080 píxeles o muestras para un “sampleo" (del inglés sampling) completo. Habrá pues 1.920
x 1.080 = 2.073.600 muestras del canal rojo, otras tantas del canal verde
y otras tantas del canal azul. Sin
embargo,
en
4:2:2
tendremos
1.920
x
1.080
muestras
de
luminancia,
y
sólo 960 x 1.080 de la señal U y otras 960 x 1.080 muestras o píxeles activos del canal V Evidentemente, que
una
visualmente
muestra es
esto
no
U
ocupa
apenas
quiere el
decir
espacio
apreciable,
que de
este
haya
dos. hecho
“huecos"
Como puede
entre
veremos, producir
a
píxeles, pesar
sino
de
distorsiones
que y
falta de precisión en procesos de postproducción. Un caso típico es el uso de un chroma key o incrustación por llave de color, que siempre será más preciso, con bordes más definidos, trabajando sobre soportes RGB que sobre soportes YUV.
» 95
5. EL MUESTREO
» 4:2:0 y 4:1:1
Además para
del
estándar
4:2:2,
la
industria
el consumidor final o incluso
ha
desarrollado
equipamientos
prosumer que eliminan
aún
más
pensados
la informa-
ción de crominancia. Y también en formatos de distribución como el DVD o los vídeos a los que accedemos a través de internet. La idea es reducir aún más el flujo de datos para tener una señal más manejable, que pueda caber en cintas o soportes
más
pequeños
y
que
necesiten
menos
potencia
en
ordenadores
caseros
en el momento de la edición. Son señales a las que también podemos calificar de “espacio color YUV”, con submuestreo,
pero
no
son
brodcast
o
profesionales.
Son
soluciones
comerciales
ofrecidas por la industria, pero no admitidas (si bien toleradas) por las normativas internacionales
y
las
cadenas
comerciales.
La
calidad,
una
vez
más,
se
resiente,
pero a favor de un flujo de datos más reducido (un 33 % de ahorro sobre 4:2:2 y un 50 % sobre el RGB). Es por ejemplo el muestreo parcial 4:1:1. En este caso, por cada 4 muestras de luminancia, sólo obtendremos 1 de la señal U y 1 de la señal V Una imagen de HD 1.080 con muestreo 4:1:1 nos daría entonces Y = 1.920 x 1.080 muestras U = 480 x 1.080 muestras V = 480 x 1.080 muestras Hay otra cifra más común: 4:2:0. En este caso es preciso recordar que la intuición numérica debe obviarse y, asimismo, que el uso de esta numeración en base 4 es puramente arbitraria. 0 no quiere decir que carezca de información de la señal V sino que su lectura es distinta. Una señal 4:1:1 aplica el mismo submuestreo en todas
las
líneas
de
resolución,
mientras
que
4:2:0
lo
hace
alternando
las
líneas:
en una, obtendrá 480 muestras de U y 0 muestras de V y en la siguiente lo alternará: 0 muestras de U y 480 de V En sistemas interlazados, 4:1:1 submuestrea cuadro a cuadro, mientras 4:2:0 lo hace campo a campo. Esto por
lo
es
útil
que
la
para
los
tendencia
sistemas es
interlazados,
abandonar
el
pero
también
submuestreo
4:1:1.
para En
los
progresivos,
cualquier
caso,
4:1:1 y 4:2:0 tienen la misma cantidad de información. Para tenemos
entender que
estos
seguir
conceptos,
avanzando
y
interlazado pasar
a
y
definir
progresivo, el
último
cuadro de
y
nuestros
campo, cuatro
términos básicos: la cadencia y su barrido. Para profundizar aún más sobre otras cifras, como 3:1:1 o 4:4:4:4, véase el anexo correspondiente.
» 96
6. Cadencia y barrido
La cadencia
» Cadencia ideal
El
número
de imágenes
por
segundo (images
per
second,
ips
o
fotogramas/frames
por segundo, fps) es lo que conocemos por cadencia o framerate. Este número también nos habla de calidad, pues es evidente que cuantas más imágenes real.
por
Si
segundo
tenemos
un
mostremos,
mayor
número escaso
será
la
de imágenes,
fidelidad se
de
producirá
la el
representación
efecto
conocido
como "parpadeo" o fliqueo (del inglés flicker) de la imagen, con la sensación de que se desvanece entre dos fotogramas. Lo primero es señalar que la cadencia siempre ha sido un compromiso entre calidad
y
economía. “real",
representación Pero
por
razones
Actualmente,
Análisis sin
técnicos
sensación
económicas
tampoco
nunca
ningún
indican
de
que
parpadeo, se
estándar
ha
de
la
estaría
ofrecido cine
o
cadencia en
esta
ideal
torno
a
cantidad
televisión
para
una
72
ips.
los de
alcanza
fotograma este
núme
ro, pero no es descartable que lo pudiera hacer en el futuro. La tecnología actual digital lo permite y en digital el capítulo de costes no se encarece tanto como en fotoquímico. » Cadencia en el cine
En cine el compromiso viene dado, una vez más, por el coste del material Rodar con
cadencias
negativo. (cuatro
De o
muy la
cinco
altas
misma rollos
significa
manera, de
las
gran
aumentar ya
de
tamaño)
por
proporcionalmente sí
voluminosas
también
el copias
aumentarían,
gasto
en
positivadas
complicando
su
distribución en las salas. Durante
los
primeros
años
se
probaron
diferentes
cadencias,
siendo
la
más
popular la de 16 fps de la mayoría de las películas del cine mudo. Para evitar el
parpadeo,
se
proyectaba
hasta
tres
veces
cada
fotograma.
Sin
embargo,
aun
así era más que evidente. Posteriormente, se optó por el compromiso de rodal
» 99
6. CADE NC IA Y BAR R ID O
24
fotogramas
(un
gasto
superior
en
negativo)
proyectando
en
sala
dos
veces
mismo fotograma, por lo que la cadencia que realmente ve el espectador
el
es de
48 ips. La recomendación actual para el cine digital de la DCI mantiene la cadencia tradicional de 24 ips, pero con la posibilidad de aumentarla a 48 en los formatos 2K. La cadencia de 48 ips en formatos 4K puede resultar un poco excesiva por el gran tamaño de los ficheros, pero una vez más no es descartable en un futuro a medio o largo plazo.
>> Televisión: diferentes cadencias
El
compromiso
de
calidad/flujo
duro)
no
mucho o
es de
el
caso
de
datos.
de
datos:
coste si
de
Dado
excesivamente
problema
flujo
en
la
televisión
que
caro
en
aumentar
doblamos
la
el
no
"material
comparación la
cadencia.
cadencia,
es
tanto
virgen" con Pero
calidad/coste
televisivo
el
también
de del
sí
(cinta
o disco
no
supondría
cine,
de
como
ancho
de
la
cantidad
doblamos
banda de
información.
Por razones tecnológicas, que no comerciales, los sistemas de televisión optaron por cadencias similares pero un poco diferentes a las del cine. En concreto, en los sistemas PAL y SECAM se optó por los 25 ips, y en los sistemas NTSC por una cadencia un poco extraña, 29,97 ips. La razón de esta divergencia tiene que ver con la frecuencia de la red eléctrica en los distintos continentes. En Europa, la red de corriente alterna circula a 50
Hz, mientras que en Estados Unidos de América circulaba a 60 Hz. En los
primitivos
sistemas
señal, de ahí su utilidad.
» 100
de
televisión,
esta
frecuencia
se
usaba
para
sincronizar
la
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
La cadencia tradicional del NTSC es siempre 29,97 ips. Sucede sin embargo que por comodidad se redondea esta cifra a 30 ips. Para profundizar sobre este tema, véase el anexo Non Drop Frame » Cadencia HD
Con
la
tecnología
digital actual,
la
frecuencia de
la
corriente
alterna es indife-
rente, pues ya no se precisa para una sincronización de la señal. Por esa razón, dado y las
que
PAL,
los
sistemas
sería
conveniente
producciones,
comerciales
HD
bien
sea
vienen
a
superar
las
que
se
estableciese
24,
25
o
y de compatibilidad
viejas
una
30/29,97.
diferencias
única
No
cadencia
obstante,
hay
entre
NTSC
para
todas
implicaciones
con los sistemas antiguos que hacen que, a día
de hoy, esta cadencia universal no esté definida. Por trabajo
ello,
la
inmensa
multiformato
en
mayoría SD
y
de
HD,
los
equipos
actuales
escoger
entre
cadencias
en
todas
permiten, las
además
diferentes
del
cadencias
admitidas.
» 23,976 Las
pequeñas
diferencias
no
obstante,
grandes
entre
problemas.
las
Por
ejemplo,
cine cuando
y
en
televisión
queremos
generan,
adaptar
para
televisión una película rodada en cine 24 ips. La transferencia entre los 25 ips del PAL y los 24 ips no es muy problemática (un 4% de diferencia temporal). Suele hacerse respetando todos los fotogramas
» 101
6. CADENCIA Y BARRIDO
de la imagen, sin eliminar ninguno, y alterando un poco la banda de sonido. Lo mismo sucede si rodamos digitalmente a 25 ips y luego lo distribuimos en salas a 24 ips. En el caso del NTSC, los 24 ips se pasan a 30 (29,97 ips) mediante un sistema algo
más
complicado
conocido
como
pull
down
(véase
el
anexo),
aprovechando
características de la señal de vídeo interlazada (que veremos ahora). Sucede de cada Para de
sin
embargo
mil para
evitar
la
23,976
ips
que
que la
pérdida (en
de
el
proceso
pull
sincronización este
ocasiones
fotograma se
nota
down
debe
eliminar
temporal entre 24 se
desarrolló
redondeando
a
un
fotograma
y 29,97 se mantenga.
una
cadencia
23,98).
Con
más esta
precisa, cadencia,
no es necesario eliminar ningún fotograma del contenido. Dado que 23,976
y también en
el 29,94 es muy compatible con
la
cadencia
del cine 24 ips, y también con la tradicional de la zona PAL, 25 ips, algunos técnicos
la
sistemas
de cine
y televisión
seguirá
habiendo
diferentes
un
trabajo
incluyendo
proponen
previsto estreno
en
como
para salas
la
cadencia digital.
universal
Personalmente, en
distribuir
internacionalmente de
señales
cine,
interesante, sobre todo en territorios tradicionales del NTSC.
» 102
deberían
creo que
cadencias
comerciales
las
que
digitales. de
23,976
adoptar
todos
los
esto no sucederá, y No
manera puede
ser
obstante,
en
muy
amplia,
una
elección
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
El barrido
Hemos
hablado
de
25
y 30
ips
refiriéndonos
a
la
televisión,
pero
debemos
ser
aún más precisos. El otro gran elemento a tomar en cuenta en el ámbito de la televisión es la diferencia Esta
entre
palabra
confusión.
Lo
el
es
barrido una
más
interlazado
traducción
correcto
sería
un
(interlaced) tanto
hablar
y
el
desafortunada,
de
progresivo que
continuo”,
"barrido
(progressive)
puede pero
inducir el
a
término
"progresivo” es el que se ha impuesto). El origen del barrido interlazado se debe a dos motivos: por un lado, evitar el efecto de excesivo parpadeo que tienen las cadencias bajas (24, 25 o 30 ips lo son). Y por otro lado, corregir un defecto técnico de los televisores de tubos catódicos que están en el origen de la televisión. La de
solución
televisión
fue
hacer
tradicional,
un
barrido
interlazado
una
imagen
completa
de o
la
imagen.
cuadro
En
[frame)
los se
sistemas divide
en
dos campos (fíelds) diferentes. Pero no es una división horizontal o vertical, sino por líneas pares e impares. / Barridos / Interlazado (i)
La imagen la componen dos campos de líneas: pares e impares
» 103
6. CADENCIA Y BARRIDO
Resaltar que el interlazado es, como el espacio de color YUY propio del mundo televisivo: en cine no existe el rodaje interlazado, sino que siempre se trata de imágenes completas sin separacion de campos. Así pues, una imagen de 1.080 i (i de interlazada) está compuesta de dos campos diferentes cada uno de ellos de 540 líneas. Uno corresponderá a las líneas impares o superiores (even, up): 1, 3, 5, 7, 9....................... hasta 1.079; y otro a las líneas pares o inferiores (odd, down): 2, 4, 6, ..., hasta 1.080.
»
104
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
» Captación en diferentes momentos
Estos
dos
ción:
exactamente
campos,
completos
cada
además, 1/50
segundo
te
50
campos
de
información.
tienen
de y
luego
incompletos. Sólo
dos
una pequeña
segundo.
Una
los
Un
interlazada
divide
en
50,
sino
daría
de
por
sí
campo
campos
diferencia temporal
señal
(fields) unidos
en
no
un
la
capta-
25
toma
nativamen-
que una
en
toma imagen
cuadro
cuadros
con
(trame)
saltos
dan una
información completa. Lo que sucede es que esos dos campos no se han captado lo
al
mismo
almacena,
tiempo,
y
sino
luego
sucesivamente:
capta
el
campo
la
cámara
siguiente.
primero
capta
supone
que
Esto
un
campo,
entre
ambos
campos hay una diferencia de un mínimo de 1/50 de segundo (la velocidad de obturación mínima para obtener 50 campos por segundo). En
imágenes
diferencia
es
estáticas,
como
inapreciable.
un
Pero
en
bodegón, imágenes
donde con
no
hay
movimiento,
movimientos
rápidos,
esta
como
un
partido de fútbol o una carrera de cien metros libres, la diferencia entre un campo y
otro
puede
ser
posición en esa
muy
grande,
pues
el
objeto
ha
cambiado
pequeña fracción de segundo. Si unimos
apreciablemente
los dos
de
campos en un
solo cuadro estático, observaremos el conocido efecto de "dientes de sierra”. » La captación interlazada exige emisión interlazada
El
barrido
interlazado
es
una
tecnología
que
no
causa
ningún
problema
en
el
mundo televisivo, ni siquiera en el de la alta definición, siempre y cuando toda la cadena
de
producción
(desde
en
interlazado.
El
problema
alta
definición
que
trabaja
o
después,
tendremos
que
la
captación
surge en
hasta
cuando,
interlazado
pasar
esa
la
emisión)
por
ejemplo,
para
un
imagen
se
usamos
rodaje
interlazada
realice una
siempre
cámara
cinematográfico.
a
un
modo
de
Antes
progresivo,
que es el propio del cine, y entonces observaremos sin ninguna duda el efecto de dientes
de
sierra.
Hay
sistemas
actuales
que
desentralazan
la
señal,
pero
o
son
muy burdos (como eliminar un campo y doblar el otro) o son muy laboriosos y lentos Por
(mediante esa
razón,
comparaciones hay
que
entre
descartar
los el
dos
campos
barrido
y
los
interlazado
para
cuadros un
siguientes).
trabajo
que
se
prevé distribuir en salas de cine. En caso de duda, también hay que optar por el progresivo. Hay que recordar
que
ningún
traspasar defecto
un
cuadro
visual
progresivo
apreciable,
tan
en sólo
dos un
campos ligero
interlazados
aumento
del
no
genera
"parpadeo”
que muchos espectadores asocian al "look” cine, por lo que es una opción estética muy valorada. También (CRT)
señalaremos
trabajan
en
que
los
interlazado.
viejos Sin
monitores
embargo,
los
de
tubo monitores
de
rayos
catódicos
actuales
trabajan
» 105
6. CADENCIA Y BARRIDO
originalmente nos
en
permiten
"progresivo". ofrecer
las
Sólo
aquellos
imágenes
con
también
una
en
etapa
previa
interlazado
de
sin
conversión
problemas
de
visionado. » Ventajas y desventajas del progresivo: resolución dinámica
Por
lo
calidad
general, debido
a
se
entiende
que
los
sistemas
que
su
resolución
real
es
el
progresivos doble
que
tienen
una
mismo
formato
el
mayor en
interlazado. Tiene una mayor “resolución estática” o vertical. Sin
embargo,
no
podemos
olvidar
que
el
interlazado
tiene
más
"resolución
dinámica”. Toma el doble de muestras de la realidad por segundo que el progresivo. Produce sensaciones más fluidas, con menor efecto parpadeo. Como gundos),
hemos el
dicho
antes,
progresivo
en
captará
una
250
carrera
imágenes
de de
cien 1.080
metros líneas,
(apenas pero
diez
el
se-
interlazado
tendrá 500 imágenes de 540 líneas. ¿Quién ofrecerá mejor reproducción de la realidad
de cara al
espectador? En
este caso, probablemente
el
interlazado.
La
ca-
rrera tendrá una representación más fluida en interlazado que en progresivo. » Limitaciones a la obturación
Hay que tener obturación. 1/48,
1/50,
borrosa
en
en cuenta otro aspecto relacionado con la
Generalmente, 1/60 el
de
la
obturación
segundo.
fotograma
si
Esto
el
en
cine
provoca
objeto
se
el
mueve
y
captación fotográfica: la
televisión efecto a
no
filage,
gran
es
muy
como
velocidad
una
(en
el
rápida: mancha mundo
infográfico CGI se habla de motion blur para referirse a este efecto). Para evitarlo, la
solución
imagen
es
obturar
perfectamente
a
mayores
definida
del
velocidades: objeto
en
1/250
acción,
de sin
segundo filage.
lo que obtendríamos es otro efecto indeseable: el llamado "estroboscopio".
» 106
nos
Pero,
daría al
una
hacerlo,
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
Tendríamos ellas
en
no
un
sería
segundo
de
un
mucha parte de la
25
imágenes,
veinticinca
de
acción que nos
pero
la
diferencia
segundo,
sino
entre
de
cada
mucho
perderíamos: un brazo
una
más.
de
Habría
estaría en alto en un
fotograma y en lo más bajo en el siguiente. Al contemplarlas seguidas, produciría la
sensación
que
de
que
pretendemos
la
imagen
simular.
Es
“a
va
un
saltos”,
efecto
sin
parecido
la
a
continuidad
las
luces
de
movimiento
estereoscópicas
tan
populares en las discotecas, y por eso se conoce como “efecto estrobo”. En general, una imagen tradicional de cine se capta a 1/48 de exposición, y podría hacerse incluso a 1/96. Más allá de eso, el estorbo se haría evidente. Pero en
interlazado,
una
vez
más,
podemos
siempre
reducir
la
exposición,
evitando
el filage, lo que en ocasiones nos resultará muy práctico. » Cadencias interlazadas
Hasta
hace pocos
Posteriormente, de
25i
y
notarlo
años,
al
de
25p.
más
se notaba
popularizarse Pero
para
correctamente
la
las
cadencia
cámaras
evitar
como
de televisión con
opción
confusiones,
50i/25p,
ya
como
actualmente que
25i,
progresiva,
las
se
o 29,97i. se
ha
hablaba
optado
cadencias
por
interlazadas
realmente generan 50 imágenes por segundo (si bien campos, y no cuadros). Esta
“nueva"
terminología
nos
obliga
a
ser
cuidadosos.
Hay
que
tener
cui-
dado, por ejemplo, con los redondeos del NTSC. Hoy en día se puede grabar en 59,94i, se
en
usa
59,94p
60p
e
como
incluso en
redondeo
60p.
de
Y para
59,94p
complicarlo
(notándolo
como
aún drop
más,
en
frame,
ocasiones
60p
DF
o
similar, véase el anexo), y en ocasiones no. Hay que leer muy bien los manuales, no queda otra opción.
» Cine: 48 fps, 72 fps...
Dado
que
negativo,
el el
motivo trabajo
fundamental de con
la
equipamientos
baja
cadencia
digitales
obvia
del este
cine
es
el coste
impedimento.
El
del cos-
te de una cinta digital o un disco duro es casi inapreciable con respecto al coste fotoquímico,
por
lo
que
en
la
actualidad
sería
económicamente
factible
captar
imágenes a 48 fps. Por esta razón, como hemos señalado, la normativa DCI prevé esta posibilidad en
el
futuro
más
cercano,
al
menos
para
el
formato
2K.
Para
el
formato
de
4K implicaría doblar su ya de por sí alto flujo de datos, por lo que DCI no lo incluye.
Sin
embargo,
a
medida
que
evolucionen
los
equipamientos,
"doble
proyección"
podrá
llegar
a posibilitarse esta cadencia también en 4K. Rodando
a
48
fps
evitaríamos
asimismo
la
que
actual-
mente se lleva a cabo en las salas para evitar el parpadeo. Y, como ya hemos visto,
los
iguales
o superiores a
expertos
entienden
como
cadencias
libres
de
parpadeo
los 72 ips, por lo que quizá también en
velocidades
un futuro ésta
será la cadencia ideal para la proyección cinematográfica. Las obras estereoscópicas, popularmente conocidas como 3D (véase el anexo), exigen doblar la cadencia, pues se obtiene un fotograma distinto por cada ojo. En la proyección digital
estereoscópica esto
lleva
a
doblar
también
la
cadencia,
o
incluso
a
triplicarla
(144 hz) para una mejor visión, pues la proyección digital estereoscópica conlleva una pérdida de luminosidad, de ahí la solución del “triple flash". Es obvio señalar que esta cadencia es sólo de proyección, no de captación ni del archivo.
7. Definición de formatos: peso y flujo
Formatos estandarizados
Con
los
elementos
estudiados,
ya
no
necesitamos
saber
más
para
entender
de
formatos digitales. Por eso insistiré en el siguiente enunciado: Cualquier solución estándar o comercial en el terreno del audiovisual digital, ha de venir definido por estos cuatro parámetros: • Resolución • Profundidad de color • Muestreo • Cadencia De
manera
general
podemos
decir
que
los
dos
primeros
son
los
verdaderamente
importantes para definir de manera objetiva la calidad de un formato. Y los otros dos
son
particularidades
heredadas
de
la
evolución
histórica,
tanto
del
cine
como de la televisión. En el terreno práctico nos encontramos con dos tipos generales de formatos (señales, ficheros, sistemas..., como se quiera decir). • Estándares • Comerciales Los
primeros
son
aquellos
definidos
por
organismos
internacionales
los
fabricantes
introducen
ofertando
diferentes
(ITU,
SMPTE,
el
mercado
ASE/EBU...) que velan por la compatibilidad. » Compresión
Los
segundos
por
cuestiones
son
soluciones
comerciales,
que
generalmente
en
relaciones
ca-
lidad/precio. En este ámbito empezaremos a hablar de códecs de compresión,
» 111
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
pues los estándares pressed, none).
televisivos
siempre
se
definen
sin
(1:1,
compresión
uncom-
La compresión será el quinto elemento importante de un formato comercial. Se deja al arbitrio de las empresas el uso de códecs de compresión que flexibilicen los flujos de trabajo. Estos códecs pueden ser “abiertos" (accesibles a todas las soluciones) o “propietarios" (exclusivos de una marca o empresa), dependiendo de la política comercial de su desarrollado!
La comprensión sí es estándar a la hora de distribuir la señal, por motivos ya explicados. » Formatos TV
La compatibilidad es crítica sobre todo en el mundo de la televisión. No podíamos pensar
en
un
mundo
donde
el
consumidor
tuviera
que
elegir
su
televisor
en
función de los canales que desea ver. Todos los emisores deben trabajar con los mismos estándares para facilitar el acceso de la audiencia. Por eso, la industria de la televisión mundial trabaja con dos estándares digitales: SDTV o definición estándar (Standard Deñnition) y HDTV o Alta Definición (High
Defnition).
entre
estos
dos
En
el
momento
estándares,
por
actual, lo
estamos
que
lo
más
en
pleno
común
proceso
de
transición
es
que
el
equipamiento
sistemas
SD,
dependiendo
siempre sea compatible entre ambos. » Standard Definition (SD)
Tenemos
que
recordar
que
se
adaptaron
hasta
tres
del
país. La razón de esta decisión se debió a motivos económicos o técnicos. Entre los y
motivos royalties
económicos ligados
como
es
pueda
fabricar,
la
a
Unión sin
más
importantes
licencias.
Por
Europea) depender
lo
intentará del
está
la
general,
un
crear
extranjero
fabricación país
sistemas o
del
(o
un
que
pago
su de
de
equipamiento
grupo
de
ellos,
propia
industria
costosas
licencias
industriales. » SD analógico
En
el
mundo
analógico
de
la
televisión
se
establecieron
hasta
tres
sistemas
de
televisión: NTSC, PAL y SECAM. NTSC que
es
son el
las
organismo
siglas
del
encargado
National de
ordenar
Telecomunication el
espacio
Standard
radioeléctrico
Committee, en
Estados
Unidos. NTSC es el conjunto de normas de la televisión en ese país, en muchos países americanos dentro de su órbita de influencia, en Filipinas y otras partes
» 112
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
de
Asia
y,
muy
importante,
en
Japón
(es
importante
porque
gran
parte
de
las
grandes industrias de equipamiento tienen su sede en ese país). PAL son desarrollado
por
resolución la
las siglas (Phase Telefunken.
mayor
cadencia
(625
es
Liné) de un sistema de origen alemán
Mejora
el
sistema
frente
a
las
líneas
también
Alternating
diferente,
esta
de
525
vez
color
del
por
del
NTSC).
los
NTSC
y
Como
ya
motivos
técnicos
tiene
una
indicamos, expuestos:
59,94i para el NTSC y 50i para el PAL. Es el sistema europeo por excelencia. Al ser adoptado
asimismo
colonias,
excepto
por
Gran
Canadá.
Bretaña,
Otros
es
países
también
como
mayoritario
China,
en
Argentina
o
sus
antiguas
Brasil
también
lo adoptaron. Hay algunas diferencias entre los países, las cuales nos llevan a hablar de PAL-B, PAL-G, PAL-H...; no obstante, todos son compatibles de una forma u otra.
El
último
creado
por
sistema
analógico
es
el
Francia
y
en
muchas
común
SECAM de
(Séquentiel sus
Couleur
antiguas
a
colonias.
Mémorie),
Por
razones
políticas, en plena Guerra Fría, la Unión Soviética también optó por este sistema. La mayor diferencia entre este sistema y el PAL es la resolución, superior a las 700 líneas. Pero comparte con éste la cadencia de 50 ips. » SD digital
El
paso
de
los
sistemas
momento
para
SECAM
desaparece
crear
un (no
analógicos
solo hay
a
estándar, un
los pero
SECAM
digitales no
digital)
podía
haber
sido
fue
así.
No
obstante,
y
los
países
con
un
buen
el
sistema
estas
normas
optan por el PAL. Así
pues,
en
definición
estándar
digital
nos
encontramos
actualmente
con
dos estándares bien definidos: NTSC y PAL. Una manera también corriente de notarlos es SD 576 (para el PAL) y SD 480 (para el NTSC). Formatos
Como
8
se
bits.
SDTV
observa, Son
el
muestreo
estándares
siempre
interlazados,
es
4:2:2
si
bien
y
la
profundidad
algunos
de
equipamientos
color
de
permiten
trabajar en SD progresivo.
» 113
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
>> Formatos High Definition (HD)
A pesar de que las primeras pruebas de la alta definición se hicieron con sistemas analógicos
(en
la
década
de
1960),
actualmente
el
mercado
no
ofrece
estas
soluciones: la alta definición siempre será digital por definición. Como ción
hemos
desde
contar
el
con
repetido SD
un
a
la
solo
antes,
ahora
mismo
HD.
Hubiera
sido
universal,
el
formato
estamos
en
también
un
un
proceso
excelente
denominado
CIF
de
evolu-
momento
universal
para
(Common
Interchange File o Common Interchange Format). Sin embargo no ha sido así. La las
ITU
admite dos
compatibilidades
definir
una
resoluciones
entre
cadencia
los
común.
distintas,
sistemas La
720
y 1.080.
precedentes,
solución
ha
Y
NTSC
sido
en
y
admitir
la
cuestión
PAL,
faltaría
todas
las
de por
posibles
cadencias en curso: 23.98p, 25p, 29,97p, 50i, 59,94i, 60p.
Formatos HDTV Formato
resolución
muestreo
prof. bits
1.080
1.920 x 1.080
4:2:2
8
720
1.280 x 720
4:2:2
8
Originalmente, técnicas
el
formato
demostraban
que
1.080
era
ambos
interlazado
eran,
por
y
el
esta
720
razón,
cadencia i/p P
progresivo. similares
Las en
pruebas
cuanto
a
“definición y nitidez”. Sin
embargo,
Por ello,
la
tecnología
actual
permite
ya
la
captura
en
1.080
progresivo.
muchos auguran que el 720 es un formato llamado a desaparecer, pues
en este caso sí se puede decir que un 1.080p es superior a un 720p. Pero, por otra
parte,
como
ya
indicamos,
algunos
defienden
el
720
como
un
gran
formato
de distribución, pues ocupa más o menos la mitad del espacio que precisa el 1.080. Esto presenta tres grandes ventajas comerciales: •
Una emisión 1.080 ocupa el mismo bitrate que dos de 720, con la consiguiente ampliación de la oferta.
•
Los
televisores
720
(conocidos
popularmente
como
HD
Ready)
son
más
cadencia, lo
cual
baratos y más pequeños que los de 1.080 (Full HD). •
El
menor
incrementaría
flujo de datos del 720 permitiría aumentar la la
difícil contar con
“resolución
sistemas 1.080 50p,
y hasta 60 imágenes progresivas.
» 114
dinámica”
de
este
pero
sí
formato. existen
Hoy
soluciones
en 720
día,
es
de 50
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
En no
cualquier
definan
caso,
finalmente
y
mientras
la
sus
políticas,
tendremos
industria
y
los
que
organismos
trabajar
en
internacionales
un
mundo
HDTV
con dos resoluciones: • 720p • 1.080 i/p » ¿Otros formatos?
En ocasiones, en el ámbito de internet podemos ver formatos como el HD 480p. ¿Existe En
realmente
realidad,
truco
un
este
publicitario
dispositivos
de
formato
supuesto para
de
atraer
fotografía
alta
"formato a
digital
definición alta
de la
que
de
sólo
definición”
audiencia. ofrecen
la
480
no
es
líneas tal.
verticales?
Era
También
es
habitual
posibilidad
de
grabación
sólo
un
encontrarse de
vídeo
con formato VGA (640 x 480). ¿Es el VGA un estándar profesional? Tampoco. ¿Por qué sucede todo esto? Hay que insistir en que la HDTV sólo admite dos formatos:
720p
(si
algunas
empiezan
HDTV),
y
responsables
personas
fiables
bien
y
1.080i/p.
los
en
Las a
cámaras
ofrecer de
cuestiones
de
fotos
opciones
marketing
técnicas,
no
HD de
claro.
son
720
o
algunas
Pero
la
herramientas
broadcast
1.080,
sí
que
empresas cuestión
serían
tampoco
de
son
fondo
viene
por el uso de los nuevos sistemas de distribución.
En internet, en cambio, sí sería posible: es posible hacer una emisión con dos formatos
diferentes,
También
se
pueden
realizar
productor
de
nuestro
ordenador.
inconveniente:
la
donde
selva
el
de
espectador
elige
el
actualizaciones Esto
los
adecuado
automáticas
una
gran
supone
diferentes
más
casi
códecs
y
a
su
del
ventaja,
pero
reproductores
conexión.
software
re-
también
que
nos
un
ofrece
ahora mismo la red: Windows Media Player, Quick Time, iTunes, Real Media Player, Divx, etc., cada uno con sus diferentes algoritmos y códecs de compresión. Dado está
que
en
niendo
el
futuro
de
internet,
habrá
que
en
cuenta
contenidos
el
como
la
poder
en
televisión, estar
de
fabricación
del
atentos
cine
a
y
estos
la
industria
de
herramientas,
del
audiovisual
posibles
televisiva, es
en
cambios.
tanto lógico
en
general
Pero
te-
producción
pensar
que
de
a
la
larga se impongan los formatos propios del HDTV a la IPTV y no al revés. Mientras definición.
tanto, Y
ningún
cualquiera
formato
que
sea
inferior
a
diferente
a
720
puede
720
o
ser
1.080,
considerado
tampoco
se
alta puede
considerar profesional o broadcast. » Cine
El caso del cine es un poco más peculiar. Hasta casi
ahora,
cualquier
en
su
parte
del
formato
fotoquímico,
mundo
se
contaba
era con
un un
sistema proyector
muy de
universal:
en
mm
un
35
y
lector de sonido óptico. Por eso se hablaba del 35 mm como "paso universal". Con ciales
la
digitalización,
posibles.
televisión
y
la
surge
Como
ya
radio,
el
el
hemos cine
problema
de
comentado,
al
no
tiene
en
esta
un
las
diferentes
contrario
organismo
que
soluciones el
comer-
mundo
internacional
que
de
vele
la por
sus estándares. Por
esa
productores
razón, de
lo
común
contenidos.
A
nivel
industria
mundial,
casi
es
mirar
el
80
%
hacia de
el la
lado
de
recaudación
los se
genera lo
por
que
una
producciones
la
industria
implicaciones
no
hay
Nigeria, en
apenas
cine
comerciales
que
perder
que
son
de
de
ha y
Hollywood,
de
tener
políticas
vista.
grandes
sus territorios
Por
que,
productores
podrían
también
cuenta
sin
ser
países
de
de influencia
California,
en
ejemplo,
y zonas
mercado),
sus intereses. No
salidas
de
el
impulsar
les faltaría razón, pero se perdería
Unidos,
propuestas.
por
Esto
tiene
éste el libro que las trate, como
largometrajes
(allí
Estados
sus
China,
India,
gran
Egipto
o
éxito
comercial
contenido norteamericano
no tiene
sistemas
de propios
más
acordes
con
entonces una de las grandes virtudes del
cine: su universalidad de acceso. Asociada presentar
a
esa
una
Reseñando
falta
serie
esta
de
de
estandarización
formatos
salvedad,
me
que
internacional,
varían
detendré
unos
sólo
en
de
el
cine
otros,
los
si
digital bien
estándares
más
puede
ligeramente. comunes
en
el trabajo cinematográfico actual. » Digitalización de fotoquímico
Una
de
las
material
maneras
comunes
fotoquímico
y
en
el
transferir
trabajo
los
cinematográfico
fotogramas
actual
posteriormente
es
rodar
a
información
con
digital. Éste
es
un
(Cineon),
y
sino
discos
de
en ese
sistema
para
originalmente desarrollado
ello
se
almacenaba
duros
en
forma
desarrollo
se
originó
de
el
la
secuencias
formato
por
Kodak
información DPX
de
no
ficheros
(Digital
en
en
los años
una o
Picture
noventa
cinta
de
vídeo
imágenes.
A
partir
eXchange),
que
es
el que normalmente se usa en la actualidad para esta transferencia. Es decir: un largometraje de 90 minutos a 24 fps nos resultaba en 24 x 60 x 90 = 129.600 ficheros dpx; individuales, pero numerados correlativamente. Actualmente, Ventanilla
la
Abierta
mayoría (Full
de
Aperture),
los
largometrajes
comerciales
se
con
una
de
cercana
relación
aspecto
ruedan
con
al
1,33,
así que normalmente se transfiere esta información tal cual, bien a 4K o a 2K. Así pues, tendríamos los siguientes formatos de digitalización:
Formatos cine digital FA
La
Formato
resolución
muestreo
prof. bits
cadencia
4K
4.096 x 3.112
4:4:4
10 log
24 p
2K
2.048 X 1.536
4:4:4
10 log
24 p
característica
propio
de
la
principal televisión,
es
que
nunca
sólo
en
RGB
hablaremos o
4:4:4
(en
del
espacio
ocasiones,
de
color
YUV
encontraremos
la
notación XYZ, que difiere un tanto del RGB tradicional, con una gama un poco
más
amplia
o
wide
gamut\
hablaremos
de
ello
en
la
una
mayor
parte
dedicada
a
la
postproducción). También es característica de estos formatos con
cuantificación
logarítmica
que
simula
el
propio
profundidad
comportamiento
de
del
color, soporte
fotoquímico.
» 117
7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0
Recordemos
también
que
el
barrido
interlazado
no
existe
en
el
entorno
cinema-
tográfico: siempre es progresivo. » Captación digital
Si
la
opción
es
rodar
directamente
en
digital,
entonces
hablamos
de
cámaras
de
alta resolución, que superan los estándares definidos para la HDTV Tal
como
explicamos,
el
estándar
HDTV
se
acota
por
las
cifras
1.080/4:2:2/8
bits, con cadencias de la zona NTSC o PAL (60i o 50i, generalmente). Cualquier opción
que
supere
aumentando
la
este
resolución
estándar (de
ya
1.080
sería
a
2K,
considerado por
HR.
ejemplo),
en vez de parcial) o la profundidad de color (1 0 , 1 2
el
Bien
muestreo
pudiera (total
ser 4:4:4,
bits). O todas estas opciones
juntas. Aquí en
nos
cinta
o
estándares difícil
encontramos en
soporte
tienen
aumentar
reproductor
y
grabador
televisivo, por
rígido
limitado su
generalmente (disco
su
flujo
capacidad
y/o
o
la
con
duro, por
tarjeta, sus
velocidad
propia
cinta.
una
limitación memoria
propias sin
Asimismo,
técnica:
RAM...).
Las
características
cambiar
también
la
se
cinta
grabar cintas
físicas. el
asocia
Es
aparato al
medio
lo que tiende a trabajar con sus formatos (1.080 en vez de 2 K).
Por esta razón, si trabajamos en cinta podemos hacerlo en 4:4:4 o 10 bits, pero difícilmente en 2K o 12 bits. Sería pues una HD "aumentada", como el caso del HDCAM SR, que graba 1.080/4:4:4/10 bits Formatos HR Formato
resolución
muestreo
prof. bits
cadencia
HD
1.080
4:4:4
10
24/23,98 p
DC
2K, 4K
4:4:4
10, 12
24 p
En el caso de otras resoluciones más altas, como 2K o 4K, se recurre a soporte rígido,
que
permite
mayores
flujos
de
datos.
Lo
denominaríamos
se
tiende
ya
propiamente
“DC”, cine digital. » Cadencias en el cine digital
En
cuanto
a
entrelazado
es
la
cadencia,
totalmente
tratándose
de
desaconsejable.
cine, En
la
zona
al
PAL
24 se
fps. usa
El
barrido
también
opción 25p, por su fácil conversión. Y por las razones ya expuestas, se ha ar-
» 118
la
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
ticulado
la
opción
aconsejables. pero
no
En
23,976
inglés
porque
sea
(sería
la
como
cualquier
otra,
a
o
Lo
24
muy
correcta 25p.
deficiente.
progresiva.
se
usa
una
mala
traducción y
Las
el
solución,
de
sucede
Hemos
visto
en
que el
y
El
30p
su
por
sino es
su
no
estas
correspondiente
poco tan
resolución
estas
dos
que
nada
opciones,
es
cadencia
mayor a
son
dos
porque
una
conversión
anexo
29,97p
para
inutilizable,
superior
es
30p
“unusable"
unusable).
técnicamente
que
cadencias
término
útil válida
dinámica
cadencias
es
técnica
del
la
“pulldown”, es aplicable al 29,97 entrelazado, no al progresivo. Para pasar de 30p a
24p
o
sólo
bien
tiempo,
tenemos
malas
recalcularlos
todos
y
en
ocasiones
opciones:
o
mediante
de
calidad,
bien
complejos que
6
eliminar
fotogramas
algortimos
supone);
o
(con
bien
por
la
acelerarlos
segundo;
pérdida (con
de
pérdida
de sincronía con el audio)... Dado que en salas de cine nos pedirán 24p y en la zona PAL 25p (o 50i), rodar a 30p sólo es válido para distribución en la zona NTSC o bien para internet, por lo que profesionalmente, suele evitarse. No
obstante,
modelos
de
Esto
debe
se
zona
algunas
las al
NTSC
origen
no
corrigiendo
cámaras
novedosas
de
advierte
este
domésticas
DSLR-HD muchos este
problema
lo
(cámaras de
estos
problema.
ofreciendo
de
utilizan.
Y
fotografía
fija
modelos,
Japón,
Afortunadamente,
opciones
24
o
muchos
opción
que
los
25
también con
HD).
siendo
de
fabricantes
progresivas
la
están
mediante
actualizaciones de firmare o en nuevos modelos. » Grabación 2K, 4K, 3K y otras
2K, como hemos visto, es una resolución muy parecida al formato HD 1.080. Por eso
algunas
cámaras
posibilidad
de
SR).
el
Por
HR
grabación contrario,
optar
por
grabación
Dado
que
2K
no
si
en es
optan en
por
cinta
este (por
queremos soportes
un
último
un
formato
rígidos
estándar
formato
ejemplo,
con 2K
(discos
televisivo,
de
lleva
y
existe
aparejado
magnetoscopio resolución
duros
no
que
el
tendremos
tarjetas
ningún
VTR
de
la
HDCAM que
memoria).
que
permita
grabar señales de estar resolución. Entre
las
diferencias estándar verticales. (full
en
con Son
aperture,
cámaras
que
cuanto
a
relación de más FA),
graban la las ello
(2.040
resolución
aspecto
raras pues
2K
1,85, que
vertical.
que nos
ofrecen
supone
píxeles
Algunas
daría
una
aumentar
horizontales)
resolución el
pueden
2.048/1,85
flujo
de
de
hay
pequeñas
ofrecer
un
» 1.100 píxeles ventanilla
datos
abierta
considerable-
mente en una parte de la señal que no será visible para el espectador, y que dificulta su manejo y almacenamiento. En cuanto al 4K, la aparición de la revolucionaria cámara Red One, que ofrecía grabación
4K,
generó
cierta
polémica
sobre
si
dicha
resolución
era
nativa
o
no.
En realidad, Red traspasó terminología y procesos de fotografía fija (máscara
» 119
7 . DEFINICIÓN GE FORMATOS: PESO Y FLU]0
Bayer 3
con
un
sensores).
muestras es
lo
solo
sensor)
al
mundo
un
formato “nativo”
Tradicionalmente,
por
cada
canal,
es
decir,
mismo,
un
sensor
de
mínimo
audiovisual
un
total
38
(que 4K
de
generalmente
FA
exigiría
38.240.256
megapíxeles
(o
trabaja
4.096
muestras;
3
sensores
con
x
o de
3.112
lo
que
casi
13
megapíxeles cada uno). El concepto de "megapíxeles" o millones de píxeles es común en la fotografía digital, pero no en el mundo audiovisual, y generalmente se refiere al tamaño del sensor. No obstante, ambos mundos se están “contaminando”, y en ocasiones ya se pueden leer especificaciones técnicas que aluden a “3 sensores de 2 megapíxeles" en cámaras HD 1080. Personalmente, creo que es una tendencia clara del mercado, y no descarto una convergencia a medio plazo entre las réflex digitales y los equipamientos de cine digital.
Esto
no
sucede
formato
4K
puramente
con
debe
técnico
la
Red
One
entenderse es
(ni
como
independiente
otros
modelos
"interpolado"
de
la
calidad
propuestos),
por
o
submuestrado.
o
no
que
lo
que
Este
puedan
su
hecho
demostrar
estos equipos. Usando esta más
modelos
formato
del
terminología,
con
diferentes
fichero
sino
Red y otros resoluciones:
del
sensor
fabricantes se han 3K,
(más
4,5K,
o
5K,
menos
apresurado a
etc.,
en
megapíxeles,
función que
en
ofrecer no
del
realidad
son "más o menos fotodiodos"). » Distribución digital
Lo que sí es importante es que el fichero que finalmente se exhiba digitalmente en las salas de todo el mundo, el "fichero o formato de distribución", sea siempre el mismo, para evitar errores y confusiones en las cabinas de proyección. Ya
hemos
comentado
la
falta
de
organismos
internacionales
de
estandariza-
ción, así que una vez más se mira a Hollywood para buscar soluciones. Allí, a principios de este siglo, seis de las más grandes compañías de producción
y
distribución
agruparon formato
para de
cinematográficas
intentar
exhibición.
promover Crearon
la
(conocidas
una
como
iniciativa
Digital
Cinema
común
“estudios" en
Initiative,
busca
o
majors) de
conocida
se
un
único
como
DCI,
y propusieron los siguientes estándares de distribución: Formatos DCI Formato
muestreo
prof. bits
cadencia
2K
2.048 x 1.080
4:4:4
12
24/48 p
4K
4.096 x 2.160
4:4:4
12
p 2
» 120
resolución
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
El el
formato flujo
4K
de
imponerse
es
datos
la
una es
tan
iniciativa
recomendación grande
DCI,
el
para
que
medio
resulta
formato
poco
más
plazo,
ya
operativo.
usual,
al
que
Por
menos
actualmente
esa
en
razón,
los
de
primeros
años, sería el 2K. Llamamos
a
estos formatos
2K/4K
DCI,
para
diferenciarlos
de
los
2K/4K FA
(o Full Aperture). Como se observa, el espacio de color es RGB, siempre progresivo. En 2K se piensa
también
en
la
posibilidad
de
doblar
la
cadencia,
obviando
la
necesidad
actual de doble proyección del fotograma. Estos formatos propuestos son de tipo "contenedor”. A la hora de la proyección final, el aspecto de pantalla tendrá sólo dos opciones: 1,85 y 2,39. Volveremos
al
interesante
tema
de
la
distribución
digital
en
la
IV
parte
de
en
todo
este libro.
Peso y bitrate
Cuando
trabajamos
momento
de
cálculo
de
de
información.
la
con
cuántos nuestros
información datos
digital,
estamos
equipamientos También
es
es
clave
manejando.
y
su
clave
a
tener
Esto
capacidad la
hora
de de
conocimiento
determinará
la
potencia
almacenamiento formatear
los
y
de
gestión
contenidos
de
cara a una distribución por canales habituales. En el tema de la imagen, dos datos nos darán esta información: el peso o tamaño de los ficheros, y el flujo de datos. » Peso o tamaño
El peso
lo
MegaBytes) de
las
definimos que
señales
ocupa
por la un
interlazadas,
cantidad de información, en
fotograma el
peso
completo
de un
Bytes (generalmente,
nuestro
sería
el
de
cuadro,
calcular
el
almacenamiento
formato esto
(en
el
en caso
es,
el
de
dos
necesario
en
nues-
campos). Este
dato
es
importante
para
tros discos duros. » Flujo de datos o bitrate
Asociada a esta información está la cantidad de información, por segundo, que es necesario manejar. Es lo que llamamos "flujo de datos” o simplemente "flujo", “tasa de transferencia" o “tasa”, o más comúnmente con el término inglés bitrate.
» 121
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
El
bitrate
será
simplemente
el
peso
multiplicado
por
el
número
de
fotogramas
o cuadros por segundo de nuestro formato; y, como su propio nombre indica, se suele dar en bits (no en Bytes, como el peso: 1 Byte = 8 bits).
Hay que tener siempre en cuenta esta relación 1 Byte = 8 bits. La sigla B mayúscula se refiere a Byte, mientras la b minúscula es bit. No siempre están claros estos datos en algunas especificaciones técnicas.
El bitrate es un dato muy importante para sitaremos
para
transportar
la
señal,
para
saber qué tipo de conexiones necealmacenarla
y
para
tasa
o
procesarla
(CPU,
GPU y demás procesadores). Por
lo
general,
aunque
no
siempre,
una
mayor
bitrate
implica
una
mayor calidad. Pero lo que siempre implicará es una mayor exigencia en nuestras herramientas.
Es
importante
conocer
el
bitrate
del
formato
con
el
que
deseamos
trabajar para poder optimizar nuestros recursos. » Cálculo del peso y el bitrate
El cálculo de estas cantidades es muy sencillo,
y podremos
entender más clara-
mente que sólo la resolución, el muestreo, el color y la cadencia son necesarios para entender cualquier formato audiovisual. Se
trata
sencillamente
de
saber
el
Primero
es
necesario
imagen
1.080,
número
de
bits
que
tiene
nuestra
imagen
digital.
1.
Resolución.
imagen.
En
una
saber
tendremos
el
número
1.920
x
de
1.080
píxeles
píxeles
de
por
nuestra
cuadro
=
2.073.600 píxeles. Vemos
que si hablamos de dos
campos interlazados, su suma
equivale igual-
mente a un solo cuadro progresivo: (1.920 x 540) x 2 = 2.073.600 píxeles. Por eso, una señal 50i siempre tendrá la misma tasa de transferencia que 25p.
2.
Muestreo.
Debemos
recordar
que
precisamos
completo
1.080
tres
canales
RGB
para
una
información de color. Por el
esa
número
razón, de
un
píxeles
muestreo de
resolución,
verde y otro azul para logar una señal.
3 X (1.920 x 1.080) = 6.220.800 píxeles
» 122
pues
RGB
siempre
precisa
tendremos
multiplicar un
píxel
por
tres
rojo,
otro
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
En
el
caso
de
YUV
4:2:2
recordamos
que
Y
tenía
un
muestreo
completo
(1.920 x 1.080), pero tanto U como V se reducían a la mitad (960 x 1.080), por lo que la cantidad de muestras 4:2:2 son (1.920 x 1.080) + 2 x (960 x 1.080) = 2 x (1.920 x 1.080) = 4.147.200 píxeles o muestras.
Entendemos,
pues,
que
con
un
muestreo
4:2:2
reducimos
en
un
tercio
la
cantidad de información de la señal RGB.
3.
Color.
Sabiendo el número
de
muestras con que contamos, dependerá
de la
profundidad de color obtener más o menos bits por imagen. Si aplicamos a cada muestra 8 bits, veremos que una señal 1.080 4:2:2 tendrá un total de 8 x 2 x (1.920 x 1.080) = 33.177.600 bits por cada cuadro o fotograma. En el caso de la señal 1.080 RGB, podemos aplicarle una cuantificación a 10 bits. Entonces tendremos que 10 x 3 x (1.920 x 1.080) = 62.208.800 bits. Esta cantidad será el peso o tamaño del fotograma. Ahora
bien,
la
costumbre
del
mundo
informático
para
cantidades
tan
grandes
es, primeramente, notarlo en Bytes en vez de bits; y luego usar los multiplicadores de la informática (kilo, mega, giga, tera, peta, etc.). Siguiendo el ejemplo, en el caso de una señal 1.080 4:2:2 8 bits tendremos un peso de 4.147.200 Bytes, mientras que en el de 1.080 4:4:4 10 bits serán 7.776.000
Bytes.
» Redondeo
Ahora
es
necesario
volver
a
tener
en
cuenta
que
en
informática
trabajamos
con
un sistema binario, no decimal. Por esa razón, kilo no es sinónimo de mil (103),
» 123
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO
como en la vida corriente (kilómetro = 1.000 metros, kilogramo = 1.000 gramos), sino de 1.024 (210). Y lo mismo sucede con el resto de multiplicadores: 1 MegaByte = 1.024 KiloBytes; 1 GigaByte = 1.024 MegaBytes. Por esa 4,147 DB.
razón,
al
pasar
4.147.200
Bytes
obtendremos
3,955
MegaBytes,
y
no
Se observa además que no es una cifra exacta, o que genera muchos decimales, por lo que se suele recurrir a los redondeos. Esto nos daría unas cifras aproximadas de: Peso 1.080 4:2:2 8 bits aprox 3,96 MB Peso 1.080 4:4:4 10 bits aprox 7,4 MB
En
ocasiones
existe
la
costumbre,
extendida
en
la
informática
del
consumidor,
de redondear pero en múltiplos de mil, como sucede, por ejemplo, en los discos duros que se venden en tienda. La etiqueta de "300 GB" que pone en la caja equivale realmente a algo menos de 280 GB reales. Este las a
cálculo
interfaces estos
en del
datos.
ocasiones sistema
En
también
operativo,
pequeñas
lo por
cantidades,
realizan,
por
lo
siempre
que
apenas
se
economía
nota.
hay 4,2
del que
rendimiento, estar
MB,
3,96
atento MB
o
simplemente 4 MB para una imagen 1.080 HDTV no parece mucho, apenas un 5
%.
Pero
si
acumulamos
estos
redondeos
en
grandes
cantidades
(TeraBytes
o
PetaBytes), el error también se multiplica.
4.
Cadencia. Conocido el
pectivamente),
para
calcular
peso por fotograma el
bitrate
o imagen (frame
tendremos
simplemente
y picture, resque
multiplicar
el peso por la cadencia. Si una imagen ocupa 10.000 bits, 2'5 imágenes por segundo ocuparán 25 x 10.000 = 250.000 bits. Si
la imagen ocupa 10.000 Bytes, tendríamos primero que pasarlo a bits,
80.000, para obtener (megabits por segundo).
25
x
8.000
=
2.000.000
bits,
que
equivaldrían
a
1.9
mbs
Sigamos con los ejemplos: Los
aproximadamente
4
MB
por
fotograma
de
una
señal
1.080
HDTV
típica,
trabajada a 25 ips, nos da un total de 4 x 25 = 100 MB por segundo. Pero como hemos
dicho
que
esta
cantidad
se
suele
expresar
en
bits,
tendremos
a multiplicar por 8 para obtener unos 800 mbs (megabits per second).
La cantidad exacta sería de 829.440.000 bits, que equivalen a 791,015625 mbs.
» 124
que
volver
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
En el caso de la señal 1.080 RGB 10 bits, trabajando a 24 ips, tendríamos 7,4 MB X 8 bits x 24 ips aprox: 1.420 mbs aprox: 1,4 gbs.
Una aproximación más exacta nos daría 1,39 gbs.
» GigaBytes por hora
Conociendo tanto espacio
que
el
peso
como
precisaremos
en
el
nuestro
flujo
de
datos,
ordenador
para
es
fácil
calcular
almacenar
toda
entonces la
el
infor-
mación. Es una información que suele darse en GB por hora o bien en GB por hora
y
media,
que
es
la
duración
más
o
menos
estándar
de
un
largometraje.
Basta con multiplicar el bitrate por 60 o por 90 para obtener la cifra (sin olvidar al paso de bit a Byte ya señalado). La siguiente tabla nos muestra los pesos, flujos de datos y espacio requeridos por hora de los formatos SD, HD y DC:
» 125
7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0
Tabla de pesos y flujos de datos sin comprimir Formato
resolución
SD576
720 x 576
muestreo
p. bits
PESO MB/f
cadencia
8
0,79
50i 25/60p
4:2:2
BITRATE
1 hora
158 mbs
70 GB
350/844 mbs
HD720
1.280 X 720
4:2:2
8
1,76
154/370 GB
HD 1.080
1.920 x 1.080
4:2:2
8
3,96
25p
HD1.080 RGB
1.920 x 1.080
4:4:4
10
7,42
23,976/25p
2K DCI
2.048 X 1.080
4:4:4
12
9,49
48p
1,8 gbs
800 GB
2K FA
2.048 x 1.536
4:4:4
10 log
11,25
24p
2,11 gbs
950 GB
4K DCI
4.096 x 2.160
4:4:4
12
37,97
24p
7,12 gbs
3,13 TB
4K FA
4.096 X 3.112
4:4:4
10 log
45,59
24p
8,55 gbs
3,76 TB
800 mbs
350 GB
1,39/1,45 gbs
652 GB
Formato s comerciales
Como se puede observar, mayoría
de
los
casos,
estamos hablando de flujos
estos
pesos
y
bitrate
impiden
de
datos
un
muy altos.
trabajo
fluido,
En
la
pues
la
tecnología tiene sus límites. De
ahí
que
los
fabricantes
hayan
investigado
intentando
bajar
los
flujos
de
datos. Hay dos maneras de conseguirlo • Con técnicas de submuestreo. • Comprimiendo la señal. No
obstante,
mente
sea cual sea
compatibles
la técnica utilizada,
con
dos.
Es
decir,
que
mir
los
datos
para
los
las
estándares
herramientas
volver
a
obtener
deben la
estos formatos han de ser
internacionales poder señal
anteriormente
des-submuestrear
estándar
y
esperada,
total-
explicadescompri-
generalmente
a
través de una interfaz de entrada y salida normalizada. Obviamente, métodos definición,
para
también reducir
una
señal
es la
lógico
deducir
información,
sin
comprimir
que
siempre o
sin
por se
muy perderá
submuestrear
eficaces
sean
los
de
calidad.
Por
siempre
tendrá
una
sacrificar
un
algo
que
calidad superior a la que sí lo está. » Submuestreo
A
partir
de
un
estándar
normalizado,
un
fabricante
puede
decidir
poco más los canales U, V de la señal YUV Es lo que quedó explicado al final
» 126
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
del capítulo 5 y en los anexos, cuando hablamos del muestreo 4:2:0 y 4:1:1. Con esto se consigue reducir aún más la señal YUV hasta un 25 %. Estos
muestreos
sumidor
y
parciales
se
“prosumer",
los
usan
pero
sobre
se
todo
entiende
en
que
los
un
aparatos
equipo
para
el
profesional
conha
de
trabajar, como mínimo, en 4:2:2. También
se
entiende
como
un
submuestreo
la
técnica
conocida
como
raste-
rización, que se explica igualmente en un anexo. » Compresión
La otra forma de reducir el flujo de datos es comprimir todo este caudal de información,
mediante
complicadas
técnicas
de
cálculo,
que
permiten
reducir
a
la mitad, a una cuarta parte o incluso a una veinticincoava parte, o más, el flujo original. Los Esta
métodos
son
combinación
que
diversos,
de
y
submuestreo
fundamentalmente
origina
la
por y
ello
les
dedicaremos
compresión,
diversidad
de
juntos formatos
el
siguiente
capítulo.
o
por
separado,
de
HD
y
DC
es
lo
que
se
encuentran en el mercado. Así
pues,
muestreo, altera
si
color
el
a y
flujo
los
cuatro
cadencia)
les
datos
final,
de
pilares
de
sumamos
la el
tecnología
audiovisual
submuestreo
obtendremos
los
y
diferentes
la
(resolución,
compresión,
formatos
que
comerciales
de HD y DC existentes en el mercado. Dependiendo
de
los
avances
de
estas
industrias,
pueden
aparecer
nuevos
formatos, o desaparecer algunos considerados obsoletos. >> 2 estándares, muchas etiquetas
Es
fundamentalmente
te
rasterización
o
la
aplicación
submuestreo
y
de
técnicas
diversos
de
tipos
reducción
de
de
compresión,
bitrate, lo
median-
que
posibilita
la aparición en el mercado de innumerables "formatos" HD. Podemos XDCAM-EX, rosos bargo,
ver
fabricantes, esto
que
existen
VARICAM, no
como debe
etiquetas
DCVPRO-HD, Sony,
Panasonic,
confundirnos:
en
comerciales
P2,
HDV Thomson,
HDTV
como
AVC-HD...,
sólo
JVC, existen
HDCAM, asociadas
Canon, dos
etc.
XDCAM, a
nume-
Sin
em-
estándares:
1.080
y 720. En el caso del cine digital, y como hemos visto anteriormente, la "flexibilidad" es algo mayor pero sólo en más
cuanto a la resolución, que puede ser unos píxeles
o menos que los fijados dentro del 2K y el 4K. Salvado ese punto, una
herramienta
profesional
de
cine
digital
que
se
quiera
considerar
como
tal,
debe
cumplir con la cadencia propia del cine, 24 fps (o en su defecto 23,976 fps), ser de
» 127
7 . DEFINICIÓN DE FORMATOS: PESO Y FLU]0
barrido
progresivo,
llevar
un
muestreo
completo
(RGB/4:4:4)
y
una
profundidad
de color superior a la televisión (de 10 bits en adelante). Al hablar de cine digital hablamos del punto de vista técnico, refiriéndonos a equipamientos de alta gama tipo HR. Huelga decir que se puede hacer "eme" con cualquier herramienta, incluso con un móvil.
A
continuación
existentes
en
se
el
muestra
mercado,
una
que
tabla
con
los
principales
incluye los formatos
formatos
más comunes
en
comerciales SD.
No se
especifican las cadencias, pues se aceptan todas o al menos las más comunes. Formatos Comerciales más comunes Formato
fabricante
res.
muestreo
ráster
compresión
bitrate
DV
varios
SD
4:2:0
8
no
jpeg DCT 5:1
25 mbs
p. bits
DVCAM
Sony
SD
4:2:0
8
no
jpeg DCT 5:1
25 mbs
DVCPRO 25
Panasonic
SD
4:2:0
8
no
jpeg DCT 5:1
25 mbs
DVCPRO 50
Panasonic
SD
4:2:2
8
no
DCT 3,5:1
50 mbs
BTC DIGITAL
Sony
SD
4:2:2
10
no
2:1
90 mbs
HDV
varios
HD
4:2:0
8
sí
XDCAM-EX
Sony, JVC
HD
4:2:0
8
XDCAM HD
Sony
HD
4:2:0/2
8
AVC-HD
varios
HD
4:2:0/2
8
HD
4:2:2
mpeg2 17:1(1)
25 mbs
sí/no
mpeg2
25/35 mbs 25 a 50 mbs
sí
mpeg2
sí/no
mpeg4
variable
10
?
jpeg200(2)
50-100 mbs
Inflnity
Thomson
DVCPro-HD
Panasonic
HD
4:2:2
8
sí
3,51:1/8:1
100 mbs
HDCAM
Sony
HD
4:2:2
8
sí
4:1
144 mbs
AVC-HD Intra
Panasonic
HD
4:2:2
8/10
sí/no
mpeg4
50/100 mbs
D5(31
Panasonic
HD
4:2:2
8
no
no
320 mbs
HDCAM-SR (4)
Sony
1.080
4:4:4
10
no
2:1
800 mbs variable variable
SD
HD
D21
Arri
4K(5)
4:4:4
12
sí
ArriRAW
Viper
Thomson
1.080
4:4:4
10 log
no
FilmStream
SI-2K
Silicon Imaging
2K
4:4:4
12
no
RAW
variable
Red One
Red
4K(5)
4:4:4
12
sí
Redcode RAW
192/288 mbs
HR
(1)
Cálculos para el HDV 1.440.
(2) Este sistema admite otros códecs. (3) (4)
Este formato sólo se presenta en VTR, no en cámaras. No comprime a 720p. El
HDCAM-SR
es
un
magnetoscopio
de
altas
prestaciones
utilizable
como
camcorder
por
cámaras
del resto de fabricantes, como las F23/F35 de Sony, la Génesis de Panavision, D21 de Arri o la Viper de Thomson, y en general en aquellas cámaras HR con salida 1.080 RGB Dual Link hasta 10 bits. (5)
Hay dudas sobre si considerar nativas o no la resolución 4K de estas cámaras. Quizá fuera más correcto
considerarlas
2K,
por
lo
que
en
esta
interpolan o submuestrean cuando trabajan a 4K.
» 128
tabla
se
señala
como
“sí"
en
la
rasterización,
considerando
que
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
A este cuadro hay que añadirle los ficheros DCI que se proyectarán en las salas comerciales. A sus características ya conocidas, la única compresión admisible será con el códec jpeg2000, con un bitrate variable dependiendo del tamaño. De éste y otros formatos de distribución hablaremos en la cuarta parte del libro.
Re capitulación
•
A
pesar
de
las
muy diferentes
propuestas
que
existen
en
el
mercado,
en
realidad sólo nos encontramos con cuatro formatos distintos: 2 de HD (1.080 y 720) y dos de DC (2K y 4K). •
Los
estándares
de
televisión
HDTV
son
fijos.
En
cine
digital
es
posible
encontrar pequeñas variaciones. •
La variedad de opciones de grabación en algunas cámaras o de edición en algunos por
programas
aplicar
viene
pequeñas
dada
variables
no en
por la
tratarse
cadencia,
de el
diferentes barrido,
el
formatos, muestreo
sino o
la
compresión. •
Las diferentes maneras de comprimir o reducir el alto flujo de datos propio del
HD
es
lo
que
genera
la
profusión
de
diferentes
marcas
o
etiquetas
comerciales en el mundo de la alta definición.
» 129
PARTE II: CAPTACIÓN
» Captación: las cámaras y algo más
La
elección
tante
de
del
equipamiento
todas,
pues
de
captación
determinará
la
de
imagen
calidad
de
es
toda
quizá
la
nuestra
más
impor-
producción.
Hay
que ser conscientes de que lo que queda grabado en la cinta o en el disco duro fijará
el
máximo
de
calidad
que
podremos
obtener.
Nunca,
en
ningún
proceso
posterior, podremos superar la calidad de los brutos de cámara. Por eso, al formato
de
captación
elegido
lo
llamamos
"nativo".
El
objetivo
será
mantener
su
calidad a lo largo de todos los procesos a los que le vamos a someter. En la mayoría de las producciones, la captación se hará a través de cámaras, sean
de
vídeo
(HDTV)
o
de
cine
digital
(HR);
las
cámaras
pueden
incluir
la
grabación de la señal (camcorders, contracción de los términos ingleses camera &
recorder,
en
castellano
de
"cámara"
y
“magnetoscopio").
se
usa O
el
puede
realizarse
en
inglés,
video
término se
"camascopio"
puede
recurrir
a
contracción la
a
su
vez
grabación
en
un
dispositivo externo. La
grabación
netoscopios
o
VTR,
del
los
tradicionales
tape
recorder
sistemas o
lineales
grabador
en
(magcinta
de
vídeo) o no lineales (grabación en discos, tarjetas de memoria rígida y otros dispositivos IT). Pero, además de la captación con cámaras, no hay que olvidar otras opciones. Una de ellas sería el uso de cámaras de fotografía fija (stills) para películas de animación
(técnicas
prácticamente
la
como misma,
stop y
motion, sus
el
timelapse
especificaciones
y
otras).
(resolución,
La
tecnología
muestreo,
es
profun-
didad de color) también; la única diferencia es que no existen el espacio de color YUV ni la cadencia. Otra opción de creación de imágenes (Computer
generated
images).
Se
son las generadas por ordenador o CGI
pueden
crear
como
secuencia
de
imágenes
fijas (lo más usual) o directamente como ficheros audiovisuales. Una vez más, sus parámetros
de
calidad
se
basan
en
los
mismos
criterios:
resolución,
muestreo,
profundidad de color. En esta parte del libro nos centraremos en las cámaras.
» 143
PARTE II: CAPTACIÓN
» Límites en la captación
Partamos de que la cámara ideal no existe. Lo de
ideal
sería
compresión
poder
ni
captar
pérdida.
la
Es
mayor
decir,
cantidad
trabajar
de información
con
señal
de
sin ningún
muy
alta
tipo
resolución
(4K o incluso 8K), con muestreo total RGB, mucha profundidad de color (12, 14, 16 bits... ) y a una cadencia alta sin interlazado que evite el parpadeo y el filage (48 o incluso 72 fps). Sin en
embargo,
día,
con
la
cantidad
la
de
tecnología
información,
disponible,
su
bitrate,
resulta
sería
casi
tan
imposible
alto o
que,
hoy
terriblemente
incómodo para un rodaje profesional. Ya de
conocemos
los
cuatro
las
posibles
parámetros
opciones
básicos
para
bajar
(rasterizado,
el
bitrate:
submuestreo,
reducir
etc.)
o
algunos
añadir
una
compresión a los datos. La
aplicación de
ciones
profesionales
estas que
técnicas
los
es
lo
broadcasters
que nos
abre
el
amplio
proporcionan.
abanico de
Por
eso,
ya
solu-
no
sólo
tendremos que fijarnos en el “formato”, sea HD 1.080/720 o 2K/4K, sino también en las soluciones comerciales que nos ofrece una cámara u otra. Y éstas han de aparecer claramente en sus especificaciones técnicas. >> Destino final
Por otro lado, el productor y el técnico no pueden perder de vista la rentabilidad
del
trabajo.
Su
amortización
viene
fundamentalmente
por
los
canales
de
distribución a la que está destinado. Es posible que una cámara con formato 4K RGB 14 bits y 48 fps nos proporcione Ahora
una bien,
calidad si
específico,
¿no
HDTV
mucho
de
fantástica,
nuestro
canal
obtendríamos
pero
de un
será
resultado
menor coste?
a
distribución
un final
final
precio
igualmente
es
DVD
muy
un
parecido
Un parámetro importante
que
“fantástico".
para con
se
un una
suele
cliente cámara
obviar es
precisamente el formato final. También debe estar presente en nuestros cálculos. Optimizar otros
aspectos
los
costes
tiempo de rodaje, ni
tiene
por
de
igualmente qué.
etc. La
El
captación
puede
además
importantes,
como
la
liberar
más
recursos
preparación,
los
decorados,
espectador no sabe de píxeles
calidad
objetiva
y
la
subjetiva
o
son
de calidades igualmente
para el
técnicas;
importantes:
el continente, pero también el contenido. » Coste total
Por otra parte, en el coste de una producción no influye sólo el soporte, sino toda la
cadena. Hay que tener en cuenta que diferentes cámaras y diferentes formatos
» 144
PARTE II: CAPTACIÓN
pueden muy
obligar
a
diversos
trabajar
con
presupuestos.
Algo
posterioridad que
con
también,
y
diferentes
equipamientos
esto
importante,
es
de
puede
ocasionar demoras o planes de trabajo distintos. De tos
la
de
misma
baja
manera,
a
puede
obligar
gama
veces a
paradójicamente, tener
más
trabajar
cuidado
a
la
con
equipamien-
hora
de
iluminar,
pues sus límites son más grandes. En ese caso, el dinero que se ahorra en un equipamiento, se gasta en más material de iluminación y tiempo de rodaje. » Tipo de producción y presupuesto
Un
técnico
o
Pero,
además
gran
película
efectos una
incluso del
comercial,
especiales
gran
el
productor
presupuesto, con
un
y grandes
tontería
siempre
influye
ha
también
presupuesto
de
apostar por
el
tipo 200
de
escenas de masas en
(objetivamente,
me
refiero:
de
la
mayor
propuesta.
millones
de
euros,
un formato como
es
posible
que
calidad.
Rodar
una
muchos
el HDV
es
subjetivamente
se
quiera trabajar con HDV por razones estéticas). Pero
el HDV o
independiente
de
el
tipo
AVHCD social
o
pueden ser grandes de
investigación,
formatos
donde
se
para un documental puede
sacrificar
un
tanto la calidad del continente a favor del contenido: mayor cantidad de material, más
cámaras,
Grandes
obras
más
ergonomía
actuales
en
hubieran
la
grabación,
menor
sido
imposibles
de
intrusismo
realizar
con
en
la
los
voluminosos
acción...
sistemas (en material y personal) de trabajo tradicionales. Así
pues,
lo primero que hay que tener
en cuenta es que no hay formato
malo, sino elecciones desafortunadas para propuestas diferentes.
La línea de la luz
Para poder elegir y discernir entre la muy diversa oferta de cámaras existentes en el mercado, recomiendo seguir el mismo camino que sigue la luz y ver qué tipo de elementos clave de la calidad nos podemos encontrar. Nos
encontraremos
con
elementos
ineludibles,
comunes
a
todas
las
cámaras,
que son básicamente tres: • El conjunto óptico • La separación tricromática • El sensor
» 145
PARTE II: CAPTACIÓN
» Conjunto óptico
Como
óptico”
"conjunto
también
a
los
filtros
nos que
referimos puedan
no
sólo
usarse.
a
Estos
las
lentes
filtros
u
pueden
objetivos, colocarse
sino
delante
del objetivo, o detrás, como ocurre con los filtros infrarrojos (IR) o la rueda de filtros neutros (ND) o de balance de color usual en muchas cámaras de vídeo. El
filtro
infrarrojo
fotoquímicos
(donde
fundamentalmente a
las
es se
al
frecuencias
muy usan
usual casi
hecho
de
infrarrojas
de
en
que la
los
siempre los
luz,
sistemas los
sensores
no
digitales,
ultravioletas,
visibles
digitales al
ojo
no
tanto
en
los
UV).
Ello
se
son
muy
sensibles
humano.
Estos
debe filtros
permiten mejorar los resultados visibles y evitar aberraciones cromáticas. Los (DOP al
filtros director
trabajo
sibilidades
usuales of
fotoquímico de
la
Ambas mecánicas filtros
físicos
no
en
fotografía
photography). o
de
vídeo
intérmedicación de trabajo son son
reversibles:
quedan
Algunos
a
lo
tradicional, digital,
y
efecto
del
con otros,
prefieren
válidas, pero su
criterio
usan
director
naturalidad,
fotografía
dado
las
“filtrar"
en
postproducción.
en
cuenta que los
hay que tener queda
de
acostumbrados
fijado
numerosas
indisolublemente
po-
a
la
señal. En el mundo del cine en España, se suele usar operador como sinónimo de director de fotografía, siendo el segundo operador el encargado de manejar la cámara; en el mundo del vídeo, un operador o camarógrafo (o simplemente “cámara”) es el encargado del manejo de la cámara, y el término “iluminador” se usa como sinónimo de director de fotografía. En inglés, además de DOP también es usual encontrar la palabra cinematographer.
» 146
PARTE II: CAPTACIÓN
No es éste un libro dedicado a la fotografía (ni soy yo la persona adecuada, por otra parte), por lo que nos limitaremos a hablar de las lentes u objetivos y su influencia en la calidad de una imagen. » Separación tricromátrica
Como ya hemos entendido en la primera parte, la información pura y dura carece de color: son “grises".
sólo unos
Para
reproducir
y ceros, la
que nos proporcionan los diferentes niveles
sensación
de
color
es
necesario
diferenciar
los
de
colores
primarios rojo, verde y azul. Es lo que se conoce también como tri-estímulo (tristimulus). Es
preciso,
pues,
separar
los
tres
colores
básicos,
y
esto se
realiza
mediante
sólo tres técnicas: • Prisma dicroico • Máscara Bayer • Foveon De los tres, el último es el menos usual, y si bien es una tecnología prometedora, a día de hoy sólo está implementada en cámaras de fotografía digital. » Sensor
Tras al
pasar por un proceso u sensor.
sólo
la
Para rejilla
analógico
un
mejor
de
digital
elementos
(A/D),
general
en
una
fina
también
se
conoce
otro de separación
estudio,
el
el
fotosensibles, filtro
película
como
en
sino
anti-aliasing
transparente
filtro
óptico
“sensor"
también, (AA
que
de
de color, la
término
paso
en
la
filter),
recubre bajo
luz llega por fin
(imager) que
el
en
no
conversora
consiste
sensor.
(OLPF
incluiré
etapa
por
El
filtro
sus
siglas
lo AA en
inglés). » RAW
Lo
que
tendríamos
justo
después
de
la
etapa
A/D
es
una
información
en
bruto
o en crudo (RAW) de lo que el sensor ha captado. La
forma
de
tratar
esta
información
depende
de
las
soluciones
técnicas
de
cada equipo en concreto, de sus elementos particulares. Dado que aquí la luz ya se
ha
convertido
en
información
digital,
hablaríamos
de
la
línea
de
datos
(véase
más adelante). » ¿Qué es una cámara?
Técnicamente,
cualquier
dispositivo
que
cuente
con
al
menos
dos
de
estos
tres
elementos (óptica y sensor; la separación en colores no es necesaria en cámaras
» 147
PARTE II: CAPTACIÓN
en blanco y negro) puede ser considerado una cámara apta para un trabajo audiovisual. nal
Por ello en este apartado tendremos que incluir no sólo el segmento tradiciode cine y vídeo, tanto profesional como doméstico, sino también el campo
de
la
visión
artificial
y
la
incorporación
de
las
cámaras
de
fotografía
fija
con
capacidad de grabación en vídeo.
Ni que decir tiene que también se incorporan nuevos dispositivos móviles de pequeño tamaño, como las cámaras que incorporan los teléfonos móviles o PDAs: si tiene una óptica y sensor, es una cámara.
La línea de datos
Una vez obtenidos los datos digitales, los equipamientos modernos ofrecen una alta variedad de opciones, pero todas siguen un camino lógico. Los en esos
datos
RAW
postproducción, datos
en
una
podemos o
guardarlos
bien
mandarlos
a
señal
entendible
por
tal
cual,
la
etapa
el
resto
para
un
posterior
procesamiento
llamada
"matriz",
que
de
equipamiento
decir, la convierte en un estándar.
Este estándar puede ser exclusivo del mundo del cine digital (RGB o XYZ, 12 bits, 24/48 fps y diferentes resoluciones y relaciones de aspecto de pantalla), o
» 148
convierte
televisivo:
es
PARTE II: CAPTACIÓN
bien del mundo de la televisión (HDTV), mucho más estandarizado acomodarse a la Recomendación 709 de la ITU: 1.080/720, 8 bits, etc.
pues
ha
de
» Monitorización
El principal escollo de una señal no HDTV es su monitorización. Los monitores estándar
de
últimos
tiempos
bits),
y
la
industria
que
están
están
pensados
apareciendo
permiten
conexiones
para
una
monitores
que
no
estándares
conexión
HD-SDi.
superan en
el
esa
mundo
Sólo
en
los
norma
(2K,
10
de
la
televisión,
no
estándares
de
visionado.
como el HDMI u otras de tipo informático (Ethernet, USB, etc...) Por
eso
HDTV
la
mayoría
incorporan
una
de
las
etapa
cámaras
de
matriz
que
para
graban
en
proporcionar
formatos una
salida
Esta salida, si es de calidad, permite igualmente su captación externa. » Almacenamiento
El almacenamiento puede ser interno (en los camascopios) o externo. Generalmente, si es interno, suele ir acompañado de compresión, que será además,
por
externa
lo
general,
una
se puede pensar
solución
en una
comercial
de
cada
casa.
Si
la
grabación sin comprimir, o elegir
grabación
es
el códec más
apropiado. Tanto
interna
como
externamente,
la
grabación
puede
optar
por
un
sistema
lineal (cinta) o no lineal (soporte rígido IT). » Dispositivos I/O
Tanto de
para
contar
la con
monitorización dispositivos
de
como
para
entrada
y
la
grabación
salida
(I/O,
externa,
las
Input/Output
cámaras
han
interface),
que
pueden ser, como hemos dicho, estandarizados o no. Se suelen considerar de entrada y salida si hablamos de un camascopio, pues en algunos de ellos se puede usar el magneto como grabador externo. Si no es así, evidentemente, sólo contará con salida. Las
entradas
y
salidas
y las diferentes
conexiones
(interfaces) nos
dan
siem-
pre una idea de la calidad del dispositivo. Por ello he incluido un anexo.
Pasemos a dar una visión más concreta de cada elemento, tanto de los comunes como de los particulares.
» 149
1. Elementos comunes a todas las cámaras
» La calidad como proceso global
Solemos
asociar
la
calidad
de
una
imagen
con
conceptos
un
tanto
subjetivos
como "resolución” (en el sentido general de la palabra), "definición" o “nitidez”. Y
éstos
están
definidos
digitales
queremos ya
conocidos:
pensar
que
resolución
y
profundidad
siempre
es
así,
en
pues
toda
cámara
exclusivamente de
influyen
color.
todos
por
Sin
los
los
parámetros
embargo,
procesos
esto
y
no
elementos
físicos por los que pasa la luz hasta ser captada por el sensor. La
calidad
se
verá
afectada,
por
ejemplo,
por
los
filtros
que
interpongamos
delante de la lente, por la propia calidad y características de la lente, por filtros posteriores
como
el
infrarrojo
(IR),
y
por
el
filtro
anti-aliasing
(AA)
que
suele
recubrir el propio sensor. Una vez que llega la luz al sensor, debemos tener en cuenta la tecnología y calidad
del
mismo,
su
conversión
a
señal
eléctrica,
con
posible
amplificación
y filtrado de ruido, y su conversión a digital en la etapa A/D. Cada existen cesos
uno
de
estos
“puros”
pasos
con calidad
procesos
que
100
no
%).
afecta
indudablemente
impliquen
una
Si contáramos
con
mínima
a
la
pérdida
calidad, de
pues
calidad
sólo cinco procesos,
no
(pro-
por ejemplo,
cada uno de ellos optimizados al 90 %, tendremos un resultado de 0,9 x 0,9 x 0,9 x 0,9 x 0,9 = 0,59, esto es, de un 59 % de la calidad total. Pero si sólo uno de ellos fuera del 60 %, la calidad final sería del 39 %. Por eso es importante que todos los elementos que interfieren sean óptimos. » Concepto MTF
Se
puede
mo
Modulation
medir
Generalmente, milímetro
se
la
calidad
Transfer muestra
final
Function con
(no confundir con
un la
de
una
(MTF), dato
cámara que
de
resolución
con
analiza
"resolución entendida
el
cálculo
cada
una
de
las
pares
de
líneas"
en
como número
conocido
total
co-
etapas. por
de píxe-
les). A mayor número de pares de líneas, mayor calidad. Sin
embargo,
no
siempre
los
fabricantes
proporcionan
este
dato,
y
no
siempre
es fiable. Por otra parte, son reacios a dar más datos de los precisos (como la
» 151
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
composición de sus filtros AA). de
cámara
en
diferentes
Así pues, nunca está de más recurrir a pruebas
condiciones
o
consultar
testeos
realizados
por
profesio-
nales independientes. Y
tampoco podemos olvidarnos de que, dentro del concepto MTE hay que
incluir el
resto
de
procesos
necesarios
para
mostrar la
obra
al espectador.
En el
caso de la televisión, por ejemplo, la emisión por antena, la recepción y el tipo de monitor. El tiraje de copias, la calidad del proyector y el tamaño de la pantalla en el caso de una obra cinematográfica. En
este
capítulo
hablaremos
de
los
tres
elementos
que
más
influyen
en
la
calidad final de los datos y que son comunes a todas las cámaras.
Las le ntes
Las lentes
son el ojito derecho de todo buen director de fotografía. Lentes de-
fectuosas
o
mediocres
logran
complicar
el
rodaje
estrechar
y
resultados los
defectuosos
recursos
y
mediocres,
creativos.
Ahora
aparte
bien:
de
tienen
un
precio. Fabricar una buena lente es caro, y fabricar una buena lente para el reducido
mercado
profesional
(cientos,
quizás
algunos
pocos
miles
de
unidades)
es mucho más caro que fabricar millones de lentes para el mercado final o de consumidor. te
para
(1/48)
Las
un
es
crítica.
de lentes: un
lentes
trabajo
135
Esta
intermedios
con
exigente.
luminosidad,
si tenemos mm
profesionales
muy un
esa
(tercios,
50
cine
se
muy
luminosas,
además,
mm con
abertura.
medios
de Son
o
Los
se
f1.4,
diseñan
ha
de
específicamen-
la
mantener
obturación en
todo
típica
el
juego
también necesitaremos un 24 mm
diafragmas
incluso
además pues
cuartos).
son Y
precisos,
están
incluyendo
diseñados
para
y
pasos trabajar
con otros accesorios profesionales, como el portafiltros o matte box y la rueda de foco
follow
calidad
íocus).
Por
eso,
que las demás, pero
las
lentes
profesionales
son,
por
definición,
de
mejor
el precio de un buen conjunto de lentes puede ser
incluso superior a la propia cámara. Por calidad,
otra parte, por
lo
el
mercado final es
mucho más
sensible al
es
en
cámaras
que
normal
que
muchas
precio que a
pensadas
para
la este
mercado se sacrifique hasta cierto punto la calidad de las lentes. La
conclusión
visual,
dado
es
que
sencilla:
la
la
tecnología
diferencia
de
precio
específicamente
digital
del es
equipamiento compartida
audiopor
la
mayoría de los equipos, estará cada vez más en las lentes que en las cámaras. En este libro no hablaremos de las lentes y su complicado mundo (en ocasiones,
muy
» 152
subjetivo),
ni
tampoco
de
fotografía.
Es
aconsejable
tener
unos
cono-
PARTE II: CAPTACIÓN
cimientos
previos,
siquiera
muy
básicos.
Sí
destacaremos
tres
cosas
a
tener
en
cuenta: nitidez o definición, luminosidad y variedad focal. » Nitidez, definición, contraste
Estos tres términos son ambiguos, y pueden tener una valoración subjetiva u objetiva. Técnicamente, en el mundo de las ópticas, la definición o nitidez (o en ocasiones contraste) de una lente es sinónimo de estar libre de cualquier tipo de distorsión (de perspectiva irisación
o
cromática
(flare),
etc.
u En
otra),
así
como
de
una
lente
definitiva,
efectos
indeseados
será
más
como
perfecta,
refracción,
tendrá
más
definición, cuanto menos distorsione la realidad que se intenta representar. También
aquí
hablamos
del
número
de
líneas
por
milímetro
que
es
capaz
de distinguir una lente. En este sentido hay que señalar que la mayoría de las lentes dan valores distintos de líneas en la parte central de la óptica que en los extremos. Si
hablamos
permiten
una
de
estética
nitidez,
podemos
diferenciadora
de
encontrarnos los
demás
con por
juegos su
de
propio
lentes
diseño.
que Lentes
más "duras” o más "blandas” en su nivel de definición y contraste. » Luminosidad
La luminosidad es también crítica. Una lente no es cien por cien transparente, y siempre se pierde un porcentaje de la luz proveniente del exterior. En lentes de focal variables (zoom), este hecho es más evidente pues se incrementa el número de
lentes
internas
y,
por
ende,
la
pérdida
de luminosidad.
En
este
sentido,
una
óptica de focal fija (prime) siempre será preferible a otra de focal variable (zoom). La
luminosidad
viene
determinada
por
la
apertura
del
diafragma,
cuya
me-
dición se ha estandarizado con los "pasos f" o "f. ratio” (de focal ratio): f1,4, f2,8, f5,6, etc. Como se sabe, cada paso de diafragma supone un incrementar o disminuir por dos la cantidad de luz entrante.
"Focal ratio" indica con ese número que debemos dividir la focal (distancia de la lente al objetivo, por ejemplo 50 mm) por él (por ejemplo, 2.8) para obtener el diámetro del diafragma (en el ejemplo, 50 mm/f 2,8 = 17,86 mm, que será el diámetro de ese diafragma en esa lente). La abertura (apertura en inglés) es pues un concepto ligeramente diferente a la focal ratio, e influye en cuestiones tales como la profundidad de campo. Los pasos f (f stops) tienen esta terminología un tanto complicada debido a que el diafragma es un mecanismo casi circular. El área de un círculo es PI por el radio al cuadrado. Si queremos aumentar el área de un círculo al doble, no tenemos que multiplicar por 2, sino por raíz cuadrada de 2. Por ejemplo: f11 x 1,4142... = fl6 F11 tiene el doble de área que f16, y deja pasar el doble de luz.
» 153
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
La
apertura
nitidez.
de
Por
diafragma
lo
general,
una
lente
debe
fundamentalmente
se
obtiene
también
influye
en
mayor
nitidez,
medida
la dos
a
pasos
la
por
el
encima
refracción
de
la
concepto en
de
la
luz
anterior,
líneas
por
apertura
que
incide
de
la
milímetro,
el
de
máxima.
sobre
las
Esto
se
palas
del
diafragma. En
fotografía
cidad
se
una
velocidad
la
fija
relaciona
velocidad
de de
se
habla
con
que,
obturación obturación
de
a
lentes
una
menor tiene
"rápidas"
mayor (más
el
fast).
apertura rápida).
límite
de
En
la
Este
de
concepto
diafragma, la
imagen
cadencia
y
de
se en
suele
velo-
puede
usar
movimiento, ser
constante
(1/48, 1/50, 1/60...), por lo que, en lugar del término "rápida", se prefiere utilizar el término "luminosa". Una óptica luminosa permite rodar con menor cantidad de luz (útil en entornos
poco
de
señal
iluminados) (ISO,
y,
en
decibelios
el
y/o
caso
del
forzados
digital,
evita
el
en
postproducción),
la
apertura
uso
de
que
amplificaciones
provocan
el
inde-
seado grano o ruido electrónico. También
es
característica
importante
estética
señalar
importante:
que la
profundidad
del
de
diafragma
foco,
de
influye
la
que
en
una
hablaremos
más adelante.
» Variedad focal Con
variedad
focal
nos
referimos
a
las
distintas
aberturas
del
ángulo
de
visión
(en inglés se suelen usar las siglas FOV de Field of Vision). Se mide en milímetros, siendo la
la
lente.
distancia Valores
entre más
el
elemento
altos
reducen
captador el
(sea
ángulo
fotoquímico
de
visión
o
electrónico)
(teleobjetivos)
y
y
valores
más bajos lo amplían (angulares). Hay juegos de lentes intercambiables de focal fija (un único FOV) y lentes de focal variable conocidas también como “zooms" (con varios FOV).
» Relación entre sensor y focal Es
importante
destacar
que
el
ángulo
de
visión
de
un
objetivo
está
en
función
no sólo de su distancia focal real, en milímetros, entre la lente y el captador, sino también del tamaño real de este sensor. Es común asociar un objetivo de 50 mm con una distancia focal media. Pero este
objetivo lo
es
si
usamos soporte de
35
mm,
pues las distancias focales se
notan generalmente pensando en ese soporte. Si cámaras
el
sensor
es
más
HDTV),
la
distancia
reducido focal
(2/3 se
de
pulgada,
multiplica,
en uno largo. Es lo que se conoce como "factor de multiplicación”.
» 154
por
ejemplo,
convirtiendo
un
típicos angular
de
las
medio
PARTE II: C APTAC IÓ N
Es algo similar a lo que sucede con las ópticas de 35 y 16 mm de cine. Si colocamos una óptica de 50 mm en una cámara de 16 mm, no corresponderá a la misma
apertura
que
en
35
cámaras
de
mm.
Hay
tablas
de
equivalencias
que
los
operadores
manejan con regularidad. En
algunas
ámbito
doméstico
o
incluso
prosumer,
la
distancia
focal se expresa con precisión (los milímetros exactos entre el sensor y la lente), añadiendo
lo
que
sería
el
equivalente
en
35
mm
para
que
el
operador
pueda
imaginarse más rápidamente el encuadre. » Lentes fijas o intercambiables
Una
cámara
decir,
la
profesional
lente
será
siempre
ofrecerá
independiente
la
del
posibilidad
cuerpo
de
de
cambiar
cámara.
Esto
de
lente.
permitirá
Es
elegir
entre la amplia gama de ópticas que ofrece el mercado, en función del tipo de rodaje y de las preferencias del director de fotografía. En el ámbito prosumer (o low end), lo habitual es que la cámara tenga óptica fija de focal variable (zoom), sin posibilidad de cambio de objetivo. En este caso, el operador ha de ajustarse a las posibilidades definidas por el fabricante. La palabra “fija” se usa indistintamente para señalar una óptica con focal fija (por ejemplo, 50 mm; prime, en inglés) como una lente unida indisolublemente a la cámara, no intercambiable (fxed).
» Lentes no intercambiables
Incorporar
una
lente
fija
supone,
problema
de
estas
principalmente,
un
gran
ahorro
de
coste
en
el
equipamiento. El de
gran
luminosidad
asociada
a
lentes,
un
aparte
zoom,
es
de
su
su
limitada
inferior
calidad
variedad
y
la
pérdida
focal.
Siempre
estaremos limitados en el uso tanto en teleobjetivos como en angulares abiertos. El caso de los teleobjetivos puede ser crítico, por ejemplo, si deseamos realizar documentales
de naturaleza
o
eventos en
directo, donde por lo general la
cámara
se sitúa a gran distancia del objeto a fotografiar. se
limita
que
También señalar
que
estas
con
sensores
de pequeño tamaño (1/2,
distancia
focal
mínima
mucho cámaras, con
la
la
distancia
además que
del
angular uso
en
de
1/3 de pulgada).
podemos
trabajar,
espacios
ópticas lo
fijas,
pequeños.
Hay
suelen
contar
Esto reduce aún más la que
dificulta
el
trabajo
en interiores con espacios reducidos. Como dijimos, gran parte del mercado prosumer ofrece ópticas fijas, pero también
se
pueden
encontrar
cada
vez
más
soluciones
de
esta
gama
que
permiten
el uso de ópticas intercambiables.
» 155
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
>> Soluciones intermedias
Algunos
fabricantes
ofrecen
opciones
para
el
uso
de
objetivos
intercambiables
dentro de cámaras con ópticas fijas. Son adaptadores que se colocan por delante del objetivo fijo, por lo que permiten
el
pero
uso
de
también
otras
una
ópticas.
Se
profundidad
utilizan
de
para
campo
intentar
más
conseguir
cercana
a
la
mejor
que
calidad,
ofrecen
los
equipos de alta gama de cine digital. Es que
una contar
opción con
que
dos
puede
efectos
ser
interesante
indeseables:
la
en
ciertos
multiplicación
momentos, de
la
pero
focal
hay
(pues
la
distancia entre la lente y el sensor se dobla o triplica) y la pérdida en luminosidad. » Ópticas intercambiables
En la gama profesional (broadcast) y alta (high end) del equipamiento, las ópticas son
siempre
una
solución
intercambiables. práctica
como
El es
fabricante
un
zoom
suele
estándar
vender
el
equipamiento
que cubra las
distancias
con focales
más usuales. Por lo general, este objetivo variable bastará para la mayor parte de la producción
televisiva,
donde
los
operadores
están
acostumbrados
al
trabajo
con
zoom, incluso para la operación de enfoque. Si
deseamos
usar la
cámara para
un
trabajo más
exigente o
específico, po-
demos recurrir a un juego de ópticas fijas intercambiables o incluso un zoom de mayor
calidad
luminosos estos
(mejor
y
definición
mantener
zooms
suelen
el
ser
y
luminosidad).
diafragma
a
lo
Debido
largo
muy caros, pesados
de
a
que
todas
han
las
de
ser
distancias
y voluminosos. Tanto
muy
focales,
éste como los
juegos de ópticas fijas, debido a su alto coste, se suelen encontrar en alquiler en las casas de servicio. Al igual que hay juegos de óptica para 35 y 16 mm, también encontraremos ópticas
para
SD y HD.
Son
distintas no sólo por la
mayor definición
del HD,
sino también por el cambio de relación de aspecto (de 4/3 a 16/9) y tamaño de sensor. Lo
En
ningún
contrario
sí
caso
es
es
posible,
aconsejable
trabajar
con
siempre
cuando
tengamos
y
ópticas en
SD
en
cuenta
cámaras el
factor
HD. de
multiplicación (que limitará sobre todo en los angulares). » Compatibilidades
Por
tradición,
las
Además,
los
sual.
ópticas
cinematográficas
directores
de
fotografía
las diferencias entre los distintos fabricantes.
» 156
son
siempre
están
las de
acostumbrados
mayor a
ellas
calidad y
vi-
conocen
PARTE II: CAPTACIÓN
También por
hay
ejemplo.
diferentes
En
algunas
monturas. cámaras
La
clásica
(sobre
todo
en
de
cine
gama
es
conocida
prosumer)
como
sólo
es
PL,
posible
utilizar ópticas de la misma marca que la cámara, pues se ha creado una montura ad hoc para ello, evitando así la competencia. Por esa razón, muchas cámaras HD y DC tienden cada vez más a ofrecer la opción
de
trabajar
con
monturas
compatibles
o
sus
correspondientes
adaptado-
res. » La profundidad de campo
Uno de los temas que más salen a la palestra cuando se trata de la cinematografía digital es la diferencia que muestra en cuanto a la profundidad de campo (Depth of Phocus, DOP) con respecto al cine tradicional. La profundidad de campo es un concepto puramente óptico y se define como aquellas nado
partes
distancia mas
del
encuadre. a
exacta ese
igualmente
ángulo de visión que
En
realidad,
está
"a
foco”.
Pero
tienen
una
pérdida
Llamamos
campo
objeto enfocadas.
espacio
alrededor
del
"círculo
de confusión"
foco
técnicamente,
objetivo
al límite
se
se
encuentran sólo
un
entiende
mínima focal
que
existente
de o
foco
que
en
nitidez percibimos
lo
en un
determinado las y
profundidad
todavía entre
a punto
distancias
determia
una
próxi-
visualmente
parecen
de
a
como
enfocado y lo
campo
ese
“enfocado”,
y
desenfocado en
los límites exteriores del campo focal. La
profundidad
de
campo
será
mayor
"por
detrás"
del
foco
(aproximadamente
2/3) que por delante (1/3).
La mayor o menor profundidad del campo focal tiene que ver con tres elementos ópticos:
» 157
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
•
La distancia focal del objetivo a mayor distancia focal (teleobjetivos), la profundidad
de
campo
se
reduce.
Los
angulares
tienen
por
esa
razón
una
que
entra
profundidad de campo mayor. •
La en
abertura el
sensor,
que cuando el
del
diafragma.
aumentamos foco
es
Si
reducimos
también
crítico en
el
la
campo
cantidad focal.
de Es
luz
bastante
habitual
un plano, el operador pida más
potencia
lumínica para cerrar el diafragma y ampliar así el campo focal. •
La la
distancia
profundidad
del
objeto
de
campo
enfocado. se
reduce.
A
mayor Los
distancia
teleobjetivos
desde
el
“aplanan"
objetivo, más
la
imagen, consiguiendo también mayores desenfoques.
» ¿Influye el tamaño del sensor en la PDC?
La respuesta es no. Muchos
profesionales
observan
que
si
se
usan
sensores
y
formatos
más
grandes (HD en vez de SD, o S35 mm en vez de 2/3), el foco se hace más crítico y la profundidad de campo se reduce. Esto puede llevar a pensar que el tamaño del sensor influye en la PDC, pero no es así. Como hemos dicho, la PDC depende
» 158
PARTE II: CAPTACIÓN
del cuerpo
óptico y es
indiferente que el sensor sea
pequeño o del tamaño de
una cartulina. » ¿Hay que tener en cuenta el sensor a la hora de valorar la PDC?
Definitivamente, sí. ¿Es una contradicción? Puede parecerlo, pero no es así. Hemos
dicho
queremos
que
hacer un
la
PDC
encuadre
depende
de
un
de
tres
objeto que
factores.
está
Pensemos
situado a
3
ahora
que
metros con
un
objetivo de 50 mm en un cámara con un sensor Súper 35 mm, el usado en el cine tradicional fotoquímico (sobre el tamaño de los sensores hablaremos luego). Si colocamos el mismo objetivo en un cámara con un sensor menor, pongamos un 2/3 de pulgada, a la misma distancia, ya no tendremos el mismo encuadre (el mismo ángulo de visión), al
factor
acercar
de
la
sino el
multiplicación).
cámara
o
bien
que correspondería a una focal superior
Para
acercar
obtener el
el
sujeto,
mismo
y
es
encuadre
entonces
(debido
tendríamos
cuando,
al
que
disminuir
la distancia entre el objeto y la lente, la PDC se amplía. Sin
mover
la
usar
un
más,
ampliaríamos
ángulo
cámara,
de
para
visión así
la
más
mantener amplio,
PDC,
pues
es las
el
mismo
decir,
una
focales
más
encuadre, focal
tendríamos
más
cortas
corta.
tienen
que
Una
mayor
vez PDC
que las largas. El último punto a tener en cuenta es el diafragma. Pero no hay que confundir apertura con pasos de diafragma. Lo que influye en la PDC es la abertura, esto es, el diámetro del círculo que abre el diafragma a cada paso. A mayor diámetro, menor PDC. En
el
caso
inverso
a
nuestro ejemplo,
si
colocáramos
el
objetivo de
50
mm
en la cámara de 2/3, podríamos poner la cámara S35 a la misma distancia con un
objetivo
1,6) para
de
mayor
focal
(pongamos
mantener el mismo
80
encuadre. Si
mm
con
obviamos
un
factor
de
multiplicación
el tema de la
mayor focal
del segundo (ergo, menor PDC), y abrimos los dos objetivos a F4, reciben los dos la
misma
cantidad
de
luz,
pero
con
dos
aberturas
diferentes.
El
diafragma
del
primero tendría un diámetro de 50/4 = 12,5 mm, y el segundo lo tendría de 80/4 = 20 mm. El diámetro del segundo sería mayor, y por tanto su PDC sería más reducida. » Distancias focales “equivalentes”
Los
operadores
dadas, humano,
donde las
están asocian
menores
acostumbrados al como
rango
a
35-50
angulares
y
trabajar como grandes
con
focales
unas
distancias
medias,
similares
angulares
y
las
mayores
focales al
ojo
como
» 159
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
teleobjetivos.
Estas
distancias
están
pensadas
para
formato
con
el
negativo
y
tamaño
de
sensor del 35 tradicional. En
muchas
colocan
cámaras
objetivos
de
con
pequeño
distancias
focales
ópticas
no
más
cortas,
obviamente
intercambiables pero
se
se
indica
su “equivalente" en la medida tradicional. Se dice así que se tiene una lente de 15-115 mm equivalente (por ejemplo) a un 24-185 mm tradicional. Hay que recordar que se trata tan sólo de una equivalencia. » Formato de proyección y PDC
Los
razonamientos
del
sensor
para
anteriores el
explican
trabajo
diario,
que
donde
hay los
que
tener
operadores
en
tienen
cuenta
el
en
cabeza
la
tamaño los
estándares focales del cine. Pero también influye, no en la PDC en sí, pero sí en su percepción, el formato de
reproducción.
pulgadas
en
No
es
nuestra
lo
casa,
mismo
que
en
observar una
una
pantalla
imagen de
en
once
un
metros
televisor
de
14
de
en
un
base
sala de cine. En el segundo caso, en el cine, se verá mejor la diferencia entre los objetos enfocados, cados.
los que consideramos
También
serán
mucho
nítidos dentro de la PDC dada, y los
más
visibles
las
zonas
conocidas
desenfo-
“círculo
como
de
confusión”, aquellas zonas limítrofes entre lo nítido y lo desenfocado. Esto es lo que hace que un foco "rozado”, imperfecto, pueda pasar por enfocado en un monitor pequeño y claramente desenfocado en una pantalla de cine. >> El tamaño de visionado
Por
la
misma
razón,
a
la
hora
de
rodar
es
muy
importante
no
fiarse
de
los
pequeños visores y LCD de muchas cámaras en cuestión de foco. El foco es algo crítico,
que
no
tiene
arreglo
en
postproducción,
por
lo
que
hay
que
asegurarse
de que se han medido bien todas las distancias. Es
muy
habitual
enfocados” en sala
de
baja
calidad,
encontrar
en
los montajes finales
edición, el
si
se
planos
usan monitores
montador
no
“rozados"
de muchas
aprecia
de baja el
o
incluso
claramente
obras. Esto se debe a resolución
desenfoque
y
da
o
formatos
por
buenas
"des-
que en la "offline”
de
tomas
que
debería rechazar. » El “look” cinematográfico
Se
asocia
una
corta
profundidad
mayor profundidad a un “look” televisivo.
» 160
de
campo
al
"look”
cinematográfico,
y
una
PARTE II: CAPTACIÓN
Esto es
cierto
más
pequeño
Pero
las
muy
similar
debido a
obligan
últimas
a
lo
cámaras
debido
al
que hemos
usar
focales
digitales
gran
tamaño
hecho notar: los
más
abiertas
de
HR
de
sus
y,
empiezan sensores,
sensores
por a
con tamaño
tanto,
mayor
ofrecer
una
equivalentes
al
PDC.
respuesta
tamaño
del
fotoquímico. De ahí que la respuesta del foco se aproxime. puristas que afirman que, incluso a igual tamaño del sensor, el fotoquímico tendrá una PDC menor, pues los elementos fotosensibles se distribuyen en capas (una para cada color), y este grosor, siquiera mínimo, también influye en la PDC. Teóricamente se podría dar por cierto, pero no sabría decir hasta qué punto es apreciable esa mínima diferencia.
Lo que no se puede afirmar es que un "look” tenga mayor calidad que otro. Ni técnica, ni subjetiva o estéticamente. Ciertamente, campo se
de
manera
siente
carecen
el
limitado,
de
interés
enfocados.
creador
cinematográfico
artística.
En
pues
puede
en
También
no el
es
sistemas
HD
talento con
"desenfocar"
encuadre, cierto
con
para
que
la
la
sensores
los
fijar
los
usa
pequeños,
elementos atención
desenfoques
profundidad
que
del
el
a
su
crean
creador entender
espectador
ópticos
de
en
una
los
textura
muy peculiar, que también puede ser usada creativamente. Existen largas,
soluciones
o
posibles.
trabajar A
multicapa
veces o
con
sencillas
con
menos
se
recurre
nuevos
como luz a
y
retirar
para un
abrir
trabajo
la
cámara
el
diafragma.
en
sorprendentes
para
postproducción,
plugins
que
usar
Pero
no
con
simulan
focales
más
siempre
son
un
sabio
el
desenfoque
uso
óptico cada vez con mayor verosimilitud. Pero es laborioso y ralentiza el proceso de postproducción. Por con
otra
parte,
frecuencia
los
los
defensores
problemas
de
a
ultranza
foco
que
chos. No es inusual que en primeros la
nariz
siempre,
o
las
desde
orejas luego.
del En
protagonista: ocasiones
lo
del
"look"
presentan
los
cinematográfico
olvidan
campos
estre-
focales
planos se vea a foco los ojos, pero no ¿es
ése
un
que
desea
efecto el
creativo
creador
deseado?
No
cinematográfico
es, cine
precisamente, lo contrario: una mayor profundidad de campo. En versus
cuanto
deseaba al
al
trabajar
rediseño
de
"subjetivo”
de
el
ejemplo
clásico
del
amplios
campos
focales,
obligando
incluso,
en
uno
reciente
en
componente
televisión,
tenemos con algunas
ópticas.
O
asociar
encontramos
PDC
en
una
estilo
de
Orson
más
dialéctica Wells, su la
que
tiempo, obra
de
George Lucas, en los últimos episodios de la saga Star Wars, donde el uso con profusión en
de
muchos
CGI de
los
(imágenes fondos
generadas
y decorados
por
ordenador)
dejaría
de
tener
y
VFX sentido
(efectos sí
se
digitales) ofrecieran
» 161
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
desenfocados.
Visualmente,
perderían
mucho,
y
técnicamente
se
complicaría
su integración. La
sólo puede ser una: no existe un “look” superior a otro, sino
conclusión
diferentes estéticas. Dicho esto, también debe quedar claro que si podemos elegir el tipo de lente para nuestra
cámara
(sistemas
de
óptica
intercambiable)
y,
por
ende,
jugar
más
con
la
PDC, esta decisión estética será siempre más amplia que si nuestra óptica es fija o nos vemos limitados por las distancias focales y un pequeño tamaño de sensor. » La labor del foquista
Una
cosa
focal
realmente
sorprendente
generalmente
más
es
que,
extenso,
a
muchas
pesar
de
contar
producciones
con
realizadas
un
campo
en
digital
para televisión tienen problemas de foco. Esto se debe no a la máquina, sino al operador, pero es necesario explicarlo un poco. En
trabajos
requeridos ocupa,
es
cinematográficos, el
foquista.
exclusivamente,
Es
de
uno decir,
medir
de la
los
profesionales
más
persona
del
equipo
de
cuidadosamente
la
distancia
solicitados cámara
entre
la
que
y se
cámara
y los actores o los objetos, y de ajustar adecuadamente el anillo focal de la lente. Es un trabajo fino que requiere experiencia, precisión y método. Es también muy crítico, pues a pesar de todos los avances en postproducción, hay sólo tres cosas que no se pueden solucionar: el encuadre, la dirección de la luz y el foco. Y sobre todo estas dos últimas cosas. Si un plano se rueda sin foco, queda prácticamente inútil para el montaje. En televisión, la dinámica de trabajo no suele incluir a un foquista, por varias razones que tienen que ver más con la “tradición" que con la lógica.
•
Primero, por lo que ya hemos dicho del campo focal más amplio: no es tan crítico, pues aunque la figura se mueva un poco de su marca inicial, puede seguir a foco dentro de la profundidad de campo.
« Segundo, porque se suele trabajar con mucha luz, sobre todo en los platos de
televisión.
Con
diafragmas
más
cerrados,
se
obtiene
mayor
profundidad
de campo y menos problemas de enfoque. •
Tercero, con
un
enfocar luego
porque
zoom es
abra
que para
cinematográfico,
es
habitual,
y no con el
lentes
operador
componer eso
no
es
en
plato
fijas. Con
ponga el
imprescindible la figura del foquista.
» 162
tanto al
plano.
posible:
un
máximo Con es
como zoom, el
ópticas necesario
en la
exteriores, manera
teleobjetivo,
tome
fijas,
propias
medir
para
trabajar
normal de del
foco
y
rodaje
enfocar.
Es
PARTE II: CAPTACIÓN
«
Cuarto,
porque
en
un
sistema
multicámara
en
raras
ocasiones
habrá
que
cambiar el foco durante una toma ni será preciso tomar nuevas medidas. Si es
necesario
reenfocar,
el
realizador
puede
optar
por
pinchar
otra
cámara
mientras el operador realiza el enfoque con el zoom. «
Por
último
apuntamos nuestro
(y
antes,
hogar.
Un
lamentablemente, el
resultado pequeño
pues
final
es se
"roce"
con
monitor de 14 pulgadas como en
una
mala
verá el
en
foco
la sala
excusa),
una no
porque,
pequeña
es
tan
como
pantalla
evidente
en
en un
de un cine donde podemos tener
una pantalla de doscientos metros cuadrados. Lo que en una pantalla de televisión no se aprecia, en un sala de exhibición resulta
desagradable
en
extremo.
Pues,
además,
el
foco
es
de
esas
pocas
cosas
técnicas que hasta el espectador menos avezado aprecia al instante. Hay
que
formato
de
tener
en
grabación,
cuenta sino
que una
el
cine,
exigente
desde
mi
mecánica
punto
de
de
trabajo
vista,
no
es
profesional.
Y
un que
este todo debidamente enfocado es lo mínimo que se puede exigir. » Mala visualización
Otro de los “vicios" del operador de cámaras de televisión es fiarse de su pequeño visor para el foco, acostumbrado como está al uso del zoom. Pero ni estos visores, ni
las
pequeñas
para
tan
crítica
pues
suelen
pantallas labor.
incorporar
de
Esto
LCD es
pequeños
que
sobre
algunas
todo
LCD
que
cámaras
incorporan,
importante
en
siquiera
tienen
ni
las
son
cámaras
la
fiables
prosumer,
resolución
nativa.
Fiarse de esas pequeñas pantallas para enfocar es más que arriesgado. Tanto
es
así,
que
la
mayor
parte
de
los
nuevos
equipamientos
incorporan
ayudas de enfoque en el propio LCD para facilitar la tarea del operador. La
mejor solución es contar con un buen foquista con experiencia. Y llevarse
también
un
pues
ocasiones
en
monitor el
externo director
suficientemente o
el
asistente
grande, de
que
vídeo
pueden apreciarlo al instante y advertir al operador (en
o
nunca de
viene
mal,
en
rodaje
edición
caso de un problema de
backfocus, por ejemplo, donde el foquista está "ciego”). La ventaja del digital con respecto al cine es que una correcta monitorización no
sólo
cámaras
es
imprescindible,
digitales,
pues
lo
sino
que
que
se
resulta ve
en
cien la
por
pantalla
cien es
fiable
en
exactamente
el
caso lo
de
mismo
que se graba. En cine, no se sabe nada hasta que se revela y positiva la toma. El visor de la cámara (la lupa) no permite al operador saberlo siempre con precisión, y se ha tenido que desechar más de un plano por problemas de foco, incluso un día o dos de trabajo completo por un problema con el backfocus.
» 163
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» Backfocus
El backfocus, dicho mal y pronto, es un reajuste focal entre la lente y la cámara que se realiza en la montura. En ocasiones, una montura defectuosa o una dilatación
en
la
misma
(por
efecto
de
la
variación
de
la
temperatura)
altera
la
distancia focal y, por tanto, también el plano focal de la lente. Sucede
entonces
que
medimos
el
objeto,
ajustamos
el
anillo
del
foco
a
esa
distancia, pero el resultado sale desenfocado. En el caso del uso de zoom en televisión, podemos cerrar para enfocar pero al abrir perdemos el foco. El resultado son imágenes borrosas, a pesar de que se ha tomado una medición “correcta". Algunas la
cámaras
separación
cho.
Este
del
digitales,
sobre
todo
color
(véase
el
calentamiento
puede
provocar
las
siguiente
que
usan
apartado),
desajustes
el
bloque
tienden
en
el
a
dicroico
calentarse
backfocus
(el
para mu-
término
técnico es “descolimación”). Si el desajuste es leve, es más que probable que el operador no lo aprecie en su pequeño visor. De ahí, una vez más, la necesidad de un monitoreado de la señal en una pantalla grande. La
única
profesionalidad.
manera
de
Comprobar
evitar a
esto
cada
es,
una
cambio
entre plano y plano, que el objetivo esté bien colimado.
de
vez
más,
lente,
un y
poco
de
exigencia
también,
si
es
y
posible,
PARTE II: CAPTACIÓN
La s e p a r a c i ó n t r i c o l o r
» Sensores: analógicos y monocromos
Los sensores son una tecnología analógica, no digital, y son sensibles a las diferencias
lumínicas
manera,
de
intensidad,
"monocromos”.
no
a
Simplemente
sus
diferencias
convierten
cromáticas.
Son,
diferencia
de
una
de
alguna
intensidad
lumínica (fotones) en una diferencia de corriente eléctrica (electrones). Como vimos en la primera parte, para la reproducción del color recurrimos al sistema de colores primarios RGB. Pero para ello es necesario saber qué cantidad de rojo, de verde y de azul tiene el objeto que queremos fotografiar. Es necesario, pues, dividir la luz que entra por la lente, "pancromática” por naturaleza, en sus tres componentes primarios. Actualmente,
hay
dos
sistemas
que
se
usan
en
cine
y
televisión:
el
prisma
dicroico y la máscara Bayer. El primero ha sido durante años el más común, pero el
segundo
gama
alta
está del
imponiéndose cine digital.
cada
Ambos
vez
más,
sobre
se consideran
de
todo
en
igual
calidad
las
soluciones pero
de
hay que
analizarlos para ver sus diferencias. Comentaremos también un prometedor tercer sistema, conocido como Foveon. » Prisma dicroico
El “bloque dicroico” es un conjunto de filtros y espejos que se sitúa justo después de la lente y antes de los tres sensores captadores.
» 165
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
Los
filtros
longitud
dicroicos (ergo,
tienen
la
colores)
particularidad
dejando
de
pasar
filtrar
las
ondas
determinadas
de
longitudes
luz
por
su
y
reflejando
sensor
diferente
otras; los espejos redireccionan los haces hacia los otros sensores. La por
característica
cada
color,
principal
pero
de
por
este
esa
sistema
misma
es
razón
que
exige
precisa
un
sensores
de
menor
tamaño
individual que un sistema con un único sensor con máscara Bayer. El diseño de este prisma debe ser muy preciso, pues los tres sensores
deben
tener el mismo plano de enfoque con respecto a la lente. Y
recordemos una vez más que lo que se obtiene de cada sensor es una señal
eléctrica, que carece de "colorimetría". Tendremos, pues, tres señales eléctricas. » Máscara Bayer
El nombre se toma de su inventor, el ingeniero de Kodak Bryce E. Bayer, que inventó
esta
división
cromática
de
gran
solución
para
no
tamaño
se
poder
trabajar
realiza
donde
se
con
por prisma,
ha
un
único
sensor.
sino que se
incrustado
un
En
utiliza
máscara
este
un
caso,
la
único sensor
compuesta
por
sucesivos
“microfiltros” de los colores primarios. Esto hace que a cada píxel del sensor sólo llegue un componente primario de la luz (véase página 395, arriba).
» RAW, demosaico e interpolación
La señal que sale de este sensor es la conocida como “datos en bruto" o, más comúnmente, RAW. Esta En
interpretación
función de
otra,
es
cómo se
dependiendo
de
el
proceso
realice,
si
conocido
como
demosaico
(demosaicing).
tendremos una
imagen
de mayor
resolución que
aplicamos
interpolación
(submuestreo)
o
no.
Posterior-
mente, podremos optar por formatear la imagen en un fichero estándar. Volveremos a tratar este tema en el siguiente apartado, dedicado a los sensores. » Ventajas y desventajas
Ambos Cada Hay
sistemas, fabricante
que
barato
Bayer
señalar,
que
o
opta
uno
prisma,
son
por
uno
o
eso
sí,
que
un
con
tres,
válidos
por
otro
sistema
consumirá
para por
con
menos
una
correcta
motivos
un
fotografía
técnicos
o
solo sensor siempre
energía
y
ocupará
digital.
comerciales. será
menos
más
espacio,
permitiendo cámaras más pequeñas. Tradicionalmente,
en
televisión
siempre
se
han
usado
cámaras
con
tres
sen-
sores. La tecnología en este sentido está muy consolidada. Uno de los problemas asociados es indeseado
en
el calentamiento de la la
imagen.
El
prisma
cámara, que puede ser una fuente de ruido dicroico
es
también
una
importante
fuente
de calor. Y al subir la resolución de SD a HD se precisan sensores mayores, lo cual
explica
los
problemas
de
calentamiento
de
muchas
cámaras
HD.
El
calor
del "bloque dicroico” puede tener un efecto colateral importante, que es la descolimación
o
desajuste
en
el
backfocus,
debido
al
calentamiento
de
las
partes
metálicas de la montura. Principalmente por esta razón, el exceso de calor, la opción de un solo sensor con
máscara
HR.
Los
su
Bayer
sensores
tamaño.
Pero
se
está
también el
bloque
extendiendo
se
calientan, dicroico
mucho, y
lo
siempre
sobre
hacen se
todo
de
calienta
en
manera mientras
las
cámaras
proporcional el
a
diafragma
esté abierto y le llegue luz. Un sensor único se calentará más por ser más grande, pero lo hará fundamentalmente en el momento de activarse. Una
tecnología
con
un
solo
sensor
también
ofrece
la
“ventaja
relativa”
de
que
su
35
mm.
tamaño Y,
se
como
aproxima, ya
hemos
o
incluso
explicado,
supera,
el
tamaño
esto permite que
del
reproduzca
fotograma la
en
respuesta
de profundidad de campo del fotoquímico. La industria no ofrece en la actualidad un sistema de tres sensores con un tamaño S35 mm o superior, estando el límite en los 2/3 de pulgada. Y es poco probable que el futuro traiga un desarrollo de este tipo, pues el calor producido derivaría en una herramienta impracticable. Un argumento más a favor de un futuro sin bloque dicroico.
» 167
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» Foveon
Un
último
avance
sobre
la
división
tricromática
son
los
sensores
Foveon.
Se
trata de una tecnología de la que se viene hablando hace tiempo, pero que en la actualidad no está operativa en ninguna cámara de HD o cine digital, pero sí en cámaras ofrecer
de
fotografía
opción
de
digital.
grabación
Dado
que
HD,
muchas
seguramente
de
estas
cámaras
pronto
veamos
realiza
"en
vertical".
En
el
empiezan
soluciones
a
Foveon
para cine y televisión (véase página 395, abajo). En ningún capas y
este
caso,
tipo
de
superiores
las
profundas
defensores un
de
Foveon
de
la
separación
máscara
Bayer
ni
de
cada
diodo
al
verde.
Esto
esta
cromática
tecnología
12
millones
se
microfiltro son
de
sensibles
color.
al
azul,
permite
fotodiodos
hablen
de
de
fotodiodos
de
las mayor
resoluciones permite
chip
No
Foveon,
intermedias
al
tamaño
que
y
verdaderamente
una
existe
resolución
las rojo los
nativas:
nativa,1x1,
de 12 megapíxeles RGB (3 canales con 12 millones de muestras en cada uno de ellos). Los
detractores,
no
obstante,
hablan
de
una
menor
de sensor con respecto al CMOS o al CCD. No es descartable ésta u otras tecnologías para cámaras del futuro.
sensibilidad
de
este
tipo
PARTE II: CAPTACIÓN
Los sensores
Una
vez
atravesada
la
lente
y
el
dispositivo
de
separación
tricromática,
la
luz
llega por fin al sensor. Como se explicó en la primera parte del libro, cada sensor dispone de equis elementos cionan
fotosensibles
cada
una
de
que
llamamos
las
muestras
fotodiodos, de
la
que
realidad
son
los
que
pretendemos
que
nos
propor-
representar,
lo que conocemos como píxeles. El
número
de
estos
elementos
es
el
que
determinará
“resolución
su
nativa”,
pues se convertirán en las muestras o píxeles de nuestra imagen digital. » CMOS y CCD
En
su
origen,
tecnología res
las
cámaras
actualmente
en
de
televisión
desuso.
planos, con tecnología
CCD
trabajaban
Después
se
con
tubos
desarrollaron
de
los
(dispositivo de doble carga,
imagen,
primeros
en inglés).
una
sensoPermitían
un uso más robusto de las cámaras, más eficiente que los tubos. Posteriormente, los
CMOS
(semiconductor
complementario
de
metal-óxido)
aparecieron
en
otros
ámbitos de la industria, y, en los últimos años, se aplican también con éxito a soluciones
profesionales
de
televisión
y
cine.
En
este
capítulo
no
hablaremos
de
la tecnología Foveon, pues, a día de hoy, no hay aplicaciones en el terreno de imagen en movimiento. Tanto el CCD como el CMOS han evolucionado en el tiempo y ofrecen pequeñas
variantes.
Si
bien
tradicionalmente
se
consideró
el
CCD
de
mejor
calidad,
hoy en día los CMOS se han puesto muy a la par y ofrecen ventajas adicionales. Una
de
ellas,
continua
el
evolución,
menor
coste
ambas
de
fabricación.
tecnologías
son
No
obstante,
plenamente
en
válidas
un y
mercado compiten
en sin
obstáculos. » Capturar fotones
Todos
los
algunos
sensores
elementos
la
energía
es
aplicable
captación
presente a
se basan en en
cualquier
electrónica.
la
semiconductores la
luz
CMOS
Hablamos
misma idea: aprovechar las particularidades de (aleación
de
silicio)
(fotones)
en
corriente
o
CCD
(o
Foveon)
del
cine,
de
la
que
eléctrica en
televisión,
pueden
cualquier pero
convertir
(electrones).
Esto
dispositivo también
de
de la
fotografía o de aplicaciones industriales y científicas (visión artificial).
» 169
1. ELEMENTOS COMUNES A TOGAS LAS CÁMARAS
Un sensor (imager) está compuesto por equis celdillas en forma de rejilla que se
denominan
fotodiodos.
El
material
del
que
están
hechos
permite
capturar
la
energía presente en la luz (fotones) y convertirlos en un flujo de electrones.
Aunque parezca extraño, la tecnología empleada en los sensores captadores es básicamente la misma existente en las placas fotovoltaicas generadoras de corriente eléctrica basadas en energía solar: convierten fotones en electrones.
Una gran intensidad de la luz implica un mayor número de fotones y, por ende, una
mayor
luminosidad
corriente emiten
eléctrica
pocos
en
fotones
y
forma
de
electrones.
por
tanto
contaremos
todos
los
Situaciones pocos
con
electrones
baja a
la
salida. Generalmente, base
(silicio),
y lo
dado que
que
casi
tenemos
que
entender
sensores es
que
usan un
el
mismo
fotodiodo
material
podrá
captar
más fotones en función de su área o tamaño.
No es el propósito de este libro profundizar en las diversas soluciones y tecnologías aplicadas en los fotodiodos. Basta con entender los conceptos básicos para poder hablar de diferentes calidades y sensibilidades.
» Resolución y sensibilidad
Una es
vez que
que
se
un
sensor
conoce
este
funcionamiento,
determinará
los
dos
lo
primero
parámetros
que más
tenemos importantes
imagen digital: su resolución o número total de píxeles, y su sensibilidad o
» 170
que de
pensar una
PARTE II: CAPTACIÓN
rango
dinámico
(Dynamic
Rangé),
que
dependerá
fundamentalmente
del
área
actuales:
A
total del fotodiodo. Esto igual
implica
tamaño
una
de
regla
sensor,
sencilla,
aplicable
resolución
y
a
todas
sensibilidad
las
son
tecnologías inversamente
proporcio-
nales. Esto
quiere
decir
sencillamente
que,
si
contamos
con
un
sensor
de
un
área
dada (2/3 de pulgada, por poner un ejemplo muy común en HD), sólo podremos aumentar
la
resolución
(tener
más
o
menos
megapíxeles)
sacrificando
la
calidad
de cada uno de ellos (pues resultarán fotodiodos con menor área sensible). Esta
regla,
como
veremos,
no
es
la
única
que
determina
la
calidad
de
una
cámara, pero sí resulta importante tenerla siempre presente. » Tamaño del sensor
Siempre hay un
límite para el número de píxeles
(“densidad
sensor
integración”).
de
Por
esa
razón,
por milímetro cuadrado de un el
propio
tamaño
del
sensor
nos puede dar una idea de su resolución. En tanto
televisión,
tradicionalmente
arbitrariamente)
siendo
este
último
como el
de
estándar
se 1/3
usan de
profesional
tres
pulgada, tanto
tamaños, 1/2 en
que
pulgada SD
como
se y en
denominan 2/3
de
HD.
(un
pulgada, Los
otros
se usan, por lo general, en el ámbito doméstico y el semi-pro o prosumer.
Decimos
que
generalmente sensor,
ni
es
arbitrario
abreviada siquiera
a
con su
porque dos
aquí
la
apóstrofres:
diagonal.
El
medida
inglesa
")
corresponde
origen
no está
en
los
de
“pulgada” al
tubos
(inch,
tamaño de
del
captación
analógicos de los años cincuenta (más concretamente, su diámetro).
» 171
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
El
sensor de 2/3" tiene un tamaño
aproximado
(con
posibles
pequeñas
va-
riaciones) de 9,6 mm x 6 mm, con una diagonal de un poco más de 11 mm. Es
parecido
al
tamaño
del
negativo
de 16 mm, por lo que algunas de estas
ópticas
funcionan
bien
en
cámaras
con este tamaño de sensor.
&
Muchas sistema
de
las
medidas
métrico
decimal,
que
se
sino
usan que
en
la
tienen
tecnología
origen
en
de el
los
sensores no
sistema
utilizan
"imperial"
el
anglosajón.
Una pulgada son 25,4 mm (el tamaño de un pulgar medio, al parecer). Curiosamente, 16 mm equivalen casi precisamente a 2/3", si bien tiene un origen distinto.
» Sensores Super 35 (Full Aperture, FA)
En la actualidad, 2/3" es el límite superior co.
para
Sería
trabajar posible
con
prisma
dicroi-
trabajar
con
sensores
de mayor tamaño, pero el calor generado
sería
poco
controlable,
y
ningún
fabricante ha optado por esa opción. Sin
prisma
contrarnos de
dicroico
sensores
pulgada
o
de
podemos
igualmente mayor
en-
de
2/3
tamaño.
En
este sentido, la idea es poder asemejarlos 35
al mm,
tibilizarlos mentos la
área pues con
sensible así sus
auxiliares,
profundidad
de
del
negativo
podríamos ópticas
y
de
compacomple-
pero
también
cine
tan
con
distintiva
del "look” cinematográfico. ílsr Recordemos que
el
Súper 35 mm
es
la
película
negativa
de 35 mm donde
también
se aprovecha la parte reservada al sonido en el positivo. De manera similar existe el "formato” S16 mm.
» 172
PARTE II: CAPTACIÓN
El
Súper
35
Aperture,
(S35)
FA)
o
también
de
4
se
conoce
perforaciones.
como Su
formato
tamaño
de
ventanilla
digital
en
abierta
milímetros
(Full es
de
(aproximadamente) 24 x 18.
» Sensores de fotografía (Full Frame, FF) Hasta
ahora,
pulgada
y
los
los
sensores
Súper
de
35
2/3
de
digitales
eran
la máxima calidad ofrecida por la industria.
Pero
desde
hace
muy
poco
tiempo, la irrupción de las cámaras de fotografía digital con opción de grabación en HD, nos obliga a hablar también
de
los
tamaños
dispositivos.
No
son,
de
este
en
tipo
este
de
momen-
to, una opción 100 % broadcast, pero todo apunta a que pueden llegar a serlo a medio o incluso corto plazo. En fotografía tradicional se usa el mismo ancho de negativo que en cine, 35 mm. Sin embargo, la película corre de
manera
longitudinal,
y
no
perpen-
dicular. Por eso el área sensible es el doble que
en
cine, con un área
total
en milímetros de 36 X 24. Es lo que se conoce como Full Frame (fotograma completo), FE En fotografía digital
está
amateur
presente
avanzado.
al
tamaño
del
APS,
variaciones:
(o y
en
las
más
bien
del
APS-H,
de
las
tamaños)
dependiendo
APS-C,
cámaras
Tradicionalmente,
muy
alta
cámaras
de
APS
(Advanced
fabricante,
APS-N...,
gama, foto
nos
pero
tipo
estar
se
torno
con al
o
ceñían
System).
encontrar en
profesional
reflex
Photographic
podemos
suelen
de digital
Dentro pequeñas
tamaño
de
lo que en cine conocemos como Súper 35 mm. Dentro de que el
de
tamaños, también formato
la desde en
fotografía los
ocasiones
“intermedio"
fija
digital
minúsculos
que
encontramos se
cuentan
con
desarrollado
por
también
incorporan opción
a
de
Olympus
los
una
grabación y
gran
teléfonos
Panasonic
en
variedad
móviles
(y
vídeo),
hasta
conocido
como
cuatro tercios (mayor que los 2/3, menor que el S35). Por encima del 35 mm también nos encontramos con los estándares de medio y largo formato. En digital, sólo el medio formato cuenta con soluciones comer-
» 173
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
cíales
estándares.
impresionantes,
Su
pero
gran
el
alto
tamaño flujo
proporciona
de
datos
una
que
resolución
maneja
no
y
resulta
sensibilidad práctico
para
la imagen en movimiento, por lo que no es probable que se pueda ver una solución similar a las DSRL con modo vídeo en este formato en los próximos años.
» Opción Full
Frame/S perforaciones
En
realidad,
el
usó
en
tiempo
su
Full
Frame algo
perforaciones,
hoy
al
evidentes
FA
son
novedades
que
se
en
no
desuso. y
es
similar, Las
simples:
anuncian
en
nuevo
el
ventajas el
la
en
formato doble industria
el
mundo
conocido en
cuanto
de
tamaño.
del
cine
audiovisual.
como a
En
Vistavisión
calidad
del
cine
se
de
8
o FF
Por
eso
algunas
digital
ya
hablan
frente de
de
las este
tamaño de sensor, y sin duda será la opción futura por excelencia. En este caso, habrá que recordar que los sensores FF no se manejan bien con las ópticas FA ni de 2/3. Por lo que la deriva del cine digital hacia el FF implica
» 174
PARTE II: CAPTACIÓN
también
un
nuevo
diseño
de
lentes
(o
el
aprovechamiento
de
las
tradicionales
de fotografía fija). » Tamaño del fotodiodo y rango dinámico
Se habla mucho del tamaño del sensor,
pero no tanto del tamaño de cada uno
de
ambas
los
fotodiodos
que
lo
componen.
Y
cosas
son
igual
de
importantes
a
claves
la
la hora de valorar la calidad de una cámara. El
tamaño
del
fotodiodo
tiene
que
ver
con
dos
especificaciones
en
calidad: la sensibilidad o rango dinámico, y el ruido. El
rango
dinámico
(latitud,
sensibilidad,
en
ocasiones
contraste
o
contraste
máximo) es el valor entre el mínimo y el máximo nivel; entre el valor de negro puro y el valor de blanco puro. En cine, el RD se suele medir en pasos de diafragma (stops, f stops) o latitud. Un valor tradicional del fotoquímico de 35 mm son los 11 stops es
que
una
permite.
tecnología
Si
hablamos
analógica,
este
de
sensores,
valor
se
y
dado
mide
en
que
como
decibelios.
hemos Un
indicado
ejemplo
son
los 56 dB que se exige a las cámaras de televisión profesional. Convertido a digital,
es el concepto de profundidad de bits, donde una señal
de 8 bits tendrá siempre menor RD que una de 12. Sin ser exacto, se calcula un valor aproximado de 6dB = lbit. La relación entre el tamaño del fotodiodo y el RD es sencilla: cuanto mayor sea
el
área
expuesta
a
la
luz,
más
fotones
captará y,
por
ende, más
electrones
tendrá a la salida. Explicado de una manera sencilla esto quiere decir que si mi valor mínimo es un electrón (e~), y el máximo es de 100 e~, mí RD o contraste máximo será 100:1. Pero si mi valor máximo es de 10.000 electrones, el contraste será de 10.000:1. Por esa sencilla regla física es el tamaño del fotodiodo y no el del sensor en general el que nos delimitará el RD de una imagen. El tamaño del sensor se expresa en micrones o millonésimas de metro, notado con la letra griega μ Se puede expresar en longitud (4 μm) o en área (16 μm2).
>> Ruido En la imagen electrónica el ruido es aquella parte de la información que no se corresponde con la realidad que se quiere mostrar, originada por imperfecciones de los procesos de captación. En fotoquímico, el ruido toma el nombre de "grano", y se origina por una deficiente exposición de los elementos fotosensibles o un excesivo forzado en el relevado. El origen del ruido en sistemas electrónicos tiene dos fuentes, y según cuál sea se habla de patrón fijo de ruido (fixed pattern noise) o ruido aleatorio (random noise).
» 175
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
El
ruido
controlable, sensor tes),
aleatorio azaroso.
(entre pero
es
el
Tiene
millones
también
que
que
de
tiene ver
fotodiodos
con
las
un
con
origen,
diminutos,
condiciones
como
imperfecciones de
siempre
trabajo.
su
nombre
en
la
habrá
Las
indica,
construcción algunos
altas
no del
deficien-
temperaturas,
los
cambios bruscos o incluso la humedad pueden ser fuentes de ruido aleatorio. El patrón fijo es el propio de cada sensor, de cada tecnología. En este caso, la
mayor
fuente
de
ruido
se
debe
a
una
particularidad
física
de
los
fotodiodos:
su vaciado o reseteo. Una vez que el fotodiodo se ha " llenado" de fotones, de luz, debe descargarse en
forma
descarga en
el
de no
electrones siempre
fotodiodo.
Y,
para
es lo
su
cuantificación.
completa; que
siempre
complica
aún
Sucede
queda
más
el
sin
embargo
que
algo
de
carga
asunto,
este
remanente
esta
remanente puede
variar de un fotodiodo a otro. De esta manera, al tomar una nueva muestra (otro fotograma),
el
valor
resultante
no
será
el
exacto
que
nos
mostraría
la
realidad,
lo que originará el ruido. Este hecho es el que explica que el ruido en las bajas luces (negros, sombras, shadows)
sea
más
En
señal
de
será
una
evidente baja
porcentualmente
más
en
intensidad elevado
las
herramientas
lumínica que
en
electrónicas
(pocos las
y
cámaras
fotones/electrones)
zonas
de
alta
sensores
es
de
el
digitales. ruido
intensidad
fijo
lumínica
(muchos fotones/electrones).
» Tecnología: CCD y CMOS
Básicamente,
la
tecnología
empleada
en
los
dos
CMOS. Tradicionalmente, el CCD (dispositivo de doble carga, en sus siglas en
tipos:
CCD
y
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
inglés), es el propio de las cámaras de televisión desde hace décadas, pues sustituyó
a
los
conductor)
tradicionales
es
una
tubos.
tecnología
El
que
CMOS
se
ha
(Complementary
aplicado
más
Metal-Oxide
recientemente
Semi-
al
mundo
audiovisual. Tanto si se trata de CCD como de CMOS pueden optar por máscara Bayer o por prisma dicroico para la separación de colores. Siempre mi
ha
opinión,
habido,
y
en
la
y
habrá,
de
defensores
muchos,
de
actualmente
una ambas
y
otra
se
encuentran
tecnología. a
Pero
en
par
en
la
cuanto a prestaciones se refiere. Es
necesario
conocer,
eso
sí,
su
arquitectura,
pues
las
dos
tecnologías
tienen
sus ventajas y desventajas. » Arquitectura de cada tecnología
La diferencia entre los CMOS y el CCD no son sus materiales (ambos usan el silicio como base), sino la arquitectura. En el CCD, como su nombre indica (doble carga),
la
celdilla
o
fotodiodo se
usa
tanto para
capturar
los fotones
como
para
transferir la carga de electrones generada. Una vez expuesto a la luz, un fotodiodo descarga
su
descarga
por
al
producirse
carga
de
columnas. un
vacío,
electrones El la
al
primer carga
inmediatamente fotodiodo de
inferior.
descarga
electrones
Es
decir,
en
un
bus
superior
lo
llena,
hay
intermedio,
una y,
produciéndose
un "efecto cascada" (en lo que se conoce como "intervalo vertical”). Esta
carga
se
convierte
siguientes procesadores de la señal.
» 178
entonces
en
corriente
eléctrica
y
se
transfiere
a
los
PARTE II: CAPTACIÓN
/ Arquitectura CMOS
/
1. El fotodiodo convierte
sus propios electrones en carga eléctrica 2. que los transporta
directamente 3. hasta una columna de amplificación.
En
un
CMOS,
por
el
contrario,
cada
fotodiodo
tiene
su
propia
salida,
inde-
pendiente del resto de la columna. En cada una de las celdillas no hay un solo transistor
(la
célula
propiamente
fotovoltaica),
sino
otros
dos:
uno
que
proporcio-
na la salida a la carga y otro que resetea el fotodiodo. Es la tecnología conocida como CMOS 3T (3 transistores) o simplemente CMOS. » Ventajas y desventajas
Esta
diferencia
entre
ambas
de
diseño
tecnologías
nos
puede
(señalando,
ir
una
señalando
algunas
vez
las
más,
ventajas
diferencias
y
desventajas
mínimas
entre
ellos). •
Fill
Factor.
Dado
que
el
CMOS
precisa
espacio para
otros
transistores,
a
igual tamaño de fotodiodo, el CCD tendrá un Fill Factor mayor que el CMOS. Esto significa mayor rango dinámico y menor ruido inherente. « Consumo y tamaño. Los CCD precisan de otros procesadores unidos al sensor, mientras que los CMOS no. Esto implica un menor tamaño en los segundos,
menor
pueden
resultar
consumo más
y
menor
sensibles
calentamiento.
al
ruido
En
este
aleatorio,
aspecto,
producto
de
los
CCD
ese
calor
(random noise). •
Producción. Un
único
Los
CCD
fotodiodo
son
puede
menos estropear
tolerantes el
con
los
rendimiento
errores de
toda
de una
fabricación. columna.
Por el contrario, los CMOS pueden ser operativos con más de un elemento defectuoso. Esto facilita su diseño y fabricación, abaratando el coste. •
Por la razón expuesta, el patrón fijo de ruido de un CMOS puede hacerlo más ruidoso que en un CCD. Exige un mejor filtrado, pero al mismo tiempo,
» 179
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
dado que se cuenta la información píxel a píxel, y no por columnas, el patrón fijo es más fácilmente eliminable. o ROI. El diseño de los CMOS permite el uso de regiones de interés (ROI, windowed; véase más adelante), cosa que sólo es posible en los CCD de manera menos eficiente. o Logarítmico. Dado que la salida de voltaje del CMOS es unitaria, no por columna, se considera que su respuesta dinámica es ligeramente más logarítmica que la del CCD, más lineal y uniforme. Esto podría suponer una mejor respuesta en las altas luces (pero no todos los expertos están de acuerdo en este punto). o Shutter. La arquitectura del CMOS 3T es generalmente de rolling shutter, mientras el CCD permite sin problemas el global shutter (véase más adelante). >> Shutter
En
cine
y artifacts
tradicional
el
shutter
u
obturador
es
una
de/permite el paso de la luz sobre el negativo. abertura
de
180°,
correspondiente
a
pieza
mecánica
Generalmente, Esta
que
impi-
se coloca en una
1/48
de
segundo.
abertura
es
posible
este
mecanismo
electrónica.
Con
esto
se
puede
ampliar o reducir para afinar esta exposición. la
imagen
más
En
común
el
una
vez
electrónica
uso
tomada
de
una
también
la
obturación
muestra,
el
fotodiodo
se
vacía
nos
físico,
pero
es
referimos
a
que,
electrónicamente
para
poder
tomar la siguiente muestra, quedando de nuevo los valores a cero. El
problema
surge
en
CMOS que se usan información obliga na
a
(de
de
todos
realizarlo ahí
el
la
en
la
los
descarga
fotodiodos
secuencialmente,
nombre
de
de
industria no
la
información.
es posible
del
sensor
al
por
líneas,
como
rolling).
En
caso
En
la
realizar toda mismo si
contrario,
mayoría
tiempo.
Su
bajáramos se
de
los
la descarga de arquitectura
una
colapsarían
persialos
buses
intermedios de almacenamiento de datos. La "captura de fotones + salida de electrones + reseteo” es lo que se conoce como “tiempo de integración”, común en todos los sensores.
Esto
supone
que,
CMOS
nunca
rencias
de
conocidos “burbujeo"
» 180
si
será
hablamos
microsegundos como
“distorsión
(bubble),
de
perfectamente
según
entre
imagen e
las
horizontal" hablemos,
en
movimiento,
indiscutiblemente líneas,
ocasionando
(skew),
"efecto
respectivamente,
la
captura
"progresiva". los
desajustes
gelatina" de
lo
que
de
Hay
(jelly afecta
un
dife-
(artifacts) effect) a
o una
PARTE II: CAPTACIÓN
imagen,
al
conjunto
de
ellas
en
movimiento
horizontal
o
con
una
combinación
de movimiento vertical y horizontal. Sucede cuando se mueven los objetos o la cámara.
/ Distorsión horizontal debido al rolling shutter /
» Contaminación (smear)
Los
CCD
fectamente
son
inmunes
progresivo.
"contaminación
a
Sin
lumínica”
esta
distorsión,
embargo
(smear).
están
pues
permiten
afectados
Esto sucede
por
cuando un
un lo
global
que foco
se de
shutter
per-
conoce
como
luz
muy in-
tensa se dirige directamente al sensor. La o las celdillas se cargan de electrones, desbordándose incluso, y afectando al resto de las celdillas de su columna. Aparece
entonces
en
la
imagen
una
línea
horizontal
sobre
toda
la
columna.
Este
artifacts no aparecerá nunca en un sensor CMOS.
/ Contaminación smear /
2. inunda de electrones los fotodiodos 1. Un foco de luz muy intenso...
del sensor que se desbordan y afectan toda la columna vertical.
» 181
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
» Desarrollos posteriores: IT, FIT, 4T...
Tanto la contaminación como la distorsión son defectos conocidos de estas tecnologías, por lo que se ha trabajado desde hace tiempo en su corrección. En
el
caso
de
los
CCD,
se
desarrollaron
dos
tecnologías,
conocidas
como
IT
(Interline Transfer) y FIT (Frame Interline Transfer). En la primera de ellas, junto a
cada
Esto
columna
limita
además
de
descarga
de
fotodiodos
(pero
no
evita
añadir
la
columna
equivalente
a
todo
se
habilita
totalmente) el
intermedia tamaño
otra
la
a
la
que
contaminación. de
del
descarga, sensor.
Con
se En
se
transfiere la
habilita eso
se
la
carga.
arquitectura otra
FIT,
zona
consigue
de
evitar
totalmente el smear. Como es lógico, la inclusión de una columna de almacenamiento intermedio va en detrimento del Fill Factor del CCD (y por ende, reduce su rango dinámico). En el caso de los CMOS, para evitar la distorsión se intenta la técnica conocida como global exposure / rolling shutter, donde, como su nombre indica, a
/ Corrigiendo el smear /
IT (Interline Transfer)
1. El fotodiodo transfiere sus electrones a la columna vertical de registro... 2. las cuales a su vez se descargan sobre la columna
horizontal de
registro.
IT (File Interline Transfer)
1. El fotodiodo transfiere la carga a un segundo sensor habilitado
como
zona de descarga... 2. que también descarga sobre una columna vertical de registro... 3. que finalmente descarga sobre una columna horizontal.
» 182
PARTE II: C APTAC IÓ N
pesar
de que
la
salida
sigue
siendo
secuenciada,
línea
a
línea,
la
exposición
se
realiza al mismo tiempo en cada celdilla. Esto con
se
un
puede
diseño
botella,
o
nuevo
transistor
obtener
más
bien
bien
eficiente
añadiéndole serviría
con
de
un
un
los
nuevo
como
obturador
buses
de
mecánico
salida
transistor
a
almacenamiento
(muy
que
poco
evite
cada
celdilla
temporal
de
los
(CMOS la
común),
cuellos 4T).
carga,
de Este
mientras
se realiza la descarga, evitando saturar los buses del transistor. Hay
nuevas
feccionan del
su
CCD,
tecnologías
rendimiento
siempre
en
la
(con 5
tendremos
arquitectura
CMOS
que
y hasta 6 transistores).
el
inconveniente
de
incrementan
Pero,
disminuir
y
como en
el
Fill
per-
el caso
Factor
y,
en
consecuencia, de perder sensibilidad.
Es raro encontrar una herramienta, siquiera fotográfica, con un CCD simple; normalmente son siempre ya, como mínimo, IT.
» Tecnologías equivalentes
Como
hemos
venientes. a
lo
visto,
Y
largo
plenamente
los de
tanto
el
defectos los
años.
operativas
CCD
como
asociados
con
Por el
a
esa
mismo
el su
razón, nivel
CMOS
presentan
arquitectura
se
actualmente, de
calidad.
se Y
ventajas
han
ido
e
consideran
se
incon-
solucionando tecnologías
espera
que
mejoren
píxeles
que
contiene
con el paso de los años (Live MOS, back-light CMOS, etc.). » Nativo, interpolación y rasterizado
Diremos
que
un
sensor
es
„„nativo"
cuando
el
número
de
equivale (o supera) al del número de píxeles que requiere el formato. Por canal. (por
ejemplo, Luego
canal).
terminado
sabemos que una
un En
„„nativo
chip este
tamaño
ejemplo,
tienen
señal 1.080 precisa de 1.920x1.080 píxeles por
1.080” nos
esta
deberá
tener
encontramos
cantidad
de
que
píxeles
al sólo
menos los
2.073.600 sensores
(generalmente
píxeles de
de
de-
2/3"
en
adelante). En
caso contrario, si el sensor no
fotodiodos
por
canal,
pero
nos
ofrece
es nativo, no tiene esos dos millones de una
resolución
de
1.080,
la
conclusión
es
que la cámara está rasterizando y/o interpolando la resolución. Interpolar
quiere
decir
que,
mediante
procesos
electrónicos
internos,
la
cáma-
ra “se inventa” un número de líneas que no son las que realmente le proporciona el sensor. Este
proceso
es
muy
común,
sobre
todo
en
cámaras
domésticas
y
prosumer,
pues abarata el coste. Pero en ocasiones se utiliza incluso en equipos superiores.
» 18 3
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
Por lo general, los fabricantes son reacios a hablar de la resolución "real" de sus sensores.
Y
hay
que
fiarse
de
la
“aparente",
resolución
la
que
proporciona
la
salida. La interpolación les.
Los
todo
mayores
con
objetos
malas
que
es algo negativo, si bien los resultados pueden ser funcionainconvenientes
condiciones
presenten
suelen
venir
lumínicas)
líneas
y
por
una
verticales
u
un
falta
aumento
de
del
definición
horizontales
muy
ruido
en
(sobre
planos
definidas
con
(aliasing
y/o moaré), y en general cualquier objeto que precise nitidez y detalle, como en planos generales de espacios abiertos. La
interpolación
rasterizado. una
El
relación
imagen;
es
una
rasterizado de
aspecto
mientras
la
solución
es
un
del
píxel
de
alguna
submuestreo
interpolación
diferente se
manera
que a
la
inventa
similar
utiliza
pero
de
del
considerar
“ensanchando"
1:1,
cuadrada
"muestras”.
nuevas
diferente
“truco"
el
Existen
la
cáma-
ras en las que a una resolución rasterizada se le añade, además, interpolación. >> Píxeles activos
Los
sensores
pueden
del
formato
que
sores las
se
fabrican
cámaras
cámaras mentan
de
de
sus
de
incluso Esto
manera
fotografía
digitales en
llegar
ofrecen.
fija, Si
ofrecer debe,
industrial visión
cinematografía
dispositivos.
a
se
una
con
artificial aprovechan
"sobran"
resolución
fundamentalmente,
a
a
estos
que
la
nativa sen-
medidas
estándares,
también
y
usos.
fabricantes
otros estas
algunos
superior
Los
soluciones
píxeles,
lo
que
y
las
hacen
es
para de
implehablar
de "píxeles activos" dentro del propio sensor. Este aspecto es muy común en los CMOS, pero no en los CCD (una vez más, por sus diferentes diseños). » Windowed
o región de interés (ROI)
Algunas cámaras que ofrecen pueden optar por dos opciones:
diferentes
resoluciones
de
formato
(2K,
720,
576),
• La primera, captar toda la información proveniente del sensor (por ejemplo, 2K)
y
posteriormente
realizar
una
downconversion
interna,
electrónica,
al
formato de salida (en este ejemplo 720 o 576). •
La otra opción es utilizar en la captación sólo la parte del sensor correspondiente de
a
windowed,
esta
otra
donde
resolución. se
En
desprecian
este los
caso,
píxeles
se que
habla
determinada. Sería como “recortar” el sensor para hacerlo más pequeño.
» 184
de
superan
un la
proceso resolución
PARTE II: C APTAC IÓ N
Dado
que
al
reducimos
reducir
también
el
el
número
flujo
de
de
píxeles
datos,
activos
podemos
en
en este
nuestra
región
caso aumentar
de
interés,
la
cadencia
sin producir cuellos de botella en los buses. Por eso el windowed (o Región of Interest)
se
usa
mucho para
este
fin:
aumentar
o
reducir la
cadencia
con
objeto
de realizar efectos de cámara rápida / lenta (over/ undercranking).
que tener en cuenta que si se usa un windowed, esto puede influir en la distancia focal del objetivo que se utilice. Al reducir el tamaño del sensor, hay un factor de multiplicación de la focal. » Sobremuestreo
En
oposición
al
(super-sampling,
submuestreo,
bining).
existe
Consiste
la
técnica
básicamente
en
conocida que
un
como píxel
sobremuestreo en
la
imagen
toma la información no de una única celdilla o fotodiodo, sino de dos o más. Esta técnica, todavía no existente a día de hoy en cine en
o
la
televisión,
ya
se
implementa
en
sensores
el mundo profesional del industriales
y
científicos
y
algunas cámaras fotográficas (Súper CCD o CCD-S/R de Fuji). El objetivo es
reducir
el
aliasing
y,
mucho
más
interesante,
obtener
imágenes
de
mayor
rango
dinámico (Higher Dinamic Range images). El los
sobremuestreo
próximos
es
años,
una
pues
de
las
promete
técnicas
superar
los
de
mayor
famosos
futuro
11
y
stops
recorrido
en
latitud
del
de
fotoquímico, permitiendo HDRi de 12, 14 o incluso 16 pasos de diafragma. >> Demosaico y resolución
A la hora de
de entender un sensor como nativo, es decir, con el mismo número
fotodiodos
que
píxeles
resultantes
en
la
imagen,
surge
el
problema
de
cómo
considerar los procesos de demosaico. Tradicionalmente, diferenciados, y
toma
uno
sus
tres sensores
tres
en por
el
mundo
de
canal
de
cada
valores
de
la
televisión
color
tres
RGB.
fotodiodos
se Un
trabaja píxel
claramente
con se
tres
sensores
entiende
diferenciados.
tricolor, Por
eso
de 2/3 con resolución nativa 1.920 x 1.080 (2 mpx, si se quiere)
proporcionan un fichero RGB de 6 MB. Sin
embargo,
cuando
se
usan
máscaras
Bayer
tradicionales
(GRGB),
los
foto-
diodos para el canal verde son el doble en número que los del rojo y el verde. Para reinterpretar bruto
(raw).
la La
imagen
se
forma
recurre
más
simple
al
demosaico
de
demosaico
(demosaicing) (conocida
de
como
los
datos
nearest
en
neigh-
bour, o también líneal) es tomar el valor de un píxel RGB en función del valor real
de
un
fotodiodo
en
concreto
y un
promedio de los
ocho adyacentes
(véase
página 396, abajo).
» 185
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
En el ejemplo de la figura, el valor del píxel correspondiente al fotodiodo A, en formato de 8 bits (de 0 a 255) sería: Rojo: 188 Verde: (35 + 57 + 63 + 88)/4 = 177 Azul: (115 + 56 + 87 + 121)/4 = 95 De esta manera, se consigue una triple muestra de color por cada píxel. Y por ello, de sensores con máscara Bayer de 12 mpx (4.096 px(h) x 3.100 px(v)), se pueden
conseguir
ficheros
4K con
un peso
de 36 MB
(y superiores,
dependiendo
de su profundidad de color). ¿Se
podría
considerar
nalmente,
pienso
será
submuestreo
un
el
resultado,
resultados
y
que si
visuales
un
no, o
fichero
pues
nativo
sería
interpolación.
mediante óptimos,
éste
Sin
u
habrá
con
confundir
tipo
los
embargo,
otros
que
este a
lo
procesos
considerarlo
de
demosaico?
técnicos: que
para
importa
de
demosaico
una
herramienta
Perso-
mí
siempre
al se
final
es
consiguen de
trabajo
estándar. En este caso, la profundidad de color / sensibilidad que nos pueda proporcionar el sensor es clave, pues si el sensor tiene una gran respuesta (digamos 12 bits), se puede obtener una resolución superior a 8 bits con muy buena calidad.
Este, y no otro, es el modelo que propone RED, fabricante de las cámaras Red One, Epic, Scarlet y otras, a las que atribuye altas resoluciones (4K, 5K, 6K) que no son realmente nativas. Pero otros fabricantes están siguiendo esta línea. » Otras máscaras y demosaicos
El demosaico sencillo no es el único posible. A partir de los datos en bruto del sensor (raw) se pueden usar otros sistemas de demosaico que no sean el nearest, que suele producir problemas de aliasing muy evidentes. Algunos de estos demosaicos
son
estándares
(bicubic,
bicubic
tras
otros
corresponden
a
desarrollos
de
tomar
información
de
únicamente
cuadratic,
propios los
de
lanczos,
micthell,
empresas
píxeles
y
etc.),
fabricantes.
adyacentes,
toma
en
mienEn
vez
conside-
ración también los adyacentes a éstos, aplicando luego logaritmos propietarios. Para
complicar
posible. propuesto
soluciones
diodos
sin
último
dato
que
» 186
filtro para
recomiendan
(yellow,
aún
Precisamente
GRBY).
más para
la
distintas.
(en
blanco,
mejorar algo
la
Una
el
este de
white), pero
proyectores
sistema
Bayer
GRGB
no
"sobremuestreo"
del
canal
ellas
dejar
uno
de
así
un
sistema
los
otros
es
teniendo
información
parecido,
Algunos
materia,
evitar
en
de
vez
digitales
de lo
tres.
blanco
implementan,
cada
RGBW, Hay lo
es
verde,
se
cuatro usando
incluso muestran
pues
el
así,
único han fotoeste
sistemas amarillo asegu-
PARTE II: CAPTACIÓN
ran, el
corrigen número
ciertas
de
aberraciones
muestras
azules,
cromáticas.
BRBG,
pues
Otros
incluso
hablan
de
doblar
los
sensores
actuales
son
menos
en
sensibles al color azul (a su longitud de onda) que a los otros dos. » Máscara stripped
Esas máscaras citadas (RGBW, ladas
en
algunas con
ninguna cámaras
herramienta de
igual número
cine de
BRBG, CMYW) son propuestas, todavía no instade
captación.
digital
un
fotodiodos
de
tipo los
Pero de
sí
se
máscara
tres colores,
ha
implementado
diferente en
a
bandas
la
ya
en
tradicional,
(stripped)
(véase
página 397, arriba). En
ocasiones,
tecnología otros
fabricantes)
conjunto
los
(actualmente de
los
se
píxeles
se
usada
por
puede
tres
distribuyen Sony
considerar
fotodiodos
RGB
y
diagonalmente Panavision,
nativa
si
o
como
si,
cada
sobre pero
píxel
sucede
el
no toma
en
sensor. descartable el
algunos
valor casos,
Esta en del se
realiza un sobremuestreo. La disposición de las columnas puede ser también en diagonal. » Aliasing
La
traducción
de
este
término
al
castellano
es
el
de
“solapamiento",
pero
siempre se usa el término en inglés. Se produce un efecto de aliasing cuando la información
“baila"
entre
dos
o
más
fotodiodos
anexos.
En
televisión
se
conoce
como el "efecto moaré” y también como "ruido mosquito".
» 187
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS
Afecta
fundamentalmente
a
líneas
verticales
u
horizontales
muy
definidas
y
contrastadas, cuya imagen pasa de un fotodiodo al anexo con facilidad. También en
líneas
se
considera
oblicuas,
y
aliasing en
el
general
cuadrado de los píxeles dispuestos
efecto
de
cualquier
"diente
efecto
de
cuyo
sierra" que se
produce
origen
formato
sea
el
en rejilla (común, pues, al CCD y al CMOS,
pero también en las imágenes generadas por ordenador). » Filtro anti-aliasing (AA, OLBF)
En las cámaras, para evitar este defecto o artifact, se usan medios físicos, como el
filtro
AA
(anti-aliasing),
también
conocido
como
de
paso
bajo
(Optical
Low
Band Filtei OLBF) o por software, como los filtros de demosaico ya mencionados. El filtro AA suele consistir en una fina capa de un material determinado que recubre
el
industrial
sensor. del
El
fabricante.
material Lo
en que
concreto hace
es
varía
y
suele
discriminar
las
ser
parte
“altas
del
secreto
frecuencias
de
contraste", líneas finas muy definidas; de ahí el nombre de paso bajo. La introducción
de
un
OLBF
significa,
inevitablemente,
una
pérdida
siquiera
mínima
en la “nitidez" (entendida como líneas por milímetro).
En ocasiones, y cuando no queda más remedio, se usan soluciones más burdas: una sería desenfocar ligeramente la imagen, o colocar un filtro de suavizado (soít) en la lente; y si se hace en postproducción, se aplica un efecto de suavizado (blur) a la zona afectada. Ambos sistemas, obviamente, no son muy recomendables en cuanto a calidad.
Recapitulación
• Hay dos grandes arquitecturas de sensores, CCD y CMOS. • Son equivalentes en calidad y prestaciones, si bien hay pequeñas diferencias entre ellos. •
Un sensor tiene dos variables importantes: el número de fotodiodos, que determina
su
resolución
máxima,
y
el
tamaño
de
cada
uno
determinará su rango dinámico. • Resolución y rango dinámico son inversamente proporcionales a un mismo tamaño de sensor. • La industria ofrece una amplia variedad de tamaños, desde los más grandes (Full Frame) a los más pequeños (1/3 de pulgada). • Hay otros factores importantes en la calidad, como el Fill Factor, el filtro anti-aliasing y el método de demosaico en las máscaras Bayer.
de
ellos,
que
2. Elementos diferencíadores de cada cámara
Toda
cámara
tiene
un
objetivo,
Una
vez
un
obtenida
la
información
sistema del
de
separación
sensor,
ésta
se
cromática puede
y
un
procesar
sensor.
de
muy
diversas maneras, dependiendo de cada fabricante.
La conversión analógica/digita l (A/D)
Lo
que hace el chip
se
convierten
se
ha
de
en
captador es
señal
digitalizar
eléctrica;
para
su
transformar por
la
definición,
conversión
en
luz (fotones) una
unos
señal
y
ceros,
en
electrones, que
analógica. propia
Esta del
señal
lenguaje
binario. Esta etapa es igualmente importante, pues ha de hacerse en tiempo real y con la
mayor
fiabilidad
superior
a
primero,
la
la
posible.
finalmente
precisión
de
El
cálculo
obtenida la
en
debe
efectuarse con
grabación.
codificación
de
Hay
color.
Y
dos
una
cantidad
razones
segundo,
la
de
bits
fundamentales: discriminación
del ruido inherente a toda señal. Por ejemplo, si queremos obtener una señal de 8 bits por canal, es necesario contar con una etapa de 10 bits, y será excelente si la etapa es de 12 bits o superior. Actualmente, el límite tecnológico está en los 14. Esto nos puede proporcionar una señal de hasta 12 bits de profundidad de color, pero para algunos técnicos es una señal un tanto “sucia”, con exceso de ruido. Se espera que con el desarrollo completo de etapas de 16 bits o superiores y el aumento de sensibilidad de los sensores, estos problemas desaparezcan. Una vez digitalizada la señal, lo que tenemos es un valor en bits de cada uno de los fotodiodos, y es lo que se conoce como fichero RAW (del inglés raw, crudo o en bruto).
» 189
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
» ISO y ganancia
Tanto
en
sensor.
la
tecnología
Recordemos:
del
CMOS
como
sensor
sólo
CCD, sale
la
una
etapa
A/D
corriente
es
independiente
eléctrica.
Pero
esa
del señal,
muy débil, se amplifica para su lectura. Una
característica
propia
del
mundo
de
la
fotografía
digital
son
los
valores
ISO, que no se usan en el mundo audiovisual, donde sí es común el valor de "ganancia”.
Los
ISO
recogen
la
tradición
de
los
carretes
de
negativo
fotoquímico
(valores ASA o ISO, que se expresan en múltiplos de 100,200,400, etc.), mientras que la ganancia lo hace en decibelios (-3 dB, 0 dB, 3 dB, 6 dB, etc.).
Cada valor de ISO correspondería a un stop o paso de diafragma. En el caso de las ganancias, menos estandarizadas, no siempre se correspondería el valor ya citado de 6 dB = 1 stops. El
ISO
(y la
ganancia) depende
de esta amplificación. Una amplificación
“están
dar" sería un valor 100 de ISO. Doblando la señal, se dobla el valor de ISO a 200, y
así
sucesivamente.
amplificamos
el
Sucede
ruido
sin
inherente
embargo y,
que
asimismo,
al
amplificar
estrechamos
el
la
señal rango
también dinámico
(pues los valores altos no se pueden amplificar indefinidamente).
También
hay
que
señalar
la
diferencia
entre
ganancia nativa) y “no nativa”. Nativa sería
en
la
amplificación
“nativa"
(ISO
o
el caso de que hablemos de la
amplificación de la señal analógica previa a la etapa A/D. Y “no nativa" cuando esta
amplificación
del
vídeo,
» 190
se
después
realiza de
después
masterizada).
de Es
cuantificada importante
digitalmente subrayar
(o, esto
en
el
porque
caso por
PARTE II: CAPTACIÓN
lo
general
la
“nativa"
amplificación
es
de
mejor
calidad
que
la
amplificación
realizada sobre el fichero ya cuantificado. Lamentablemente, ficaciones
si
la
sus
mayor
valores
parte
del
ISO/ganancias
equipamiento son
nativos
no o
aclara
no.
en
En
sus
especi-
ocasiones,
incluso,
algunos de ellos (100, 400, 800, por ejemplo) lo son, pero otros intermedios (200, 600, 1.600... ) no lo son. Sólo un correcto análisis de las imágenes puede ayudar a conocer la idoneidad de estos valores. Señalar rrección
también
de
que
niveles
irreversiblemente
un
en
ISO
o
ganancia
postproducción.
grabado
en
el
Pero
fichero,
no
nativa
si
lo
cosa
equivaldría
hacemos
que
no
a
en
sucede
una
co-
cámara,
cuando
queda
trabajamos
en postproducción no lineal, donde cualquier proceso siempre es reversible. » Límites
Los
valores
rizadas un
a
ISO
los
que
ofrecen
valores
fotómetro
ISO
profesional,
algunas
cámaras
tradicionales
por ejemplo.
(sí
“aproximaciones”
son
estandarizados)
La
terminología
es
no
estanda-
que
nos
puede
sólo
una
ayuda,
ofrecer y
es
conveniente examinar los equipos previamente para ver la correlación real. En
fotografía
digital,
actualmente
altos
sin
que
llegue
ayudan
los
procesadores
mente eso como
se
discriminadores
racterística
aleatoria
apreciable
en
dente.
tampoco
Y
y de
las
los
pueden
"apreciar"
el
A/D
diseñados
para
eliminadores
del
distribución
imágenes
se
a
en
filtrados
del
alcanzar
valores
aumento
de
ello,
ISO
ruido
que
funcionan
ruido.
Sin
embargo,
por
la
ruido,
éste
siempre
será
más
movimiento,
pues
pueden
tan
ser
"baila" efectivos
relativa-
generado.
de
propia
manera
como
ca-
visible más
en
A
también
la
y
evi-
fotografía
fija, pues se maneja un número de bits por segundo enormemente más elevado. Por uso y
las
de
razones
ISO
fotodiodos
o
expuestas
ganancias
más
(aumento
no
grandes,
la
es
de
muy
ganancia
ruido
y
estrechamiento
recomendable.
No
obstante,
ISO
ser
más
puede
del con
efectiva
RD),
el
sensores que
en
convertida
en
número
de
fotodiodos más pequeños, pues el nivel de ruido inherente es también menor. » Matrización
Tras
la
una
sucesión
píxeles repetirse
etapa o
A/D de
muestras tantas
ya
unos con
veces
tenemos y
ceros su
por
“digitalizada que
característico segundo
la
realidad",
corresponde como
detalle
a y
determine
un
es
decir,
determinado
precisión. la
Este
cadencia
proceso que
debe
hayamos
elegido (24, 25, 30...) para tener una imagen en movimiento en nuestro cerebro.
» 191
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
A partir de este momento, podemos tomar dos opciones: • Trabajar con los datos en bruto (raw) • Matrizar la señal "Matrizar” algo
la
señal
es
básicamente
convertir
la
sucesión
de
unos
y
ceros
en
entendible por nuestro monitor y el resto de herramientas de la cadena de
producción.
Esto
es
lo
que
convierte
verdaderamente
los
unos
y
los
ceros
en
una señal HDTY asignando a cada valor obtenido en el sensor un punto exacto en la imagen. Es decir: que tal valor obtenido por el sensor en un determinado momento corresponderá a la información del píxel situado en la fila X y la columna
Y del
fotograma
correspondientes do
y
de
color
armonizado
y
o campo dentro
Z de nuestra imagen y tendrá unos
de
entendible
su
por
gama.
todas
Todo
las
correctamente
herramientas
valores
sincroniza-
estándares
(véase
página 397, abajo). El
otro
proceso
importante
de
la
matrización
es
determinar
el
espacio
de
color. También es en esta etapa donde optamos por trabajar en RGB o en YUV Como se observa en la figura, de todo el espectro de colores visibles por el ojo humano,
la
narlos
todos
(RGB,
por
tecnología sería
digital
selecciona
casi imposible.
ejemplo)
para
que
un
Esta
el
resto
rango
determinado,
parametrización de
equipamiento
debe lo
pues ser
seleccio-
estandarizada
interprete
igual.
Es
decir, el valor que corresponde al rojo absoluto, al blanco o al negro debe ser igual en todas las herramientas. Este
espacio
debe
ser
compartido
por
nuestra
cámara,
por
el
fichero
grabado
y por el monitor, para que la información (unos y ceros, recordemos) sea no sólo reconocible sino inalterada: que el rojo que hemos visto en cámara sea el mismo rojo que nos muestra el monitor. Evidentemente, el ideal de representación fidedigna no siempre es posible, pues tanto los monitores como las cámaras alterarán la representación: no son herramientas perfectas, y presentan diferencias, siquiera mínimas, incluso entre dos dispositivos de la misma marca y modelo. Para ello, es necesario calibrarlos. Una cámara o un monitor descalibrado es una fuente segura de errores.
» Correcciones de gama
Una la
de
las
características
matrización
podemos
"tocar”
es
un
de
proceso
algunos
de
las
cámaras
estándar sus
y,
digitales
modernas
generalmente,
parámetros
para
es
automático,
obtener
algunos
fotografía. Es lo que se conoce como “corrección de gama” o “curvas de gama".
» 192
que, hoy
si
bien
en
día
efectos
de
PARTE II: CAPTACIÓN
No en
todas
las
por
las
cámaras
defecto
cámaras high
end
tienen
estas
o
alta
de
(del
tipo
son
seleccionables
aparatos),
y
cámaras.
Pero
el
"cinelook
operador
I, sin
opciones, gama.
cinelook más
II..."
a
través
experimentado
pero
suelen
Algunas
de
que
se
de
también
incluirse
estas
los
encuentran menús
puede
por
correcciones en
internos
adentrarse
defecto vienen algunos de
las
más
en
esos menús y producir sus propias "curvas” personalizadas. No se debe confundir este proceso con el trabajo logarítmico (véase el anexo). Una
corrección
blecidos,
de
sino
gama
que
nunca
variará
las
saldrá
de
los
relaciones
de
colores
estándares y
internacionales
contrastes
siempre
estadentro
de estos límites. » Utilidad del manejo de gamas / Riqueza en tonos medios /
Las
curvas
de
gama
son
útiles
para
"estirar" algo las posibilidades de trabajo de los equipos digitales. Se suelen utilizar con tres motivos: •
Generalmente, intentar ganar contraste y riqueza de detalles en las partes “clave” de la imagen (sean altas,
medias
o bajas,
según
in-
terese). •
Compensar
unas
condiciones
de
rodaje especialmente exigentes. •
Variar la temperatura de color o las
dominantes
cromáticas
de
una
escena. » Riqueza en tonos medios
Un uso muy común en las correcciones de gama es el de reforzar los “tonos medios” de la imagen. Los
tonos
neralmente
a
medios la
corresponden
abertura
del
ge-
diafrag-
ma según la lectura del fotómetro, y es donde
se
suele
situar
la
información
“relevante” de la imagen. Por ejemplo, el rostro del protagonista.
» 193
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
Una vez más, hay que contar con la particularidad de que el ojo humano es más
sensible
quiere
al
decir
contraste
en
sencillamente
las
zonas
que
medias
podemos
que
apreciar
en
las
las
altas
o
diferentes
bajas.
Esto
tonalidades
de
una piel (si es morena o clara, si se ha ruborizado, si ha tomado el sol) mejor que
las
diferencias
entre
gamas
de
blancos
de
una
nube o,
mejor
aún,
que
las
sutilezas de una zona sombreada o en oscuridad. “Tocando"
la
curva
de
respuesta
de
la
matriz
podemos
aumentar
los
niveles
de detalle y contraste en estas zonas medias, pero con la condición de perderlos, comprimiéndolos, en las otras zonas. Más
detenidamente,
se
puede
diseñar
una
curva
que
pueda
subir
los
medios,
comprimir los bajos pero mantener los altos. Las posibilidades son infinitas. La nes
terminología
en
los
aparecen o
como
se
knee.
variar llaman
master,
simplemente
terminologías,
puede
medios
lift
o
En
dependiendo
en
cada
midtones, pedestal:
equipos del
cámara. grey
los
de
Generalmente,
o
simplemente
altos
como
postproducción
fabricante.
Pero
siempre
los
bajos
white
knee
se
nos
correccio-
gain,
whites,
también
las
gamma’, usan
diferentes
referiremos
a
las
zonas bajas, medias o altas. » Situaciones extremas de rodaje
Hay ocasiones en que se dan unas condiciones de rodaje extremas: un desierto a las doce del mediodía, un exterior de noche iluminado con farolas o un día soleado en el polo norte..., o cualquier otra situación donde las diferencias de contraste sean muy grandes o muy críticas. En ese caso nos puede interesar corregir la curva de respuesta en la matriz para intentar suavizar y armonizar nuestra imagen. El de
caso
knee",
conseguimos falta
de
más que
común suele
evitar latitud,
es
del
incluso
“apretar
tener
su
los "cielos
blancos." o
consiguiendo
mantener
los
blancos"
propio
quemados cierta
con
“preset”
en
la
tan típicos
riqueza
llamada
el
“corrección
menú.
Con
del vídeo
cromática
en
las
esto
por
su
zonas
altas que luego podemos trabajar en postproducción. » Trabajo con el color
El tercer caso más común es variar la colorimetría. En los ajustes de la matriz podemos
trabajar
individualmente
cada
canal,
por
lo
que
podemos,
por
ejemplo,
intensificar un poco el canal rojo para dar una apariencia más "cálida” a nuestra imagen.
También
tener una
para
evitar
la
fuente no controlable.
dominancia Un
de
un
caso típico es
determinado el
color
toldo verde
de
que
puede
la
terraza
de un bar en un día soleado: bajando un poco la matriz verde, evitamos que los rostros de las personas adquieran esa tonalidad.
» 194
PARTE II: CAPTACIÓN
Realmente con
eso lo que hacemos es variar la
"temperatura de color" de la
cámara sin recurrir al balance de blancos. » Irreversibilidad
Hay que tener mos
en
esta
en etapa
cuenta es
una
cosa: cualquier
irreversible.
Si
cambio
variamos
la
o corrección
dominante
roja
que apliquede
una
toma,
por ejemplo, esta variación quedará unida a la señal y será la base de todo el trabajo posterior. Por
esta
razón,
internos
y
dejar
ducción.
Pero
el
otros,
muchos resto sin
operadores de
prefieren
correcciones
embargo,
quizá
para por
trabajar el
su
poco
trabajo
con
posterior
experiencia
los en
profesional,
menús postproprefieren
llegar a la posproducción con la imagen lo más semejante posible a lo que será el resultado final. Ambas implicados
opciones, sean
por
descontado,
conscientes
de
que
son las
válidas,
siempre
correcciones
en
la
y
cuando
matriz,
las
todos
los
ganancias
y otros circuitos internos alteran irreversiblemente la señal obtenida. >> Grabación de datos RAW
La otra opción de trabajo es guardar sin más o con alguna compresión los unos y ceros obtenidos desde el sensor tras su etapa A/D.
» 195
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
Esta
técnica
muchos alta
años
gama,
graban
es
de
idéntica
a
adelanto.
sobre
todo
directamente
Este
en
en
la
fotografía sistema
aquellas
algún
tipo
fija,
se
donde
empieza
el
a
trabajo
en
RAW
en
cámaras
de
decir,
que
aplicar
ya
sin
cinta,
es
(disco
duro,
que
pueden
trabajar
de
soporte
informático
lleva
tarjetas,
memorias sólidas, conexiones informáticas en un ordenador, etc.). El lo
trabajo
en
realizaremos
zacíón
es
RAW
a
necesaria
optamos
por
cámara.
Y
para
hacer nos
no
implica
posteriori, este
en la
la
ofrecer
matrización,
postproducción.
estandarización
trabajo
puede
obviar
la
delante la
de
del
Ya la
señal.
de
que
visto
este que
En
RAW
en
vez
de
trabajar
con
otros
ordenador
posibilidad
sino
hemos
proceso
la
matri-
simplemente
dentro
de
la
espacios
de
color diferentes a los de la HDTV como el XYZ propio del entorno DCI (Digital Cinema Initiatives). Al
igual
que
lo
que
apuntamos
antes,
ambas
opciones
son
siempre
válidas,
siempre que se sea consciente de lo que se está haciendo.
» Ventajas RAW Para los defensores del RAW, su principal ventaja es que este tipo de decisiones clave
se
pueden
tranquilo
lejos
finos
calibrados.
y
tomar
del
en
estrés Y,
una
de
sobre
sala
un todo,
de
montaje,
rodaje.
Los
trabajamos
en
ajustes,
con
un
ambiente
además,
todas las
relajado
podrán
ser
posibilidades
y más
que nos
ofrece el sensor, sin el recorte inevitable que supone la etapa de matriz, o el paso a un formato de 8 bits. También CineForm
se y
señala
otros)
que
la
más
“limpia",
es
compresión
del
genera
RAW
menos
(en ruido,
códecs que
como
la
Redcode,
compresión
de
una señal matrizada. Lo ideal en este caso sería trabajar; como en fotografía digital, con ficheros RAW sin comprimir. Pero dado el enorme flujo de datos que se genera, resulta poco más o menos que impracticable en situaciones de rodaje real. No obstante, es posible y así sucede en algunos equipamientos de visión artificial, y si la miniaturización de las tecnologías sigue avanzando, su implementación en cine y televisión podría no estar lejos.
» Desventajas RAW Sin
embargo,
hay
también
algunas
desventajas.
La
principal
es
que
la
señal
RAW no se puede monitorizar. Al no estar matrizada, no se puede conectar a un monitor por
para
una
matrizadas,
» 196
visualizarla.
matriz, e
siquiera
incluso
Es
necesario,
temporal,
tienen
ya
el
como
para ajuste
poder de
hemos
visto,
visionarios. temperatura
pasar
los
Estas
salidas
de
color
datos u
sí
otros
RAW están que
PARTE II: CAPTACIÓN
hayamos
seleccionado,
cosa
que
los
datos
RAW
no
tienen.
No
es,
pues,
fiable
al 100%, ni para temas de color ni de contraste. Sí lo es, por contra, para el encuadre y para el foco. » Reversibilidad
Los
ajustes
fichero
de
como
monitorización
metadatos,
softwares
licenciados
volver
retocar
a
y
ser
todo
ajustes
propios
del
color...).
Lo
no
que
no
que
lo
alteran
pueden
mostrados que
en
podríamos
original.
pantalla.
en
el
(nitidez,
recuperar
RAW
interpretados la
deseemos
'„matrizado”
el
ser
Pero
fichero
un
ISO
incorporan
incluso
original
contraste,
es
Se
automáticamente
o
así,
para
saturación,
por
podemos
resetear
temperatura
ganancia
nativa,
al los los de
pues
ya
vimos que era una etapa previa a la digitalización. Si el ISO o ganancia no es nativa, sí se puede recuperar, pues como hemos visto es posterior a la etapa A/D y, por tanto, posterior al flujo RAW. También la cámara puede originar al mismo tiempo que el fichero RAW otros matrizados, una
rápida
referenciados
o
de
menor
visualización
o
un
premontaje
resolución en
(proxies,
un
espejos),
ordenador
de
que
permitan
rodaje,
sin
que
por
esta
sea necesario procesar el RAW original. » Tiempo real
Al
formato
RAW
se
le
característica.
Igual
que
ha
el
llamado
digital”
"negativo
fotoquímico,
es
necesario
precisamente
"revelarlo
y
positivarlo”,
procesarlo en definitiva, para poder trabajar con él. Por
lo
general,
los
operadores
provenientes
del
campo
de
la
cinematografía
se sienten a gusto con el workflow o flujo de trabajo RAW. Se asocia el disco duro o la tarjeta de memoria donde se almacenan los datos al “chasis” de 35 mm donde va el negativo. Cuando la memoria se llena, se cambia el “chasis”. Por flujo
el de
contrario, trabajo
los
un
operadores
tanto
provenientes
engorroso,
de
acostumbrados
nitorizar la señal original, con la certeza
la
televisión
como
encuentran
están
a
este
poder
mo-
de que lo que ven en el monitor es
exactamente lo que se almacena en el archivo. Por No
descontado,
existe
tiempo, conectar
por
incluirse a
una
el
ahora en mesa
trabajo una
una de
RAW
cámara cadena edición
con de
es
específico
grabación producción
RAW
o
una
en
del
mundo
RAW
televisiva unidad
que
estándar móvil
cinematográfico.
pueda, (no
RAW
al
mismo
se
puede
como
otra
puramente HDTV).
» 197
2. ELEMENTOS DIFERENCIADORES EN CADA CAMARA
Almacenamient o y salidas
>> Camascopios
Aunque
se
asocia
regularmente
macenamiento,
no
grabación.
unión
La
todas
el
las
de
concepto
cámaras
una
“cámara"
de
incorporan
cámara
y
un
a
la
captación
necesariamente
magnetoscopio
se
y
al-
un
sistema
conoce
como
"ca-
de
se
habla
mascopio”
(camcorder
de
siglas de Electronic News Gathering, o recolección electrónica de noti-
ENG,
en
inglés;
en
los
equipos
de
televisión
también
cias). Hoy en día muchas cámaras no contemplan el magnetoscopio (con cinta), sino
soportes
de
grabación
rígidos
(discos
duros
o
tarjetas).
“camascopios
Serían
no lineales", pero el término “camascopio” sigue usándose indistintamente. Tanto su
las
vez
salidas
también entrada al
cámaras
para y
la
salida
camascopio.
simples
que
permiten
como usar
monitorización. (I/O), Por
es
mayoría
de
los
almacenamiento
En
decir,
descontado,
la
algunos
que estas
salidas
externo.
dispositivos,
admitirían
camascopios
la
Estas
estas
grabación
están
incorporan salidas
interfaces de
señales
estandarizadas
dentro
a
sirven son
de
externas de
la
normativa HDTV para asegurar la compatibilidad entre todas las herramientas. » Compresión interna en el camascopio
Casi Los
sin
excepciones,
sistemas
portátiles
un
camascopio
actuales
de
grabará
la
almacenamiento,
señal
de
sean
con
manera cinta
o
comprimida. no
linea-
les, no permiten la grabación sin compresión. Pero no se descarta para un futuro próximo en entornos IT.
» 198
PARTE II: CAPTACIÓN
Se habla de “entorno IT” cuando todo el proceso se hace en digital y sin cinta (no lineal).
El HDCAM SR es una solución portátil de Sony que permite la grabación 1.080p 4:4:4
con
falta
de
una
compresión
compresión.
mínima
Éste
se
2:1,
que
puede
se
considera
considerar
el
de
similar
calidad
magnetoscopio
de
a
más
la alta
calidad de grabación. Panasonic bién
la
cuenta
grabación
con
un
sin
compresión
magnetoscopio en
no
portátil,
determinadas
el
D5,
que
cadencias
ofrece
y
tam-
formatos.
Pero
no está incorporado a ningún equipo de camascopio. Las cámaras de la casa Red son capaces de grabar la señal RAW, pero tras una
compresión
los
sistemas
previa, de
pues
el
flujo
almacenamiento
de
datos
rígidos
es
(Compact
todavía Flash,
demasiado en
su
alto
para
caso).
Otros
fabricantes proponen soluciones para grabar RAW sin comprimir. » Tipos de compresión
Como
ya
hemos
explicado,
las
compresiones
no
son
estándares.
Cada
fabricante
presenta sus propias soluciones, y es libre de ofrecer o no los códigos al resto de la industria. Con
la
planteaba
introducción
muchos
de
la
problemas,
grabación
por
lo
no
que
se
lineal, ha
este
problema
intentado
de
establecer
patentes
un
criterio
común, que llamamos MXE Media eXchange File no es un códec sino un “pro tocolo
empaquetamiento‟‟
de
(cámaras, bución) licencias
informático
equipos
de
grabación
entiendan
la
información
pertinentes,
trabajen
IT,
editores
contenida
con
que
los
no en
permite
que
lineales,
postproducción
el
códecs
fichero
y,
nativamente.
diferentes si
equipos y
distri-
disponen
Incluso,
la
de
las
extensión
del MXF ha abierto además estos códecs, y la mayoría de los fabricantes optan por
una
política
de
códecs
abiertos,
no
propietarios,
empaquetados
con
formato
MXE No obstante, algunos códecs siguen siendo propios de determinados equipos, plataformas (MAC, Windows) o fabricantes. Será tema para el siguiente capítulo. >> Grabación externa sin compresión
La otra opción, que se usa con cierta frecuencia en producciones de alta calidad, es
usar
algún Se
las sistema
gana
en
salidas
de
externo calidad,
las
cámaras
(generalmente,
pero
se
pierde
para
almacenar
ordenadores en
operatividad,
la con
señal
sin
potentes
puesto
que
compresión discos conlleva
en
duros). el
uso
de cableado y un espacio propio para los sistemas de almacenamiento. Es una solución muy usada en rodajes digitales en plato.
» 199
7 2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
» Cadena HDTV / DC
La
etapa
de
matriz
es
básica
en
la
cadena
de
producción
de
televisión
debido
a que las emisiones en directo lo requieren. Por esta razón, lo más usual es que todas
las
cámaras
digitales
ofrezcan
señales
estándares
HDTV
de
1.080
o
720.
Esto descarta las resoluciones superiores (2K, 4K), que, al no provenir del ámbito televisivo, no tienen salidas estandarizadas. Esto no quiere decir que el 2K o el 4K siempre trabajen en RAW. La información se puede matrizar y guardar, por ejemplo, como secuencias de ficheros dpx o tiff, con
un
espacio de color
diferente al
televisivo (SuperRGB,
Adobe,
Apple o,
más
corrientemente, XYZ, que es el específico del DCI). Pero también una señal 2K/4K se
puede
en
este
grabar caso,
como
ambas
un
formato
soluciones
de
vídeo
SIEMPRE
(quick
se
time,
grabarán
windows
media...).
formato
no
en
Pero
lineal,
sin
cinta. La razón es que todos los magnetoscopios que se fabrican en la actualidad están estandarizados a una señal HDTV y no existen magnetos ni 2K ni 4K. » Tipos de salidas
Una cámara I/O):
tendrá,
por
lo
general,
todas
o
algunas
de
estas
salidas
(interfaces
• Analógicas, para la compatibilidad de equipamiento de este tipo, principalmente monitores. • Digitales para monitorización y captura en equipamientos digitales. • Informáticas para el traspase puro de datos y/o la captura de las imágenes. Para cualquiera de las dos primeras es necesario que la cámara pase por la etapa matriz. Para la segunda, puede hacerlo o no. El
tema
de
(véase
el
salida
como
proporciona
anexo
las
salidas,
identificación una
su
cableado
correspondiente), salida
del
pues
formato.
HD-SDi,
e es Por
deducimos
identificación muy
común
ejemplo, que
se
si
trata
merece usar
el
un
anexo
aparte
nombre
de
decimos
que
cámara
de
señal
una
la
1.080
la o
720, interlazada, YUV y con una cadencia estandarizada; si se ofrece salida Dual Link, entendemos que es una señal RGB. >> Downconversion SDi
Internamente,
muchas
cámaras
pueden
convertir
la
señal
HDTV
en
una
SDTV
que se suele sacar por la misma conexión y el mismo cable (pues la interface es la misma). Esto permite visualizar la señal en un monitor SD (por ahora, mucho más baratos que los HD) o realizar una captura offline (a baja resolución). Esta
» 200
PARTE II: CAPTACIÓN
opción nús
suele
ser
accesible
internos
de
las
general
dan
también
por
los me-
cámaras,
que
las
opciones
tres
en
de salida de 16/9 a 4/3: recorte (crop), viñeteado
con
bandas
(letterbox)
o
re-
en
la
escalado anamórfico (resize). Volveremos
sobre
este
tema
parte de postproducción. » 800 mbs, 3 gbs
800 mbs es el flujo estándar del HDTY el
que
porta
la
señal
sin
comprimir
HDTV 8 bits 4:2:2. 3 gbs es el bitrate que se empieza a señalar como el futuro estándar de conexiones para la HDTV Este flujo permitiría
trabajar
siempre
con
señales
sin comprimir de 2K y 1.080 4:4:4 y hasta
60p
(cuadros
progresivos),
con
sonido de alta calidad. La
coincidencia
aquí
de
la
informática
es
el
mínimo
con
el mundo
total,
exigible
a
pues
las
esta
cifra
conexiones
también
internas
empieza
(discos,
a
extenderse
procesador,
como
periféricos,
tarjeta de vídeo, etc.), que actualmente es de 1,5 gbs. Es
un
dato
informático
puro,
pero
es
necesario
tenerlo
en
cuenta
en
todo
momento para nuestro posterior trabajo no lineal. » Uso de conexiones informáticas
Además
de
las
salidas
informático
(firewire,
que
como
sirven
estandarizadas,
usb...).
simples
Esta
muchas
clase
"tubos‟‟
de
de
cámaras
salidas
transmisión
no entre
ofrecen ofrecen los
salidas un
datos
de
tipo
estándar,
sino
digitales
de
la
cámara (en cinta o no) y el disco duro donde realizaremos el montaje. Esto HDV
significa usando
una
que
si
salida
nuestra
cámara
tradicional
graba,
HD.SDi
por
ejemplo,
obtendremos,
con
previa
el
formato
descompresión
interna de la cámara y upconversion, 1.080 4:2:2 8 bits a 800 mbs; pero si usamos la
conexión
IEEE1394
(también
conocida
como
firewire)
lo
que
obtendremos
son
los datos puros de HDV a 25 mbs (que se pueden almacenar tal cual en ficheros con extensión ,m2t).
» 201
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
/ Salidas HDV /
Lógicamente, la opción propuesta de salida HD.SDi no mejora la calidad ya almacenada y previamente comprimida existente en la cinta HDV Por eso, ambas opciones son equiparables. El caso sería distinto si usáramos esa salida en el momento de la captación, sin el paso por la compresión de la cinta o el disco. En ese caso, la salida HD.SDi nos ofrecería una calidad superior. >> Captura, importación, log
La
salida
IEEE
1394,
en
& transfer, FAM...
concreto,
puede
ser
reconocida
por
la
mayoría
de
los
editores no lineales (ENL o NLE, en inglés) como una entrada de datos de vídeo para
realizar
una
captura,
como
si
se
tratara
de
otra
conexión
digital
"estándar".
Reconoce generalmente los ficheros DV HDV, DVPRO HD y algún otro. En este caso, la posible upconversion la realiza el ENL, no la cámara. Una
conexión
informática
también
se
puede
usar
para
el
traspase
de
datos.
En ese caso, el ordenador reconoce la cámara (o el soporte donde se grabaron los datos)
como
estructura sistema
un
de
disco
externo
archivos
operativo
y
con
más,
carpetas.
las
pudiéndose acceder
La
transferencia
herramientas
de
copiar
a
se y
los
realiza pegar
clips
por
entonces
(el
la
usual
dentro
popular
del
copypaste).
En este caso, en vez de una captura, estaríamos ante una "importación” de datos en el ENL. En
algunas
cámaras,
se
usa
una
salida
(firewire,
generalmente)
para
la
opción
de captura y otra (usb) para el tranfer de datos, previa selección en el menú de la
opción
File
Acces
Mode,
FAM,
o
una
terminología
similar
(depende,
una
vez
más, de las marcas y modelos). Un último desarrollo, muy interesante, es la función log & transfer (el nombre puede
variar
“identificación función u
otros
en y
permite
las
diferentes
transferencia", previsualizar
metadatos
e
marcas y
los
incluso
es
ENL).
Traducido,
en
todos
de
audio
y
clips
seleccionar,
partes del clip que importaremos a nuestro ENL.
» 202
de
común
con
sería
aquellos vídeo,
puntos
de
algo
ficheros
cambiarles entrada
así
como
MXE
Esta
los y
nombres
salida,
las
PARTE II: CAPTACIÓN
Finalmente, fectamente
hay
el
una
fichero
última
opción,
almacenado
y
que
es
podamos
tiempo sin necesidad de importación
o
log
que
nuestro
pasarlo
ENL
reconozca
directamente
& transfer.
Sería
a
la
per-
línea
una solución
de
Direct
to Edit, directa a la edición. Trataremos
más
ampliamente
estas
opciones
en
la
parte
dedicada
a
la
post-
producción. » Salida HDMI
High
Deffition
Multimedia
principalmente
en
nición
todas
entre
el
Interface
consumidor las
es
un
final.
herramientas
desarrollo
Permite
la
domésticas
de
la
industria
interconexión
de
alta
en
pensado
alta
definición:
defi-
televisores,
handycam, reproductores BlueRay, consolas de videojuegos, receptores de TDT, etc. La
conexión
en
sí
es
incluso
con
resoluciones
nientes
son
el
precio
excelente,
de del
con
un
alto
flujo
de
datos
sin
comprimir,
2K
3D
estereoscópicas
y
superiores.
Los
inconve-
cable,
su
mala
de
conexión
(con
conectores
interface
muy frágiles y sin ligazón de seguridad para evitar su desconexión fortuita y/o su desgaste)
y
lo
limitado
de
su
máxima
longitud
sin
pérdida
(actualmente,
sobre
los cinco metros). No de
la
obstante, gama
se
ve
prosumer.
de
manera
Incluso,
habitual
los
en
fabricantes
muchas
cámaras
de
tarjetas
una
protección
domésticas
capturadoras
ya
y han
implementado soluciones de captura. Las
conexiones
HDMI
pueden
incluir,
o
no,
anticopia
conocida
como HDCE En ese caso, se permite el visionado pero no la copia. » Conexiones Ethernet
Las
conexiones
firewire
y
usb,
muy
comunes,
están
limitadas
por
su
escaso
ancho de banda, 400 mbs. En algunas cámaras HR y otras de visión artificial se implementan la
salidas
transmisión
de
aún muy
más altos
rápidas, flujos
de
de
tipo
datos,
Ethernet incluso
o
de
Giganet.
Esto
señales
HD
o
equipos
o
permite 2K
sin
comprimir. » Memorias búfer
En de
ocasiones, elevada
sobre
cadencia,
todo el
en
flujo
cámaras de
datos
de
alta
resultante
resolución puede
superar
la
especiales
capacidad
de
transmisión de las salidas . Suele pasar en sistemas 4K sin comprimir (8 gbs o superior) o en cámaras de alta velocidad (500, 1.000 o más imágenes por segundo).
» 203
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA
En estos casos y en general en todos aquellos limitados por el flujo máximo de la
salida,
se
recurre
al
uso
de
memorias
internas
de
almacenamiento
temporal,
conocidas también por el anglicismo “búfer" (buffer). La alta
información velocidad
procedente
en
el
del
momento
sensor
de
la
se
almacena
grabación
en
para
estas
memorias
posteriormente
de
descargarse,
ya no en tiempo real, a otro dispositivo de almacenamiento. La
mayor
entre y
los
4
y
complejas,
pero
más
medio de
limitación los
pues
32
rápido
memorias
Mayores
memorias
que
novedades
acceso
estas
GB.
estas
voluminosas
plazo,
de
las llegar
su
capacidades
son
del
tipo
tarjetas
SD
u
informáticas
pueden
es
a
esperadas
capacidad,
implican RAM,
otro en
implementarse
muy
de
más
estar grandes
rápido
acceso,
memoria
flash.
de
las
memorias
de
captación
mundo
en
suele
cámaras
de
tipo el
que
equipamientos
A
como solución de grabación no temporal sino permanente. Dependiendo de
imágenes
del de
flujo
alta
de
datos,
cadencia
permiten
hasta
dos
o
grabar tres
desde
unos
minutos
de
pocos
señales
segundos 2K
RGB
12 bits a 24 fps. Son
soluciones
claramente
pensadas
para
el
cine
digital,
pues
no
permiten
un trabajo en tiempo real. En el mundo de la televisión se aplican a cámaras de alta en
velocidad,
muy
comunes
en
eventos
deportivos
y
que
nunca
se
“pinchan"
directo, sino que se utilizan en las repeticiones de las jugadas (una vez que
se haya descargado la información a un magnetoscopio). » Grabación no lineal: soluciones de estado rígido
Cuando no grabamos en cinta, estamos en un entorno IT con grabación en formatos
rígidos.
Éstos
suelen
ser
soluciones
estándares
de
la
industria
informática,
como discos duros externos, adaptados al rodaje con batería, o memorias de tipo flash (SD, Compact Flash, Xpress Card). Panasonic pioneras por
es
tarjetas
las bahías
el P2,
único del
fabricante
que
es
de tipo PCMCIA,
el
que
optó
único
pero
por
fabricante.
este
una
solución
Éstas pueden
estándar se
ha
propietaria, ser
abandonado
las
reconocidas por otros
de menor tamaño, lo que ha dejado esta compatibilidad fuera de juego. Así pues, actualmente,
la
solución
P2
suele
requerir
un
modo
FAM
o
un
dispositivo lector
(deck) compatible.
En realidad, técnicamente, las tarjetas P2 tienen dentro de su carcasa varias tarjetas SD estándar dispuestas en modo RAID.
» 204
PARTE II: CAPTACIÓN
Otra solución propietaria fueron los Digital Disc de los equipos XDCAM de Sony. Se
trataba
una
capacidad
doble
en
cara.
realidad
de
cuatro veces Pero
se
un
DVD-RAM
superior
precisaban
a
los
para
almacenamiento
normales,
pues
igualmente
lectores
de
soluciones
eran
de
datos,
con
de doble capa
fabricados
o
licenciados
y de
Sony para su lectura y acceso. Huelga
decir
que
la
razón
estas
propietarias
es
puramente
comercial, no tecnológica. Por el contrario, la adopción de tarjetas estándares de la industria IT, cada vez más la
extendida, bahía
como
permite
extraer
correspondiente
una
tarjeta
deseemos: bien
de
de
traspasar
estas
la
memorias
mayoría
almacenamiento los datos
a
de
de
los
más.
la
cámara
ordenadores,
Podemos
otro disco duro,
e que
proceder realizar un
introducirlas las
en
reconocerán
entonces log
como
& transfer
o bien una edición Direct to Edit, tal como ya hemos comentado. Esta
tendencia
también
se
puede
ver
en
los
fabricantes
señalados:
Panasonic
ya tiene en el mercado cámaras prosumer con grabación en tarjetas SD, no P2; y Sony
también
ofrece
cámaras
con
formato
XDCAM
y
grabación
en
tarjetas
tipo
XpressCard (el nombre comercial de estas cámaras es XDCAM-EX). Por más
se
pacidad
compatibilidad
y
economía,
en
el
y
de
transferencia
velocidad
futuro
estos
desarrollarán
sistemas
próximo, cada
pues pocos
abiertos estas meses,
el precio, como ocurre en general en toda la industria informática.
parecen
tarjetas
ser
aumentan
disminuyendo
a
los
que
su
ca-
su
vez
POSTPRODUCCION
» Premisa fundamental
Una
vez
elegida
la
cámara
para
nuestra
producción,
tendremos
que
pensar
una
vez más en el flujo de trabajo que vamos a usar en el resto de la cadena de producción. La
premisa ineludible en este trabajo, y que debe guiar todos nuestros pasos,
es única: • Mantener la calidad nativa del trabajo. Por "calidad nativa” entendemos la calidad obtenida en la cámara. (En el caso de producciones por ordenador, sería la calidad de los CGI.) Los
procesos
obtenidos Para
en
evitarlo,
la
de
montaje
cámara
y
postproducción
pueden
mermar,
a
los
en
que
muchos
hay que planificar de antemano los
someteremos momentos,
pasos que vamos
los
esta a
datos calidad.
realizar
y
seguir un protocolo de trabajo que impida esta merma. » Conversiones
A la hora de cualquier intermediación se realizan numerosos transfer y/o conversiones
de
formatos.
También,
exportaciones
y
renderizados
de
material.
Todas
estas transformaciones se pueden calificar como: • Upconversion, cuando pasamos de un formato menor a otro de más calidad. • Crossconversion, cuando no afecta a la calidad. • Downconveision, cuando se pierde calidad. La calidad se altera en función de los cinco parámetros básicos: si se cambia la resolución, el muestreo, la profundidad de color, la cadencia o la compresión. También
afecta
a
la
calidad
la
"profundidad
de
cálculo"
de
nuestro
programa
de postproducción (véase más adelante). En
postproducción
sólo
están
permitidas
las
dos
primeras
conversiones.
última sólo se aplica a la hora de crear formatos de distribución.
» 209
La
PARTE III: MONTAJE Y POSTPRODUCCIÓN
>> Upconversion
Esta
palabra
aumentar
puede
la
llevar
calidad
de
la
a
engaño.
imagen:
Realizar
sólo
se
una
trata
upconversion
de
aumentar
no
la
significa
calidad
del
formato de trabajo. Un ejemplo puede ser pasar de una señal grabada en cámara de 1.080/4:2:2/8 bits, a una de 1.080/4:4:4/12 bits. La calidad de la imagen no aumenta, pues es la
cámara
la
que
marca
la
calidad
nativa.
No
la
hemos
convertido
en
algo
de
igual calidad a lo grabado por una cámara 1.080/4:4:4/12 bits. Lo
que
hacemos
con
esta
upconversion
es
seleccionar
un
formato
de
trabajo
más robusto y flexible para nuestra postproducción. >> Crossconversion
Este proceso ocurre cuando la conversión no altera la calidad. Un
ejemplo
sería
un
cambio
de
cadencia
de
24
a
25
fps
sin
pérdida
de
fotogramas. También
sucede
con que se
cuando
grabó en
capturamos
digital. Sería
en
el
ordenador
con
la
misma
calidad
el caso de un fichero grabado en cinta por
una cámara HDV (mpeg2, 4:2:0, 8 bits a 25 mbs), el cual pasamos al ordenador a
través
del
cable
firewire
convirtiéndolo
en
un
fichero
con
extensión
,m2t,
que
es exactamente mpeg2, 4:2:0 8 bits a 25 mbs. Se (1:1)
considera a
otro
también
igualmente
una sin
crossconversion compresión.
pasar
Por
de
ejemplo,
un
fichero
una
sin
secuencia
compresión
de
TIFFs
a
una secuencia de TGAs. » Downconversion
Aquí siempre se produce una pérdida de calidad. Hay
una
comprimir
a
downconversion uno
cuando,
por
Aun
cuando
comprimido.
ejemplo, la
pasamos
compresión
se
de
un
anuncie
formato "sin
sin
pérdida
aparente”. Hay downconversion pasando de HD a SD, de RGB a YUV de 30 fps a 15 fps, de 12 a 8 bits, etc. En el trabajo profesional sólo sion a la hora de distribuir la señal.
se
debería
realizar
un
proceso
de
las
producciones
downconver-
» Etapas de la cadena
Una
vez
grabado
el
material,
la
mayor
parte
de
proceso similar: montaje, postproducción y masterizado para distribución.
» 210
siguen
un
PARTE III: MONTAJE Y POSTPRODUCCIÓN
Es
evidente
visual del
es
que
muy
trabajo
el
mundo
amplio,
que
y
audio-
/ Cadena de la producción audiovisual /
dependiendo
tengamos
entre
manos
las etapas variarán. También será diferente según el género. No es lo mismo una
producción
documental
que
una
de ficción o una película generada por ordenador. » Terminología
Por
montaje
o
edición
entendemos
que
se trata del proceso de ordenar o empalmar
sucesivamente
todos
los
pla-
nos que tendrá la obra. Montaje
es
matográfico" visivo
(al
un
término
más "cine-
"edición”,
que menos
en
más
España).
tele-
Pero
el
trabajo es el mismo y el operador siempre
se
llamará
“montador”.
En
inglés
se usan más los términos de editing y editor, pero en televisión el "editor” es el responsable de contenidos de un programa informativo. Si el montaje se hace en directo para televisión, al operador se le denomina también “mezclador". La que
postproducción sufre
la
previamente digital digitales. sino
con
(Digital La
todo
se
producción
entiende tras
el
fotoquímico,
se
Intermediate, intermediación
el
conjunto
de
por
lo
montaje. usa
DI),
cuando
digital
no
general En
a
cine,
menudo la
es
postproducción
como
el
resto
sobre
todo
si
el
término
postproducción pues digital
un
se
proceso
realizado
de se
de
rodado
intermediación
realiza o en
procesos
ha con
etapa una
medios concreta,
producción
cinematográfica. Los medios fotoquímicos para la postproducción son muy escasos. Se limitan por lo general al conformado (corte de negativos y transiciones); a la creación de los cartones de crédito; a algún que otro trabajo sencillo de composición, y al etalonaje de luces (o colormaster, por la herramienta que se usa habitualmente).
Dado
que
hoy
en
día
es
casi
irrelevante
el
soporte
original
de
grabación
(fo-
toquímico o digital), se tiende a considerar como intermediación digital (DI)
» 211
PARTE III: MONTAJE Y POSTPRODUCCIÓN
todos la
los
procesos
postproducción
refiriéndose
sólo
entre y
a
la la
la
captación
y
la
masterización.
Otros
postproducción
más
distribución, dejan los
fuera
englobando de
procesos
la
DI
últimos
de
el
montaje,
el
montaje,
acabado
y
conformado (conform & finishing). Salvando país,
nos
la
queda
terminología
que
siempre
sentido
el
nunca
es
común
estándar, para
saber
ni de
siquiera qué
dentro
estamos
de
un
hablando.
A mí me gusta hablar de montaje por un lado y por otro, postproducción o DI, que incluye el conformado final.
1. Montaje
Generalidades
Hoy
en
ta
en
día, un
prácticamente ordenador,
toda
la
mediante
producción
cinematográfica
aplicaciones
informáticas
se
monta
llamadas
o
edi-
editores
no
lineales (ENL o NLE, en sus siglas inglesas Non Linear Editing).
» Sistemas abiertos o cerrados
En
los
editores
no
lineales
debemos
tener
en
cuenta
si
estamos
ante
sistemas
"abiertos” o “cerrados". Esto no influye en la calidad, pero sí en el coste y/o en la comunicación con el resto de programas y máquinas. Decimos
que
una
solución
es
abierta
si
permite
trabajar
con
códecs,
software
y hardware de otros fabricantes. En caso contrario, se trata de un sistema cerrado o propietario. La
tendencia
del
duda
favorece
la
puede
notar
que
sin
Esto
último
soluciones
se
ENL
en
mercado,
los
no
obstante,
comodidad en
últimos
la
de bajada
años.
es
los
ir
hacia
operadores
de
precios
Bajada
de
sistemas
y
también
que
precios
han
que
abiertos, la
lo
economía.
experimentado
en
ningún
las
momento
ha supuesto una pérdida de calidad, sino todo lo contrario. » Diferencia de sistemas y versiones
¿Qué
es
lo
que
actualmente
diferencia
unos
ENL
de
otros,
incluso
en
versiones
del mismo software? En general, será la posibilidad de trabajar con más o menos resolución. Hasta hace no
poco, HD.
había
Hoy
en
editores
que
día,
todos
son
permitían
el
polivalentes,
trabajo si
con
bien
resoluciones
algunos
SD,
implementan
pero o
no
soluciones específicas de cine digital: 2K, 4K. Es en más es
importante
la
máquina:
potente habitual
y
señalar hay más
encontrar
que
que
el
tener
memoria
incremento un
RAM
soluciones
de
de
procesador para bajo
todos coste
resolución
más
rápido,
los
procesos.
que
implica un Por
permitan
una
tarjeta esa trabajar
mejora
de
vídeo
razón, en
no 4K
reales (pero será cuestión de tiempo, dada la velocidad de desarrollo de la informática).
» 215
1. MONTAJE
» La duda del montador
La
parte
existe
negativa
en
sistemas.
el
de
la
mercado
variedad
es
Antiguamente,
que
un
el
de
programas
operador
montador
se
de
ve
aprendía
edición
obligado
a
trabajar
que
actualmente
a
conocer
con
una
múltiples mesa
de
montaje, o con un sistema AB Roll, y podía hacerlo a partir de ahí con cualquier otro
sistema
compartían un
de
la
montaje
misma
profesional
o
edición
mecánica
freelancer
el
de
tener
en
cualquier
trabajo.
parte
Hoy
que trabajar
en
ora
del
día
con
mundo,
resulta
Avid,
ora
pues
todos
fastidioso con
para
Final Cut,
ora con Edius, Premiére, Vegas o cualquier otro sistema de edición no lineal. El trabajo de "montaje" no deja de ser el mismo, pero a veces sucede que se tiene
que
rechazar
un
trabajo
específico
por
desconocer
determinado
programa
y no disponer de tiempo para adaptarse. Ciertamente, hacerse
con
un
las
montador
herramientas
profesional básicas
de
apenas cualquier
necesitará programa.
unas Pero
horas
en
el
para
montaje,
como en el resto de la profesión, sigue vigente la norma de as good as fast, esto es, "bueno
pero
tres
o
cuatro
por
aquello
también
rápido".
programas, de
las
tiempo
es
siempre
seremos
más
de
experiencia
horas
El
dinero.
Y
rápidos
(los
aunque con
programas
podamos
unos son
que
dominar
con
siempre
otros,
tontos
y
lentos; son los operadores los que pueden ser rápidos e inteligentes). Por desgracia, no se prevé a medio plazo (ni posiblemente a largo plazo) una única
solución
de
edición
universal,
una
mesa
prevén,
dada
la
de
montaje
digital
que
complazca
las
soluciones
el
montador
a todos los agentes implicados. y
La
solución
el
incremento
que
algunos
de
potencia
de
los
bajada
ordenadores
de
precios
portátiles,
es
de que
acabe llevando con él su propia solución portátil al lugar de trabajo. » Cualquier programa es bueno
Dicho todo esto, insistiremos una vez más: cualquier programa ENL en el mercado es perfectamente válido para un trabajo profesional. Excluiremos de esta afirmación, claro está, los programas pensados para el usuario final o doméstico, que tiene muy limitadas sus capacidades de montaje.
>> Cualquier máquina no es suficiente
También
tenemos
que
advertir
que
tan
importante
como
el
programa
es
la
máquina o estación de trabajo sobre la que trabajemos. Unas
nociones
postproducción digital.
» 216
básicas
de
informática
son
imprescindibles
para
la
edición
y
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» Streams
Es común en los programas ENL y de postproducción hablar de streams (flujos) como sinónimo de calidad o potencia de cálculo. Un stream se refiere a la posibilidad de visionar una pista de vídeo a máxima resolución, exigir
sin
a
compresión,
una
solución
en
ENL
nuestro
es
que
ordenador. nos
muestre
Lo
mínimo
que
dos
streams
en
le
podemos
HD
para
un
montaje cómodo. Aunque no siempre es posible. El cálculo es sencillo: una señal HD 1.080 4:2:2 25p corre a unos 800 mbs; si
se
trata
hablamos
de
de
RGB
1,2
4:4:4
gbs.
(que
Con
es
como
cadencias
los 1,5 gbs. Luego si queremos
internamente
superiores,
como
trabajan 29,94p,
los
ordenadores)
nos
acercamos
a
asegurar dos flujos o streams HD, necesitaríamos
una herramienta capaz de gestionar cerca de 3 gbs por segundo como mínimo. » Códecs de edición
Todavía hoy resulta difícil para un ordenador manejar dos streams de HD 1.080 RGB
sin
comprimir.
Por
ello
los
fabricantes
de
soluciones
más
representativos
ofrecen códecs específicos para la edición. Como norma,
abierta a excepciones, diremos que estos códecs
son muy útiles
en la edición, y que en ocasiones sirven para todo un flujo de trabajo televisivo,
incluso
pantallas
en
de
HD.
cine,
Pero
donde
si
pretendemos
cualquier
la
defecto
máxima
se
calidad
amplifica,
para
siempre
proyectar se
en
recomienda
trabajar sin compresión. Una
vez
más,
aquí
podemos
encontrarnos
con
soluciones
de
códecs
abiertas
o cerradas. » Procesos destructivos y no destructivos
Hay
una
sistemas
cuestión
básica
analógicos
de
a
tipo
entender AB
en
Roll
la
o
ENL
las
digital.
moviolas
A
diferencia
fotoquímicas,
de
la
los
edición
digital no es un sistema destructivo. Decimos que una moviola (aunque,
obviamente,
el
es
negativo
destructiva porque el copión se corta físicamente original
queda
a
salvo);
también
es
destructivo
un sistema analógico por la pérdida de calidad de cada generación. Sin
embargo,
los
sistemas
digitales
siempre
mantienen
la
calidad
original.
En este caso, la calidad original sería la que hemos elegido para la ingesta de material. Hay
que
tener
claro
este
concepto:
una
vez
que
se
introduce
la
información
digital de audio o vídeo, cualquier transformación a la que le sometamos siempre será
“virtual”
o
paralela:
el
archivo
original
permanece
inalterable.
A
diferencia
» 217
1. MONTAJE
de
la
energía,
los
ficheros
originales
no
se
pueden
transformar:
lugar
volver
sólo
se
pueden
crear y destruir (borrar). Esto
nos
permite
siempre
y en
todo
a
iniciar
¿por
qué
un
trabajo desde
cero, y por eso consideramos la ENL como no destructiva. » Renderizados, realtime
Si
los
archivos
effects, on the fly
originales
permanecen
inalterados,
podemos
ver
un
encadenado o un efecto? Hay
dos
ma/máquina
maneras (soft
para
&
que
eso
hardware)
suceda:
nos
una,
permita
que
un
la
combinación “virtual”,
visualizado
progracalculando
en “tiempo real” (realtime) las imágenes. La otra opción es que se genere un nuevo archivo con el encadenado o efecto. Este archivo es un render o renderizado. Render es un vocablo inglés de difícil traducción
en
español,
por
lo
que
comúnmente
se
usa
este
término
castellani-
zado: renderizar. Esta la
renderización
puede
realizar
la
él
podemos
correcta
visualización
del
refiere
a
programa
que
el
solicitar
automáticamente, efecto.
Una
manualmente
cuando
vea
modalidad
está
es
el
continuamente
al
que
programa,
es
necesario
render
on
generando
the
o
bien
para
una
fly,
que
renderizados,
se
aunque
no se haya solicitado su visualización, para agilizar el trabajo. Evidentemente, pues
es
más
bajas
o
efectos
superiores,
ya
es
preferible
rápido
y
sencillos, depende
trabajar
ocupa es
menos lo
tanto
con
en
común.
Pero
más
del
efectos
espacio
programa
realtime
el
como
disco con
de
que
duro.
resoluciones la
renderizados,
En
potencia
resoluciones HD,
de
2K
la
y
má-
quina. » ¿Dónde se guardan los renderizados?
Generalmente, muestra
como
el
programa
clip
de
independiente
edición en
la
puede línea
generar de
un
tiempo.
render
Es
un
pero
no
lo
“oculto”,
fichero
que maneja internamente la ENL. Cada la
programa
opción
de
los
elegir
crea una
automáticamente
carpeta
donde
en
guardar
un
determinado
estos
ficheros.
directorio, Algunos
o
da
programas
permiten importarlos, una vez creados, si se desea, a la línea de tiempo. Otros no lo permiten para no crear conflictos en su base de datos de clip (media manager). Una
vez
terminado
el
trabajo,
es
pues sólo ocupan espacio sin tener mayor utilidad.
» 218
conveniente
eliminar
todos
estos
renders,
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» Exportación
Cuando hemos terminado una fase de un trabajo y deseamos pasar a la siguiente, es posible hacerlo mediante la exportación de toda o parte de la línea de tiempo. Esta
exportación
también
es
generada
por
la
ENL
y
se
considera
asimismo
un renderizado. » Renderizados y código de tiempo
Otra
cosa muy importante de los renderizados
cia
de
código
programa todos
le
los
de
tiempo
aplica
efectos,
una es
con
los
ficheros
identificación
un
clip
y
un
independiente
es que ya no mantienen referen-
nativos
de
nuevo
código
cámara. de guarda
que
ya
no
pues
en
muchos
corriente
es
aplicar
Al
generarse,
tiempo
el
interno.
relación
A
con
las
imágenes que sirvieron de fuente para su creación. Esto es
es
importante
altamente
tenerlo
desaconsejable.
en
cuenta,
Un
caso
procesos un
del
efecto
trabajo complejo
a un conjunto de clips. Por comodidad, en ocasiones se renderiza el efecto y se importa
como
hemos
perdido
nuevo
clip,
cualquier
sustituyéndolo
referencia
de
en
la
código
línea
tiempo.
Pero
al
con
el
clip
original,
más
cómodos
y
prácticos
parte
de
efectos
de
de
tiempo
hacerlo, lo
que nos impedirá un recaptura a mayor calidad. Por llos
esa
razón,
programas
entendemos
que
puedan
también realizar
que la
son
mayor
los
aque-
en
tiempo
real. » Media y proyecto
En
una
labor
de
montaje,
tendremos
dos
datos
bien
diferenciados.
Por
un
lado,
los clips de audio y vídeo que trabajamos. Es lo que se conoce como ficheros o archivos de media (media o essence, en algunos textos en inglés). Por
otro
lado,
tendremos
la
información
propia
del
montaje,
que
se
guarda
con la extensión propia de cada programa ENL, en forma de proyecto. El proyecto
en sí
suele ocupar
muy poco espacio, apenas unos KiloBytes.
Lo
que realmente ocupa espacio son los media. Pero la ventaja de la ENL es que podemos que,
si
borrar
tranquilamente
conservamos
el
los
proyecto
media y
las
del cintas
disco o
duro
discos
con
originales
la
seguridad con
los
de
brutos
de cámara, siempre podremos recuperar todo el trabajo. » Online,
online
Se dice que un montaje es online cuando la calidad de los media con los que trabaja
es
la
del
máster
final,
preparada
para
emitir
o
proyectar.
Si
el
montaje
» 219
1. MONTAJE
está
realizado
que
tendrá
sobre
clips
final,
se
al
capturados
entiende
que
a
una
es
un
resolución montaje
menor
Offline,
que
que
la
será
calidad necesario
recapturar o reimportar para los siguientes procesos.
No se suele traducir estas dos palabras, Online y Offline. Tampoco hay que confundirlas con premontaje o diferentes versiones de montajes, antes del montaje definitivo o final. Pueden existir premontajes online, y también montajes definitivos en calidad Offline.
El montaje OFFLINE se suele hacer cuando el peso y tamaño de los ficheros online (sin
comprimir,
disco
duro,
y
o
con
agotarían
códecs los
de
producción)
recursos
de
la
ocuparían
máquina
mucho
(RAM,
espacio
procesador,
en
el
tarjeta
de
vídeo). » Conformado
Se
entiende
como
conformado
(conform)
el
convertir un
proyecto
Offline
en
otro
online. Esto
se
portación
realiza
(batch
generalmente
import)
de
mediante
los
clips
la
recaptura
originales,
(batch
eligiendo
capture)
esta
vez
o
reim-
como
opción
de ingesta un códec de producción o sin compresión. Una vez más recordar la importancia de que los ficheros offline hayan mantenido el código de tiempo original, que es el que los referencia con los nativos de
cámara
referencia). anterior
(de
ahí
También
el el
cuidado sentido
al
trabajar
común
nos
con
renderizados,
indica
que
el
que
pierden
conformado
ha
de
esta ser
a cualquier tipo de efecto o trabajo de postproducción. No tiene sentido
corregir el color o ajustar máscaras sobre una calidad offline. » Proxies o ficheros de baja resolución
Se entiende por proxy un clip o fichero o espejo que está en lugar de otro original. Son ficheros de menor resolución o calidad que los originales y que permiten
trabajar
comparten
con
más sus
cómodamente nativos
en
los
originales
toda
procesos la
Offline.
metadata,
Los
ficheros
incluyendo
el
proxies
código
de
tiempo, pero con una calidad de imagen y de sonido inferior. Los ficheros proxies se pueden generar en la ingesta por los ENL, pero también un
ya proxy
existen de
cámaras,
menor
por
calidad
lo en
general paralelo
sin al
cinta, nativo
que
generan
original.
Esto
directamente permite
una
visualización y edición rápida, incluso en el mismo lugar de rodaje. Si se trabaja con tecnología IT, sin cinta, la sustitución de los proxies por los originales es inmediata. Si el original está en cinta, es necesario una recaptura.
» 220
PARTE III: MONTAJE Y POSTPRODUCCIÓN
En
ocasiones,
neran
sus
maquinaria tante
algunos
propios durante
saber
si
programas
proxies, el
de
visionado
y
programa
trabaja
nuestro
edición
principalmente
y
para
manejo
de
o
la
no
postproducción
optimizar línea
con
los de
también
recursos
tiempo.
proxies,
pues
Es
es
ge-
de
la
impor-
posible
que
posteriormente encontremos errores inesperados en los renderizados finales. Es los
común
en
procesos.
algunos
Pero
programas
es
poco
de
edición
recomendable
trabajar
con
un
programa
que
proxies,
para
de
agilizar
postproducción
trabaje con proxies.
La ingesta de material
» Ingesta
Llamamos
ingesta
(ingest)
al
proceso
de
introducir
la
imagen
y
sonido
grabadas
en el ordenador donde realizaremos el montaje y la postproducción. Es un proceso clave en un correcto flujo de trabajo, pues será entonces cuando determinemos
cuál
será
nuestro
formato
de
trabajo
final
para
todo
el
proceso
de
postproducción. La palabra “ingesta" esté sustituyendo a “captura" (capture) debido a la aparición de modelos de grabación sin cinta. Así, la ingesta incluye la captura, la importación y/o el transfer de archivos hasta la línea de tiempo de la ENL.
» La importancia de la ingesta online
Como
ya
hemos
cámara
en
el
comentado,
ordenador,
y
en
esta
etapa
para
ello
podemos
hay
que
optar
introducir
por
dos
los
vías:
datos un
de
montaje
offline, con ficheros de baja resolución, o uno online. Si elegimos la segunda opción, debemos ser conscientes de que la calidad de este
online
norma
es
el
que
entenderemos
determinará
que
NUNCA
la se
calidad
final
puede
de
la
mejorar
un
producción, fichero
ya
pues como capturado
dentro de un ordenador. ¿Qué primera
elección opción,
(uncompressed), máxima
la en
resolución
tomar? que
Cuando proporciona
cualquier y
hablemos la
formato de
profundidad
de
de
máxima
postproducción calidad,
este tipo que color.
Será
es se
siempre
veremos
trabajar nos
sin
ofrezca,
nuestra
que
la
compresión y con
primera
la
opción
online.
» 221
1. MONTAJE
Pero
trabajar
en
disco
sin
compresión
segundos, Pero
a
con
duro
en
donde partir
estos
ficheros
significa
en
proceso
de
como una
el
producción
material
de
cierta
pequeña,
grabado puede
cantidad
un
de
gran
cálculo.
como
llegar
metraje,
consumo
Podríamos un
a
el
ser
de
recursos,
plantearnos
spot
publicitario
de 20
minutos,
montaje
online
sin
tanto
un
online de
30
no más.
comprimir
se
convierte en una odisea. De
esta
decir,
sin
manera, la
hay
máxima
producciones
calidad)
y
que
se
permiten
pueden
un
considerar
online
comprimido
perfectamente
(es
profesiona-
les.
Es el caso de la mayoría de las producciones de televisión. En el proceso
de
distribución
de
estas
producciones
(analógico,
TDT,
cable,
satélite,
etc.)
la
señal perderá ya de por sí mucha de su calidad, por lo que la diferencia de calidad
entre
un
formato
sin
compresión
o
un
buen
códec
profesional
de
edición,
se
trata
posiblemente no será apreciada por el espectador. >> Percepción y calidad
Al
decir
que
menospreciar
el
la
formato calidad
televisivo
televisiva
soporta
frente
mejor
a
la
la
compresión,
cinematográfica.
no
La
clave
en
de este
caso es la percepción por parte del espectador. Una
pantalla
drados. razón,
Un
de
cine
televisor
cualquier
puede
raramente
defecto
o
medir
fácilmente
supera
las
minorización
42
de
varias
decenas
pulgadas
de
la
calidad
de
metros
diagonal.
(resolución,
cua-
Por
esa
compresión,
color, e incluso el foco y la nitidez) será más visible en la pantalla de cine que en la televisión. Todos los tests de calidad subjetivos, y lo que entendemos por MTF (función de
transferencia
tivas),
deben
de
la
incluir
modulación,
que
inevitablemente
determina
la
la
percepción
resolución del
o
nitidez
espectador
efec-
como
una
variable más. » Códecs de edición y postproducción online
Llegado
este
momento,
tendremos
que
mercado
ya
decidir
qué
códec
online
será
el
que
se
use. Afortunadamente,
el
ofrece
diferentes
códecs
de
alta
calidad
para este trabajo online tanto de montaje como de postproducción televisiva. Los códecs
más de
conocidos Avid
son,
DnxHD
actualmente,
(Digital
el
Non-linear
Apple for
ProRes
High
HQ
y
Defiition,
la
véase
familia el
de
anexo),
pero también hay otros igualmente válidos de otras casas y fabricantes. Estos de
códecs
edición.
» 222
de
Equilibran
edición la
están
calidad
desarrollados con
el
peso
pensando y
el
flujo
en
un de
robusto
datos,
trabajo
permitiendo
PARTE III: MONTAJE Y POSTPRODUCCIÓN
ahorrar
espacio
tiempo
real
"seguros”,
en
o
el
disco
renderizados
robustos
y
duro
pero
también
cortos
en
duración.
las
posibles
fiables
en
un
montaje
Son
ágil,
códecs
con
que
efectos
crean
transformaciones,
en
ficheros
minimizando
el
añadido de ruido y artefactos a los renderizados, y evitando el riesgo de ficheros corruptos. Cualquiera que
de
debemos
las
tener
soluciones
en
profesionales
cuenta
es
su
del
mercado
compatibilidad
con
es
buena.
el
resto
Lo
de
único
programas
del flujo de trabajo. No todos estos códecs son abiertos, sino que están limitados por
sus
desarrolladores.
determinado
códec,
Esto
realizar
implica el
que
montaje
podemos
y
luego
optar
en
descubrir
la
ingesta
que
por
nuestro
un
programa
auxiliar de corrección de color no reconoce ese códec. O (más habitual), que este programa
está
licenciado
por
el
desarrollador
del
códec
para
su
lectura,
pero
no
para su exportación o render. Una vez más, tendremos que estar atentos a las especificaciones de cada programa,
y
acumular
experiencia
para
evitar
tediosos
(y
en
ocasiones
destructivos)
procesos de transferencia y cambio de códec. » Códecs nativos de cámara para la edición
El
códec
de
Sony
necesitaremos
HDCAM,
seleccionar
en
por la
ejemplo,
ingesta
no
un
tiene
códec
un
paralelo
adecuado
para
en
edición,
y
el
trabajo
a
realizar. Pero como
hay
otras
códec
de
cámaras
edición
cuyo
en
el
códec
de
ordenador.
compresión
Es
el
caso
tiene del
una
códec
equivalencia de
Panasonic
DVCPro HD, del formato HDV o de los más recientes XDCAM HD o AVC-HD. Podemos grabar en HDV en cámara, y trabajar con ficheros HDV clónicos en la edición (se crean con la extensión .m2t, mpeg2 transportstream). En
este
caso
tenemos
que
plantearnos
si
estos
códecs
se
pueden
se
facilita
considerar
códecs de edición online, como los mencionados en el apartado anterior. En
realidad,
tenemos
dos
cuestiones.
Una
a
favor:
que
la
ingesta
y no se pierde nada de calidad con respecto a la grabada en cámara. Otra en contra:
que
estos
códecs
están
pensados
para
almacenar
datos
en
cámara,
y
quizá no tanto para una edición o postproducción exigente. Como el mundo profesional no es una ciencia exacta, una vez más insistiremos en que sólo el sentido común y, sobre todo, la experiencia o el método de ensayo y error, nos puede indicar si un determinado códec nativo de cámara es adecuado o no para un determinado flujo de producción. Mi opinión particular es que si el trabajo de edición y postproducción no es muy
exigente,
la
mayoría
de
estos
códecs
nativos
de
cámara
se
pueden
utilizar
» 223
1. MONTAJE
en
la
edición
sin
problemas.
En
caso
contrario,
habría
que
valorar
el
códec
en
sí: no es lo mismo un HDV que AVC-HD 10 bits, 4:2:2 lOOmbs, o el RAW del Redcode. » Modos de ingesta
Básicamente,
la
ingesta
se
puede
hacer
de
cuatro
maneras,
dependiendo
del
formato de grabación: a) Captura b) Importación c) Directo to Edit d) Log & tranfers • Captura y volcado El término "captura" (capture) va asociado en los ENL a la inclusión de los datos desde
el
magnetoscopio
al
ordenador.
Se
realiza
a
través
de
las
llamadas tarjetas
capturadoras con entradas y salidas estandarizadas HD- Sdi, Dual Link y otras. Hace
tiempo,
capturadoras,
e
opción
cerrada
a
plena
la
muchos
programas
imposibilitaban
la
o
Pero
propietaria.
compatibilidad
ENL
captura en
entre
sólo con
la
todos
reconocían
otras
marcas.
actualidad
se
los
fabricantes,
determinadas Una tiende
tarjetas
vez
más,
una
cada
vez
más
principalmente
por
la
paulatina desaparición de las cintas y las capturadoras. También ñrewire, optar
por
la
señal
o
bien
este
se
habla
común hacer del
una el
no
captura
muchos
cuando
se
equipamientos
simple
camascopio
cambiar
volcado
de
en
usa
transferencia
de
datos
es
un
fichero
clónico
formato
de
edición
(por
necesitaremos
una
el
prosumer. (por
ejemplo,
tarjeta
popular En o
cableado
este
caso,
importación,
ejemplo, de
capturadora,
de
de se
tipo puede
convirtiendo
HDV
a
.m2t),
HDV
a
ProRes).
Para
sino
simplemente
una
conexión estándar ñrewire reconocible por la ENL. El proceso inverso, del ordenador a la cinta, se llama "volcado" (edit to tape, print to tape). • Importación y exportación Cuando
usamos
(import) los
cámaras
ficheros
con
grabación
a nuestra ENL.
sin
cinta,
procederemos
a
importar
Esto implica una recodificación de todos los
datos del clip original hasta el clip que manejará el ENL. Podemos
realizar
una
importación
offline
formado a online con la herramienta batch import.
» 224
y,
posteriormente,
realizar
un
con-
PARTE III: MONTAJE Y POSTPRODUCCIÓN
El proceso inverso, es decir, pasar del ordenador a un formato susceptible de ser
distribuido
o
traspasado
a
otros
sistemas
es
conocido
"exportación”
como
(export). • Direct to Edit Recientemente, el
trabajo
la
con
implementación
ficheros
no
de
lineales,
los
protocolos
evitando
la
MXF
ha
importación
permitido
pura
de
mejorar
datos
y
su
transcodificación. Si los ficheros grabados por la cámara son compatibles con nuestro ENL bajo el
mismo
tiempo
y
protocolo
MXE
empezar
a
podemos
editarlos.
incorporarlos
Generalmente,
directamente esta
a
nuestra
posibilidad
se
línea
conoce
de
como
Direct to Edit.
Muchos ENL trabajan ya así: permiten incluir en su línea de tiempo cualquier tipo de fichero no propietario o para el que tenga su licencia. No obstante, otros programas como Avid requieren, para determinados ficheros, una importación que conlleva una transcodificación a sus propios códecs de trabajo. • Log & transfer (selección y transferencia) Una
mejora
formatos conoce
con
de
respecto
grabación
al
„„identificación
como
Direct
compatibles
to
Edit
igualmente
transferencia”
y
la
podemos
con o
encontrar
nuestro
en
aquellos
ENL.
Es
lo
que
se
log
&
transfer
(si
herramienta
bien este término puede variar en los diferentes ENL). Esto permite trabajar no con todo el clip, sino con una parte de él, la que nos resulte una
de
interés,
herramienta
permitiendo
auxiliar
ahorrar
(plugin,
espacio
tool)
nos
en
el
permite
disco
duro.
visionar
el
Generalmente, clip
original,
marcar los puntos de entrada y salida e incluso añadir metadata. Una vez elegidos los puntos de edición y modificados, en su caso, los datos auxiliares, se procede a trabajar en la ENL sólo la parte seleccionada. Tendremos clip
aparecerá
así
como
opción
es
dos en
los
opciones:
una,
trabajar
la
con
los
ENL
metadatos
proceder
a
la
o
el
en
puntos
nombre
importación
y
modo de
que
Direct
entrada hayamos
transcodificación
to
y
Edit,
salida
querido sólo
pero ya
donde
escoger. de
el
seleccionados, esa
La
otra
parte
del
pérdida
de
clip al códec que hayamos escogido para el trabajo. • Ventajas y desventajas Es
evidente
que
la
captura
o
importación
de
ficheros
supone
una
tiempo considerable con respecto a las soluciones Direct to Edit.
» 225
1. MONTAJE
Sin
embargo,
si
trabajamos
directamente
con
los
ficheros
originales,
perde-
mos la posibilidad de una recuperación de datos en el caso de que se destruya por error o accidente. La
solución es hacer siempre una copia de los ficheros
que usamos para un
trabajo Direct to Edit. Pero esta copia requiere tiempo y supone doblar el espacio en el disco duro. La medio:
“selección
solución por
una
parte,
transferencia”
y
es
necesaria
con
una
transcodificación
importación,
aunque
se
más
sitúa rápida
en pues
no lo es de todo el material, sino de aquella parte del clip que nos interese. Pero, por otra, conservamos, aparte, el fichero original.
Como siempre, optar por una solución u otra dependerá del tipo de trabajo y de nuestras posibilidades en cuestión de tiempo y recursos.
• La importancia del backup En
este
mismo
sentido
es
conveniente
recalcar
la
importancia
ya
por
de
tener
un
backup, copia de seguridad o respaldo de nuestro material nativo. Tradicionalmente,
el
trabajo
con
cinta
nos
daba
supuesto
este
respaldo
en la edición digital ENL. Pero actualmente se trabaja más y más sobre grabación IT no lineal, sin cinta. Si usamos estos mismos ficheros para la edición, corremos el
riesgo,
siempre
presente,
de
que
se
corrompan,
se
borren
accidentalmente,
o
se pierdan definitivamente por un fallo en el disco duro. Es
conveniente,
pues,
hacer
siempre
una
copia
de
seguridad
de
estos
ficheros
de cámara. >> La ingesta en fotoquímico
• Escaneado y telecine Si
el
formato
original
es
fotoquímico,
necesitamos
maquinaria
específicamente
diseñada para convertir los fotogramas del negativo en imágenes digitales. Básicamente,
hay
dos
procesos
considerados
profesionales:
el
escaneado
y
televisión.
En
el telecinado. • Telecine y kinescopiado El
telecine
es
la
herramienta
tradicional
de
conversión
de
cine
a
principio es más barato y económico, y permite la conversión en tiempo real. Su límite suele estar en los 8 bits de profundidad de color y resolución HD.
» 226
PARTE III: MONTAJE Y POSTPRODUCCIÓN
Los tas
telecines
de
de
corrección
última
de
generación
color
y
permiten
etalonaje,
así
además
como
su
una
uso
como
mejora
en
herramien-
la
profundidad
de color. Generalmente,
el
formato
de
salida
de
un
telecine
será
una
cinta
estándar,
sea SD o HD. Pero los nuevos modelos también permiten formatos IT. El talla el
telecinado el
puede
pietaje
montaje
del
en
incorporar material
ordenador
de
como
metadato
o
como
negativo.
Esta
películas
cinematográficas,
información
información
es
en
pan-
imprescindible
debido
a
la
para
diferencia
de cadencia y a la necesidad de cortar posteriormente el negativo original, El proceso inverso,
de cinta a
fotoquímico realizado con una máquina similar,
se conoce como kinescopiado. • Cinevator Una
variante
reciente
del
kinescopiado,
basado
en
tecnología
LED,
es
la
cono-
cida con la marca comercial de Cinevator. La
ventaja
competitiva
con
que
apareció
en
el
mercado
es
que
realizaba
la
transferencia digital/fotoquímico en tiempo real, tanto de audio como de sonido. Y
también
que
lo
podía
hacer
directamente
en
copias
positivadas,
sin
necesidad
de interpositivo o internegativo. Esto
supuso
una
revolución
en
muchas
producciones
independientes,
así
co-
mo documentales y cortometrajes, pues ahorraban costes. • Escaneado y filmado El escaneado láser es un desarrollo posterior, de mayor calidad (desde 8 a 12 bits, y con resoluciones de 2K, 4K e incluso 6K y superiores) pero más lento y costoso. Se
escanea
vidualizado, estos ficheros
cada
fotograma
generando
individualmente
una
secuencia
y de
es
transferido
imágenes
a
un
fichero
numerada.
indi-
Generalmente,
son de tipo dpx (digital picture exchange, heredero del Cineon de
Kodak), pero también hay opciones como tiff o tga (véase el anexo).
Algunos escáneres modernos ofrecen la posibilidad de escaneos de 6K, 8K o superiores. Sin embargo, como vimos, la resolución nativa del 35 mm es de 4K, por lo que un escáner a 6K no tiene mucho sentido, pues se trataría de una upconversion sin aumento de la calidad nativa.
Además
del
coste
superior,
la
desventaja
estriba
en
que
no
es
un
proceso
en
tiempo real (1:1, un minuto de rodaje, un minuto de escaneado). Hay que planificarlo, pues, con tiempo.
» 227
1. MONTAJE
El proceso inverso con tecnología láser similar se conoce como filmado. Tampoco es en tiempo real. Debido a la diferencia de precio y operatividad, los offlines cinematográficos se hacen siempre con telecine. No tendría sentido perder tiempo y dinero en capturar todo el material filmado en escáner láser. En muchas ocasiones, el telecinado del negativo ha sustituido a los daylies o copiones.
• Otros transfers Nada nos impide colocar una cámara digital delante de una pantalla donde se proyecta una película para hacer un "transfer" digital (este sistema es el usado habitualmente para piratear películas). También podríamos colocar una cámara de 35 mm delante de un monitor de televisión para lograr un “kinescopiado". Sin embargo, estos procesos no son los habituales en la industria, pues no obtienen la misma calidad de imagen que el escaneado/filmado o el telecinado/kinoscopiado. No obstante, estos remedios "caseros" se utilizan en ocasiones para lograr texturas subjetivamente muy interesantes, o para abaratar costes en producciones de baja calidad. • Calidad y textura Las transferencias fotoquímico digital pueden tomar también un valor artístico, no sólo técnico. No me refiero sólo al uso de herramientas de corrección de color o de viñeteo y máscaras, sino a la propia textura de cada soporte. Se puede grabar unas imágenes en calidad DV para luego transferirlas por kinescopiado casero a Súper 8 mm, posteriormente tratarlas en digital para terminar en una copia en 35 mm y en una cinta HD. El objeto sería lograr un textura especial, que va tomando "grano” y artefactos de cada uno de los procesos. Igualmente, algunos especialistas prefieren el telecinado o el Cinevator para formatos frágiles como el HDV antes que un filmado láser. Éste tendría más calidad, pero por esa misma razón se verían más sus defectos. Un telecinado los suaviza y logra un textura muy interesante. Y, no hay que olvidarlo, la experiencia, el buen gusto y el conocimiento técnico del operador encargado del transfer es un punto siempre a tener en cuenta. » CGI en efectos y animación CGI son las siglas de Computer Graphic Images, o imágenes generadas por ordenador.
» 228
PARTE III: MONTAJE Y POSTPRODUCCIÓN
En este orden incluimos una gran variedad de ellas, siendo las más determinantes las dedicadas a los efectos digitales y la animación.
» Efectos Gran parte del desarrollo cinematográfico de los últimos años se debe a los efectos digitales. Lejos quedan los efectos de Superman, MaryPoppins o Chitty Chitty Bang Bang, que eran poco más o menos lo que se podía hacer con la truca convencional. Hoy en día se puede hacer volar un vaca con facilidad, hacer estallar un edificio de cincuenta plantas o recrear el impacto de un meteorito en la Tierra con grandes dosis de credibilidad (al menos visualmente, no sé si argumentalmente). Estos efectos se generan en ordenador y posteriormente se integran sobre las imágenes reales. Para preservar su calidad, se renderizan en formatos de gráficos sin comprimir RGB como son los tiff, tga, bmp, png y otros, prefiriendo aquellos que tienen un canal alfa o de transferencia (en ese caso, en ocasiones se dice que son formatos 4:4:4:4). Es útil tener una idea siquiera general de estos ficheros gráficos, por lo que se incluye un anexo.
« Animación Dos de las técnicas tradicionales de animación son el dibujo animado, cartoon, y la animación paso a paso stop motion. Hoy en día, todas estas producciones se realizan por medios digitales, salvo algún estudio que continúa con las técnicas tradicionales de lápiz y papel. e Cartoon Se puede distinguir en la animación 2D tradicional (diríamos tipo Disney) o la 3D más actual (tipo Pixar). Ambas se generan por ordenador, si bien con programas y tecnologías distintas. Pero el resultado final es en los dos casos secuencias de ficheros gráficos (generalmente tiffs de 16 bits con canal alfa). Estas secuencias de ficheros (el término coloquial es “chorizo”, aludiendo al embutido típico del país), una vez generadas, pasan por los procesos tradicionales de montaje, postproducción y masterización. En ocasiones, algunos programas pueden generar también clips de vídeos. Es otra opción que agiliza el proceso con pérdida de calidad (mucha o poca dependiendo del códec).
Conformado
>> Offline a online Si partimos de un montaje offline el primer paso sería conseguir el montaje online con una nueva ingesta de los brutos de cámara. Aquí volvemos a señalar lo ya apuntado anteriormente: este proceso es clave para asegurar la máxima calidad de nuestro trabajo. Por eso hay que ser cuidadosos con la elección del códec con el que vamos a trabajar a partir de ahora. Como siempre, la primera opción será una sin comprimir, y luego algún códec
específico y fiable para una postproducción exigente. Podemos recapturar todos los clips, pero lo más práctico es recapturar sólo aquella parte del clip (subclip) que realmente se ha usado en la línea de tiempo o montaje. Los ENL tienen herramientas que realizan automáticamente esta función, incluyendo las colas necesarias para las transiciones. De ahí la necesidad de trabajar con criterio. Si en la línea de tiempo hemos sustituido un clip original de cámara por un renderizado (porque hemos incluido un crédito o algún efecto, por ejemplo), lógicamente nuestra ENL no reconocerá el código de tiempo de ese clip como referenciado con ningún clip de las cámaras. Hay que recapturar antes y renderizar después. Además de las colas que ya se precisan para las transiciones en la línea de tiempo, es conveniente hacer una captura de todos los sublicp con colas (handles) de uno o dos segundos tanto de entrada como de salida. No es inusual que un montaje dado por "definitivo" precise de algunos pequeños retoques posteriores, por lo que estas colas serán importantes. Estas colas pueden parecer pocos segundos, pero, en una producción de larga duración, puede haber miles de cortes, miles de subclips. Si añadimos 2+2 segundos de cola por clip, la cantidad total puede superar fácilmente la hora: es necesario tenerlo en cuenta sobre todo pensando en el disco duro.
» Identificación de las cintas Otro tema importante si se trabaja con cintas es mismas. Todas las cintas comparten el mismo código 00:00:00:00 a 99 horas, 59 minutos, 59 segundos que no permite distinguir una cinta de otra. Por
» 238
la correcta identificación de las de tiempo SMPTE, que va de y 25 frames (30 para NTSC), y lo que si nos equivocamos de
PARTE III: MONTAJE Y POSTPRODUCCIÓN
cinta en nuestro VTR, nuestro ENL puede capturar por error (nuestro error, no el suyo) un clip equivocado. La identificación debe figurar claramente en la etiqueta de la cinta y también en las preferencias de captura. Es una dinámica de trabajo imprescindible, pues muchos trabajos pueden contar con decenas de cintas y realizarse a lo largo de muchas semanas. Aprovechando que la mayoría de las cintas no superan la hora de grabación, un buen protocolo de trabajo es que el operador de cámara identifique cada cinta con los dos primeros dígitos, empezando la grabación no en 00, sino en 01, 02, 03 y así sucesivamente. Si las cintas son de más de una hora, se pueden identificar igualmente como 10, 20, 30... Esto, claro está, es responsabilidad del cámara y del productor, pero facilita mucho el trabajo de montaje. » La grabación del código de tiempo Las cámaras permiten por lo general dos maneras de grabar el código de tiempo (time-code, TC): • Rec Run, de manera continua desde 00:00:00:00 (o el que se elija como TC inicial) hasta el final, independientemente de los planos que haya. • Free Run: donde se coloca un TC inicial y éste no para, se grabe o no se grabe, aunque se apague la cámara (es útil para estimar tiempos reales de grabación). Si queremos trabajar con offline de montaje, el Rec Run será nuestra opción. El Rec Run produce un TC continuo, pero con una salvedad: si por alguna razón se pierde el sincronismo (al sacar una cinta, o al visionar y rebobinar hacia adelante en demasía), y la cámara encuentra una zona virgen en la cinta, inmediatamente volverá a poner el contador a 00. Esto será interpretado por nuestra ENL como dos cintas diferentes, lo que resulta cuando menos engorroso. Para evitar este problema (además de ser rigurosos en el trabajo), está la opción de empistar previamente la cinta de cámara, grabándola completamente con el objetivo tapado. Así nos aseguraremos de que nunca se produzcan cortes en el TC. También es posible “linkar" dos o más cámaras para que tengan el mismo TC, mediante la opción de genlock. Es muy útil en grabaciones multicámara de eventos en directo, pues una vez en nuestra ENL la sincronización será inmediata. Y también es posible compartir de la misma manera el TC de una cámara con el equipo de sonido autónomo. De nuevo, facilitará enormemente la sincronización.
» 239
1. MONTAJE
» Código de tiempo en ficheros IT Si grabamos en soporte rígido, también los clips se graban con su TC correspondiente, pero además del Rec Run y el Free Run, se puede indicar por menú que cada clip (el espacio entre REC y STOP de cámara) se reinicie a cero. Hay que señalar que en grabación IT no es tan crucial el TC como en cinta. Además de por el TC, cada clip está igualmente identificado individualmente con su nombre y el resto de metadata. El riesgo de equivocación de clips es muy bajo. » Identificación de fichero IT Al grabar en IT, la cámara genera un nombre, que puede ser aleatorio y consecutivo, o se puede señalar por menú. Este será el nombre que veremos siempre. Sin embargo, en ocasiones, además de este nombre (panorámica.uno.mov, por ejemplo), internamente el sistema de archivos maneja otro nombre menos usual (por lo general, una combinación de números y letras como MXF0002AZ 345HG.mov). El primer nombre es el que mostrará nuestra ENL, y podremos modificarlo sin problemas si nos apetece, pues la ENL no se equivocará en la identificación. Pero también a través del sistema operativo de nuestro ordenador podremos acceder al segundo, si bien es aconsejable no cambiarlo nunca. Sucede de manera parecida en ciertos ENL a la hora de la ingesta: dentro del programa se identifica el clip con un nombre, y fuera de él, en el sistema operativo, con una combinación de letras invariable.
» Tipos de fichero IT Cualquier grabación en soporte rígido de un clip de audio y vídeo es un fichero IT. Actualmente, muchos dispositivos permiten capturar imágenes en movimiento: teléfonos móviles, cámaras de vigilancia, webcams, cámaras de fotos, etc. Generalmente, este tipo de dispositivos grabarán los archivos con códecs y extensiones universales (para Windows tipo .avi o .wmp, para Apple tipo .mov) de una manera sencilla, sin prácticamente metadata asociada. Los cámaras más profesionales utilizan los protocolos profesionales MXE y por lo general suelen adoptar una estructura de subcarpetas. En cada carpeta irá un tipo de fichero: en unas el audio, en otras el vídeo, en otras unproxie (si la cámara lo genera), en otra un thumbnail o viñeta de identificación, en otra metadatos, en otra el canal de audio para comentarios del operador, etc. No hay una única estructura de subcarpetas para todos los archivos.
» 240
PARTE III: MONTAJE Y POSTPRDOUCCIÓN
Se supone que el MXF es un contenedor universal, pero sucede sin embargo que al crearse el protocolo MXF en realidad se crearon dos: el Atom y el II-A. La diferencia es mínima: el Atom separa audio y vídeo en dos ficheros separados, y el II-A lo hace en un único fichero multiplexado. En principio, el Atom iba a ser el protocolo de “producción" (captación, edición y postproducción) y el II-A el de distribución de la señal. Pero algunos fabricantes implementaron en sus cámaras el protocolo II-A que no era reconocido, en un primer momento, por algunos ENL que esperaban sólo protocolos Atom, lo que originaba incompatibilidades. Se trata, otra vez, de argucias empresariales por parte de alianzas de diferentes broadcasters que, afortunadamente, se superaron, y hoy en día casi todos los ENL pueden trabajar nativamente con cualquier fichero MXE Pero advertiré que digo “casi'‟, y que además la situación puede cambiar: siempre habrá que leer especificaciones, actualizar las versiones del ENL y estar atentos a los movimientos del mercado. » De offline a online mediante EDL En ocasiones, preferiremos recapturar todo el material no en nuestra ENL, sino en el programa de postproducción con el que continuaremos el trabajo. Para ello se usan las listas de decisiones de montaje (Edition Decission List, EDL). Las EDL se usan también en algunas editoras AB Roll. Una EDL es un pequeño archivo de texto que tiene muy poca información. En la mayoría de las EDL (hay diversas variaciones comerciales, pero suelen ser bastante compatibles entre sí), la información de metadata se limita al nombre del clip, los puntos de entrada y salida de cada clip y su colocación la línea de montaje (mediante el Timecode o código de tiempo de la línea de tiempo) y a unas pocas transiciones: encadenados, cortinillas sencillas y poco más. La gran limitación de las EDL más utilizadas es que sólo admiten una pista de vídeo (y generalmente una o dos de audio). Esto nos obliga, si tenemos activas más de una pista de vídeo, a exportar como EDL diferentes cada una de las pistas de vídeo de nuestro timeline para poder reconstruir el montaje original. Para superar las limitaciones de las EDL se han creado lenguajes de metadata más avanzados. » Lenguajes de metadata En la actualidad los editores ENL pueden realizar un sinfín de operaciones con los planos: pueden trastocar su cadencia (time relapsed o re-timing), pueden aumentar o disminuir la pantalla (resize), mover el punto central (move anchor point), voltearlos horizontal y/o verticalmente (ílip, flop), tocar parámetros de color (color correction), generar cortinillas 3D, etc. » 241
1. MONTAJE
Además de eso, a diferencia del montaje tradicional en moviola o AB-Roll, se trabaja con sistemas multicapa, es decir, con varias pistas de vídeo al mismo tiempo. El montaje multicapa y los efectos complejos no tienen cabida, pues, en las sencillas EDL. Para ello, se han creado unas listas de montaje mejoradas que pueden incluirlas: los lenguajes de metadata compartida. » Estándares comerciales Como es habitual, una vez más por motivos comerciales, no hay un único estándar. Avid creó en su momento el formato OMF (Open Media Framewoik, en versión 1 y 2), que posteriormente amplió y mejoró en el actual AAF (Advanced Authoring Foimat). Este archivo de metadata está abierto actualmente a otros fabricantes, pero eso no quiere decir que sea adoptado por ellos. En las plataformas Apple, la tecnología usual es la XML (basada en los protocolos de internet, extended Markup Language). Muchos programas de edición y postproducción también entienden este lenguaje. En ocasiones, este código XML se puede manejar mediante scrípts (pequeños "guiones" o instrucciones informáticas que pueden ser interpretadas por un software en concreto). De nuevo, antes de tomar una decisión sobre qué lenguaje de metadata utilizar, hay que leer las especificaciones de todas las herramientas que encontremos en la línea de producción. » Mejora en el flujo de trabajo La utilización de estas “edl" mejoradas o “lenguajes de metadata” va más allá del simple paso del off al online. Si dos programas comparten el mismo lenguaje de metadatos, pueden manejar prácticamente la misma información. La utilidad es grande, pues nos ahorramos los lentos y delicados procesos de renderización y transfer. OMF el primer lenguaje de Avid, hacía compatible el montaje de las pistas de audio del Timeline entre su programa de edición de vídeo y uno de sonido como Protools. Esto permitía que el mezclador de sonido dispusiera de la misma información con sólo abrir el pequeño fichero OMF y se ahorrara el complicado proceso de remontar todas las pistas de audio una a una. Pero aun así, era preciso enviar un archivo de referencia con el vídeo para una correcta sincronización. Generar este archivo retrasaba el trabajo y consumía recursos. Con los formatos AAF el XML u otros, ya se podría incluir la pista de vídeo, sin necesidad de renderizar: sólo es necesario que los diferentes programas re-
» 242
PARTE III: MONTAJE Y POSTPRODUCCIÓN
conozcan el mismo lenguaje. Si además disponemos de un acceso a los media común, varias estaciones de trabajo pueden trabajar de manera paralela, compartiendo la lectura de los mismos ficheros originales y actualizando en tiempo real las variaciones. » Las suites de edición Esta versatilidad ha animado a muchos fabricantes de soluciones informáticas a ofrecer paquetes completos de programas de montaje y postproducción. Son las llamadas suites, donde a un programa central de ENL se le añaden soluciones para el trabajo 2D, 3D, audio, incrustación de textos, corrección de color, etc. Compartiendo el mismo lenguaje, estos programas optimizan el tiempo de trabajo. El inconveniente, claro está, es tener que dejar de trabajar con otros programas que no leen su metadata (nuevamente, una cuestión comercial, no técnica). No obstante, en este sentido la tendencia de ser compatibles unos con otros es cada vez mayor entre todos los fabricantes. También existe la posibilidad de recurrir a empresas independientes con conocimientos informáticos que diseñen programas auxiliares y plugins para este intercambio de metadata: convertir un fichero AAF a XML, por ejemplo. » Cine: proceso tradicional Si el material online es fotoquímico, y queremos realizar un trabajo de postproducción en laboratorio, lo usual es mandar una EDL específica al laboratorio para que se proceda al corte de negativo. Este proceso consiste en seleccionar las partes del negativo filmado y cortarlo físicamente. Es un trabajo delicado, que debe realizarse en total asepsia para evitar daños en el negativo. Para facilitar el trabajo de truca, se corta el negativo en dos rollos, uno para los planos pares y otro los impares, colocando colas y material neutro (cola blanca transparente) entre ambos. Esta EDL específica para cine la generan ENL preparadas para calcular los cambios de cadencia entre lo que vemos en la sala de edición (25 o 29,97 fps) y el resultado final (24 fps). Hoy en día se cuenta con la ventaja de que es posible disponer de material de vídeo a 24 fps. Las referencias se ajustan al pietaje del negativo. El pietaje funciona de manera similar al código de tiempo del vídeo: cada uno de los fotogramas se identifica mediante una combinación de números y siglas particular.
» 243
1. MONTAJE
Es conveniente también enviar un DVD o cinta al laboratorio con el montaje y el pietaje y el TC en pantalla para evitar errores.
» Cine: proceso con intermediación digital Si queremos contar con material fotoquímico para seguir un proceso totalmente digital, DI, también mandaremos una EDL para cortar el negativo, pero en ese caso procederemos a su escaneo láser en 2K o 4K, generando secuencias de ficheros dpx. Obviamente, no se realiza ninguna transición ni efecto previo, pues se hará todo digitalmente. Una vez que tenemos el disco duro con los dpx en la sala postproducción, haremos el conformado de montaje con la misma EDL, o similar en la herramienta de postproducción que vayamos a utilizar. » Exportación vía referenciado Otra opción similar a estos lenguajes es la "exportación referenciada", sin "media". Se crea un fichero de audio y vídeo desde el ENL (un quick time, por ejemplo), pero que no contiene ni audio ni vídeo, sino que permite ir leyendo en el disco duro toda la secuencia de montaje original. Sirve para el mismo propósito de multitarea entre diferentes programas (edición, postproducción, sonido...), ahorrándonos tiempo y espacio en el disco duro. Hay que tener en cuenta que estos ficheros precisan acceder a los discos duros donde se encuentra la media. Si no, son inservibles. Si los llevamos a otro ordenador sin acceso a los discos duros donde se halla la media, no veremos nada. La exportación referenciada sólo incluye una pista de vídeo (como las EDL tradicionales). Precisa, además, una renderización previa de todos los efectos. » Renderizado de efectos y transiciones Lo mejor de cualquier flujo de trabajo es realizar el menor número posible de procesos de renderización. Pero en ocasiones es preciso renderizar algunas cosas, como transiciones o efectos sencillos. Hay que tener en cuenta una vez más con qué máquina estamos trabajando: si una que procesa la información internamente con gran profundidad (10, 12, 16 bits, o hasta coma flotante) o con una ENL que trabaja a un máximo de 8 bits. Incluso una simple transición, o una cortinilla con un filo degradado, puede verse afectada en su calidad por un mal cálculo. También hay que contemplar los posibles efectos posteriores. Si realizamos una transición entre dos planos que no han sido todavía etalonados (corrección
» 244
PARTE III: MONTAJE Y POSTPROOUCCIÓN
de color), tendremos en realidad tres clips: el entrante, la transición y el saliente. Podemos aplicar una corrección diferente al entrante que al saliente, luego, ¿qué corrección le aplicamos al render de la transición? Por estas y otras razones, si es posible, es mejor renderizar incluso las transiciones en la etapa final del trabajo. » Consolidado Una herramienta que se suele conocer como “consolidado” (consolídate), pero que también puede tener otros nombres, dependiendo de la ENL, sirve para seleccionar, de todo el material ingestado, sólo aquella parte usada en el montaje (con colas o sin ellas). Se utiliza para "limpiar” de ficheros el disco duro antes de empezar la postproducción, para hacer copias de seguridad o para trasladar todo el material de un equipo de trabajo a otro. Si se usan ficheros referenciados, también es útil hacer un consolidado. » Trabajo en red (SAN) Las EDL, los lenguajes de metadata y los ficheros referenciados son muy útiles para el trabajo multitarea. Pero con la condición sine qua non de que todos los operadores tengan acceso a los mismos discos de almacenamiento (a la información de media). Storage Acces NetWork (SAN) es el nombre que se da a aquellas soluciones que permiten el acceso a varios equipos a la vez (edición, grafismo, postproducción, audio, emisión...). Básicamente, es un gran disco compartido, pero optimizado para un alto rendimiento y un rápido acceso desde cualquier puesto de trabajo en una productora, televisión o empresa de servicios de postproducción. Y con actualización de todos los metadatas inherentes a cualquier cambio. Trabajando con el software adecuado, cualquier cambio introducido por algunos de los operadores (montador, mezclador, editor de postproducción, diseñador gráfico, colorista, etc.) se puede reflejar en las timelines del resto sin necesidad de renderizar el material. Además de ahorrarnos mucho tiempo, evitaremos la duplicación de archivos en varios discos duros, así como los siempre delicados procesos de renderizados, exportaciones y transferencias.
» 245
» 246
2. Postproducció n
El trabajo de postproducción empieza justo después del montaje definitivo y llega hasta la creación del máster digital o DSM (del inglés Digital Source Master). Dependiendo del tipo de producción, pero también del canal de distribución elegido, tendremos diferentes diseños de postproducción. No se puede generalizar por tanto un único flujo de trabajo, pero sí existe una norma: no perder calidad en todo este proceso. Esto quiere decir simplemente que nuestro máster digital ha de tener, como mínimo, la misma calidad objetiva o técnica que nuestro formato original de grabación (el que se captó en la cámara). >> Formatos para DI Una postproducción o una intermediación exigente precisa de un formato robusto. 1. Nuestra primera opción será mantener la resolución nativa y trabajar sin compresión, en cualquiera de las opciones uncompressed o 1:1 que nos permita nuestro programa. Además, intentaremos siempre trabajar con la mayor profundidad de color. 2. Si por cuestiones técnicas no fuera posible (falta de recursos o de tiempo), la segunda opción sería elegir algún códec específicamente diseñado para la postproducción, como los ya mencionados. En este caso intentaríamos mantener el muestreo completo (no todos lo permiten) y la mayor profundidad de color (una vez más, la mayoría trabaja a 8 bits; si bien sería preferible a 10 o 12 bits). 3. La tercera opción sería trabajar con el fichero nativo de cámara. Al menos, ni ganamos ni perdemos calidad: sería una crossconversion. Cualquier otra opción sería ya una downconversion y dañaría la calidad de nuestro trabajo, por lo que son altamente desaconsejables.
» 247
2. POSTPRODUCCIÓN
>> ¿Excepciones? En ocasiones, podemos realizar una downconversion antes de la postproducción. Un ejemplo puede ser la realización de programas para televisión estándar SD con cámaras HD. Personalmente aconsejaría realizar siempre una postproducción HD para terminar igualmente en un masterizado HD. A partir de él, realizaríamos una downconversion a SD en el formato que pida la cadena de televisión. Pero en ocasiones lo que se hace es una ingesta de material online en SD, continuando el flujo de trabajo en SD, incluyendo el masterizado. Dado que ése sería el formato final de emisión / exhibición, se podría considerar correcto. Es una forma de trabajar que se ha venido realizando en estos años de transición entre el SDTV y la HDTV, generalmente debido a que muchas empresas tenían un equipamiento de montaje y postproducción SD por amortizar. Aun así, sería aconsejable aprovechar el trabajo de edición a fin de realizar una recaptura en HD para una masterización HD. La televisión estándar es una tecnología obsoleta que desaparecerá en los próximos años, por lo que contar con un máster HD será interesante de cara a futuras reemisiones.
» ¿Por qué sin comprimir? Ya hemos comentado que el uso de compresión equivale de alguna manera a la "pérdida por generación” en el analógico. Toda compresión comporta pérdida de información y aumenta el ruido inherente a la señal de vídeo. / Compresión / Pérdida de calidad producida por la excesiva compresión de una imagen
» 248
PARTE III: MONTAJE Y POSTPROOUCCIÓN
Otro problema de los ficheros comprimidos es que al aplicar un efecto, nuestro software los descomprimirá, calculará el efecto y volverá a comprimir la imagen para guardar el formato. Eso equivale nuevamente a una pérdida. Si acumulamos muchos efectos, iremos acumulando pérdida tras pérdida y aumentando el ruido. Por último hay también un argumento que a veces es difícil de entender: si trabajamos sin compresión (y sin submuestreo), nuestra máquina trabajará más rápido. Nuestra tarjeta de vídeo espera ofrecernos en la pantalla datos puros sin comprimir RGB 8 bits. Si tenemos un formato comprimido 4:2:2, el procesador del ordenador y/o el de la tarjeta de vídeo (dependiendo de la configuración) tendrán que utilizar sus recursos RAM para hacer el cálculo de descompresión y el submuestreo. Asimismo, a la hora de calcular efectos para renderizados y exportaciones, el procesador trabajará más ligero y rápido. Incluso el visionado puede ser defectuoso. Sucedió al inicio de presentarse el formato HDV (mpeg2 fuertemente comprimido), y últimamente con códecs de cámara de gran compresión (AVCHD, H-264 y otros mpeg4, fundamentalmente). En señales HD y superiores, los cálculos que precisan los procesadores para descomprimir la señal y mostrarla pueden impedir una correcta visualización a la cadencia normal. Se ve entonces trabado, "a saltos". La solución suele estar en aumentar la RAM de la CPU y la GPU o incluso actualizar completamente la estación de trabajo. » Ingesta online Dicho esto, lo más común es que a la hora de hacer un ingesta online del material nativo de cámara realicemos una upconversión. Esto se debe a que la mayoría de los sistemas actuales de captación sufren una compresión, un submuestreo, un máximo de 8 bits o las tres cosas juntas. En la actualidad no existe ninguna cámara que grabe los datos sin comprimir, RGB y hasta 12 bits de profundidad. Lo cual no quiere decir que no aparezca una en el futuro próximo, pues como hemos visto en la parte dedicada a la cámara, el embudo actual no nace en el sensor, sino en el manejo y almacenamiento de los datos.
La forma tradicional de realizar esta ingesta online es a través de una tarjeta capturadora mediante una conexión HDSDi. Esta conexión nos proporciona invariablemente una señal 4:2:2 8 bits sin comprimir. Pero ¿qué sucede si el formato de la cinta o el disco duro de la cámara ya está comprimido? Lógicamente, lo que hace la cámara internamente es descomprimir los datos antes
» 249
2. POSTPRODUCCIÓN
de ofrecerlos a través de la interface digital. Es decir, una upconversion que no aumenta la calidad de la imagen, sino sólo la calidad de la señal o formato. Otro caso sería si utilizamos esta conexión HDSDi en vivo, directamente desde la cámara al mismo tiempo que se realiza la acción. Es posible hacerlo si durante el rodaje se dispone de un ordenador y una capturadora. En este caso, al evitar el paso previo de la compresión interna del camascopio, tendremos una señal pura HDTV sin comprimir, de mejor calidad. La ingesta online en vivo es complicada de hacer en muchas situaciones de grabación y rodaje. Pero cada vez se ve más en estudios y sets de rodajes debidamente preparados y cableados.
Una salida HD.SDI Dual Link nos proporcionaría la misma posibilidad, pero en 4:4:4. Una última posibilidad, de aún mayor calidad, es la ingesta en vivo y en RAW de los datos provenientes del sensor. Esto lo permiten algunas cámaras a través de interfaces informáticos, como Giganet, Ethernet y otros. Sería el máximo de calidad alcanzable, pero, por contra, necesitaríamos cantidades ingentes de almacenamiento. » Límites al trabajo sin compresión Evidentemente, hay un límite para la compresión: el que nos proporcionan los discos duros. A mayor calidad, mayor bitrate y mayor peso. Por lo que precisaremos discos duros más grandes, más rápidos y con conexiones ultrarrápidas a la CPU. Debemos tener siempre presente el dato más común: una señal HD 1.080 4:4:4 8 BITS 25 fps tiene un flujo de datos de 1,2 gbs (800 mbs si se tratara de 4:2:2). Dado que los procesadores son cada vez más rápidos, es en el almacenamiento donde se produce el actual “cuello de botella” de la postproducción. Un cuello de botella se produce en la velocidad de lectura del propio disco duro. Esta velocidad depende del tipo de disco y las revoluciones por minuto que alcanzan sus cabezas lectoras (5.600, 7.200,10.000 rpm), así como las conexiones de transferencia de datos (interfaces): SATA, SCSI, etc. Los discos duros tradicionales están llegando a su límite "físico": no pueden almacenar más datos ni leerlos o grabarlos a más revoluciones. Por eso están teniendo un gran auge los soportes rígidos (en este caso se refieren a no tener partes móviles), como las tarjetas SD, Compac Flash, Xpress Card y otras posibles innovaciones futuras.
» 250
PARTE III: MONTAJE Y POSTPRODUCCIÓN
» RAID Una solución al "embudo" de los discos duros es disponerlos en modo RAID. Esta palabra es el acrónimo en inglés de “conjunto redundante de discos baratos" (redundant airay of inexpensive disks), y como su nombre indica no opta por incrementar la capacidad de transferencia de un solo disco (mejor y por tanto más caro), sino por distribuir el flujo de datos entre una serie de discos de menor velocidad (y por tanto más baratos). Antes de la conexión con los discos duros, hay una etapa en la que se distribuyen los datos en los diferentes discos duros. Si, por ejemplo, tenemos una RAID de dos discos, y nos llega un flujo de 1,2 gbs, podemos mandar sólo 0,6 gbs a cada disco, permitiendo una grabación y lectura muy ágil. Y si disponemos de 4 discos, el flujo que llegaría a cada disco sería sólo de 0,3 gbs. » Tipos de RAID Lo anterior sería una RAID 0: se distribuye el flujo entre el número de discos que disponemos. Pero también podemos aprovechar esta estructura para grabar dos veces la misma información, haciéndonos con un respaldo o copia de seguridad instantáneo. Sería lo que se conoce como RAID 1. Mayores niveles de RAID (2, 3, 4...) nos permiten aumentar nuestro nivel de seguridad, haciendo copias con mayor protección. Un nivel RAID 1 simplemente hace una copia del material en otro disco duro; pero si éste falla, se puede perder la información que guardaba. En niveles superiores de RAID, esta información se distribuye en todos los discos duros, de manera que, aunque uno de ellos falle físicamente, se pueda recuperar toda la información a partir del resto de discos.
» 251
2. POSTPRODUCCIÓN
» SAN Los límites de la RAID son los flujos de datos entre el distribuidor y la interface o conexión a la CPU. El mayor problema que nos encontramos a la hora de trabajar en HD o 2K es que la arquitectura informática de usuario actual está diseñada para flujos de hasta 1,5 gbs. Como vemos, muy cerca del límite de 1,2 gbs que hemos señalado para la señal estándar HD1.080 o 2K 4:4:4. (No obstante, ya se está hablando en la industria IT de un estándar de 3 gbs, que sería de gran ayuda para toda la industria audiovisual.) Soluciones más profesionales, no estándares, permiten arquitecturas y conexiones extremadamente rápidas, incluyendo en ocasiones sistemas operativos no usuales (UNIX y otros). Por eso muchas herramientas de postproducción de alta gama se venden con estaciones de trabajo específicas, previamente comprobadas por las casas. La opción más común en muchas empresas de postproducción es el trabajo con SAN ultrarrápidas. No sólo permiten, como hemos visto, el trabajo multitarea en diversos equipos de trabajo, sino que aseguran unos altísimos flujos de datos, permitiendo sin problemas incluso varios streams HD sin compresión. » Capacidad de cálculo del software La otra variable importante para un buen flujo de trabajo es la capacidad de cálculo de nuestro equipo.
» 252
PARTE III: MONTAJE Y POSTPRODUCCIÓN
La capacidad de realizar un cálculo ajustado de los parámetros se mide también en bits: 8, 12, 16 o en “coma flotante" (en función de lo que requiera la imagen, hasta el límite de la combinación software+hardware). Una señal de 8 bits de profundidad de color exige como mínimo 8 bits de cálculo. Pero con 12 o 16 bits cualquier efecto siempre será más ajustado, más fino. Lo mismo sucede con el tamaño de la imagen: cuanta más resolución tengamos, más bits precisaremos para proporcionar una mejor definición del efecto. El ejemplo típico en estos casos es efectuar un degradado suave en una imagen: con un cálculo a 8 bits, el degradado nos permitirá 256 niveles; pero con 12 bits nos permitirá 2.048. Si estamos hablando de una imagen de HD, que tiene hasta 1.920 píxeles en horizontal, es casi inevitable que encontremos banding con sólo 8 bits / 256 niveles en un degradado.
En general, las programas puramente ENL trabajan a 8 bits de cálculo, mientras los programas y las soluciones específicas de postproducción nos permiten usar mayor profundidad. Por eso, una vez más, no es conveniente realizar trabajos de postproducción con programas y máquinas pensadas sólo para el montaje. » Etapas de la postproducción: renderizados Como hemos dicho, cada producción tiene su propio flujo de trabajo, dependiendo de qué es lo que se quiera conseguir. Por postproducción podemos entender un etalonaje sencillo y los títulos de crédito, o un proceso largo que exija incrustación de CGI tanto 2D como 3D,
» 253
2. POSTPRODUCCIÓN
utilización de imágenes superpuestas (por llaves o keys de luminancia o color), composición simple, uso de cortinillas simples o parametrizadas, rotulación especial, colorimetría, etc. Es posible que en algún momento precisemos de un renderizado previo antes de pasar a una nueva etapa. Aun contando con la mayor calidad de formato y de programa de edición, siempre se pueden generar ruidos y efectos no deseados; sobre todo si se trata de formatos de trabajo comprimidos. Por eso debemos diseñar el flujo de trabajo (workflow) para evitar en la medida de lo posible los renderizados, o realizarlos de manera conjunta al final del proceso. Y evidentemente hacer todos los procesos con la máxima exigencia. La calidad final de nuestro trabajo estará determinada no por el proceso de mayor nivel, sino precisamente por el de menor nivel.
Lo ideal sería trabajar en una sola máquina, pero es difícil que una sola máquina y un solo operador realicen bien todos estos procesos. Por lo general, se usan diferentes herramientas para diferentes efectos. Habrá un programa y un operador especializado para generar e incrus- tar efectos CGI 3D. Se le enviará el clip o corte que precise, y él lo devolverá ya renderizado para pasar a colorimetría. Trabajando con la máxima calidad y exi- gencia (siempre up/crossconversions), minimizaremos en lo posible las pérdidas de calidad de estos renderizados intermedios. Depende también del supervisor de postproducción que se minimicen en la medida de lo posible estos pasos intermedios, que se mantenga el nivel de calidad en todos ellos y que nunca se haga dos veces, innecesariamente, el mismo proceso. » Incrustación de imágenes generadas por ordenador (CGI) Una cuestión a considerar son las imágenes o efectos generados por ordenador, sean 2D o 3D. Dado que la informática siempre trabaja a muestreo completo, RGB, estas imágenes serán igualmente 4:4:4. Por sus propias características, además, se pueden generar con calidad de 10, 12 o más bits de color. El problema surge cuando nuestro material nativo, sobre el que incrustaremos estas imágenes, es 4:2:2 8 bits, que es lo más común. Aunque hayamos hecho una ingesta online a un formato superior (upconveision a 4:4:4 12 bits, por ejemplo), ya hemos dicho que esto no supondría una mejora en la calidad, y que la imagen adolecerá del submuestro y profundidad de color nativo. En este caso, para que ambas "texturas” casen, quizá sea necesario, paradójicamente, rebajar un poco la calidad del original CGI, reduciendo el muestreo o incluso añadiendo un poco de "ruido” artificial. »
Broadcast safe
Algo a tener en cuenta cuando se trabaja para televisión, es el pequeño "recorte” de la señal que sufre la imagen tanto por arriba (blancos) como por abajo (negro). Es lo que se conoce como broadcast safe, que se podría traducir como "margen (de seguridad) profesional”. Básicamente, lo que se hace es constreñir los valores de la señal de 8 bits no entre 0 y 255, sino entre 16 y 235. Por debajo de 16, se considera todo negro, por encima de 235, todo blanco.
» 255
2. POSTPRODUCCIÓN
Si está dentro de estos márgenes, se considera una "señal legal"; si los supera (en brillo o en saturación) hablaríamos de una señal ilegal que no se visionaria correctamente en los. televisores e incluso podría provocar trastornos visuales y hasta jaquecas.
» Masterizado final: el negativo digital o DSM Terminados todos los procesos de intermediación, procederemos a realizar el renderizado final. Por lo general, será una secuencia de ficheros del mismo formato de la ingesta (dpx de 10 bits, tifs de 16 u otros). Para evitar confusiones, estos ficheros se vuelven a renombrar correlativamente a partir del cero hasta el fotograma X donde termine la obra. Esta secuencia de ficheros es lo que se conocería como máster digital, y personalmente lo considero como el verdadero negativo o resultado final de nuestro trabajo. Hasta ahora, el verdadero valor de una producción cinematográfica, después de haberse gastado millones de euros en sueldos, alquileres, decorados que se destruyen y otros gastos, eran los aproximadamente cinco rollos con el negativo cortado. Todo el gasto se resumía en él, y por eso se cuidaba con mucho mimo y, si entraba dentro del presupuesto, se realizaban copias en internegativo para ponerlo a salvo de los destructivos procesos de tiraje de positivos.
Aún más: ¿podemos estar seguros de que dentro de veinticinco años, incluso en condiciones ideales de conservación, los datos informáticos almacenados en estos sistemas (discos duros, DVD) seguirán ahí? Rotundamente, no: no lo sabemos. Incluso corremos el riesgo de la obsolescencia tecnológica: que desaparezcan los sistemas de lectura apropiados. Quien todavía conserve un flopydisk de cinco pulgadas, o incluso un disquete de tres y media, sabrá de lo que hablo: hoy ya no se venden sus cabezas lectoras, ya no podemos acceder a esos datos. Recientemente se han dejado de fabricar magnetos VHS, y no sabemos si dentro de veinticinco años se venderán todavía lectores DVD. Lo más probable es que dentro de veinticinco años toda una filmoteca quepa en un aparato del tamaño de una uña, que se situará no en un lugar físico, sino virtual, en alguna nube de la galaxia internet.
Esto ya ha sucedido. Todos tenemos en la memoria muchas imágenes de la guerra de Vietnam, pero muy pocas de la invasión soviética de Afganistán. No sólo se debe a posibles motivos políticos y/o de censura, sino que en esos años el reporterismo de televisión pasó del engorroso pero fiable 16 mm como soporte estándar, al vídeo broadcast analógico. Las cintas analógicas, se supo más tarde, resisten muy mal el paso del tiempo, así que al cabo de cinco o diez años, incluso sin haberse utilizado nunca, todos los archivos analógicos estaban tan deteriorados que no servían como documento. » Otras opciones para el backup Aunque parezca paradójico, algunos de los sistemas de seguridad de datos informáticos más avanzados se basan no en discos, sino en cintas. Son cintas específicas, distintas a las usadas en audiovisual, pero que ofrecen una fiabilidad y rapidez de acceso envidiables. Las empresas financieras, por ejemplo, usan servidores centrales basados en sistemas de cintas por considerarlas más fiables que los discos duros. En el mundo audiovisual, con el tiempo irán apareciendo empresas que ofrezcan este tipo de servicios: almacenamiento, cuidado y copias de seguridad periódicas de nuestros DSM. Pero aquí llegamos a otra paradoja: sí conocemos un sistema que ha demostrado su fiabilidad durante más de cien años: el negativo fotoquímico. Bien almacenado, puede conservarse durante decenas de años. Aunque sufra daños se puede proceder a su restauración. Y, más importante aún, su mecanismo de lectura es muy simple: pasarlo a través de una luz. No hay riesgo de obsolescencia.
» 260
PARTE III: MONTAJE Y POST PROD UCCIÓN
Incluso, como hemos visto, el fotoquímico sirve para guardar los datos de manera digital.
Por eso muchas productoras optan por un escaneado a negativo del DCM aun en el caso de que no se haya previsto una distribución en salas.