MATERIAL DE ESTUDIO / VA y D.

8 oct. 2016 - una terminología en exceso rebuscada, con profusión de términos en inglés, ..... El NTSC es un sistema americano, el PAL es alemán y el SECAM, francés ...... partido de fútbol o una carrera de cien metros libres, la diferencia ...
3MB Größe 51 Downloads 62 vistas
MATERIAL DE ESTUDIO / V.A. y D. Fuente: CINE Y TELEVISIÓN DIGITAL AUTOR: Jorge Carrasco.

PRÓLOGO

La

imagen

estática,

aplicaciones curso

las

industriales

de

los

últimos

películas

cinematográficas,

y

científicas

veinte

años,

han

el

la

televisión

ampliado

empleo

y

el

y

las

múltiple;

considerablemente, tratamiento

de

en

la

e

imagen

digital. Por consiguiente, el conocimiento de los principios y las funciones de la digitalización

ha

adquirido

cada

vez

mayor

importancia

para

los

directores

d
> Calidad e información

Cada

uno

menor

de

de

imagen,

estos

bits

más

cinco

de

conceptos

información.

correctamente

se

puede

estimar

Inequívocamente,

representará

la

en

una

cuantos

realidad

y,

cantidad

más por

bits

ende,

mayor tenga

más

o una

calidad

objetiva o técnica tendrá. Esta

es

una

norma

general

e

indiscutible

del

audiovisual

digital

que

hay

que

tener en cuenta: a mayor información, mayor calidad. Por

otro

lado,

cuanta

mos

que gestionar, mayores

tanto

de

ceptos caseros, ciones relación

más

información

serán

las

captación

(cámaras)

como

informáticos

generales,

e

valen

igualmente

significará

mejores

calidad/precio

de

el

mundo

los

cuantos de

postproducción

incluso

para

manejemos, exigencias propios

audiovisual

se

mantiene

en

el

bits

tenga-

equipamientos,

(ordenadores).

Los

de

ordenadores

nuestros

digital.

calidades y, generalmente, aumento en los

también

más

nuestros

equipamiento

Mayores

conpresta-

precios. La digital,

pero con

la novedosa ventaja de que la propia idiosincrasia de la industria informáti- ca nos

ha

permitido

tener

precios más asequibles.

en

los

últimos

años cada

vez

mejores

prestaciones

a

3. La resolución

» Definición

La está

resolución

es

formada

una

un

concepto

imagen

sencillo:

digital.

A

indica

mayor

el

número

número

de

de

píxeles

píxeles,

de

mayor

los

que

resolución,

lo que significa mayor calidad.

/ Resoluciones / 4.096 p(h)

En este gráfico se muestran las resoluciones de cine digital Full Aperture, no las ya mencionadas del DCI. Las diferencias se explican más adelante.

» 67

3. LA RESOLUCIÓN

En fotografía digital se suele hablar de más o menos "megapíxeles" o millones de píxeles. En cine y televisión lo habitual es referirnos a la resolución por una sola cifra: bien la del número de líneas o bien el número de columnas. Pero el sentido es el mismo: contar píxeles. » Cine y televisión

En el gráfico anterior podemos del mundo de la televisión y el cine. Como En

el

ya

caso

apunté, del

cine

las

ver

todas

resoluciones

digital,

nada

las

de

nos

resoluciones

televisión

impediría

estandarizadas

siempre

digitalizar

son un

propias

más

precisas.

fotograma

a

una

resolución tipo 3K (3.072 x 2.240), por ejemplo. O incluso en el futuro podamos trabajar con resoluciones de 8K (8.192 x 5.980). Tampoco lución

nadie

extraña,

nos

como

impide, 1.345

x

en 713.

internet, Pero

formatear nunca

una

serían

obra

en

una

resoluciones

reso-

estándares,

profesionales, Broadcast.

Resolucione s HDTV

Una

vez

más,

el

marco

estandarizado

de la HDTV es el que nos permitirá fijar la base de calidad. En

cuanto

a

la

resolución,

tampo-

co hay hoy en día un único formato. Por

razones

históricas

y

comerciales

que no viene al caso comentar, la recomendación ciones

ITU

profesionales:

admite

dos

1.920

1.280x720.

Hay que señalar que, a día de hoy, la inmensa mayoría de las cadenas de televisión emiten en SD, y, por eso, aún no está fijada totalmente la normativa general de la HDTV Pero de los cuatro parámetros, sólo la cadencia parece todavía en discusión. Hay un intento de crear una nueva y única cadencia, 23,976 fps, en progresivo, pero no parece que vaya a salir adelante. Véase el anexo “Non Drop Frame / Drop Frame".

x

resolu1.080

y

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

» Cambio de relación de aspecto (aspect ratio)

El formato de pantalla o relación de aspecto (AR) es la relación entre el número de columnas y el número de filas de nuestra pantalla (entre el ancho y el largo, si se quiere). Se suele expresar bien por una fracción (4/3,16/9), por el resultado de esta

división

(1,33

y

1,78

respectivamente)

o

también

por

la

relación

expresada

en referencia a la unidad (1:1,33, 1:1,78). Al contrario que, por ejemplo, en el mundo de la fotografía, donde cada cual puede el

“formatear"

mundo

de

o

la

encuadrar

televisión

sus

y

el

obras cine

en

el

tamaño

profesional

exige

y

relación

unas

que

normativas

desee, estrictas.

Sobre todo, el mundo de la televisión, pues es inviable que en cada hogar cada uno opte por una relación de aspecto diferente. Observamos que la televisión SD, tanto PAL como NTSC, ofrecía una relación de aspecto de 4/3 (1:1,33). En HD, la relación cambia, y siempre será 16/9 (1:1,78). Por eso nos basta con una cifra para saber siempre el número total de píxeles, y ya hemos comentado que en el mundo de la televisión se suele hablar de líneas o resolución vertical. Así pues, nos referimos a estas resoluciones como 720 o 1.080, sin más, obviando la cifra de resolución horizontal. » Dos estándares

Que

haya

dos

tipos

culiaridades

del

de

resoluciones

mundo

audiovisual

estándar, en

un

y

no

tiempo

sólo

de

una,

se

transición.

debe En

a

pe-

un

primer

momento, la Rec. 701 hablaba de un formato 1.080 interlazado y otro 720 progresivo

(hablaremos

de

estos

términos

en

el

capítulo

dedicado

a

la

cadencia),

que

ofrecían una calidad visual muy similar. Sin embargo, hoy también se admite el formato 1.080 progresivo, que es claramente superior a los otros dos. En

la

actualidad,

dependiendo es

trabajar

el

generalmente

mercado del

ofrece

fabricante,

con el formato 1.080, pues

equipamiento pero

la

en

tendencia

las

dos

cada

resoluciones,

vez

más

proporciona más información y,

clara

por ende,

más calidad, en especial si es en modo progresivo. No niente más

obstante, a

la

el

formato

transmisión

eficientemente

720

de

no

la

comprimido,

debe

señal. y

Al

ocupar

descartarse,

sobre

todo

en

tener

menos

información,

menor

“ancho

de

banda”

lo

concer-

puede o

ser

bitrate

(algo menos de la mitad que el 1.080). Esto lo convierte en una opción óptima para

algunos

canales

de

distribución,

como

internet

o

la

televisión

digital

te-

rrestre. También es menor el coste de fabricación de los televisores y, cosa no despreciable,

se

pueden

fabricar

de

menor

tamaño:

¿quién

va

a

instalar

un

32

pulgadas en la cocina de su casa? Hablaré de ello en la parte dedicada a la distribución.

» 69

3. LA RESOLUCIÓN

En cualquier caso, y como ambas resoluciones son estándares, compatibles: un monitor 1.080 debe poder mostrar una señal 720, y viceversa.

han

de

ser

» HD Ready y Full HD

Comercialmente,

se

crearon

dos

etiquetas

de

cara

al

usuario

no

profesional

que

han tenido cierto éxito: HD Ready y Full HD. En

las

parecía

tiendas

más

fácil

que permite una

de

electrodomésticos

explicarlo

con

no

estos

resolución de 720

(un

suelen

nombres.

hablar

de

HD

tecnología,

Ready

sería

así

el

que

monitor

mínimo de 1.280 x 720 píxeles)

y Full

HD aquel que permite la reproducción en formato nativo de una señal 1.080 (un mínimo de 1.920 x 1.080 píxeles de resolución). ¿Eran digo,

sólo

tecnología

necesarias tenemos informática,

estas dos

etiquetas?

Lo

eran,

resoluciones

de

televisión,

donde

las

posibles

porque

a

estos

resoluciones

pesar

de

monitores

son

mucho

que, se

como

basan

más

en

amplias:

VGA, XGA, SXGA, etc. Lo veremos un poco más adelante. A la postre, hoy se asocian HDReady al 720, y HDFull al 1.080.

>> Ultra High Definition

Tampoco

se

soluto

nuevos

maras

para

pueden el

estandarización están

descartar

estándares futuro. como

trabajando

abcá-

Organismos la

en

en

y nuevas

la

de

SMPTE

ya

normativa

que

definiría a largo plazo la televisión de ultra

alta

propuestas

definición. serían

En

dos:

este caso, UHD

las

4.320

UHD 2.160. Sería conveniente, aunque poco probable, que los estándares futuros de cine digital (8K) coincidieran con los de la televisión UHDTV Una vez más, estarán en juego las cuestiones comerciales.

Resolución en el cine digital y HR

» Formato de pantalla

El cine no comparte ni tamaño de pantalla ni relación de aspecto con la televisión.

» 70

y

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Después

de

todo,

cualquier

resolución,

que

por

sale

el

en

una

sala

simplemente

proyector.

de

cine

nosotros

“cacheando”

Podríamos,

(del

incluso,

hablar

podríamos

proyectar

inglés

catch)

la

de

resoluciones

casi

imagen en

forma

de círculo, ¿por qué no? No

obstante,

cinematográfica nes

de

y

en

sabemos,

ya

en

diferentes estándares.

sus

académico inicios.

Una

vez

que

difícil

que

pueda

Sin

embargo,

de

coste

utilizar

otras

relaciones

de

una

etapas La

(Academy),

equipamiento.

dena

es

precisamente

consideradas

formato

televisión

evitar

estableció

aspecto

denominada

para

excesiva

de

su

clásica

fue

y

que

la

televisión

cambiarlo, en

pues

cine

aspecto,

fue

y

así

historia en la

la

tiempo

que

adoptó un

toda

mucho

surgieron

relaciola

1:1,37,

(1,33)

formato,

cambiar

supone

industria

algunas

su

adopta

implica

no

variedad,

varios,

la

como

la

problema

cani

generalmente

intentando diferenciarse de lo que ofrecía su gran competidora, la televisión.

Surgieron

así

los

formatos

panorámicos,

de

los

que

ha

habido

varios

ejemplos.

Pero, a día de hoy, y abandonado el académico, el cine suele trabajar con sólo tres relaciones de aspecto: 1:1,66, 1:1,85 y 1:2,35. Y el primero de ellos está en franco abandono.

El formato televisivo 16/9 o 1,78 es muy similar al cinematográfico 1:1,85, pero no son iguales. La diferencia estriba en un 4 %; es pequeña, pero puede producir efectos indeseados si no se tiene en cuenta.

» 71

3. LA RESOLUCIÓN

» Resolución horizontal

Al haber diversas opciones, en cine se adoptó la costumbre, mucho antes de que se

popularizara

líneas de

la

o píxeles

píxeles

alta

definición,

verticales,

horizontales

de

nombrar

sino por

siempre

los

ficheros

no por

el número de píxeles

permanecería

inalterable,

el

número de

horizontales.

El número

y

el

de

los

verticales

vendría dado por la relación de aspecto que escojamos. En cine lo usual es encontrarnos, pues, con dos resoluciones: 2K y 4K. "K”, en este caso, no es más que la inicial de "kilo”. Y kilo, en informática, sabemos que significa no 1.000 (103), sino más exactamente 1.024 (2a). 2K es entonces 2 x 1.024, lo que da un total de 2.048 píxeles de resolución horizontal.

Si

relación de una

hemos

decidido,

por

ejemplo,

aspecto de 1:1,85, basta

resolución

vertical

de

con

2.048/1,85

que

nuestra

hacer una

=

1.107

película

tenga

una

simple operación para obtener

píxeles

(el

redondeo

es

obligatorio,

pues no podemos contar con decimales de píxel). De

la

misma

manera,

4K

significa

4

x

1.024

=

4.096

píxeles

de

resolución

horizontal. 2K

y

4K son

pues

las cifras

que notan

la

resolución

en

el

mundo

de

la

cinematografía digital. » Recomendación DCI

En

la

actualidad

estamos

en

medio

de

un

proceso

de

digitalización

de

todas

las salas de proyección de cine del mundo. Al contrario que en la televisión, no hay

organismos

ciones

técnicas

internacionales de

formatos.

producción

y

distribución

conocidas

como

majors)

de las

que En

cine que

supervisen

este

caso,

el han

proceso sido

norteamericanas

han

sacado

y

las

con

adelante

hagan

grandes

sede una

en

recomendacompañías

Hollywood

iniciativa

de

de (las

estanda-

rización que, a día de hoy, parece ser la que está alcanzando más consenso. Es lo que o

se

conoce

simplemente

como DCI,

Digital que

Cinema

veremos

con

Initiative, detalle

requisitos en

los

DCI capítulos

(DCI

Compliment)

dedicados

a

la

distribución (parte IV del libro). La normativa DCI ha decidido optar por sólo dos formatos de pantalla: el 1,85 y

el

2:39,

abandonando

definitivamente

el

resto,

y

dentro

de

los

dos

tamaños

citados: 2K y 4K. En el caso del 2K, y para que quepan correctamente estos dos aspects ratios, el formato contenedor tendrá un máximo de 2.048 x 1.080 píxeles (es decir, muy semejante al 1.080 de la televisión). Si la película es de formato 2,39 (se han redondeando las cifras, por el motivo antedicho), la parte visible será 2.048 x 858.

» 72

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Si el formato es 1,85, entonces tendremos una parte activa de 1.998 x 1.080. Los cálculos son similares para el 4K DCI.

/ Resoluciones DCI para cine: 4K / 4K (4.096x2.160)

» 73

3. LA RESOLUCIÓN

» E-Cinema

Los

datos

citados

son

la

propuesta

de

incorrectamente

“D-Cinema".

Actualmente,

de

mundial,

que

la

taquilla

potente en

asociación

inglés

de

imponer de

contenidos,

de

la

una

así

majors

Nacional

que

podría

por

que

finalmente

de

lo

la

de

veamos. como

Cines)

exclusivamente

DCI se

también casi

que

(conocida

Propietarios

favorecer

DCI,

dominan

será

norteamericana

norma lo

recomendación

probablemente

exhibidores

Asociación

la las

presentó

a

80

La

también siglas

quiso

dejarse

los

la

%

NATO,

no

a

llamada

el

proveedores

SMPTE

para

su

normalización.

SMPTE son las siglas de Sooiety of Motion Picture and Televisión Engineers o Saciedad de Ingenieros de Televisión e Imagen en Movimiento. La SMPTE ejerce como agencia de

normalización,

neutral.

En

privada

España

y

norteamericana,

actuaría

la

AENOR,

pero

la

internacionalmente

Agencia

Española

de

reconocida

como

Normalización, o

en

Francia la AFNOR. Los países de la UE suelen actuar de manera coordinada, si bien no ha ocurrido así en el tema del cine digital.

Un

único

que

estándar

descartar

utiliza

resoluciones

ocasiones, eventos que

para

otros

está

el

propias

único

musicales

cine del

utilizable. o

teniendo

retransmisión

el

estándares,

puede

ser

una

como

el

E-Cinema

HDTV Por

y

que

ejemplo,

es en

deportivos directamente

mucho

auge

y

con

buena mucho el

en

gran

pero

más

caso las

siempre

de

de

tampoco

hay

Cinema),

económico

que y,

en

retransmisiones

pantallas

respuesta

víasatélite por medios televisivos,

idea,

(Electronic

de

público.

cine, Al

de algo

ser

una

tendremos que pensar en

HDTV y no en 2K. No hay cámaras de televisión ni unidades móviles ni en general

ningún

equipo

televisivo

broadcast

que

trabajen

con

resoluciones

2K

o

4K. Así pues, será 1.080 o 720. Dado

que

en

ocasiones

se

usan

proyectores

más

baratos,

que

pueden

conte-

ner una señal HD, se habla de cine 1,4K, o 1,3K (que corresponderían al formato 720 o HD Ready). Hablaré de ello más extensamente en la parte IV dedicada a la distribución. » Full Aperture

Las

resoluciones

DCI

mencionadas

son

las

que

finalmente

verá

el

espectador

en la pantalla. No obstante, es usual trabajar en la industria del cine con el formato

conocido

como

Full

Aperture

(FA),

Open

Gate

abierta". También es común llamar a este formato Súper 35 mm.

» 74

o,

en

castellano,

"ventanilla

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

La idea es simple: en vez de cachear (darle

el

a

imagen)

la

las

formato o

escenas,

relación de aspecto

durante

se deja

la

filmación

de

/ Formato Full Aperture (Súper 35mm) / 1. Negativo Full Aperture (FA)

este proceso pa-

ra el final, cuando se tiran las copias positivadas

(o,

hoy

en

día,

las

Virtual

Prints o copias digitales). El

fotograma

todo

el

cuatro

del

espacio

negativo

disponible

perforaciones,

utiliza

entrelas

incluyendo

el

es-

pacio que en el positivo se reserva para la banda de sonido (en fotoquímico, el sonido siempre se graba en una herramienta como

distinta

vemos,

aspecto

de

ventanilla unos

de

nos

la

da

cámara).

una

de

1,33.

La

aproximadamente abierta

nos

"márgenes"

de

Esto,

relación

permite

tener

seguridad

(safe

area) para, por ejemplo, evitar la entrada de un micro en el encuadre correcto. Durante

el

rodaje,

tanto

el

director

como el operador tienen en su monitor unas líneas que les señalan el encuadre correcto. Si por alguna razón lo necesitaran, drar

siempre

verticalmente

podrían

reencua-

poco

el plano en

un

la postproducción, pues el resto de la información

también

se

imprime

en el

negativo. Cuando Kodak y otras empresas desarrollaron

los

digitalización años

ochenta,

taba ya

de la

primeros

sistemas

de

negativo,

allá

los

ventanilla

por

abierta

muy popularizada, por

es-

lo que

al crear el formato original Cineon optaron por darle las dos resoluciones 4K o 2K pero con ventanilla abierta y formato 1,33.

» 75

3. LA RESOLUCIÓN

Así

pues,

es

costumbre

digitalizar

toda

la

información

en

ficheros

con

reso-

luciones de 4.096 x 3.112 para un formato 4K Full Aperture y de 2.048 x 1.536 para un formato 2K Full Aperture.

No hay que confundir el Full Aperture, FA, con el Full Frame, FF. Éste es un término que se usa en el mundo de la fotografía tradicional, pero que ya se está incorporando a las soluciones más avanzadas de cine digital. Se hablará de ello en la parte dedicada a la cámara, en la sección de los sensores captadores. » Captación 2K / 4K

Las cámaras de HDTV como hemos dicho, tendrán siempre una resolución máxima de 1.920 x 1.080 líneas. En el caso de las cámaras de la categoría que llamamos de HR pueden darse dos

opciones:

una,

que

mantengan

esta

resolución

pero

amplíen

otras

calidades,

como el muestreo o la profundidad de color. La

otra

Estaríamos

opción entonces

es

que

ante

mayor número de píxeles siempre

será

existen

magnetoscopios

en

soporte

allá de las 1.080 líneas HD.

ofrezcan

cámaras

resoluciones

específicas

de

superiores, cine

del

digital,

tipo con

y

4K.

sensores

2K

con

que los tradicionales HD. Por este motivo, la grabación rígido

(VTR,

(IT), Video

sea

en

Tape

tarjetas

o en discos duros, pues

Recorder)

para

grabar

señales

no más

Sin embargo, realidad, ción. Es

el mercado nos ofrece algunas cifras y nombres más. No son, en

resoluciones decir,

propias

afectan

en

de el

formato,

sino

momento de

de

"visionado"

o

de

monitoriza-

visualizar los trabajos, no de trabajar

con ellos (al menos en un entorno profesional). Analicémoslas.

>> Resolución “nativa”

Debemos tener en cuenta estos datos a la hora de elegir un monitor o un proyector

digital

para

nuestro

trabajo

de

postproducción

y

exhibición.

Las

resoluciones

de cine y televisión digital no suelen coincidir casi nunca con las informáticas. La idea es considerar

la resolución del aparato, que siempre vendrá dada en térmi-

nos informáticos (VGA y otros) como un “contenedor‟‟ capaz de mostrar de manera “nativa” el formato de cine o vídeo que hayamos seleccionado para el trabajo. En caso contrario, lo que hará nuestro equipo será un reescalado (resizé), bien hacia arriba o hacia abajo, de la resolución del archivo. Y eso influirá tanto en su

definición,

luminosidad

en las proporciones.

y

contraste,

como

en

posibles

aberraciones

ópticas

1 Equivalencias entre señal y monitor 1

WHXGA (5.120 x 3.200)

j

4K Full Aperture (4.096 x 3.112)

"'-........,

:;;

., e z

:;;: m

z

d (j)

r¡j O· ;o

ñ

o (j)

o m :;;:

1:1 z o Gi m

r

1i'

" \0

3. LA RESOLUCIÓN

Por esa razón, es conveniente el formato que estemos trabajando.

trabajar

siempre

con

"nativos”

monitores

para

Haré una pequeña tabla de equivalencias

>> Megapíxeles

Ultimamente, cifra viene

es

común

“megapíxeles"

de

heredada

del

encontrarse en

en

referencia

mundo

de

la

algunas a

la

cámaras

resolución

fotografía,

y

de del

se

cine

digital

sensor.

Esta

obtiene

sumando

con

una

costumbre el

número

total de fotodiodos que tiene el sensor (imager). Por ejemplo,

en ocasiones

se señala como “3 CCD de 2 megapíxeles” que-

riendo indicar que consta de tres sensores de tipo CCD, cada uno de ellos de 1.920 p(h) x 1.080 p(v). La “12

confusión

es

más

evidente

o

“21

megapíxeles”,

de

la

megapíxeles",

resolución

nativa

en

herramienta

cámaras

con

no

puede

si

nos

se

un

desconocen

único dar

sensor.

una

otros

La

idea

datos,

cifra

exacta como

de

de la

el

tipo

es

lo

que

audiovisual

es

más

de máscara Bayer de que dispone. Por

otra

parte,

tampoco

es

correcto

asociar

un

“fotodiodo”,

que

contiene un sensor, a un píxel, que es lo que forma una imagen. En

definitiva,

el

uso

de

“megapíxeles"

en

el

mundo

un elemento comercial que técnico, y puede llevar a confusiones. Profundizaremos en estos conceptos al hablar de cámaras.

del

4. Profundidad de color

» Etapa A/D

Hemos están

visto

antes

divididos

en

corrientes

al

ser

que

los

sensores

fotodiodos

excitados

que

por

a

una

captadores su

vez

intensidad

de

las

producen lumínica

cámaras

variaciones (por

los

electrónicas en

pequeñas

fotones

presentes

en la luz). Hemos visto también que se precisan tres sensores, uno por cada color primario, para lograr una representación pancromática. En

una

producen una

cámara

siempre

cámara

digital

se

digital,

analógica interpone

este

variaciones estas un

esquema

en

la

variaciones

paso

previo,

se

mantiene.

intensidad se una

de

guardan etapa

El

sensor

o

microcorrientes. tal

que

cual

en

convierte

la la

los

sensores

Pero

si

en

cinta,

en

una

señal

analógica

en digital, cuantificándola en bits. Este es el proceso o etapa A/D, y es clave en la calidad digital que proporcione. » Color expresado en bits

Durante

esta

valores

numéricos.

etapa

la

onda

Cuantos

analógica más

del

valores

chip seamos

se

convierte capaces

en de

diferencias o gradaciones tendremos en nuestra imagen. Si sólo aplicáramos dos

/ Niveles de bits /

una

serie

distinguir,

de más

4. PROFUNDIDAD DE COLOR

valores

(negro

nocible,

sólo

absoluto los

y

blanco

contornos,

sin

absoluto)

ningún

tendríamos

tipo de

matiz.

una

imagen

A medida

poco que

reco-

ampliemos

la gama de tonos, obtendremos más definición. Si usáramos el sistema decimal, plos

de

10:

100,

1.000,

10.000

lo natural hubiera sido convertirlo en

tonos.

Pero

como

hemos

dicho,

el

múlti-

sistema

que

empleamos es el binario, por lo que es lógico usar sus múltiplos: 2, 22, 23, 24,..., 28, que nos proporcionarán, respectivamente, 2, 4, 8,16, 32, ..., 256 niveles. ¿Cuál es el límite? El ojo humano es muy sensible, una herramienta de precisión perfeccionada a lo largo de millones de años de evolución. Sería impensable alcanzar su grado de exactitud a una tasa de bits manejable. Así pues, es necesario

un

compromiso.

Este

compromiso

debe

ponderar,

por

un

lado,

conseguir

una representación creíble de la realidad; y por el otro, un flujo de datos, una cantidad de información manejable por nuestras herramientas. » El estándar 8 bits

El grado de compromiso para el mundo de la HDTV se fijó en 8 bits por canal: en realidad no son ocho bits, sino que 8 es el exponente: 28 = 256 niveles o tonos de gama. Como hemos dicho, en color contamos con tres canales, por lo que si calculamos

el

número

x 256 =

224

de

combinaciones

posibles

de

colores

tenemos

que

256

x

256

= 16.777.216 diferentes tonos de colores representa bles (los cono-

cidos 16 millones de colores que nos muestran nuestros ordenadores). Estamos, pues, ante una señal de 8 bits de profundidad de color. Más exactamente,

sería una

señal de "24 bits”;

al hablar de 8 bits damos por supuesto

que nos referimos a la profundidad de color por canal.

» 84

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Se suele hablar de bits por canal, y no del total de bits, pues el número de canales puede variar. Una imagen en blanco y negro, por ejemplo, sólo tiene un canal. O puede haber una imagen con los tres canales de color primarios más un cuarto, el "alfa”, que permite albergar una información de transparencia.

Si, por ejemplo, el chip capta mucha intensidad de luz, cercana a su límite, el conversor A/D le asignará una cifra alta entre el 0 y 255 (el 0, en binario, también es un valor): digamos 232. Si llega poca luz, el conversor le asignará un número bajo: 16, por ejemplo. Un gris intermedio lo cuantificar con el valor 178... » Canales separados

de “gris

Hablamos

medio”, pero

como hemos dicho que trabajamos en un sis-

tema RGB, este “gris" en realidad es un rojo, o un azul o un verde intermedio. Lógicamente, ni las ondas ni los bits se “tiñen” de ningún color,

pero nuestros

dispositivos asocian este número a uno de los tres canales. Pero,

por

otra

parte,

trabajar

con

ellos.

y

una

manera

de

al

ser

Podemos

pura

decirle

sencilla

información

a

nuestro

tendremos

una

numérica,

ordenador

imagen

“reasociarlos”,

es fácil

que

invierta

negativa,

los

donde

el

canales azul

se

trabajo

en

convierte en amarillo, el rojo en can y el verde en magenta. Este

punto

postproducción “trabajo

como

es

clave

para

entender

que

permiten

las

por

componentes

las

enormes

herramientas (de

posibilidades

digitales.

color)”,

Es

terminología

lo

ya

de que

usada

se en

conoce analógico

(véase página 393). » 10, 12 bits

¿Qué

pasaría

nuestro

si

captador,

nuestro

conversor

decidiera

darnos

A/D, más

aprovechando posibilidades?

la Sería

gran

sensibilidad

entonces

una

de cuan-

tificación de nivel superior: por ejemplo, de 10 bits por canal. El

número

al

1.023).

0

posibilidades,

de 2

pues

niveles bits ya

o

grados

más,

por

como

no serían

16

canal

sería

entonces

vemos,

nos

multiplican

millones

de

posibilidades

de

1.024

(210,

del

exponencialmente de

color,

las

sino más

de mil millones (1.0243 = 1.073.741.824) de posibles tonos o colores distintos. La

magia

de

la

cuantificación

significativamente el número de

binaria

colores

nos

por

canales

basta

con

es

que

añadir dos

para bits

aumentar más a la

señal, es decir, sólo un 20 % más de información. 8 bits por canal proporciona una gran fiabilidad con respecto a la representación de la realidad. Por eso, 8 bits es el estándar de la industria televisiva, y será

asimismo

el

que

necesitemos

para

trabajar

en

alta

definición

para

televisión

(HDTV).

»85

4. PROFUNDIDAD DE COLOR

Sin

embargo,

permite

el

realmente

demuestran

que

negativo

captar

de

35

gamas

alcanzaría

del

mm

aún

orden

es

más de

un

formato

realistas.

unos

13

de

gran

calidad

Técnicamente,

bits

(el

cálculo

los no

que

estudios puede

ser

(las

que

exacto, dado que es un soporte fotoquímico, no digital). Por

eso,

llamamos ya

las

HR)

calidades

cámaras

intentan

de

10

pensadas

ofrecer

y

12

esa

bits.

específicamente mayor

para

calidad,

Tecnológicamente,

y

es

cine

digital

muchas

probable

de

ellas

que

a

ofrecen

corto

plazo

puedan ofrecer 14 bits, lo que alcanzaría la calidad del negativo. Y a más largo plazo,

incluso

se

podrían

superar

estas

calidades

con

sensores

aún

más

sensibles

y etapas A/D de mayor potencia de cálculo. » Otras terminologías

A

esta

contraste término

característica o,

muy

apropiado

la

llamamos

comúnmente, es

latitud,

indiferentemente

rango que

se

dinámico entiende

profundidad

(Dynamic como

el

de

color,

Range).

En

número

gama, cine

el

pasos

de

dinámico

se

de

diafragma o stops que permite capturar un negativo. En expresa

electrónica en

de

ocasiones

consumo

(televisores

en

relación

una

y

tipo

proyectores),

el

rango

1.000:1,2.000:1,4.000:1,

etc.

Se

podría

asociar 4.096:1 a un rango dinámico de 12 bits, y 1.024:1 a uno de 8 bits, pero no

es

» 86

exacto,

pues

aquí

la

terminología

no

está

clara.

Hay

varias

maneras

de

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

“vender” una cifra así. Se puede referir a una medición ANSI o FF (dos formas de medir el contraste), y los fabricantes no se ponen de acuerdo en el uso de una única terminología. Además, siderar lumínica dad

en

la

el

luz del

puede

contraste

ambiente, proyector.

ofrecer

de

el Un

una

un

proyector

material proyector

mejor

(incluso

donde de

profesional)

se

proyecta,

así

poco

contraste

pero

respuesta que

otro de

mayor

hay

como

que la

mucha

con-

potencia luminosi-

contraste pero

menor

potencia lumínica. » SNR: signal

Si

hablamos

mente una

por

noise ratio de

el

cámaras,

rango

tecnología

la

dinámico

analógica,

que

profundidad

de

que

ofrecer

se

puede mide

en

color

viene el

determinada

sensor.

decibelios,

que

Pero es

principal-

el

sensor

como

se

es

expresa

generalmente el RD en las especificaciones: 54 dB, 60 dB, 66 dB... Sólo tras su paso por

la etapa A/D se cuantifica en digital. La equivalencia estaría en torno

a 1 bit aprox 6 dB. La equivalencia no es exacta, pues son dos señales distintas. Una fórmula en uso es: n° dB = 6,02 x n° bits + 1,76. Una señal de 8 bits sería equivalente a 6,02 x 8 + 1,76 aprox 50 dB.

Más y está

concretamente,

ruido

(Signal

un

Noise

inseparablemente

ampliación

y

sensor Ratio,

unida

profesional SNR,

a

transformación.

un

Este

debe

S/N). ruido

ruido

reflejar

Como

hemos

subyacente,

por

lo

la

relación

producto

general

entre

comentado, se

toda

de

su

asocia

a

señal imagen

captación, los

niveles

bajos de la señal (las sombras o negros). Un equipo debe asegurar una señal útil "limpia”, con un número de gradaciones

suficiente entre su máximo nivel

y su mínimo ausente de ruido, por debajo

del cual deja de ser una señal útil. La cifra de SNR es siempre más precisa en este caso que el simple RD o rango dinámico. Una vez más, los fabricantes no se ponen de acuerdo en usar un único dato, pudiendo leerse en las especificaciones indistintamente el valor SNR o el RD, por lo

que

en

buena

lógica

entenderemos

que

el

dato

RD

siempre

será

ligeramente

superior al SNR, y por tanto menos fiable. Como sensores,

veremos esta

señal

con

más

analógica

detenimiento expresada

bits a su paso por la etapa A/D.

en en

la

parte

decibelios

dedicada es

lo

que

a

las se

cámaras convierte

y en

Ambas etapas son importantes para determinar

la calidad de un dispositivo.

» 87

5. El muestreo

» Muestreo total y parcial

Con

lo

este

capítulo

dedicado

color

bastarían

para

hablar

explicado

de

hasta

ahora, al

determinar

muestreo es

el

mundo

muestreo

porque

reducido

del

(Sampling).

la

calidad

es

un

de

un

cine

digital

Resolución

y

formato digital.

elemento que aparece en

no

necesitaría

profundidad Si

tenemos

el mundo

de que

de la

televisión. En cine digital, el muestreo es algo que se obvia, pues sólo se contempla una opción: muestreo total o RGB. Con esto queremos decir que se cuenta con toda la información proveniente del sensor, sin eliminar ninguna muestra. Sin

embargo,

información:

los

realizan

sistemas

de

televisión

“muestreo

un

parcial”

estándar o

eliminan

una

submuestreo

de

parte

lo

de

obtenido

la en

los sensores en lo que conocemos como espacio YUV. Esto de

la

implica verdadera

compatibilidad

evidentemente capacidad

sistemas

de

una una

anteriores

pérdida cámara,

y

de

de pero

un

calidad, se

mejor

un

explica

desaprovechamiento

por

la

aprovechamiento

necesidad del

de

limitado

espacio radioeléctrico. Una señal RGB (la que sale directamente de los sensores de las cámaras) se transforma en una señal YUV mediante dos procesos: •

Una reordenación o transformación de la señal para su compatibilidad con los monitores en blanco y negro.



La eliminación de una parte de la información para reducir el flujo de datos o ancho de banda.

Hablamos entonces de dos espacios de color diferentes: RGB puro o de muestreo total, y YUV o muestreo parcial. » De la televisión en blanco y negro al color

Hasta

la

década

de

1950,

la

televisión

comercial

trabajaba

en

analógico

y

en

blanco y negro (un solo canal o “escala de grises”). Una señal en color, como

» 89

5. EL MUESTREO

hemos dicho, consta de sendos canales para reproducir entonces la sensación de “blanco y negro”?

los

tres

colores

primarios.

¿Como

Esta necesidad era una condición sine cua non para el mundo de la televisión. Al contrario que en el cine, donde un proyector sirve tanto para copias en blanco y

negro

las

como

señales

en

de

color,

los

televisión

televisores

en

color.

en

Era

blanco

necesario

y negro adquirir

no

un

podrían

nuevo

reproducir

aparato

para

poder verlas. Este

dilema

(de

alguna

manera

semejante

a

la

actual

transición

entre

SD

y

HD) planteaba tres problemas comerciales. El primero, que no se podía obligar a los

espectadores

exigían

que

a

las

adquirir

nuevas

nuevos

emisiones

equipamientos.

en

color

fueran

Los

organismos

compatibles

con

reguladores

los

televisores

monocromos ya instalados en los hogares. El segundo problema es que a las propias a

cadenas

emitir

deberían

de

en

televisión

no

pues

suponía

color,

ser

captadas

también

les

interesaba

una

por

gran

todos

perder

mejora

los

audiencia. técnica,

espectadores,

Querían

pero no

empezar

estas

sólo

emisiones

por

aquellos

con capacidad económica suficiente para adquirir un nuevo televisor en color. Y

el

tercer

problema,

no

menos

importante,

en

aprovechar

adecuadamente

el

espacio radioeléctrico, sin eliminar operadores. » Luminancia y crominancia

La

solución

aparentemente

más

sencilla

(una

mezcla

ponderada

al

33

%

de

las

tres señales) no era visualmente correcta. La razón es que el ojo humano es más sensible

al

color

verde

que

orígenes

selváticos

como

primates.

primarios

no

equivaldría

a

a la

los

otros

Una

sensación

dos

primarios,

ponderación de

por

contraste

quizá igual

entre

de

debido

a

nuestros

los

tres

colores

blancos

y

negros

tal

señal

en

como la percibe nuestro cerebro. Por

esa

razón,

y

tras

diversas

pruebas

técnicas,

se

convino

en

la

blanco y negro más apropiada, a la que a partir de ahora llamaremos luminancia (luminance, cuyo símbolo es la letra y griega mayúscula, Y), y era un balance de los tres canales en la siguiente proporción:

Y = 0.299R + 0,587G +0.114B

que se suele redondear para decir que la luminancia es la suma del 30 % de la señal del canal rojo, más el 60 % del verde, más el 11 % del azul.

Es importante no confundir luminancia con intensidad lumínica o luminosidad (ligthness). Luminancia es equivalente a la escala de grises o señal en blanco y negro.

» 90

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

El

resto

letra

de

ce

la

información

mayúscula,

C)

y

tricolor

está

se

formada

denomina a

su

vez

crominancia por

dos

(notada

señales

con

la

denominadas

arbitrariamente U y V. La fórmula, igualmente sencilla, es:

U = Y-R V = Y-B C = U+V Asimismo, no hay que confundir crominancia con información de color.

Como se observa, la conversión de RGB a YUV es una sencilla operación aritmética

que

no

requiere

ni

tecnología

avanzada

ni

grandes

complicaciones.

Bajo

esta

norma, si se quisiera volver a obtener el canal rojo, bastaría con hacer una resta:

Y-U = Y-(Y-R) = R

Un monitor en blanco y negro funciona tomando la señal Y y mostrándola en la pantalla, desechando la señal de crominancia. En el caso de un monitor en color, toma la señal YUV y la vuelve a convertir en

RGB,

aplicando

la

fórmula

inversa.

Una

vez

convertida

en

RGB

la

muestra

en la pantalla con sus colores originales. Se conseguía así color

en

salvar

televisión, que era

el principal la

escollo de

compatibilidad con

aquella

etapa de transición al

los equipamientos

y televisores

ya establecidos en blanco y negro.

» 91

5. EL MUESTREO

>> Las limitaciones del espacio radioeléctrico El otro gran reto de esa deducir, en

una

señal

analógico

o

de

etapa fue también de índole comercial. Como podemos

color

bitrate

triplica

en

la

digital)

cantidad

de

una

de

señal

información

en

blanco

(ancho

y

de

negro

de

banda iguales

características. Aquí

nos

enfrentábamos

emisión.

Las

emisiones

emisiones vía

terrestres

satélite

accesible para

o

a

otro

tipo

científicas

y

o

cable)

todos

los

de

limitaciones

emisiones, y

una

como

para

señales

señales las

espectro

radioeléctrico

tradicional

(conocidas

distinguirlas

del

espacio

espacio

las

últimamente,

del

antena

parte

Este

privadas,

y,

vía

Terrestrian-,

ocupan

operadores.

públicas militares

las

televisión

-Aerial

por

radiofrecuencias

a

de

ha de

de

tener

radio,

frecuencias

las

realizadas

radioeléctrico

de

satélite,

de

de como

público,

cabida

también

las

comunicaciones

de

radar,

para

la

de

aplicaciones

telefonía

móvil

y

destinada

a

las soluciones wifi y Bluetooth. Esto

significaba

televisión

que,

si

(tradicionalmente

Frecuency-

o

VHF)

en

la

conocida "caber”

podían

banda como 12

del

espacio

radioeléctrico

de

muy

alta

frecuencia

canales

en

blanco

y

negro,

-Very

High

sólo

podría

haber espacio para 4 en color. Triplicar

el

ancho

de

banda

de

la

señal

implicaba,

además,

graves

problemas

tecnológicos por lo que se refiere al cableado, equipamiento, mezcla y almacenamiento de la información. Todos los costes se multiplicarían asimismo por tres. » El submuestro o muestreo parcial Por

esa

razón,

los

ingenieros

buscaron

una

solución

que

permitiría

reducir

el

ancho de banda de la señal a algo más razonable. En aquel tiempo, el concepto de

compresión

digital

no

se

manejaba,

así

que

hicieron

sus

pruebas

en

función

del espectador medio (el naked eye u ojo desnudo, no el ojo experto del profesional).

Se

aparente”

buscaba

o

sensible a

una

subjetiva. los

reducción

En

cambios

estas

de

de

la

pruebas

contraste

información

advirtieron

lumínicos,

pero

que no

objetiva el

pero

ojo

tanto

“pérdida

sin

humano a

los

es

muy

cambios

de

tono o color. Dicho con

un

ejemplo

quiere

profusión

de

colores

verdes

con

tinguiremos

un

conejo

blanco:

decir que

si

y

y

pardos

sabremos

casi

caminamos muchas

por

un

sombras,

inmediatamente

que

denso enseguida es

bosque, dis-

blanco

y

también que es un conejo. Por el contrario, si el conejo es gris o pardo, probablemente

lo

confundamos

con

un

tronco

o una

piedra

o,

aunque

se

mueva,

no

distinguiríamos su forma de la de cualquier otro animal (y por esa misma razón de supervivencia, los conejos árticos son blancos, y no pardos).

» 92

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Bajo

este

luminancia

razonamiento

se

intocable

pero

era

decidió que

que

las

una

otras

vez dos

obtenida señales,

la que

señal juntas

YUV,

la

formaban

la crominancia, se podían reducir a la mitad sin que el "ojo desnudo” apreciara una pérdida significativa de la calidad. Es

lo

que

la

técnica

llama

submuestreo

(subsampling)

o

muestreo

parcial,

y

entra dentro de las recomendaciones ITU 609 (para SD) y 701 (para HD), siendo el

estándar

internacional

de

la

televisión.

Por

esta

razón

se

entiende

que

toda

señal YUV de televisión está submuestreada. » Submuestreo analógico

En términos numéricos, la señal SD analógica tiene un canal Y con una cantidad de muestras de 13,5 MHz, mientras la señal U tiene sólo la mitad, 6,75 MHz y V otros 6,75 MHz. En HDTV la señal Y tiene 75 MHz, U = 37,5 MHz y V = 37,5 MHz. Como U + V = C, se dice entonces que el muestreo de luminancia Y es igual al

de

crominancia

C,

en

ocasiones

referida

en

una

señal

multiplexada

como

la

subportadora de color (insistiendo una vez más en que crominancia no es la señal de color, sólo una parte de ella). » TV 4:2:2

En digital se utiliza una convención numérica conocida como 4:2:2. Lo único que quiere

decir

de

manera

muy

arbitraria

(se

podían

haber

elegido

otros

números,

como 10:5:5) es que de cada 4 muestras de Y, sólo obtendremos 2 de U y otras 2 de V. 4:2:2 es el equivalente digital al espacio de color analógico YUV (si bien se usan

indistintamente).

En

ocasiones

también

encontramos

las

siglas

Y

Pb

Pe,

que se refieren al muestreo parcial para señales de alta definición.

» 93

5. EL MUESTREO

» Cine 4:4:4

Como ya hemos dicho, el cine digital es siempre un formato 4:4:4, y como tal siempre se transfiere así a los archivos que maneja. 4:4:4 es sinónimo de RGB. EL espacio de color RGB es propiamente televisivo e informático. En ocasiones, las soluciones de cine digital usan un espacio de color específico, conocido como XYZ, ligeramente diferente, pero también con muestreo total 4:4:4. Se profundizará en estos aspectos en la parte dedicada a la postproducción.

Incluso

en

la

completamente

actualidad con

muchas

muestreos

cámaras

RGB,

de

sin

gama

pérdida

alta

de

HDTV

pueden

información,

por

trabajar lo

que

pueden considerarse ya cámaras del segmento HR. Por png,

definición,

etc.),

así

también

como

los

todo

ficheros

lo

y

formatos

relacionado

con

de

la

gráficos

informática,

(dpx,

son

tiff,

bmp,

siempre

RGB,

sin submuestreo. » Reducción de flujo de datos

Es fácil calcular que si una señal con muestreo completo RGB ocupa el 100 % de

un

determinado

ancho

de

banda,

la

misma

imagen

submuestreada

en

YUV

ocupa sólo el 66 %. Esto

quiere

decir,

ni

más

ni

menos,

que

donde

antes

emitían

12

canales

en

blanco y negro, pueden emitir hasta 6 canales en color YUV y no tan sólo 4 en RGB. La

misma

provechosa ciendo

reducción

para

costes.

el

De

de

ancho

diseño ahí

que

de

banda

o

bitrate

del

33

y

funcionamiento

del

equipamiento

el

espacio

que

no

YUV

%

es

igualmente

televisivo,

presenta

pérdidas

redu-

aparentes

de calidad, tenga grandes ventajas de orden económico. » Pérdida de calidad efectiva

Por

pura

lógica,

no

4:2:2

YUV

siempre

RGB

4:4:4.

Las

obstante,

tendrá

pérdidas

también

menos en

la

calidad parte

de

debemos

comprender

que

señal

una

crominancia

que

con

quizá

una

muestreo no

sean

señal completo

apreciables

por el espectador medio, pero sí lo son en el entorno profesional. Por

esa

televisión,

razón, pero

un

4:2:2

siempre

exigente

será

trabajo

un de

estándar

admitido

cinematografía

en

digital

el

mundo

optará

por

de

la

trabajar

con imágenes 4:4:4. Esta tendencia se observa también en el mercado. Casi todas las cámaras que hemos calificado como de Higher Resolution (HR) ofrecen una captación 4:4:4.

» 94

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

E

incluso

empiezan

a

aparecer

equipamientos

de

HDTV

que

pueden

ofrecer

esta

opción. Después de todo, la conversión RGB/YUV es un proceso añadido al flujo de

información

cámaras

propio

captan

la

de

señal

la

en

cámara,

RGB,

y

que es

encarece

una

el

etapa

equipamiento:

interna la

todas

las

que convierte

esta

señal original en YUV En yos

cuestión

catódicos

desuso.

Sus

de

monitorización,

(CRT,

analógicos)

sustitutos,

los

trabajan

siempre

en

co

muestran

señales

(si

los

monitores

RGB

al

en

es

tipo

que

tradicionales

YUV

planos

igual

YUV

televisores

trabajan

Pero

LCD,

cualquier

porque

TFT,

otro

internamente

de

esta

tubo

de

tecnología plasma

y

de

en

similares,

equipamiento constan

ra-

está

informáti-

un

conversor

RGB/YUV en la entrada correspondiente). Tecnológicamente, televisiva ya

trabajara

comentado

hoy en

de

no

RGB.

la

supondría Excepto

limitación

ningún

en

del

el

problema

caso de

espacio

toda

la

las emisiones,

que

por

radioeléctrico.

También

industria el

hace

tema tiempo

que se dejaron de vender televisores en blanco y negro. Sin embargo, la necesaria

compatibilidad

siendo

el

con

estándar

los

equipamientos

televisivo

profesional,

previos, como

permiten

recogen

que

todas

el

las

4:2:2

siga

normativas

y

recomendaciones internacionales (véase página 394). No es impensable suponer que a medio plazo las opciones de grabación y postproducción de todas las cámaras sean 4:4:4. El 4:2:2 se mantendrá como una conversión final para su posible emisión por las televisiones y canales tradicionales.

» Número de muestras

Si

pensamos

en

digital,

la

reducción

de

muestras

se

realiza

en

el

número

de

muestras horizontales. Siempre mantendremos la resolución vertical. En una señal HD 1.080, sabemos que cada canal RGB necesitará 1.920 x 1.080 píxeles o muestras para un “sampleo" (del inglés sampling) completo. Habrá pues 1.920

x 1.080 = 2.073.600 muestras del canal rojo, otras tantas del canal verde

y otras tantas del canal azul. Sin

embargo,

en

4:2:2

tendremos

1.920

x

1.080

muestras

de

luminancia,

y

sólo 960 x 1.080 de la señal U y otras 960 x 1.080 muestras o píxeles activos del canal V Evidentemente, que

una

visualmente

muestra es

esto

no

U

ocupa

apenas

quiere el

decir

espacio

apreciable,

que de

este

haya

dos. hecho

“huecos"

Como puede

entre

veremos, producir

a

píxeles, pesar

sino

de

distorsiones

que y

falta de precisión en procesos de postproducción. Un caso típico es el uso de un chroma key o incrustación por llave de color, que siempre será más preciso, con bordes más definidos, trabajando sobre soportes RGB que sobre soportes YUV.

» 95

5. EL MUESTREO

» 4:2:0 y 4:1:1

Además para

del

estándar

4:2:2,

la

industria

el consumidor final o incluso

ha

desarrollado

equipamientos

prosumer que eliminan

aún

más

pensados

la informa-

ción de crominancia. Y también en formatos de distribución como el DVD o los vídeos a los que accedemos a través de internet. La idea es reducir aún más el flujo de datos para tener una señal más manejable, que pueda caber en cintas o soportes

más

pequeños

y

que

necesiten

menos

potencia

en

ordenadores

caseros

en el momento de la edición. Son señales a las que también podemos calificar de “espacio color YUV”, con submuestreo,

pero

no

son

brodcast

o

profesionales.

Son

soluciones

comerciales

ofrecidas por la industria, pero no admitidas (si bien toleradas) por las normativas internacionales

y

las

cadenas

comerciales.

La

calidad,

una

vez

más,

se

resiente,

pero a favor de un flujo de datos más reducido (un 33 % de ahorro sobre 4:2:2 y un 50 % sobre el RGB). Es por ejemplo el muestreo parcial 4:1:1. En este caso, por cada 4 muestras de luminancia, sólo obtendremos 1 de la señal U y 1 de la señal V Una imagen de HD 1.080 con muestreo 4:1:1 nos daría entonces Y = 1.920 x 1.080 muestras U = 480 x 1.080 muestras V = 480 x 1.080 muestras Hay otra cifra más común: 4:2:0. En este caso es preciso recordar que la intuición numérica debe obviarse y, asimismo, que el uso de esta numeración en base 4 es puramente arbitraria. 0 no quiere decir que carezca de información de la señal V sino que su lectura es distinta. Una señal 4:1:1 aplica el mismo submuestreo en todas

las

líneas

de

resolución,

mientras

que

4:2:0

lo

hace

alternando

las

líneas:

en una, obtendrá 480 muestras de U y 0 muestras de V y en la siguiente lo alternará: 0 muestras de U y 480 de V En sistemas interlazados, 4:1:1 submuestrea cuadro a cuadro, mientras 4:2:0 lo hace campo a campo. Esto por

lo

es

útil

que

la

para

los

tendencia

sistemas es

interlazados,

abandonar

el

pero

también

submuestreo

4:1:1.

para En

los

progresivos,

cualquier

caso,

4:1:1 y 4:2:0 tienen la misma cantidad de información. Para tenemos

entender que

estos

seguir

conceptos,

avanzando

y

interlazado pasar

a

y

definir

progresivo, el

último

cuadro de

y

nuestros

campo, cuatro

términos básicos: la cadencia y su barrido. Para profundizar aún más sobre otras cifras, como 3:1:1 o 4:4:4:4, véase el anexo correspondiente.

» 96

6. Cadencia y barrido

La cadencia

» Cadencia ideal

El

número

de imágenes

por

segundo (images

per

second,

ips

o

fotogramas/frames

por segundo, fps) es lo que conocemos por cadencia o framerate. Este número también nos habla de calidad, pues es evidente que cuantas más imágenes real.

por

Si

segundo

tenemos

un

mostremos,

mayor

número escaso

será

la

de imágenes,

fidelidad se

de

producirá

la el

representación

efecto

conocido

como "parpadeo" o fliqueo (del inglés flicker) de la imagen, con la sensación de que se desvanece entre dos fotogramas. Lo primero es señalar que la cadencia siempre ha sido un compromiso entre calidad

y

economía. “real",

representación Pero

por

razones

Actualmente,

Análisis sin

técnicos

sensación

económicas

tampoco

nunca

ningún

indican

de

que

parpadeo, se

estándar

ha

de

la

estaría

ofrecido cine

o

cadencia en

esta

ideal

torno

a

cantidad

televisión

para

una

72

ips.

los de

alcanza

fotograma este

núme

ro, pero no es descartable que lo pudiera hacer en el futuro. La tecnología actual digital lo permite y en digital el capítulo de costes no se encarece tanto como en fotoquímico. » Cadencia en el cine

En cine el compromiso viene dado, una vez más, por el coste del material Rodar con

cadencias

negativo. (cuatro

De o

muy la

cinco

altas

misma rollos

significa

manera, de

las

gran

aumentar ya

de

tamaño)

por

proporcionalmente sí

voluminosas

también

el copias

aumentarían,

gasto

en

positivadas

complicando

su

distribución en las salas. Durante

los

primeros

años

se

probaron

diferentes

cadencias,

siendo

la

más

popular la de 16 fps de la mayoría de las películas del cine mudo. Para evitar el

parpadeo,

se

proyectaba

hasta

tres

veces

cada

fotograma.

Sin

embargo,

aun

así era más que evidente. Posteriormente, se optó por el compromiso de rodal

» 99

6. CADE NC IA Y BAR R ID O

24

fotogramas

(un

gasto

superior

en

negativo)

proyectando

en

sala

dos

veces

mismo fotograma, por lo que la cadencia que realmente ve el espectador

el

es de

48 ips. La recomendación actual para el cine digital de la DCI mantiene la cadencia tradicional de 24 ips, pero con la posibilidad de aumentarla a 48 en los formatos 2K. La cadencia de 48 ips en formatos 4K puede resultar un poco excesiva por el gran tamaño de los ficheros, pero una vez más no es descartable en un futuro a medio o largo plazo.

>> Televisión: diferentes cadencias

El

compromiso

de

calidad/flujo

duro)

no

mucho o

es de

el

caso

de

datos.

de

datos:

coste si

de

Dado

excesivamente

problema

flujo

en

la

televisión

que

caro

en

aumentar

doblamos

la

el

no

"material

comparación la

cadencia.

cadencia,

es

tanto

virgen" con Pero

calidad/coste

televisivo

el

también

de del



(cinta

o disco

no

supondría

cine,

de

como

ancho

de

la

cantidad

doblamos

banda de

información.

Por razones tecnológicas, que no comerciales, los sistemas de televisión optaron por cadencias similares pero un poco diferentes a las del cine. En concreto, en los sistemas PAL y SECAM se optó por los 25 ips, y en los sistemas NTSC por una cadencia un poco extraña, 29,97 ips. La razón de esta divergencia tiene que ver con la frecuencia de la red eléctrica en los distintos continentes. En Europa, la red de corriente alterna circula a 50

Hz, mientras que en Estados Unidos de América circulaba a 60 Hz. En los

primitivos

sistemas

señal, de ahí su utilidad.

» 100

de

televisión,

esta

frecuencia

se

usaba

para

sincronizar

la

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

La cadencia tradicional del NTSC es siempre 29,97 ips. Sucede sin embargo que por comodidad se redondea esta cifra a 30 ips. Para profundizar sobre este tema, véase el anexo Non Drop Frame » Cadencia HD

Con

la

tecnología

digital actual,

la

frecuencia de

la

corriente

alterna es indife-

rente, pues ya no se precisa para una sincronización de la señal. Por esa razón, dado y las

que

PAL,

los

sistemas

sería

conveniente

producciones,

comerciales

HD

bien

sea

vienen

a

superar

las

que

se

estableciese

24,

25

o

y de compatibilidad

viejas

una

30/29,97.

diferencias

única

No

cadencia

obstante,

hay

entre

NTSC

para

todas

implicaciones

con los sistemas antiguos que hacen que, a día

de hoy, esta cadencia universal no esté definida. Por trabajo

ello,

la

inmensa

multiformato

en

mayoría SD

y

de

HD,

los

equipos

actuales

escoger

entre

cadencias

en

todas

permiten, las

además

diferentes

del

cadencias

admitidas.

» 23,976 Las

pequeñas

diferencias

no

obstante,

grandes

entre

problemas.

las

Por

ejemplo,

cine cuando

y

en

televisión

queremos

generan,

adaptar

para

televisión una película rodada en cine 24 ips. La transferencia entre los 25 ips del PAL y los 24 ips no es muy problemática (un 4% de diferencia temporal). Suele hacerse respetando todos los fotogramas

» 101

6. CADENCIA Y BARRIDO

de la imagen, sin eliminar ninguno, y alterando un poco la banda de sonido. Lo mismo sucede si rodamos digitalmente a 25 ips y luego lo distribuimos en salas a 24 ips. En el caso del NTSC, los 24 ips se pasan a 30 (29,97 ips) mediante un sistema algo

más

complicado

conocido

como

pull

down

(véase

el

anexo),

aprovechando

características de la señal de vídeo interlazada (que veremos ahora). Sucede de cada Para de

sin

embargo

mil para

evitar

la

23,976

ips

que

que la

pérdida (en

de

el

proceso

pull

sincronización este

ocasiones

fotograma se

nota

down

debe

eliminar

temporal entre 24 se

desarrolló

redondeando

a

un

fotograma

y 29,97 se mantenga.

una

cadencia

23,98).

Con

más esta

precisa, cadencia,

no es necesario eliminar ningún fotograma del contenido. Dado que 23,976

y también en

el 29,94 es muy compatible con

la

cadencia

del cine 24 ips, y también con la tradicional de la zona PAL, 25 ips, algunos técnicos

la

sistemas

de cine

y televisión

seguirá

habiendo

diferentes

un

trabajo

incluyendo

proponen

previsto estreno

en

como

para salas

la

cadencia digital.

universal

Personalmente, en

distribuir

internacionalmente de

señales

cine,

interesante, sobre todo en territorios tradicionales del NTSC.

» 102

deberían

creo que

cadencias

comerciales

las

que

digitales. de

23,976

adoptar

todos

los

esto no sucederá, y No

manera puede

ser

obstante,

en

muy

amplia,

una

elección

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

El barrido

Hemos

hablado

de

25

y 30

ips

refiriéndonos

a

la

televisión,

pero

debemos

ser

aún más precisos. El otro gran elemento a tomar en cuenta en el ámbito de la televisión es la diferencia Esta

entre

palabra

confusión.

Lo

el

es

barrido una

más

interlazado

traducción

correcto

sería

un

(interlaced) tanto

hablar

y

el

desafortunada,

de

progresivo que

continuo”,

"barrido

(progressive)

puede pero

inducir el

a

término

"progresivo” es el que se ha impuesto). El origen del barrido interlazado se debe a dos motivos: por un lado, evitar el efecto de excesivo parpadeo que tienen las cadencias bajas (24, 25 o 30 ips lo son). Y por otro lado, corregir un defecto técnico de los televisores de tubos catódicos que están en el origen de la televisión. La de

solución

televisión

fue

hacer

tradicional,

un

barrido

interlazado

una

imagen

completa

de o

la

imagen.

cuadro

En

[frame)

los se

sistemas divide

en

dos campos (fíelds) diferentes. Pero no es una división horizontal o vertical, sino por líneas pares e impares. / Barridos / Interlazado (i)

La imagen la componen dos campos de líneas: pares e impares

» 103

6. CADENCIA Y BARRIDO

Resaltar que el interlazado es, como el espacio de color YUY propio del mundo televisivo: en cine no existe el rodaje interlazado, sino que siempre se trata de imágenes completas sin separacion de campos. Así pues, una imagen de 1.080 i (i de interlazada) está compuesta de dos campos diferentes cada uno de ellos de 540 líneas. Uno corresponderá a las líneas impares o superiores (even, up): 1, 3, 5, 7, 9....................... hasta 1.079; y otro a las líneas pares o inferiores (odd, down): 2, 4, 6, ..., hasta 1.080.

»

104

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

» Captación en diferentes momentos

Estos

dos

ción:

exactamente

campos,

completos

cada

además, 1/50

segundo

te

50

campos

de

información.

tienen

de y

luego

incompletos. Sólo

dos

una pequeña

segundo.

Una

los

Un

interlazada

divide

en

50,

sino

daría

de

por



campo

campos

diferencia temporal

señal

(fields) unidos

en

no

un

la

capta-

25

toma

nativamen-

que una

en

toma imagen

cuadro

cuadros

con

(trame)

saltos

dan una

información completa. Lo que sucede es que esos dos campos no se han captado lo

al

mismo

almacena,

tiempo,

y

sino

luego

sucesivamente:

capta

el

campo

la

cámara

siguiente.

primero

capta

supone

que

Esto

un

campo,

entre

ambos

campos hay una diferencia de un mínimo de 1/50 de segundo (la velocidad de obturación mínima para obtener 50 campos por segundo). En

imágenes

diferencia

es

estáticas,

como

inapreciable.

un

Pero

en

bodegón, imágenes

donde con

no

hay

movimiento,

movimientos

rápidos,

esta

como

un

partido de fútbol o una carrera de cien metros libres, la diferencia entre un campo y

otro

puede

ser

posición en esa

muy

grande,

pues

el

objeto

ha

cambiado

pequeña fracción de segundo. Si unimos

apreciablemente

los dos

de

campos en un

solo cuadro estático, observaremos el conocido efecto de "dientes de sierra”. » La captación interlazada exige emisión interlazada

El

barrido

interlazado

es

una

tecnología

que

no

causa

ningún

problema

en

el

mundo televisivo, ni siquiera en el de la alta definición, siempre y cuando toda la cadena

de

producción

(desde

en

interlazado.

El

problema

alta

definición

que

trabaja

o

después,

tendremos

que

la

captación

surge en

hasta

cuando,

interlazado

pasar

esa

la

emisión)

por

ejemplo,

para

un

imagen

se

usamos

rodaje

interlazada

realice una

siempre

cámara

cinematográfico.

a

un

modo

de

Antes

progresivo,

que es el propio del cine, y entonces observaremos sin ninguna duda el efecto de dientes

de

sierra.

Hay

sistemas

actuales

que

desentralazan

la

señal,

pero

o

son

muy burdos (como eliminar un campo y doblar el otro) o son muy laboriosos y lentos Por

(mediante esa

razón,

comparaciones hay

que

entre

descartar

los el

dos

campos

barrido

y

los

interlazado

para

cuadros un

siguientes).

trabajo

que

se

prevé distribuir en salas de cine. En caso de duda, también hay que optar por el progresivo. Hay que recordar

que

ningún

traspasar defecto

un

cuadro

visual

progresivo

apreciable,

tan

en sólo

dos un

campos ligero

interlazados

aumento

del

no

genera

"parpadeo”

que muchos espectadores asocian al "look” cine, por lo que es una opción estética muy valorada. También (CRT)

señalaremos

trabajan

en

que

los

interlazado.

viejos Sin

monitores

embargo,

los

de

tubo monitores

de

rayos

catódicos

actuales

trabajan

» 105

6. CADENCIA Y BARRIDO

originalmente nos

en

permiten

"progresivo". ofrecer

las

Sólo

aquellos

imágenes

con

también

una

en

etapa

previa

interlazado

de

sin

conversión

problemas

de

visionado. » Ventajas y desventajas del progresivo: resolución dinámica

Por

lo

calidad

general, debido

a

se

entiende

que

los

sistemas

que

su

resolución

real

es

el

progresivos doble

que

tienen

una

mismo

formato

el

mayor en

interlazado. Tiene una mayor “resolución estática” o vertical. Sin

embargo,

no

podemos

olvidar

que

el

interlazado

tiene

más

"resolución

dinámica”. Toma el doble de muestras de la realidad por segundo que el progresivo. Produce sensaciones más fluidas, con menor efecto parpadeo. Como gundos),

hemos el

dicho

antes,

progresivo

en

captará

una

250

carrera

imágenes

de de

cien 1.080

metros líneas,

(apenas pero

diez

el

se-

interlazado

tendrá 500 imágenes de 540 líneas. ¿Quién ofrecerá mejor reproducción de la realidad

de cara al

espectador? En

este caso, probablemente

el

interlazado.

La

ca-

rrera tendrá una representación más fluida en interlazado que en progresivo. » Limitaciones a la obturación

Hay que tener obturación. 1/48,

1/50,

borrosa

en

en cuenta otro aspecto relacionado con la

Generalmente, 1/60 el

de

la

obturación

segundo.

fotograma

si

Esto

el

en

cine

provoca

objeto

se

el

mueve

y

captación fotográfica: la

televisión efecto a

no

filage,

gran

es

muy

como

velocidad

una

(en

el

rápida: mancha mundo

infográfico CGI se habla de motion blur para referirse a este efecto). Para evitarlo, la

solución

imagen

es

obturar

perfectamente

a

mayores

definida

del

velocidades: objeto

en

1/250

acción,

de sin

segundo filage.

lo que obtendríamos es otro efecto indeseable: el llamado "estroboscopio".

» 106

nos

Pero,

daría al

una

hacerlo,

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Tendríamos ellas

en

no

un

sería

segundo

de

un

mucha parte de la

25

imágenes,

veinticinca

de

acción que nos

pero

la

diferencia

segundo,

sino

entre

de

cada

mucho

perderíamos: un brazo

una

más.

de

Habría

estaría en alto en un

fotograma y en lo más bajo en el siguiente. Al contemplarlas seguidas, produciría la

sensación

que

de

que

pretendemos

la

imagen

simular.

Es

“a

va

un

saltos”,

efecto

sin

parecido

la

a

continuidad

las

luces

de

movimiento

estereoscópicas

tan

populares en las discotecas, y por eso se conoce como “efecto estrobo”. En general, una imagen tradicional de cine se capta a 1/48 de exposición, y podría hacerse incluso a 1/96. Más allá de eso, el estorbo se haría evidente. Pero en

interlazado,

una

vez

más,

podemos

siempre

reducir

la

exposición,

evitando

el filage, lo que en ocasiones nos resultará muy práctico. » Cadencias interlazadas

Hasta

hace pocos

Posteriormente, de

25i

y

notarlo

años,

al

de

25p.

más

se notaba

popularizarse Pero

para

correctamente

la

las

cadencia

cámaras

evitar

como

de televisión con

opción

confusiones,

50i/25p,

ya

como

actualmente que

25i,

progresiva,

las

se

o 29,97i. se

ha

hablaba

optado

cadencias

por

interlazadas

realmente generan 50 imágenes por segundo (si bien campos, y no cuadros). Esta

“nueva"

terminología

nos

obliga

a

ser

cuidadosos.

Hay

que

tener

cui-

dado, por ejemplo, con los redondeos del NTSC. Hoy en día se puede grabar en 59,94i, se

en

usa

59,94p

60p

e

como

incluso en

redondeo

60p.

de

Y para

59,94p

complicarlo

(notándolo

como

aún drop

más,

en

frame,

ocasiones

60p

DF

o

similar, véase el anexo), y en ocasiones no. Hay que leer muy bien los manuales, no queda otra opción.

» Cine: 48 fps, 72 fps...

Dado

que

negativo,

el el

motivo trabajo

fundamental de con

la

equipamientos

baja

cadencia

digitales

obvia

del este

cine

es

el coste

impedimento.

El

del cos-

te de una cinta digital o un disco duro es casi inapreciable con respecto al coste fotoquímico,

por

lo

que

en

la

actualidad

sería

económicamente

factible

captar

imágenes a 48 fps. Por esta razón, como hemos señalado, la normativa DCI prevé esta posibilidad en

el

futuro

más

cercano,

al

menos

para

el

formato

2K.

Para

el

formato

de

4K implicaría doblar su ya de por sí alto flujo de datos, por lo que DCI no lo incluye.

Sin

embargo,

a

medida

que

evolucionen

los

equipamientos,

"doble

proyección"

podrá

llegar

a posibilitarse esta cadencia también en 4K. Rodando

a

48

fps

evitaríamos

asimismo

la

que

actual-

mente se lleva a cabo en las salas para evitar el parpadeo. Y, como ya hemos visto,

los

iguales

o superiores a

expertos

entienden

como

cadencias

libres

de

parpadeo

los 72 ips, por lo que quizá también en

velocidades

un futuro ésta

será la cadencia ideal para la proyección cinematográfica. Las obras estereoscópicas, popularmente conocidas como 3D (véase el anexo), exigen doblar la cadencia, pues se obtiene un fotograma distinto por cada ojo. En la proyección digital

estereoscópica esto

lleva

a

doblar

también

la

cadencia,

o

incluso

a

triplicarla

(144 hz) para una mejor visión, pues la proyección digital estereoscópica conlleva una pérdida de luminosidad, de ahí la solución del “triple flash". Es obvio señalar que esta cadencia es sólo de proyección, no de captación ni del archivo.

7. Definición de formatos: peso y flujo

Formatos estandarizados

Con

los

elementos

estudiados,

ya

no

necesitamos

saber

más

para

entender

de

formatos digitales. Por eso insistiré en el siguiente enunciado: Cualquier solución estándar o comercial en el terreno del audiovisual digital, ha de venir definido por estos cuatro parámetros: • Resolución • Profundidad de color • Muestreo • Cadencia De

manera

general

podemos

decir

que

los

dos

primeros

son

los

verdaderamente

importantes para definir de manera objetiva la calidad de un formato. Y los otros dos

son

particularidades

heredadas

de

la

evolución

histórica,

tanto

del

cine

como de la televisión. En el terreno práctico nos encontramos con dos tipos generales de formatos (señales, ficheros, sistemas..., como se quiera decir). • Estándares • Comerciales Los

primeros

son

aquellos

definidos

por

organismos

internacionales

los

fabricantes

introducen

ofertando

diferentes

(ITU,

SMPTE,

el

mercado

ASE/EBU...) que velan por la compatibilidad. » Compresión

Los

segundos

por

cuestiones

son

soluciones

comerciales,

que

generalmente

en

relaciones

ca-

lidad/precio. En este ámbito empezaremos a hablar de códecs de compresión,

» 111

7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

pues los estándares pressed, none).

televisivos

siempre

se

definen

sin

(1:1,

compresión

uncom-

La compresión será el quinto elemento importante de un formato comercial. Se deja al arbitrio de las empresas el uso de códecs de compresión que flexibilicen los flujos de trabajo. Estos códecs pueden ser “abiertos" (accesibles a todas las soluciones) o “propietarios" (exclusivos de una marca o empresa), dependiendo de la política comercial de su desarrollado!

La comprensión sí es estándar a la hora de distribuir la señal, por motivos ya explicados. » Formatos TV

La compatibilidad es crítica sobre todo en el mundo de la televisión. No podíamos pensar

en

un

mundo

donde

el

consumidor

tuviera

que

elegir

su

televisor

en

función de los canales que desea ver. Todos los emisores deben trabajar con los mismos estándares para facilitar el acceso de la audiencia. Por eso, la industria de la televisión mundial trabaja con dos estándares digitales: SDTV o definición estándar (Standard Deñnition) y HDTV o Alta Definición (High

Defnition).

entre

estos

dos

En

el

momento

estándares,

por

actual, lo

estamos

que

lo

más

en

pleno

común

proceso

de

transición

es

que

el

equipamiento

sistemas

SD,

dependiendo

siempre sea compatible entre ambos. » Standard Definition (SD)

Tenemos

que

recordar

que

se

adaptaron

hasta

tres

del

país. La razón de esta decisión se debió a motivos económicos o técnicos. Entre los y

motivos royalties

económicos ligados

como

es

pueda

fabricar,

la

a

Unión sin

más

importantes

licencias.

Por

Europea) depender

lo

intentará del

está

la

general,

un

crear

extranjero

fabricación país

sistemas o

del

(o

un

que

pago

su de

de

equipamiento

grupo

de

ellos,

propia

industria

costosas

licencias

industriales. » SD analógico

En

el

mundo

analógico

de

la

televisión

se

establecieron

hasta

tres

sistemas

de

televisión: NTSC, PAL y SECAM. NTSC que

es

son el

las

organismo

siglas

del

encargado

National de

ordenar

Telecomunication el

espacio

Standard

radioeléctrico

Committee, en

Estados

Unidos. NTSC es el conjunto de normas de la televisión en ese país, en muchos países americanos dentro de su órbita de influencia, en Filipinas y otras partes

» 112

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

de

Asia

y,

muy

importante,

en

Japón

(es

importante

porque

gran

parte

de

las

grandes industrias de equipamiento tienen su sede en ese país). PAL son desarrollado

por

resolución la

las siglas (Phase Telefunken.

mayor

cadencia

(625

es

Liné) de un sistema de origen alemán

Mejora

el

sistema

frente

a

las

líneas

también

Alternating

diferente,

esta

de

525

vez

color

del

por

del

NTSC).

los

NTSC

y

Como

ya

motivos

técnicos

tiene

una

indicamos, expuestos:

59,94i para el NTSC y 50i para el PAL. Es el sistema europeo por excelencia. Al ser adoptado

asimismo

colonias,

excepto

por

Gran

Canadá.

Bretaña,

Otros

es

países

también

como

mayoritario

China,

en

Argentina

o

sus

antiguas

Brasil

también

lo adoptaron. Hay algunas diferencias entre los países, las cuales nos llevan a hablar de PAL-B, PAL-G, PAL-H...; no obstante, todos son compatibles de una forma u otra.

El

último

creado

por

sistema

analógico

es

el

Francia

y

en

muchas

común

SECAM de

(Séquentiel sus

Couleur

antiguas

a

colonias.

Mémorie),

Por

razones

políticas, en plena Guerra Fría, la Unión Soviética también optó por este sistema. La mayor diferencia entre este sistema y el PAL es la resolución, superior a las 700 líneas. Pero comparte con éste la cadencia de 50 ips. » SD digital

El

paso

de

los

sistemas

momento

para

SECAM

desaparece

crear

un (no

analógicos

solo hay

a

estándar, un

los pero

SECAM

digitales no

digital)

podía

haber

sido

fue

así.

No

obstante,

y

los

países

con

un

buen

el

sistema

estas

normas

optan por el PAL. Así

pues,

en

definición

estándar

digital

nos

encontramos

actualmente

con

dos estándares bien definidos: NTSC y PAL. Una manera también corriente de notarlos es SD 576 (para el PAL) y SD 480 (para el NTSC). Formatos

Como

8

se

bits.

SDTV

observa, Son

el

muestreo

estándares

siempre

interlazados,

es

4:2:2

si

bien

y

la

profundidad

algunos

de

equipamientos

color

de

permiten

trabajar en SD progresivo.

» 113

7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

>> Formatos High Definition (HD)

A pesar de que las primeras pruebas de la alta definición se hicieron con sistemas analógicos

(en

la

década

de

1960),

actualmente

el

mercado

no

ofrece

estas

soluciones: la alta definición siempre será digital por definición. Como ción

hemos

desde

contar

el

con

repetido SD

un

a

la

solo

antes,

ahora

mismo

HD.

Hubiera

sido

universal,

el

formato

estamos

en

también

un

un

proceso

excelente

denominado

CIF

de

evolu-

momento

universal

para

(Common

Interchange File o Common Interchange Format). Sin embargo no ha sido así. La las

ITU

admite dos

compatibilidades

definir

una

resoluciones

entre

cadencia

los

común.

distintas,

sistemas La

720

y 1.080.

precedentes,

solución

ha

Y

NTSC

sido

en

y

admitir

la

cuestión

PAL,

faltaría

todas

las

de por

posibles

cadencias en curso: 23.98p, 25p, 29,97p, 50i, 59,94i, 60p.

Formatos HDTV Formato

resolución

muestreo

prof. bits

1.080

1.920 x 1.080

4:2:2

8

720

1.280 x 720

4:2:2

8

Originalmente, técnicas

el

formato

demostraban

que

1.080

era

ambos

interlazado

eran,

por

y

el

esta

720

razón,

cadencia i/p P

progresivo. similares

Las en

pruebas

cuanto

a

“definición y nitidez”. Sin

embargo,

Por ello,

la

tecnología

actual

permite

ya

la

captura

en

1.080

progresivo.

muchos auguran que el 720 es un formato llamado a desaparecer, pues

en este caso sí se puede decir que un 1.080p es superior a un 720p. Pero, por otra

parte,

como

ya

indicamos,

algunos

defienden

el

720

como

un

gran

formato

de distribución, pues ocupa más o menos la mitad del espacio que precisa el 1.080. Esto presenta tres grandes ventajas comerciales: •

Una emisión 1.080 ocupa el mismo bitrate que dos de 720, con la consiguiente ampliación de la oferta.



Los

televisores

720

(conocidos

popularmente

como

HD

Ready)

son

más

cadencia, lo

cual

baratos y más pequeños que los de 1.080 (Full HD). •

El

menor

incrementaría

flujo de datos del 720 permitiría aumentar la la

difícil contar con

“resolución

sistemas 1.080 50p,

y hasta 60 imágenes progresivas.

» 114

dinámica”

de

este

pero



formato. existen

Hoy

soluciones

en 720

día,

es

de 50

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

En no

cualquier

definan

caso,

finalmente

y

mientras

la

sus

políticas,

tendremos

industria

y

los

que

organismos

trabajar

en

internacionales

un

mundo

HDTV

con dos resoluciones: • 720p • 1.080 i/p » ¿Otros formatos?

En ocasiones, en el ámbito de internet podemos ver formatos como el HD 480p. ¿Existe En

realmente

realidad,

truco

un

este

publicitario

dispositivos

de

formato

supuesto para

de

atraer

fotografía

alta

"formato a

digital

definición alta

de la

que

de

sólo

definición”

audiencia. ofrecen

la

480

no

es

líneas tal.

verticales?

Era

También

es

habitual

posibilidad

de

grabación

sólo

un

encontrarse de

vídeo

con formato VGA (640 x 480). ¿Es el VGA un estándar profesional? Tampoco. ¿Por qué sucede todo esto? Hay que insistir en que la HDTV sólo admite dos formatos:

720p

(si

algunas

empiezan

HDTV),

y

responsables

personas

fiables

bien

y

1.080i/p.

los

en

Las a

cámaras

ofrecer de

cuestiones

de

fotos

opciones

marketing

técnicas,

no

HD de

claro.

son

720

o

algunas

Pero

la

herramientas

broadcast

1.080,



que

empresas cuestión

serían

tampoco

de

son

fondo

viene

por el uso de los nuevos sistemas de distribución.

En internet, en cambio, sí sería posible: es posible hacer una emisión con dos formatos

diferentes,

También

se

pueden

realizar

productor

de

nuestro

ordenador.

inconveniente:

la

donde

selva

el

de

espectador

elige

el

actualizaciones Esto

los

adecuado

automáticas

una

gran

supone

diferentes

más

casi

códecs

y

a

su

del

ventaja,

pero

reproductores

conexión.

software

re-

también

que

nos

un

ofrece

ahora mismo la red: Windows Media Player, Quick Time, iTunes, Real Media Player, Divx, etc., cada uno con sus diferentes algoritmos y códecs de compresión. Dado está

que

en

niendo

el

futuro

de

internet,

habrá

que

en

cuenta

contenidos

el

como

la

poder

en

televisión, estar

de

fabricación

del

atentos

cine

a

y

estos

la

industria

de

herramientas,

del

audiovisual

posibles

televisiva, es

en

cambios.

tanto lógico

en

general

Pero

te-

producción

pensar

que

de

a

la

larga se impongan los formatos propios del HDTV a la IPTV y no al revés. Mientras definición.

tanto, Y

ningún

cualquiera

formato

que

sea

inferior

a

diferente

a

720

puede

720

o

ser

1.080,

considerado

tampoco

se

alta puede

considerar profesional o broadcast. » Cine

El caso del cine es un poco más peculiar. Hasta casi

ahora,

cualquier

en

su

parte

del

formato

fotoquímico,

mundo

se

contaba

era con

un un

sistema proyector

muy de

universal:

en

mm

un

35

y

lector de sonido óptico. Por eso se hablaba del 35 mm como "paso universal". Con ciales

la

digitalización,

posibles.

televisión

y

la

surge

Como

ya

radio,

el

el

hemos cine

problema

de

comentado,

al

no

tiene

en

esta

un

las

diferentes

contrario

organismo

que

soluciones el

comer-

mundo

internacional

que

de

vele

la por

sus estándares. Por

esa

productores

razón, de

lo

común

contenidos.

A

nivel

industria

mundial,

casi

es

mirar

el

80

%

hacia de

el la

lado

de

recaudación

los se

genera lo

por

que

una

producciones

la

industria

implicaciones

no

hay

Nigeria, en

apenas

cine

comerciales

que

perder

que

son

de

de

ha y

Hollywood,

de

tener

políticas

vista.

grandes

sus territorios

Por

que,

productores

podrían

también

cuenta

sin

ser

países

de

de influencia

California,

en

ejemplo,

y zonas

mercado),

sus intereses. No

salidas

de

el

impulsar

les faltaría razón, pero se perdería

Unidos,

propuestas.

por

Esto

tiene

éste el libro que las trate, como

largometrajes

(allí

Estados

sus

China,

India,

gran

Egipto

o

éxito

comercial

contenido norteamericano

no tiene

sistemas

de propios

más

acordes

con

entonces una de las grandes virtudes del

cine: su universalidad de acceso. Asociada presentar

a

esa

una

Reseñando

falta

serie

esta

de

de

estandarización

formatos

salvedad,

me

que

internacional,

varían

detendré

unos

sólo

en

de

el

cine

otros,

los

si

digital bien

estándares

más

puede

ligeramente. comunes

en

el trabajo cinematográfico actual. » Digitalización de fotoquímico

Una

de

las

material

maneras

comunes

fotoquímico

y

en

el

transferir

trabajo

los

cinematográfico

fotogramas

actual

posteriormente

es

rodar

a

información

con

digital. Éste

es

un

(Cineon),

y

sino

discos

de

en ese

sistema

para

originalmente desarrollado

ello

se

almacenaba

duros

en

forma

desarrollo

se

originó

de

el

la

secuencias

formato

por

Kodak

información DPX

de

no

ficheros

(Digital

en

en

los años

una o

Picture

noventa

cinta

de

vídeo

imágenes.

A

partir

eXchange),

que

es

el que normalmente se usa en la actualidad para esta transferencia. Es decir: un largometraje de 90 minutos a 24 fps nos resultaba en 24 x 60 x 90 = 129.600 ficheros dpx; individuales, pero numerados correlativamente. Actualmente, Ventanilla

la

Abierta

mayoría (Full

de

Aperture),

los

largometrajes

comerciales

se

con

una

de

cercana

relación

aspecto

ruedan

con

al

1,33,

así que normalmente se transfiere esta información tal cual, bien a 4K o a 2K. Así pues, tendríamos los siguientes formatos de digitalización:

Formatos cine digital FA

La

Formato

resolución

muestreo

prof. bits

cadencia

4K

4.096 x 3.112

4:4:4

10 log

24 p

2K

2.048 X 1.536

4:4:4

10 log

24 p

característica

propio

de

la

principal televisión,

es

que

nunca

sólo

en

RGB

hablaremos o

4:4:4

(en

del

espacio

ocasiones,

de

color

YUV

encontraremos

la

notación XYZ, que difiere un tanto del RGB tradicional, con una gama un poco

más

amplia

o

wide

gamut\

hablaremos

de

ello

en

la

una

mayor

parte

dedicada

a

la

postproducción). También es característica de estos formatos con

cuantificación

logarítmica

que

simula

el

propio

profundidad

comportamiento

de

del

color, soporte

fotoquímico.

» 117

7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0

Recordemos

también

que

el

barrido

interlazado

no

existe

en

el

entorno

cinema-

tográfico: siempre es progresivo. » Captación digital

Si

la

opción

es

rodar

directamente

en

digital,

entonces

hablamos

de

cámaras

de

alta resolución, que superan los estándares definidos para la HDTV Tal

como

explicamos,

el

estándar

HDTV

se

acota

por

las

cifras

1.080/4:2:2/8

bits, con cadencias de la zona NTSC o PAL (60i o 50i, generalmente). Cualquier opción

que

supere

aumentando

la

este

resolución

estándar (de

ya

1.080

sería

a

2K,

considerado por

HR.

ejemplo),

en vez de parcial) o la profundidad de color (1 0 , 1 2

el

Bien

muestreo

pudiera (total

ser 4:4:4,

bits). O todas estas opciones

juntas. Aquí en

nos

cinta

o

estándares difícil

encontramos en

soporte

tienen

aumentar

reproductor

y

grabador

televisivo, por

rígido

limitado su

generalmente (disco

su

flujo

capacidad

y/o

o

la

con

duro, por

tarjeta, sus

velocidad

propia

cinta.

una

limitación memoria

propias sin

Asimismo,

técnica:

RAM...).

Las

características

cambiar

también

la

se

cinta

grabar cintas

físicas. el

asocia

Es

aparato al

medio

lo que tiende a trabajar con sus formatos (1.080 en vez de 2 K).

Por esta razón, si trabajamos en cinta podemos hacerlo en 4:4:4 o 10 bits, pero difícilmente en 2K o 12 bits. Sería pues una HD "aumentada", como el caso del HDCAM SR, que graba 1.080/4:4:4/10 bits Formatos HR Formato

resolución

muestreo

prof. bits

cadencia

HD

1.080

4:4:4

10

24/23,98 p

DC

2K, 4K

4:4:4

10, 12

24 p

En el caso de otras resoluciones más altas, como 2K o 4K, se recurre a soporte rígido,

que

permite

mayores

flujos

de

datos.

Lo

denominaríamos

se

tiende

ya

propiamente

“DC”, cine digital. » Cadencias en el cine digital

En

cuanto

a

entrelazado

es

la

cadencia,

totalmente

tratándose

de

desaconsejable.

cine, En

la

zona

al

PAL

24 se

fps. usa

El

barrido

también

opción 25p, por su fácil conversión. Y por las razones ya expuestas, se ha ar-

» 118

la

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

ticulado

la

opción

aconsejables. pero

no

En

23,976

inglés

porque

sea

(sería

la

como

cualquier

otra,

a

o

Lo

24

muy

correcta 25p.

deficiente.

progresiva.

se

usa

una

mala

traducción y

Las

el

solución,

de

sucede

Hemos

visto

en

que el

y

El

30p

su

por

sino es

su

no

estas

correspondiente

poco tan

resolución

estas

dos

que

nada

opciones,

es

cadencia

mayor a

son

dos

porque

una

conversión

anexo

29,97p

para

inutilizable,

superior

es

30p

“unusable"

unusable).

técnicamente

que

cadencias

término

útil válida

dinámica

cadencias

es

técnica

del

la

“pulldown”, es aplicable al 29,97 entrelazado, no al progresivo. Para pasar de 30p a

24p

o

sólo

bien

tiempo,

tenemos

malas

recalcularlos

todos

y

en

ocasiones

opciones:

o

mediante

de

calidad,

bien

complejos que

6

eliminar

fotogramas

algortimos

supone);

o

(con

bien

por

la

acelerarlos

segundo;

pérdida (con

de

pérdida

de sincronía con el audio)... Dado que en salas de cine nos pedirán 24p y en la zona PAL 25p (o 50i), rodar a 30p sólo es válido para distribución en la zona NTSC o bien para internet, por lo que profesionalmente, suele evitarse. No

obstante,

modelos

de

Esto

debe

se

zona

algunas

las al

NTSC

origen

no

corrigiendo

cámaras

novedosas

de

advierte

este

domésticas

DSLR-HD muchos este

problema

lo

(cámaras de

estos

problema.

ofreciendo

de

utilizan.

Y

fotografía

fija

modelos,

Japón,

Afortunadamente,

opciones

24

o

muchos

opción

que

los

25

también con

HD).

siendo

de

fabricantes

progresivas

la

están

mediante

actualizaciones de firmare o en nuevos modelos. » Grabación 2K, 4K, 3K y otras

2K, como hemos visto, es una resolución muy parecida al formato HD 1.080. Por eso

algunas

cámaras

posibilidad

de

SR).

el

Por

HR

grabación contrario,

optar

por

grabación

Dado

que

2K

no

si

en es

optan en

por

cinta

este (por

queremos soportes

un

último

un

formato

rígidos

estándar

formato

ejemplo,

con 2K

(discos

televisivo,

de

lleva

y

existe

aparejado

magnetoscopio resolución

duros

no

que

el

tendremos

tarjetas

ningún

VTR

de

la

HDCAM que

memoria).

que

permita

grabar señales de estar resolución. Entre

las

diferencias estándar verticales. (full

en

con Son

aperture,

cámaras

que

cuanto

a

relación de más FA),

graban la las ello

(2.040

resolución

aspecto

raras pues

2K

1,85, que

vertical.

que nos

ofrecen

supone

píxeles

Algunas

daría

una

aumentar

horizontales)

resolución el

pueden

2.048/1,85

flujo

de

de

hay

pequeñas

ofrecer

un

» 1.100 píxeles ventanilla

datos

abierta

considerable-

mente en una parte de la señal que no será visible para el espectador, y que dificulta su manejo y almacenamiento. En cuanto al 4K, la aparición de la revolucionaria cámara Red One, que ofrecía grabación

4K,

generó

cierta

polémica

sobre

si

dicha

resolución

era

nativa

o

no.

En realidad, Red traspasó terminología y procesos de fotografía fija (máscara

» 119

7 . DEFINICIÓN GE FORMATOS: PESO Y FLU]0

Bayer 3

con

un

sensores).

muestras es

lo

solo

sensor)

al

mundo

un

formato “nativo”

Tradicionalmente,

por

cada

canal,

es

decir,

mismo,

un

sensor

de

mínimo

audiovisual

un

total

38

(que 4K

de

generalmente

FA

exigiría

38.240.256

megapíxeles

(o

trabaja

4.096

muestras;

3

sensores

con

x

o de

3.112

lo

que

casi

13

megapíxeles cada uno). El concepto de "megapíxeles" o millones de píxeles es común en la fotografía digital, pero no en el mundo audiovisual, y generalmente se refiere al tamaño del sensor. No obstante, ambos mundos se están “contaminando”, y en ocasiones ya se pueden leer especificaciones técnicas que aluden a “3 sensores de 2 megapíxeles" en cámaras HD 1080. Personalmente, creo que es una tendencia clara del mercado, y no descarto una convergencia a medio plazo entre las réflex digitales y los equipamientos de cine digital.

Esto

no

sucede

formato

4K

puramente

con

debe

técnico

la

Red

One

entenderse es

(ni

como

independiente

otros

modelos

"interpolado"

de

la

calidad

propuestos),

por

o

submuestrado.

o

no

que

lo

que

Este

puedan

su

hecho

demostrar

estos equipos. Usando esta más

modelos

formato

del

terminología,

con

diferentes

fichero

sino

Red y otros resoluciones:

del

sensor

fabricantes se han 3K,

(más

4,5K,

o

5K,

menos

apresurado a

etc.,

en

megapíxeles,

función que

en

ofrecer no

del

realidad

son "más o menos fotodiodos"). » Distribución digital

Lo que sí es importante es que el fichero que finalmente se exhiba digitalmente en las salas de todo el mundo, el "fichero o formato de distribución", sea siempre el mismo, para evitar errores y confusiones en las cabinas de proyección. Ya

hemos

comentado

la

falta

de

organismos

internacionales

de

estandariza-

ción, así que una vez más se mira a Hollywood para buscar soluciones. Allí, a principios de este siglo, seis de las más grandes compañías de producción

y

distribución

agruparon formato

para de

cinematográficas

intentar

exhibición.

promover Crearon

la

(conocidas

una

como

iniciativa

Digital

Cinema

común

“estudios" en

Initiative,

busca

o

majors) de

conocida

se

un

único

como

DCI,

y propusieron los siguientes estándares de distribución: Formatos DCI Formato

muestreo

prof. bits

cadencia

2K

2.048 x 1.080

4:4:4

12

24/48 p

4K

4.096 x 2.160

4:4:4

12

p 2

» 120

resolución

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

El el

formato flujo

4K

de

imponerse

es

datos

la

una es

tan

iniciativa

recomendación grande

DCI,

el

para

que

medio

resulta

formato

poco

más

plazo,

ya

operativo.

usual,

al

que

Por

menos

actualmente

esa

en

razón,

los

de

primeros

años, sería el 2K. Llamamos

a

estos formatos

2K/4K

DCI,

para

diferenciarlos

de

los

2K/4K FA

(o Full Aperture). Como se observa, el espacio de color es RGB, siempre progresivo. En 2K se piensa

también

en

la

posibilidad

de

doblar

la

cadencia,

obviando

la

necesidad

actual de doble proyección del fotograma. Estos formatos propuestos son de tipo "contenedor”. A la hora de la proyección final, el aspecto de pantalla tendrá sólo dos opciones: 1,85 y 2,39. Volveremos

al

interesante

tema

de

la

distribución

digital

en

la

IV

parte

de

en

todo

este libro.

Peso y bitrate

Cuando

trabajamos

momento

de

cálculo

de

de

información.

la

con

cuántos nuestros

información datos

digital,

estamos

equipamientos También

es

es

clave

manejando.

y

su

clave

a

tener

Esto

capacidad la

hora

de de

conocimiento

determinará

la

potencia

almacenamiento formatear

los

y

de

gestión

contenidos

de

cara a una distribución por canales habituales. En el tema de la imagen, dos datos nos darán esta información: el peso o tamaño de los ficheros, y el flujo de datos. » Peso o tamaño

El peso

lo

MegaBytes) de

las

definimos que

señales

ocupa

por la un

interlazadas,

cantidad de información, en

fotograma el

peso

completo

de un

Bytes (generalmente,

nuestro

sería

el

de

cuadro,

calcular

el

almacenamiento

formato esto

(en

el

en caso

es,

el

de

dos

necesario

en

nues-

campos). Este

dato

es

importante

para

tros discos duros. » Flujo de datos o bitrate

Asociada a esta información está la cantidad de información, por segundo, que es necesario manejar. Es lo que llamamos "flujo de datos” o simplemente "flujo", “tasa de transferencia" o “tasa”, o más comúnmente con el término inglés bitrate.

» 121

7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

El

bitrate

será

simplemente

el

peso

multiplicado

por

el

número

de

fotogramas

o cuadros por segundo de nuestro formato; y, como su propio nombre indica, se suele dar en bits (no en Bytes, como el peso: 1 Byte = 8 bits).

Hay que tener siempre en cuenta esta relación 1 Byte = 8 bits. La sigla B mayúscula se refiere a Byte, mientras la b minúscula es bit. No siempre están claros estos datos en algunas especificaciones técnicas.

El bitrate es un dato muy importante para sitaremos

para

transportar

la

señal,

para

saber qué tipo de conexiones necealmacenarla

y

para

tasa

o

procesarla

(CPU,

GPU y demás procesadores). Por

lo

general,

aunque

no

siempre,

una

mayor

bitrate

implica

una

mayor calidad. Pero lo que siempre implicará es una mayor exigencia en nuestras herramientas.

Es

importante

conocer

el

bitrate

del

formato

con

el

que

deseamos

trabajar para poder optimizar nuestros recursos. » Cálculo del peso y el bitrate

El cálculo de estas cantidades es muy sencillo,

y podremos

entender más clara-

mente que sólo la resolución, el muestreo, el color y la cadencia son necesarios para entender cualquier formato audiovisual. Se

trata

sencillamente

de

saber

el

Primero

es

necesario

imagen

1.080,

número

de

bits

que

tiene

nuestra

imagen

digital.

1.

Resolución.

imagen.

En

una

saber

tendremos

el

número

1.920

x

de

1.080

píxeles

píxeles

de

por

nuestra

cuadro

=

2.073.600 píxeles. Vemos

que si hablamos de dos

campos interlazados, su suma

equivale igual-

mente a un solo cuadro progresivo: (1.920 x 540) x 2 = 2.073.600 píxeles. Por eso, una señal 50i siempre tendrá la misma tasa de transferencia que 25p.

2.

Muestreo.

Debemos

recordar

que

precisamos

completo

1.080

tres

canales

RGB

para

una

información de color. Por el

esa

número

razón, de

un

píxeles

muestreo de

resolución,

verde y otro azul para logar una señal.

3 X (1.920 x 1.080) = 6.220.800 píxeles

» 122

pues

RGB

siempre

precisa

tendremos

multiplicar un

píxel

por

tres

rojo,

otro

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

En

el

caso

de

YUV

4:2:2

recordamos

que

Y

tenía

un

muestreo

completo

(1.920 x 1.080), pero tanto U como V se reducían a la mitad (960 x 1.080), por lo que la cantidad de muestras 4:2:2 son (1.920 x 1.080) + 2 x (960 x 1.080) = 2 x (1.920 x 1.080) = 4.147.200 píxeles o muestras.

Entendemos,

pues,

que

con

un

muestreo

4:2:2

reducimos

en

un

tercio

la

cantidad de información de la señal RGB.

3.

Color.

Sabiendo el número

de

muestras con que contamos, dependerá

de la

profundidad de color obtener más o menos bits por imagen. Si aplicamos a cada muestra 8 bits, veremos que una señal 1.080 4:2:2 tendrá un total de 8 x 2 x (1.920 x 1.080) = 33.177.600 bits por cada cuadro o fotograma. En el caso de la señal 1.080 RGB, podemos aplicarle una cuantificación a 10 bits. Entonces tendremos que 10 x 3 x (1.920 x 1.080) = 62.208.800 bits. Esta cantidad será el peso o tamaño del fotograma. Ahora

bien,

la

costumbre

del

mundo

informático

para

cantidades

tan

grandes

es, primeramente, notarlo en Bytes en vez de bits; y luego usar los multiplicadores de la informática (kilo, mega, giga, tera, peta, etc.). Siguiendo el ejemplo, en el caso de una señal 1.080 4:2:2 8 bits tendremos un peso de 4.147.200 Bytes, mientras que en el de 1.080 4:4:4 10 bits serán 7.776.000

Bytes.

» Redondeo

Ahora

es

necesario

volver

a

tener

en

cuenta

que

en

informática

trabajamos

con

un sistema binario, no decimal. Por esa razón, kilo no es sinónimo de mil (103),

» 123

7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

como en la vida corriente (kilómetro = 1.000 metros, kilogramo = 1.000 gramos), sino de 1.024 (210). Y lo mismo sucede con el resto de multiplicadores: 1 MegaByte = 1.024 KiloBytes; 1 GigaByte = 1.024 MegaBytes. Por esa 4,147 DB.

razón,

al

pasar

4.147.200

Bytes

obtendremos

3,955

MegaBytes,

y

no

Se observa además que no es una cifra exacta, o que genera muchos decimales, por lo que se suele recurrir a los redondeos. Esto nos daría unas cifras aproximadas de: Peso 1.080 4:2:2 8 bits aprox 3,96 MB Peso 1.080 4:4:4 10 bits aprox 7,4 MB

En

ocasiones

existe

la

costumbre,

extendida

en

la

informática

del

consumidor,

de redondear pero en múltiplos de mil, como sucede, por ejemplo, en los discos duros que se venden en tienda. La etiqueta de "300 GB" que pone en la caja equivale realmente a algo menos de 280 GB reales. Este las a

cálculo

interfaces estos

en del

datos.

ocasiones sistema

En

también

operativo,

pequeñas

lo por

cantidades,

realizan,

por

lo

siempre

que

apenas

se

economía

nota.

hay 4,2

del que

rendimiento, estar

MB,

3,96

atento MB

o

simplemente 4 MB para una imagen 1.080 HDTV no parece mucho, apenas un 5

%.

Pero

si

acumulamos

estos

redondeos

en

grandes

cantidades

(TeraBytes

o

PetaBytes), el error también se multiplica.

4.

Cadencia. Conocido el

pectivamente),

para

calcular

peso por fotograma el

bitrate

o imagen (frame

tendremos

simplemente

y picture, resque

multiplicar

el peso por la cadencia. Si una imagen ocupa 10.000 bits, 2'5 imágenes por segundo ocuparán 25 x 10.000 = 250.000 bits. Si

la imagen ocupa 10.000 Bytes, tendríamos primero que pasarlo a bits,

80.000, para obtener (megabits por segundo).

25

x

8.000

=

2.000.000

bits,

que

equivaldrían

a

1.9

mbs

Sigamos con los ejemplos: Los

aproximadamente

4

MB

por

fotograma

de

una

señal

1.080

HDTV

típica,

trabajada a 25 ips, nos da un total de 4 x 25 = 100 MB por segundo. Pero como hemos

dicho

que

esta

cantidad

se

suele

expresar

en

bits,

tendremos

a multiplicar por 8 para obtener unos 800 mbs (megabits per second).

La cantidad exacta sería de 829.440.000 bits, que equivalen a 791,015625 mbs.

» 124

que

volver

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

En el caso de la señal 1.080 RGB 10 bits, trabajando a 24 ips, tendríamos 7,4 MB X 8 bits x 24 ips aprox: 1.420 mbs aprox: 1,4 gbs.

Una aproximación más exacta nos daría 1,39 gbs.

» GigaBytes por hora

Conociendo tanto espacio

que

el

peso

como

precisaremos

en

el

nuestro

flujo

de

datos,

ordenador

para

es

fácil

calcular

almacenar

toda

entonces la

el

infor-

mación. Es una información que suele darse en GB por hora o bien en GB por hora

y

media,

que

es

la

duración

más

o

menos

estándar

de

un

largometraje.

Basta con multiplicar el bitrate por 60 o por 90 para obtener la cifra (sin olvidar al paso de bit a Byte ya señalado). La siguiente tabla nos muestra los pesos, flujos de datos y espacio requeridos por hora de los formatos SD, HD y DC:

» 125

7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0

Tabla de pesos y flujos de datos sin comprimir Formato

resolución

SD576

720 x 576

muestreo

p. bits

PESO MB/f

cadencia

8

0,79

50i 25/60p

4:2:2

BITRATE

1 hora

158 mbs

70 GB

350/844 mbs

HD720

1.280 X 720

4:2:2

8

1,76

154/370 GB

HD 1.080

1.920 x 1.080

4:2:2

8

3,96

25p

HD1.080 RGB

1.920 x 1.080

4:4:4

10

7,42

23,976/25p

2K DCI

2.048 X 1.080

4:4:4

12

9,49

48p

1,8 gbs

800 GB

2K FA

2.048 x 1.536

4:4:4

10 log

11,25

24p

2,11 gbs

950 GB

4K DCI

4.096 x 2.160

4:4:4

12

37,97

24p

7,12 gbs

3,13 TB

4K FA

4.096 X 3.112

4:4:4

10 log

45,59

24p

8,55 gbs

3,76 TB

800 mbs

350 GB

1,39/1,45 gbs

652 GB

Formato s comerciales

Como se puede observar, mayoría

de

los

casos,

estamos hablando de flujos

estos

pesos

y

bitrate

impiden

de

datos

un

muy altos.

trabajo

fluido,

En

la

pues

la

tecnología tiene sus límites. De

ahí

que

los

fabricantes

hayan

investigado

intentando

bajar

los

flujos

de

datos. Hay dos maneras de conseguirlo • Con técnicas de submuestreo. • Comprimiendo la señal. No

obstante,

mente

sea cual sea

compatibles

la técnica utilizada,

con

dos.

Es

decir,

que

mir

los

datos

para

los

las

estándares

herramientas

volver

a

obtener

deben la

estos formatos han de ser

internacionales poder señal

anteriormente

des-submuestrear

estándar

y

esperada,

total-

explicadescompri-

generalmente

a

través de una interfaz de entrada y salida normalizada. Obviamente, métodos definición,

para

también reducir

una

señal

es la

lógico

deducir

información,

sin

comprimir

que

siempre o

sin

por se

muy perderá

submuestrear

eficaces

sean

los

de

calidad.

Por

siempre

tendrá

una

sacrificar

un

algo

que

calidad superior a la que sí lo está. » Submuestreo

A

partir

de

un

estándar

normalizado,

un

fabricante

puede

decidir

poco más los canales U, V de la señal YUV Es lo que quedó explicado al final

» 126

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

del capítulo 5 y en los anexos, cuando hablamos del muestreo 4:2:0 y 4:1:1. Con esto se consigue reducir aún más la señal YUV hasta un 25 %. Estos

muestreos

sumidor

y

parciales

se

“prosumer",

los

usan

pero

sobre

se

todo

entiende

en

que

los

un

aparatos

equipo

para

el

profesional

conha

de

trabajar, como mínimo, en 4:2:2. También

se

entiende

como

un

submuestreo

la

técnica

conocida

como

raste-

rización, que se explica igualmente en un anexo. » Compresión

La otra forma de reducir el flujo de datos es comprimir todo este caudal de información,

mediante

complicadas

técnicas

de

cálculo,

que

permiten

reducir

a

la mitad, a una cuarta parte o incluso a una veinticincoava parte, o más, el flujo original. Los Esta

métodos

son

combinación

que

diversos,

de

y

submuestreo

fundamentalmente

origina

la

por y

ello

les

dedicaremos

compresión,

diversidad

de

juntos formatos

el

siguiente

capítulo.

o

por

separado,

de

HD

y

DC

es

lo

que

se

encuentran en el mercado. Así

pues,

muestreo, altera

si

color

el

a y

flujo

los

cuatro

cadencia)

les

datos

final,

de

pilares

de

sumamos

la el

tecnología

audiovisual

submuestreo

obtendremos

los

y

diferentes

la

(resolución,

compresión,

formatos

que

comerciales

de HD y DC existentes en el mercado. Dependiendo

de

los

avances

de

estas

industrias,

pueden

aparecer

nuevos

formatos, o desaparecer algunos considerados obsoletos. >> 2 estándares, muchas etiquetas

Es

fundamentalmente

te

rasterización

o

la

aplicación

submuestreo

y

de

técnicas

diversos

de

tipos

reducción

de

de

compresión,

bitrate, lo

median-

que

posibilita

la aparición en el mercado de innumerables "formatos" HD. Podemos XDCAM-EX, rosos bargo,

ver

fabricantes, esto

que

existen

VARICAM, no

como debe

etiquetas

DCVPRO-HD, Sony,

Panasonic,

confundirnos:

en

comerciales

P2,

HDV Thomson,

HDTV

como

AVC-HD...,

sólo

JVC, existen

HDCAM, asociadas

Canon, dos

etc.

XDCAM, a

nume-

Sin

em-

estándares:

1.080

y 720. En el caso del cine digital, y como hemos visto anteriormente, la "flexibilidad" es algo mayor pero sólo en más

cuanto a la resolución, que puede ser unos píxeles

o menos que los fijados dentro del 2K y el 4K. Salvado ese punto, una

herramienta

profesional

de

cine

digital

que

se

quiera

considerar

como

tal,

debe

cumplir con la cadencia propia del cine, 24 fps (o en su defecto 23,976 fps), ser de

» 127

7 . DEFINICIÓN DE FORMATOS: PESO Y FLU]0

barrido

progresivo,

llevar

un

muestreo

completo

(RGB/4:4:4)

y

una

profundidad

de color superior a la televisión (de 10 bits en adelante). Al hablar de cine digital hablamos del punto de vista técnico, refiriéndonos a equipamientos de alta gama tipo HR. Huelga decir que se puede hacer "eme" con cualquier herramienta, incluso con un móvil.

A

continuación

existentes

en

se

el

muestra

mercado,

una

que

tabla

con

los

principales

incluye los formatos

formatos

más comunes

en

comerciales SD.

No se

especifican las cadencias, pues se aceptan todas o al menos las más comunes. Formatos Comerciales más comunes Formato

fabricante

res.

muestreo

ráster

compresión

bitrate

DV

varios

SD

4:2:0

8

no

jpeg DCT 5:1

25 mbs

p. bits

DVCAM

Sony

SD

4:2:0

8

no

jpeg DCT 5:1

25 mbs

DVCPRO 25

Panasonic

SD

4:2:0

8

no

jpeg DCT 5:1

25 mbs

DVCPRO 50

Panasonic

SD

4:2:2

8

no

DCT 3,5:1

50 mbs

BTC DIGITAL

Sony

SD

4:2:2

10

no

2:1

90 mbs

HDV

varios

HD

4:2:0

8



XDCAM-EX

Sony, JVC

HD

4:2:0

8

XDCAM HD

Sony

HD

4:2:0/2

8

AVC-HD

varios

HD

4:2:0/2

8

HD

4:2:2

mpeg2 17:1(1)

25 mbs

sí/no

mpeg2

25/35 mbs 25 a 50 mbs



mpeg2

sí/no

mpeg4

variable

10

?

jpeg200(2)

50-100 mbs

Inflnity

Thomson

DVCPro-HD

Panasonic

HD

4:2:2

8



3,51:1/8:1

100 mbs

HDCAM

Sony

HD

4:2:2

8



4:1

144 mbs

AVC-HD Intra

Panasonic

HD

4:2:2

8/10

sí/no

mpeg4

50/100 mbs

D5(31

Panasonic

HD

4:2:2

8

no

no

320 mbs

HDCAM-SR (4)

Sony

1.080

4:4:4

10

no

2:1

800 mbs variable variable

SD

HD

D21

Arri

4K(5)

4:4:4

12



ArriRAW

Viper

Thomson

1.080

4:4:4

10 log

no

FilmStream

SI-2K

Silicon Imaging

2K

4:4:4

12

no

RAW

variable

Red One

Red

4K(5)

4:4:4

12



Redcode RAW

192/288 mbs

HR

(1)

Cálculos para el HDV 1.440.

(2) Este sistema admite otros códecs. (3) (4)

Este formato sólo se presenta en VTR, no en cámaras. No comprime a 720p. El

HDCAM-SR

es

un

magnetoscopio

de

altas

prestaciones

utilizable

como

camcorder

por

cámaras

del resto de fabricantes, como las F23/F35 de Sony, la Génesis de Panavision, D21 de Arri o la Viper de Thomson, y en general en aquellas cámaras HR con salida 1.080 RGB Dual Link hasta 10 bits. (5)

Hay dudas sobre si considerar nativas o no la resolución 4K de estas cámaras. Quizá fuera más correcto

considerarlas

2K,

por

lo

que

en

esta

interpolan o submuestrean cuando trabajan a 4K.

» 128

tabla

se

señala

como

“sí"

en

la

rasterización,

considerando

que

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

A este cuadro hay que añadirle los ficheros DCI que se proyectarán en las salas comerciales. A sus características ya conocidas, la única compresión admisible será con el códec jpeg2000, con un bitrate variable dependiendo del tamaño. De éste y otros formatos de distribución hablaremos en la cuarta parte del libro.

Re capitulación



A

pesar

de

las

muy diferentes

propuestas

que

existen

en

el

mercado,

en

realidad sólo nos encontramos con cuatro formatos distintos: 2 de HD (1.080 y 720) y dos de DC (2K y 4K). •

Los

estándares

de

televisión

HDTV

son

fijos.

En

cine

digital

es

posible

encontrar pequeñas variaciones. •

La variedad de opciones de grabación en algunas cámaras o de edición en algunos por

programas

aplicar

viene

pequeñas

dada

variables

no en

por la

tratarse

cadencia,

de el

diferentes barrido,

el

formatos, muestreo

sino o

la

compresión. •

Las diferentes maneras de comprimir o reducir el alto flujo de datos propio del

HD

es

lo

que

genera

la

profusión

de

diferentes

marcas

o

etiquetas

comerciales en el mundo de la alta definición.

» 129

PARTE II: CAPTACIÓN

» Captación: las cámaras y algo más

La

elección

tante

de

del

equipamiento

todas,

pues

de

captación

determinará

la

de

imagen

calidad

de

es

toda

quizá

la

nuestra

más

impor-

producción.

Hay

que ser conscientes de que lo que queda grabado en la cinta o en el disco duro fijará

el

máximo

de

calidad

que

podremos

obtener.

Nunca,

en

ningún

proceso

posterior, podremos superar la calidad de los brutos de cámara. Por eso, al formato

de

captación

elegido

lo

llamamos

"nativo".

El

objetivo

será

mantener

su

calidad a lo largo de todos los procesos a los que le vamos a someter. En la mayoría de las producciones, la captación se hará a través de cámaras, sean

de

vídeo

(HDTV)

o

de

cine

digital

(HR);

las

cámaras

pueden

incluir

la

grabación de la señal (camcorders, contracción de los términos ingleses camera &

recorder,

en

castellano

de

"cámara"

y

“magnetoscopio").

se

usa O

el

puede

realizarse

en

inglés,

video

término se

"camascopio"

puede

recurrir

a

contracción la

a

su

vez

grabación

en

un

dispositivo externo. La

grabación

netoscopios

o

VTR,

del

los

tradicionales

tape

recorder

sistemas o

lineales

grabador

en

(magcinta

de

vídeo) o no lineales (grabación en discos, tarjetas de memoria rígida y otros dispositivos IT). Pero, además de la captación con cámaras, no hay que olvidar otras opciones. Una de ellas sería el uso de cámaras de fotografía fija (stills) para películas de animación

(técnicas

prácticamente

la

como misma,

stop y

motion, sus

el

timelapse

especificaciones

y

otras).

(resolución,

La

tecnología

muestreo,

es

profun-

didad de color) también; la única diferencia es que no existen el espacio de color YUV ni la cadencia. Otra opción de creación de imágenes (Computer

generated

images).

Se

son las generadas por ordenador o CGI

pueden

crear

como

secuencia

de

imágenes

fijas (lo más usual) o directamente como ficheros audiovisuales. Una vez más, sus parámetros

de

calidad

se

basan

en

los

mismos

criterios:

resolución,

muestreo,

profundidad de color. En esta parte del libro nos centraremos en las cámaras.

» 143

PARTE II: CAPTACIÓN

» Límites en la captación

Partamos de que la cámara ideal no existe. Lo de

ideal

sería

compresión

poder

ni

captar

pérdida.

la

Es

mayor

decir,

cantidad

trabajar

de información

con

señal

de

sin ningún

muy

alta

tipo

resolución

(4K o incluso 8K), con muestreo total RGB, mucha profundidad de color (12, 14, 16 bits... ) y a una cadencia alta sin interlazado que evite el parpadeo y el filage (48 o incluso 72 fps). Sin en

embargo,

día,

con

la

cantidad

la

de

tecnología

información,

disponible,

su

bitrate,

resulta

sería

casi

tan

imposible

alto o

que,

hoy

terriblemente

incómodo para un rodaje profesional. Ya de

conocemos

los

cuatro

las

posibles

parámetros

opciones

básicos

para

bajar

(rasterizado,

el

bitrate:

submuestreo,

reducir

etc.)

o

algunos

añadir

una

compresión a los datos. La

aplicación de

ciones

profesionales

estas que

técnicas

los

es

lo

broadcasters

que nos

abre

el

amplio

proporcionan.

abanico de

Por

eso,

ya

solu-

no

sólo

tendremos que fijarnos en el “formato”, sea HD 1.080/720 o 2K/4K, sino también en las soluciones comerciales que nos ofrece una cámara u otra. Y éstas han de aparecer claramente en sus especificaciones técnicas. >> Destino final

Por otro lado, el productor y el técnico no pueden perder de vista la rentabilidad

del

trabajo.

Su

amortización

viene

fundamentalmente

por

los

canales

de

distribución a la que está destinado. Es posible que una cámara con formato 4K RGB 14 bits y 48 fps nos proporcione Ahora

una bien,

calidad si

específico,

¿no

HDTV

mucho

de

fantástica,

nuestro

canal

obtendríamos

pero

de un

será

resultado

menor coste?

a

distribución

un final

final

precio

igualmente

es

DVD

muy

un

parecido

Un parámetro importante

que

“fantástico".

para con

se

un una

suele

cliente cámara

obviar es

precisamente el formato final. También debe estar presente en nuestros cálculos. Optimizar otros

aspectos

los

costes

tiempo de rodaje, ni

tiene

por

de

igualmente qué.

etc. La

El

captación

puede

además

importantes,

como

la

liberar

más

recursos

preparación,

los

decorados,

espectador no sabe de píxeles

calidad

objetiva

y

la

subjetiva

o

son

de calidades igualmente

para el

técnicas;

importantes:

el continente, pero también el contenido. » Coste total

Por otra parte, en el coste de una producción no influye sólo el soporte, sino toda la

cadena. Hay que tener en cuenta que diferentes cámaras y diferentes formatos

» 144

PARTE II: CAPTACIÓN

pueden muy

obligar

a

diversos

trabajar

con

presupuestos.

Algo

posterioridad que

con

también,

y

diferentes

equipamientos

esto

importante,

es

de

puede

ocasionar demoras o planes de trabajo distintos. De tos

la

de

misma

baja

manera,

a

puede

obligar

gama

veces a

paradójicamente, tener

más

trabajar

cuidado

a

la

con

equipamien-

hora

de

iluminar,

pues sus límites son más grandes. En ese caso, el dinero que se ahorra en un equipamiento, se gasta en más material de iluminación y tiempo de rodaje. » Tipo de producción y presupuesto

Un

técnico

o

Pero,

además

gran

película

efectos una

incluso del

comercial,

especiales

gran

el

productor

presupuesto, con

un

y grandes

tontería

siempre

influye

ha

también

presupuesto

de

apostar por

el

tipo 200

de

escenas de masas en

(objetivamente,

me

refiero:

de

la

mayor

propuesta.

millones

de

euros,

un formato como

es

posible

que

calidad.

Rodar

una

muchos

el HDV

es

subjetivamente

se

quiera trabajar con HDV por razones estéticas). Pero

el HDV o

independiente

de

el

tipo

AVHCD social

o

pueden ser grandes de

investigación,

formatos

donde

se

para un documental puede

sacrificar

un

tanto la calidad del continente a favor del contenido: mayor cantidad de material, más

cámaras,

Grandes

obras

más

ergonomía

actuales

en

hubieran

la

grabación,

menor

sido

imposibles

de

intrusismo

realizar

con

en

la

los

voluminosos

acción...

sistemas (en material y personal) de trabajo tradicionales. Así

pues,

lo primero que hay que tener

en cuenta es que no hay formato

malo, sino elecciones desafortunadas para propuestas diferentes.

La línea de la luz

Para poder elegir y discernir entre la muy diversa oferta de cámaras existentes en el mercado, recomiendo seguir el mismo camino que sigue la luz y ver qué tipo de elementos clave de la calidad nos podemos encontrar. Nos

encontraremos

con

elementos

ineludibles,

comunes

a

todas

las

cámaras,

que son básicamente tres: • El conjunto óptico • La separación tricromática • El sensor

» 145

PARTE II: CAPTACIÓN

» Conjunto óptico

Como

óptico”

"conjunto

también

a

los

filtros

nos que

referimos puedan

no

sólo

usarse.

a

Estos

las

lentes

filtros

u

pueden

objetivos, colocarse

sino

delante

del objetivo, o detrás, como ocurre con los filtros infrarrojos (IR) o la rueda de filtros neutros (ND) o de balance de color usual en muchas cámaras de vídeo. El

filtro

infrarrojo

fotoquímicos

(donde

fundamentalmente a

las

es se

al

frecuencias

muy usan

usual casi

hecho

de

infrarrojas

de

en

que la

los

siempre los

luz,

sistemas los

sensores

no

digitales,

ultravioletas,

visibles

digitales al

ojo

no

tanto

en

los

UV).

Ello

se

son

muy

sensibles

humano.

Estos

debe filtros

permiten mejorar los resultados visibles y evitar aberraciones cromáticas. Los (DOP al

filtros director

trabajo

sibilidades

usuales of

fotoquímico de

la

Ambas mecánicas filtros

físicos

no

en

fotografía

photography). o

de

vídeo

intérmedicación de trabajo son son

reversibles:

quedan

Algunos

a

lo

tradicional, digital,

y

efecto

del

con otros,

prefieren

válidas, pero su

criterio

usan

director

naturalidad,

fotografía

dado

las

“filtrar"

en

postproducción.

en

cuenta que los

hay que tener queda

de

acostumbrados

fijado

numerosas

indisolublemente

po-

a

la

señal. En el mundo del cine en España, se suele usar operador como sinónimo de director de fotografía, siendo el segundo operador el encargado de manejar la cámara; en el mundo del vídeo, un operador o camarógrafo (o simplemente “cámara”) es el encargado del manejo de la cámara, y el término “iluminador” se usa como sinónimo de director de fotografía. En inglés, además de DOP también es usual encontrar la palabra cinematographer.

» 146

PARTE II: CAPTACIÓN

No es éste un libro dedicado a la fotografía (ni soy yo la persona adecuada, por otra parte), por lo que nos limitaremos a hablar de las lentes u objetivos y su influencia en la calidad de una imagen. » Separación tricromátrica

Como ya hemos entendido en la primera parte, la información pura y dura carece de color: son “grises".

sólo unos

Para

reproducir

y ceros, la

que nos proporcionan los diferentes niveles

sensación

de

color

es

necesario

diferenciar

los

de

colores

primarios rojo, verde y azul. Es lo que se conoce también como tri-estímulo (tristimulus). Es

preciso,

pues,

separar

los

tres

colores

básicos,

y

esto se

realiza

mediante

sólo tres técnicas: • Prisma dicroico • Máscara Bayer • Foveon De los tres, el último es el menos usual, y si bien es una tecnología prometedora, a día de hoy sólo está implementada en cámaras de fotografía digital. » Sensor

Tras al

pasar por un proceso u sensor.

sólo

la

Para rejilla

analógico

un

mejor

de

digital

elementos

(A/D),

general

en

una

fina

también

se

conoce

otro de separación

estudio,

el

el

fotosensibles, filtro

película

como

en

sino

anti-aliasing

transparente

filtro

óptico

“sensor"

también, (AA

que

de

de color, la

término

paso

en

la

filter),

recubre bajo

luz llega por fin

(imager) que

el

en

no

conversora

consiste

sensor.

(OLPF

incluiré

etapa

por

El

filtro

sus

siglas

lo AA en

inglés). » RAW

Lo

que

tendríamos

justo

después

de

la

etapa

A/D

es

una

información

en

bruto

o en crudo (RAW) de lo que el sensor ha captado. La

forma

de

tratar

esta

información

depende

de

las

soluciones

técnicas

de

cada equipo en concreto, de sus elementos particulares. Dado que aquí la luz ya se

ha

convertido

en

información

digital,

hablaríamos

de

la

línea

de

datos

(véase

más adelante). » ¿Qué es una cámara?

Técnicamente,

cualquier

dispositivo

que

cuente

con

al

menos

dos

de

estos

tres

elementos (óptica y sensor; la separación en colores no es necesaria en cámaras

» 147

PARTE II: CAPTACIÓN

en blanco y negro) puede ser considerado una cámara apta para un trabajo audiovisual. nal

Por ello en este apartado tendremos que incluir no sólo el segmento tradiciode cine y vídeo, tanto profesional como doméstico, sino también el campo

de

la

visión

artificial

y

la

incorporación

de

las

cámaras

de

fotografía

fija

con

capacidad de grabación en vídeo.

Ni que decir tiene que también se incorporan nuevos dispositivos móviles de pequeño tamaño, como las cámaras que incorporan los teléfonos móviles o PDAs: si tiene una óptica y sensor, es una cámara.

La línea de datos

Una vez obtenidos los datos digitales, los equipamientos modernos ofrecen una alta variedad de opciones, pero todas siguen un camino lógico. Los en esos

datos

RAW

postproducción, datos

en

una

podemos o

guardarlos

bien

mandarlos

a

señal

entendible

por

tal

cual,

la

etapa

el

resto

para

un

posterior

procesamiento

llamada

"matriz",

que

de

equipamiento

decir, la convierte en un estándar.

Este estándar puede ser exclusivo del mundo del cine digital (RGB o XYZ, 12 bits, 24/48 fps y diferentes resoluciones y relaciones de aspecto de pantalla), o

» 148

convierte

televisivo:

es

PARTE II: CAPTACIÓN

bien del mundo de la televisión (HDTV), mucho más estandarizado acomodarse a la Recomendación 709 de la ITU: 1.080/720, 8 bits, etc.

pues

ha

de

» Monitorización

El principal escollo de una señal no HDTV es su monitorización. Los monitores estándar

de

últimos

tiempos

bits),

y

la

industria

que

están

están

pensados

apareciendo

permiten

conexiones

para

una

monitores

que

no

estándares

conexión

HD-SDi.

superan en

el

esa

mundo

Sólo

en

los

norma

(2K,

10

de

la

televisión,

no

estándares

de

visionado.

como el HDMI u otras de tipo informático (Ethernet, USB, etc...) Por

eso

HDTV

la

mayoría

incorporan

una

de

las

etapa

cámaras

de

matriz

que

para

graban

en

proporcionar

formatos una

salida

Esta salida, si es de calidad, permite igualmente su captación externa. » Almacenamiento

El almacenamiento puede ser interno (en los camascopios) o externo. Generalmente, si es interno, suele ir acompañado de compresión, que será además,

por

externa

lo

general,

una

se puede pensar

solución

en una

comercial

de

cada

casa.

Si

la

grabación sin comprimir, o elegir

grabación

es

el códec más

apropiado. Tanto

interna

como

externamente,

la

grabación

puede

optar

por

un

sistema

lineal (cinta) o no lineal (soporte rígido IT). » Dispositivos I/O

Tanto de

para

contar

la con

monitorización dispositivos

de

como

para

entrada

y

la

grabación

salida

(I/O,

externa,

las

Input/Output

cámaras

han

interface),

que

pueden ser, como hemos dicho, estandarizados o no. Se suelen considerar de entrada y salida si hablamos de un camascopio, pues en algunos de ellos se puede usar el magneto como grabador externo. Si no es así, evidentemente, sólo contará con salida. Las

entradas

y

salidas

y las diferentes

conexiones

(interfaces) nos

dan

siem-

pre una idea de la calidad del dispositivo. Por ello he incluido un anexo.

Pasemos a dar una visión más concreta de cada elemento, tanto de los comunes como de los particulares.

» 149

1. Elementos comunes a todas las cámaras

» La calidad como proceso global

Solemos

asociar

la

calidad

de

una

imagen

con

conceptos

un

tanto

subjetivos

como "resolución” (en el sentido general de la palabra), "definición" o “nitidez”. Y

éstos

están

definidos

digitales

queremos ya

conocidos:

pensar

que

resolución

y

profundidad

siempre

es

así,

en

pues

toda

cámara

exclusivamente de

influyen

color.

todos

por

Sin

los

los

parámetros

embargo,

procesos

esto

y

no

elementos

físicos por los que pasa la luz hasta ser captada por el sensor. La

calidad

se

verá

afectada,

por

ejemplo,

por

los

filtros

que

interpongamos

delante de la lente, por la propia calidad y características de la lente, por filtros posteriores

como

el

infrarrojo

(IR),

y

por

el

filtro

anti-aliasing

(AA)

que

suele

recubrir el propio sensor. Una vez que llega la luz al sensor, debemos tener en cuenta la tecnología y calidad

del

mismo,

su

conversión

a

señal

eléctrica,

con

posible

amplificación

y filtrado de ruido, y su conversión a digital en la etapa A/D. Cada existen cesos

uno

de

estos

“puros”

pasos

con calidad

procesos

que

100

no

%).

afecta

indudablemente

impliquen

una

Si contáramos

con

mínima

a

la

pérdida

calidad, de

pues

calidad

sólo cinco procesos,

no

(pro-

por ejemplo,

cada uno de ellos optimizados al 90 %, tendremos un resultado de 0,9 x 0,9 x 0,9 x 0,9 x 0,9 = 0,59, esto es, de un 59 % de la calidad total. Pero si sólo uno de ellos fuera del 60 %, la calidad final sería del 39 %. Por eso es importante que todos los elementos que interfieren sean óptimos. » Concepto MTF

Se

puede

mo

Modulation

medir

Generalmente, milímetro

se

la

calidad

Transfer muestra

final

Function con

(no confundir con

un la

de

una

(MTF), dato

cámara que

de

resolución

con

analiza

"resolución entendida

el

cálculo

cada

una

de

las

pares

de

líneas"

en

como número

conocido

total

co-

etapas. por

de píxe-

les). A mayor número de pares de líneas, mayor calidad. Sin

embargo,

no

siempre

los

fabricantes

proporcionan

este

dato,

y

no

siempre

es fiable. Por otra parte, son reacios a dar más datos de los precisos (como la

» 151

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

composición de sus filtros AA). de

cámara

en

diferentes

Así pues, nunca está de más recurrir a pruebas

condiciones

o

consultar

testeos

realizados

por

profesio-

nales independientes. Y

tampoco podemos olvidarnos de que, dentro del concepto MTE hay que

incluir el

resto

de

procesos

necesarios

para

mostrar la

obra

al espectador.

En el

caso de la televisión, por ejemplo, la emisión por antena, la recepción y el tipo de monitor. El tiraje de copias, la calidad del proyector y el tamaño de la pantalla en el caso de una obra cinematográfica. En

este

capítulo

hablaremos

de

los

tres

elementos

que

más

influyen

en

la

calidad final de los datos y que son comunes a todas las cámaras.

Las le ntes

Las lentes

son el ojito derecho de todo buen director de fotografía. Lentes de-

fectuosas

o

mediocres

logran

complicar

el

rodaje

estrechar

y

resultados los

defectuosos

recursos

y

mediocres,

creativos.

Ahora

aparte

bien:

de

tienen

un

precio. Fabricar una buena lente es caro, y fabricar una buena lente para el reducido

mercado

profesional

(cientos,

quizás

algunos

pocos

miles

de

unidades)

es mucho más caro que fabricar millones de lentes para el mercado final o de consumidor. te

para

(1/48)

Las

un

es

crítica.

de lentes: un

lentes

trabajo

135

Esta

intermedios

con

exigente.

luminosidad,

si tenemos mm

profesionales

muy un

esa

(tercios,

50

cine

se

muy

luminosas,

además,

mm con

abertura.

medios

de Son

o

Los

se

f1.4,

diseñan

ha

de

específicamen-

la

mantener

obturación en

todo

típica

el

juego

también necesitaremos un 24 mm

diafragmas

incluso

además pues

cuartos).

son Y

precisos,

están

incluyendo

diseñados

para

y

pasos trabajar

con otros accesorios profesionales, como el portafiltros o matte box y la rueda de foco

follow

calidad

íocus).

Por

eso,

que las demás, pero

las

lentes

profesionales

son,

por

definición,

de

mejor

el precio de un buen conjunto de lentes puede ser

incluso superior a la propia cámara. Por calidad,

otra parte, por

lo

el

mercado final es

mucho más

sensible al

es

en

cámaras

que

normal

que

muchas

precio que a

pensadas

para

la este

mercado se sacrifique hasta cierto punto la calidad de las lentes. La

conclusión

visual,

dado

es

que

sencilla:

la

la

tecnología

diferencia

de

precio

específicamente

digital

del es

equipamiento compartida

audiopor

la

mayoría de los equipos, estará cada vez más en las lentes que en las cámaras. En este libro no hablaremos de las lentes y su complicado mundo (en ocasiones,

muy

» 152

subjetivo),

ni

tampoco

de

fotografía.

Es

aconsejable

tener

unos

cono-

PARTE II: CAPTACIÓN

cimientos

previos,

siquiera

muy

básicos.



destacaremos

tres

cosas

a

tener

en

cuenta: nitidez o definición, luminosidad y variedad focal. » Nitidez, definición, contraste

Estos tres términos son ambiguos, y pueden tener una valoración subjetiva u objetiva. Técnicamente, en el mundo de las ópticas, la definición o nitidez (o en ocasiones contraste) de una lente es sinónimo de estar libre de cualquier tipo de distorsión (de perspectiva irisación

o

cromática

(flare),

etc.

u En

otra),

así

como

de

una

lente

definitiva,

efectos

indeseados

será

más

como

perfecta,

refracción,

tendrá

más

definición, cuanto menos distorsione la realidad que se intenta representar. También

aquí

hablamos

del

número

de

líneas

por

milímetro

que

es

capaz

de distinguir una lente. En este sentido hay que señalar que la mayoría de las lentes dan valores distintos de líneas en la parte central de la óptica que en los extremos. Si

hablamos

permiten

una

de

estética

nitidez,

podemos

diferenciadora

de

encontrarnos los

demás

con por

juegos su

de

propio

lentes

diseño.

que Lentes

más "duras” o más "blandas” en su nivel de definición y contraste. » Luminosidad

La luminosidad es también crítica. Una lente no es cien por cien transparente, y siempre se pierde un porcentaje de la luz proveniente del exterior. En lentes de focal variables (zoom), este hecho es más evidente pues se incrementa el número de

lentes

internas

y,

por

ende,

la

pérdida

de luminosidad.

En

este

sentido,

una

óptica de focal fija (prime) siempre será preferible a otra de focal variable (zoom). La

luminosidad

viene

determinada

por

la

apertura

del

diafragma,

cuya

me-

dición se ha estandarizado con los "pasos f" o "f. ratio” (de focal ratio): f1,4, f2,8, f5,6, etc. Como se sabe, cada paso de diafragma supone un incrementar o disminuir por dos la cantidad de luz entrante.

"Focal ratio" indica con ese número que debemos dividir la focal (distancia de la lente al objetivo, por ejemplo 50 mm) por él (por ejemplo, 2.8) para obtener el diámetro del diafragma (en el ejemplo, 50 mm/f 2,8 = 17,86 mm, que será el diámetro de ese diafragma en esa lente). La abertura (apertura en inglés) es pues un concepto ligeramente diferente a la focal ratio, e influye en cuestiones tales como la profundidad de campo. Los pasos f (f stops) tienen esta terminología un tanto complicada debido a que el diafragma es un mecanismo casi circular. El área de un círculo es PI por el radio al cuadrado. Si queremos aumentar el área de un círculo al doble, no tenemos que multiplicar por 2, sino por raíz cuadrada de 2. Por ejemplo: f11 x 1,4142... = fl6 F11 tiene el doble de área que f16, y deja pasar el doble de luz.

» 153

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

La

apertura

nitidez.

de

Por

diafragma

lo

general,

una

lente

debe

fundamentalmente

se

obtiene

también

influye

en

mayor

nitidez,

medida

la dos

a

pasos

la

por

el

encima

refracción

de

la

concepto en

de

la

luz

anterior,

líneas

por

apertura

que

incide

de

la

milímetro,

el

de

máxima.

sobre

las

Esto

se

palas

del

diafragma. En

fotografía

cidad

se

una

velocidad

la

fija

relaciona

velocidad

de de

se

habla

con

que,

obturación obturación

de

a

lentes

una

menor tiene

"rápidas"

mayor (más

el

fast).

apertura rápida).

límite

de

En

la

Este

de

concepto

diafragma, la

imagen

cadencia

y

de

se en

suele

velo-

puede

usar

movimiento, ser

constante

(1/48, 1/50, 1/60...), por lo que, en lugar del término "rápida", se prefiere utilizar el término "luminosa". Una óptica luminosa permite rodar con menor cantidad de luz (útil en entornos

poco

de

señal

iluminados) (ISO,

y,

en

decibelios

el

y/o

caso

del

forzados

digital,

evita

el

en

postproducción),

la

apertura

uso

de

que

amplificaciones

provocan

el

inde-

seado grano o ruido electrónico. También

es

característica

importante

estética

señalar

importante:

que la

profundidad

del

de

diafragma

foco,

de

influye

la

que

en

una

hablaremos

más adelante.

» Variedad focal Con

variedad

focal

nos

referimos

a

las

distintas

aberturas

del

ángulo

de

visión

(en inglés se suelen usar las siglas FOV de Field of Vision). Se mide en milímetros, siendo la

la

lente.

distancia Valores

entre más

el

elemento

altos

reducen

captador el

(sea

ángulo

fotoquímico

de

visión

o

electrónico)

(teleobjetivos)

y

y

valores

más bajos lo amplían (angulares). Hay juegos de lentes intercambiables de focal fija (un único FOV) y lentes de focal variable conocidas también como “zooms" (con varios FOV).

» Relación entre sensor y focal Es

importante

destacar

que

el

ángulo

de

visión

de

un

objetivo

está

en

función

no sólo de su distancia focal real, en milímetros, entre la lente y el captador, sino también del tamaño real de este sensor. Es común asociar un objetivo de 50 mm con una distancia focal media. Pero este

objetivo lo

es

si

usamos soporte de

35

mm,

pues las distancias focales se

notan generalmente pensando en ese soporte. Si cámaras

el

sensor

es

más

HDTV),

la

distancia

reducido focal

(2/3 se

de

pulgada,

multiplica,

en uno largo. Es lo que se conoce como "factor de multiplicación”.

» 154

por

ejemplo,

convirtiendo

un

típicos angular

de

las

medio

PARTE II: C APTAC IÓ N

Es algo similar a lo que sucede con las ópticas de 35 y 16 mm de cine. Si colocamos una óptica de 50 mm en una cámara de 16 mm, no corresponderá a la misma

apertura

que

en

35

cámaras

de

mm.

Hay

tablas

de

equivalencias

que

los

operadores

manejan con regularidad. En

algunas

ámbito

doméstico

o

incluso

prosumer,

la

distancia

focal se expresa con precisión (los milímetros exactos entre el sensor y la lente), añadiendo

lo

que

sería

el

equivalente

en

35

mm

para

que

el

operador

pueda

imaginarse más rápidamente el encuadre. » Lentes fijas o intercambiables

Una

cámara

decir,

la

profesional

lente

será

siempre

ofrecerá

independiente

la

del

posibilidad

cuerpo

de

de

cambiar

cámara.

Esto

de

lente.

permitirá

Es

elegir

entre la amplia gama de ópticas que ofrece el mercado, en función del tipo de rodaje y de las preferencias del director de fotografía. En el ámbito prosumer (o low end), lo habitual es que la cámara tenga óptica fija de focal variable (zoom), sin posibilidad de cambio de objetivo. En este caso, el operador ha de ajustarse a las posibilidades definidas por el fabricante. La palabra “fija” se usa indistintamente para señalar una óptica con focal fija (por ejemplo, 50 mm; prime, en inglés) como una lente unida indisolublemente a la cámara, no intercambiable (fxed).

» Lentes no intercambiables

Incorporar

una

lente

fija

supone,

problema

de

estas

principalmente,

un

gran

ahorro

de

coste

en

el

equipamiento. El de

gran

luminosidad

asociada

a

lentes,

un

aparte

zoom,

es

de

su

su

limitada

inferior

calidad

variedad

y

la

pérdida

focal.

Siempre

estaremos limitados en el uso tanto en teleobjetivos como en angulares abiertos. El caso de los teleobjetivos puede ser crítico, por ejemplo, si deseamos realizar documentales

de naturaleza

o

eventos en

directo, donde por lo general la

cámara

se sitúa a gran distancia del objeto a fotografiar. se

limita

que

También señalar

que

estas

con

sensores

de pequeño tamaño (1/2,

distancia

focal

mínima

mucho cámaras, con

la

la

distancia

además que

del

angular uso

en

de

1/3 de pulgada).

podemos

trabajar,

espacios

ópticas lo

fijas,

pequeños.

Hay

suelen

contar

Esto reduce aún más la que

dificulta

el

trabajo

en interiores con espacios reducidos. Como dijimos, gran parte del mercado prosumer ofrece ópticas fijas, pero también

se

pueden

encontrar

cada

vez

más

soluciones

de

esta

gama

que

permiten

el uso de ópticas intercambiables.

» 155

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

>> Soluciones intermedias

Algunos

fabricantes

ofrecen

opciones

para

el

uso

de

objetivos

intercambiables

dentro de cámaras con ópticas fijas. Son adaptadores que se colocan por delante del objetivo fijo, por lo que permiten

el

pero

uso

de

también

otras

una

ópticas.

Se

profundidad

utilizan

de

para

campo

intentar

más

conseguir

cercana

a

la

mejor

que

calidad,

ofrecen

los

equipos de alta gama de cine digital. Es que

una contar

opción con

que

dos

puede

efectos

ser

interesante

indeseables:

la

en

ciertos

multiplicación

momentos, de

la

pero

focal

hay

(pues

la

distancia entre la lente y el sensor se dobla o triplica) y la pérdida en luminosidad. » Ópticas intercambiables

En la gama profesional (broadcast) y alta (high end) del equipamiento, las ópticas son

siempre

una

solución

intercambiables. práctica

como

El es

fabricante

un

zoom

suele

estándar

vender

el

equipamiento

que cubra las

distancias

con focales

más usuales. Por lo general, este objetivo variable bastará para la mayor parte de la producción

televisiva,

donde

los

operadores

están

acostumbrados

al

trabajo

con

zoom, incluso para la operación de enfoque. Si

deseamos

usar la

cámara para

un

trabajo más

exigente o

específico, po-

demos recurrir a un juego de ópticas fijas intercambiables o incluso un zoom de mayor

calidad

luminosos estos

(mejor

y

definición

mantener

zooms

suelen

el

ser

y

luminosidad).

diafragma

a

lo

Debido

largo

muy caros, pesados

de

a

que

todas

han

las

de

ser

distancias

y voluminosos. Tanto

muy

focales,

éste como los

juegos de ópticas fijas, debido a su alto coste, se suelen encontrar en alquiler en las casas de servicio. Al igual que hay juegos de óptica para 35 y 16 mm, también encontraremos ópticas

para

SD y HD.

Son

distintas no sólo por la

mayor definición

del HD,

sino también por el cambio de relación de aspecto (de 4/3 a 16/9) y tamaño de sensor. Lo

En

ningún

contrario



caso

es

es

posible,

aconsejable

trabajar

con

siempre

cuando

tengamos

y

ópticas en

SD

en

cuenta

cámaras el

factor

HD. de

multiplicación (que limitará sobre todo en los angulares). » Compatibilidades

Por

tradición,

las

Además,

los

sual.

ópticas

cinematográficas

directores

de

fotografía

las diferencias entre los distintos fabricantes.

» 156

son

siempre

están

las de

acostumbrados

mayor a

ellas

calidad y

vi-

conocen

PARTE II: CAPTACIÓN

También por

hay

ejemplo.

diferentes

En

algunas

monturas. cámaras

La

clásica

(sobre

todo

en

de

cine

gama

es

conocida

prosumer)

como

sólo

es

PL,

posible

utilizar ópticas de la misma marca que la cámara, pues se ha creado una montura ad hoc para ello, evitando así la competencia. Por esa razón, muchas cámaras HD y DC tienden cada vez más a ofrecer la opción

de

trabajar

con

monturas

compatibles

o

sus

correspondientes

adaptado-

res. » La profundidad de campo

Uno de los temas que más salen a la palestra cuando se trata de la cinematografía digital es la diferencia que muestra en cuanto a la profundidad de campo (Depth of Phocus, DOP) con respecto al cine tradicional. La profundidad de campo es un concepto puramente óptico y se define como aquellas nado

partes

distancia mas

del

encuadre. a

exacta ese

igualmente

ángulo de visión que

En

realidad,

está

"a

foco”.

Pero

tienen

una

pérdida

Llamamos

campo

objeto enfocadas.

espacio

alrededor

del

"círculo

de confusión"

foco

técnicamente,

objetivo

al límite

se

se

encuentran sólo

un

entiende

mínima focal

que

existente

de o

foco

que

en

nitidez percibimos

lo

en un

determinado las y

profundidad

todavía entre

a punto

distancias

determia

una

próxi-

visualmente

parecen

de

a

como

enfocado y lo

campo

ese

“enfocado”,

y

desenfocado en

los límites exteriores del campo focal. La

profundidad

de

campo

será

mayor

"por

detrás"

del

foco

(aproximadamente

2/3) que por delante (1/3).

La mayor o menor profundidad del campo focal tiene que ver con tres elementos ópticos:

» 157

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS



La distancia focal del objetivo a mayor distancia focal (teleobjetivos), la profundidad

de

campo

se

reduce.

Los

angulares

tienen

por

esa

razón

una

que

entra

profundidad de campo mayor. •

La en

abertura el

sensor,

que cuando el

del

diafragma.

aumentamos foco

es

Si

reducimos

también

crítico en

el

la

campo

cantidad focal.

de Es

luz

bastante

habitual

un plano, el operador pida más

potencia

lumínica para cerrar el diafragma y ampliar así el campo focal. •

La la

distancia

profundidad

del

objeto

de

campo

enfocado. se

reduce.

A

mayor Los

distancia

teleobjetivos

desde

el

“aplanan"

objetivo, más

la

imagen, consiguiendo también mayores desenfoques.

» ¿Influye el tamaño del sensor en la PDC?

La respuesta es no. Muchos

profesionales

observan

que

si

se

usan

sensores

y

formatos

más

grandes (HD en vez de SD, o S35 mm en vez de 2/3), el foco se hace más crítico y la profundidad de campo se reduce. Esto puede llevar a pensar que el tamaño del sensor influye en la PDC, pero no es así. Como hemos dicho, la PDC depende

» 158

PARTE II: CAPTACIÓN

del cuerpo

óptico y es

indiferente que el sensor sea

pequeño o del tamaño de

una cartulina. » ¿Hay que tener en cuenta el sensor a la hora de valorar la PDC?

Definitivamente, sí. ¿Es una contradicción? Puede parecerlo, pero no es así. Hemos

dicho

queremos

que

hacer un

la

PDC

encuadre

depende

de

un

de

tres

objeto que

factores.

está

Pensemos

situado a

3

ahora

que

metros con

un

objetivo de 50 mm en un cámara con un sensor Súper 35 mm, el usado en el cine tradicional fotoquímico (sobre el tamaño de los sensores hablaremos luego). Si colocamos el mismo objetivo en un cámara con un sensor menor, pongamos un 2/3 de pulgada, a la misma distancia, ya no tendremos el mismo encuadre (el mismo ángulo de visión), al

factor

acercar

de

la

sino el

multiplicación).

cámara

o

bien

que correspondería a una focal superior

Para

acercar

obtener el

el

sujeto,

mismo

y

es

encuadre

entonces

(debido

tendríamos

cuando,

al

que

disminuir

la distancia entre el objeto y la lente, la PDC se amplía. Sin

mover

la

usar

un

más,

ampliaríamos

ángulo

cámara,

de

para

visión así

la

más

mantener amplio,

PDC,

pues

es las

el

mismo

decir,

una

focales

más

encuadre, focal

tendríamos

más

cortas

corta.

tienen

que

Una

mayor

vez PDC

que las largas. El último punto a tener en cuenta es el diafragma. Pero no hay que confundir apertura con pasos de diafragma. Lo que influye en la PDC es la abertura, esto es, el diámetro del círculo que abre el diafragma a cada paso. A mayor diámetro, menor PDC. En

el

caso

inverso

a

nuestro ejemplo,

si

colocáramos

el

objetivo de

50

mm

en la cámara de 2/3, podríamos poner la cámara S35 a la misma distancia con un

objetivo

1,6) para

de

mayor

focal

(pongamos

mantener el mismo

80

encuadre. Si

mm

con

obviamos

un

factor

de

multiplicación

el tema de la

mayor focal

del segundo (ergo, menor PDC), y abrimos los dos objetivos a F4, reciben los dos la

misma

cantidad

de

luz,

pero

con

dos

aberturas

diferentes.

El

diafragma

del

primero tendría un diámetro de 50/4 = 12,5 mm, y el segundo lo tendría de 80/4 = 20 mm. El diámetro del segundo sería mayor, y por tanto su PDC sería más reducida. » Distancias focales “equivalentes”

Los

operadores

dadas, humano,

donde las

están asocian

menores

acostumbrados al como

rango

a

35-50

angulares

y

trabajar como grandes

con

focales

unas

distancias

medias,

similares

angulares

y

las

mayores

focales al

ojo

como

» 159

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

teleobjetivos.

Estas

distancias

están

pensadas

para

formato

con

el

negativo

y

tamaño

de

sensor del 35 tradicional. En

muchas

colocan

cámaras

objetivos

de

con

pequeño

distancias

focales

ópticas

no

más

cortas,

obviamente

intercambiables pero

se

se

indica

su “equivalente" en la medida tradicional. Se dice así que se tiene una lente de 15-115 mm equivalente (por ejemplo) a un 24-185 mm tradicional. Hay que recordar que se trata tan sólo de una equivalencia. » Formato de proyección y PDC

Los

razonamientos

del

sensor

para

anteriores el

explican

trabajo

diario,

que

donde

hay los

que

tener

operadores

en

tienen

cuenta

el

en

cabeza

la

tamaño los

estándares focales del cine. Pero también influye, no en la PDC en sí, pero sí en su percepción, el formato de

reproducción.

pulgadas

en

No

es

nuestra

lo

casa,

mismo

que

en

observar una

una

pantalla

imagen de

en

once

un

metros

televisor

de

14

de

en

un

base

sala de cine. En el segundo caso, en el cine, se verá mejor la diferencia entre los objetos enfocados, cados.

los que consideramos

También

serán

mucho

nítidos dentro de la PDC dada, y los

más

visibles

las

zonas

conocidas

desenfo-

“círculo

como

de

confusión”, aquellas zonas limítrofes entre lo nítido y lo desenfocado. Esto es lo que hace que un foco "rozado”, imperfecto, pueda pasar por enfocado en un monitor pequeño y claramente desenfocado en una pantalla de cine. >> El tamaño de visionado

Por

la

misma

razón,

a

la

hora

de

rodar

es

muy

importante

no

fiarse

de

los

pequeños visores y LCD de muchas cámaras en cuestión de foco. El foco es algo crítico,

que

no

tiene

arreglo

en

postproducción,

por

lo

que

hay

que

asegurarse

de que se han medido bien todas las distancias. Es

muy

habitual

enfocados” en sala

de

baja

calidad,

encontrar

en

los montajes finales

edición, el

si

se

planos

usan monitores

montador

no

“rozados"

de muchas

aprecia

de baja el

o

incluso

claramente

obras. Esto se debe a resolución

desenfoque

y

da

o

formatos

por

buenas

"des-

que en la "offline”

de

tomas

que

debería rechazar. » El “look” cinematográfico

Se

asocia

una

corta

profundidad

mayor profundidad a un “look” televisivo.

» 160

de

campo

al

"look”

cinematográfico,

y

una

PARTE II: CAPTACIÓN

Esto es

cierto

más

pequeño

Pero

las

muy

similar

debido a

obligan

últimas

a

lo

cámaras

debido

al

que hemos

usar

focales

digitales

gran

tamaño

hecho notar: los

más

abiertas

de

HR

de

sus

y,

empiezan sensores,

sensores

por a

con tamaño

tanto,

mayor

ofrecer

una

equivalentes

al

PDC.

respuesta

tamaño

del

fotoquímico. De ahí que la respuesta del foco se aproxime. puristas que afirman que, incluso a igual tamaño del sensor, el fotoquímico tendrá una PDC menor, pues los elementos fotosensibles se distribuyen en capas (una para cada color), y este grosor, siquiera mínimo, también influye en la PDC. Teóricamente se podría dar por cierto, pero no sabría decir hasta qué punto es apreciable esa mínima diferencia.

Lo que no se puede afirmar es que un "look” tenga mayor calidad que otro. Ni técnica, ni subjetiva o estéticamente. Ciertamente, campo se

de

manera

siente

carecen

el

limitado,

de

interés

enfocados.

creador

cinematográfico

artística.

En

pues

puede

en

También

no el

es

sistemas

HD

talento con

"desenfocar"

encuadre, cierto

con

para

que

la

la

sensores

los

fijar

los

usa

pequeños,

elementos atención

desenfoques

profundidad

que

del

el

a

su

crean

creador entender

espectador

ópticos

de

en

una

los

textura

muy peculiar, que también puede ser usada creativamente. Existen largas,

soluciones

o

posibles.

trabajar A

multicapa

veces o

con

sencillas

con

menos

se

recurre

nuevos

como luz a

y

retirar

para un

abrir

trabajo

la

cámara

el

diafragma.

en

sorprendentes

para

postproducción,

plugins

que

usar

Pero

no

con

simulan

focales

más

siempre

son

un

sabio

el

desenfoque

uso

óptico cada vez con mayor verosimilitud. Pero es laborioso y ralentiza el proceso de postproducción. Por con

otra

parte,

frecuencia

los

los

defensores

problemas

de

a

ultranza

foco

que

chos. No es inusual que en primeros la

nariz

siempre,

o

las

desde

orejas luego.

del En

protagonista: ocasiones

lo

del

"look"

presentan

los

cinematográfico

olvidan

campos

estre-

focales

planos se vea a foco los ojos, pero no ¿es

ése

un

que

desea

efecto el

creativo

creador

deseado?

No

cinematográfico

es, cine

precisamente, lo contrario: una mayor profundidad de campo. En versus

cuanto

deseaba al

al

trabajar

rediseño

de

"subjetivo”

de

el

ejemplo

clásico

del

amplios

campos

focales,

obligando

incluso,

en

uno

reciente

en

componente

televisión,

tenemos con algunas

ópticas.

O

asociar

encontramos

PDC

en

una

estilo

de

Orson

más

dialéctica Wells, su la

que

tiempo, obra

de

George Lucas, en los últimos episodios de la saga Star Wars, donde el uso con profusión en

de

muchos

CGI de

los

(imágenes fondos

generadas

y decorados

por

ordenador)

dejaría

de

tener

y

VFX sentido

(efectos sí

se

digitales) ofrecieran

» 161

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

desenfocados.

Visualmente,

perderían

mucho,

y

técnicamente

se

complicaría

su integración. La

sólo puede ser una: no existe un “look” superior a otro, sino

conclusión

diferentes estéticas. Dicho esto, también debe quedar claro que si podemos elegir el tipo de lente para nuestra

cámara

(sistemas

de

óptica

intercambiable)

y,

por

ende,

jugar

más

con

la

PDC, esta decisión estética será siempre más amplia que si nuestra óptica es fija o nos vemos limitados por las distancias focales y un pequeño tamaño de sensor. » La labor del foquista

Una

cosa

focal

realmente

sorprendente

generalmente

más

es

que,

extenso,

a

muchas

pesar

de

contar

producciones

con

realizadas

un

campo

en

digital

para televisión tienen problemas de foco. Esto se debe no a la máquina, sino al operador, pero es necesario explicarlo un poco. En

trabajos

requeridos ocupa,

es

cinematográficos, el

foquista.

exclusivamente,

Es

de

uno decir,

medir

de la

los

profesionales

más

persona

del

equipo

de

cuidadosamente

la

distancia

solicitados cámara

entre

la

que

y se

cámara

y los actores o los objetos, y de ajustar adecuadamente el anillo focal de la lente. Es un trabajo fino que requiere experiencia, precisión y método. Es también muy crítico, pues a pesar de todos los avances en postproducción, hay sólo tres cosas que no se pueden solucionar: el encuadre, la dirección de la luz y el foco. Y sobre todo estas dos últimas cosas. Si un plano se rueda sin foco, queda prácticamente inútil para el montaje. En televisión, la dinámica de trabajo no suele incluir a un foquista, por varias razones que tienen que ver más con la “tradición" que con la lógica.



Primero, por lo que ya hemos dicho del campo focal más amplio: no es tan crítico, pues aunque la figura se mueva un poco de su marca inicial, puede seguir a foco dentro de la profundidad de campo.

« Segundo, porque se suele trabajar con mucha luz, sobre todo en los platos de

televisión.

Con

diafragmas

más

cerrados,

se

obtiene

mayor

profundidad

de campo y menos problemas de enfoque. •

Tercero, con

un

enfocar luego

porque

zoom es

abra

que para

cinematográfico,

es

habitual,

y no con el

lentes

operador

componer eso

no

es

en

plato

fijas. Con

ponga el

imprescindible la figura del foquista.

» 162

tanto al

plano.

posible:

un

máximo Con es

como zoom, el

ópticas necesario

en la

exteriores, manera

teleobjetivo,

tome

fijas,

propias

medir

para

trabajar

normal de del

foco

y

rodaje

enfocar.

Es

PARTE II: CAPTACIÓN

«

Cuarto,

porque

en

un

sistema

multicámara

en

raras

ocasiones

habrá

que

cambiar el foco durante una toma ni será preciso tomar nuevas medidas. Si es

necesario

reenfocar,

el

realizador

puede

optar

por

pinchar

otra

cámara

mientras el operador realiza el enfoque con el zoom. «

Por

último

apuntamos nuestro

(y

antes,

hogar.

Un

lamentablemente, el

resultado pequeño

pues

final

es se

"roce"

con

monitor de 14 pulgadas como en

una

mala

verá el

en

foco

la sala

excusa),

una no

porque,

pequeña

es

tan

como

pantalla

evidente

en

en un

de un cine donde podemos tener

una pantalla de doscientos metros cuadrados. Lo que en una pantalla de televisión no se aprecia, en un sala de exhibición resulta

desagradable

en

extremo.

Pues,

además,

el

foco

es

de

esas

pocas

cosas

técnicas que hasta el espectador menos avezado aprecia al instante. Hay

que

formato

de

tener

en

grabación,

cuenta sino

que una

el

cine,

exigente

desde

mi

mecánica

punto

de

de

trabajo

vista,

no

es

profesional.

Y

un que

este todo debidamente enfocado es lo mínimo que se puede exigir. » Mala visualización

Otro de los “vicios" del operador de cámaras de televisión es fiarse de su pequeño visor para el foco, acostumbrado como está al uso del zoom. Pero ni estos visores, ni

las

pequeñas

para

tan

crítica

pues

suelen

pantallas labor.

incorporar

de

Esto

LCD es

pequeños

que

sobre

algunas

todo

LCD

que

cámaras

incorporan,

importante

en

siquiera

tienen

ni

las

son

cámaras

la

fiables

prosumer,

resolución

nativa.

Fiarse de esas pequeñas pantallas para enfocar es más que arriesgado. Tanto

es

así,

que

la

mayor

parte

de

los

nuevos

equipamientos

incorporan

ayudas de enfoque en el propio LCD para facilitar la tarea del operador. La

mejor solución es contar con un buen foquista con experiencia. Y llevarse

también

un

pues

ocasiones

en

monitor el

externo director

suficientemente o

el

asistente

grande, de

que

vídeo

pueden apreciarlo al instante y advertir al operador (en

o

nunca de

viene

mal,

en

rodaje

edición

caso de un problema de

backfocus, por ejemplo, donde el foquista está "ciego”). La ventaja del digital con respecto al cine es que una correcta monitorización no

sólo

cámaras

es

imprescindible,

digitales,

pues

lo

sino

que

que

se

resulta ve

en

cien la

por

pantalla

cien es

fiable

en

exactamente

el

caso lo

de

mismo

que se graba. En cine, no se sabe nada hasta que se revela y positiva la toma. El visor de la cámara (la lupa) no permite al operador saberlo siempre con precisión, y se ha tenido que desechar más de un plano por problemas de foco, incluso un día o dos de trabajo completo por un problema con el backfocus.

» 163

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

» Backfocus

El backfocus, dicho mal y pronto, es un reajuste focal entre la lente y la cámara que se realiza en la montura. En ocasiones, una montura defectuosa o una dilatación

en

la

misma

(por

efecto

de

la

variación

de

la

temperatura)

altera

la

distancia focal y, por tanto, también el plano focal de la lente. Sucede

entonces

que

medimos

el

objeto,

ajustamos

el

anillo

del

foco

a

esa

distancia, pero el resultado sale desenfocado. En el caso del uso de zoom en televisión, podemos cerrar para enfocar pero al abrir perdemos el foco. El resultado son imágenes borrosas, a pesar de que se ha tomado una medición “correcta". Algunas la

cámaras

separación

cho.

Este

del

digitales,

sobre

todo

color

(véase

el

calentamiento

puede

provocar

las

siguiente

que

usan

apartado),

desajustes

el

bloque

tienden

en

el

a

dicroico

calentarse

backfocus

(el

para mu-

término

técnico es “descolimación”). Si el desajuste es leve, es más que probable que el operador no lo aprecie en su pequeño visor. De ahí, una vez más, la necesidad de un monitoreado de la señal en una pantalla grande. La

única

profesionalidad.

manera

de

Comprobar

evitar a

esto

cada

es,

una

cambio

entre plano y plano, que el objetivo esté bien colimado.

de

vez

más,

lente,

un y

poco

de

exigencia

también,

si

es

y

posible,

PARTE II: CAPTACIÓN

La s e p a r a c i ó n t r i c o l o r

» Sensores: analógicos y monocromos

Los sensores son una tecnología analógica, no digital, y son sensibles a las diferencias

lumínicas

manera,

de

intensidad,

"monocromos”.

no

a

Simplemente

sus

diferencias

convierten

cromáticas.

Son,

diferencia

de

una

de

alguna

intensidad

lumínica (fotones) en una diferencia de corriente eléctrica (electrones). Como vimos en la primera parte, para la reproducción del color recurrimos al sistema de colores primarios RGB. Pero para ello es necesario saber qué cantidad de rojo, de verde y de azul tiene el objeto que queremos fotografiar. Es necesario, pues, dividir la luz que entra por la lente, "pancromática” por naturaleza, en sus tres componentes primarios. Actualmente,

hay

dos

sistemas

que

se

usan

en

cine

y

televisión:

el

prisma

dicroico y la máscara Bayer. El primero ha sido durante años el más común, pero el

segundo

gama

alta

está del

imponiéndose cine digital.

cada

Ambos

vez

más,

sobre

se consideran

de

todo

en

igual

calidad

las

soluciones pero

de

hay que

analizarlos para ver sus diferencias. Comentaremos también un prometedor tercer sistema, conocido como Foveon. » Prisma dicroico

El “bloque dicroico” es un conjunto de filtros y espejos que se sitúa justo después de la lente y antes de los tres sensores captadores.

» 165

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

Los

filtros

longitud

dicroicos (ergo,

tienen

la

colores)

particularidad

dejando

de

pasar

filtrar

las

ondas

determinadas

de

longitudes

luz

por

su

y

reflejando

sensor

diferente

otras; los espejos redireccionan los haces hacia los otros sensores. La por

característica

cada

color,

principal

pero

de

por

este

esa

sistema

misma

es

razón

que

exige

precisa

un

sensores

de

menor

tamaño

individual que un sistema con un único sensor con máscara Bayer. El diseño de este prisma debe ser muy preciso, pues los tres sensores

deben

tener el mismo plano de enfoque con respecto a la lente. Y

recordemos una vez más que lo que se obtiene de cada sensor es una señal

eléctrica, que carece de "colorimetría". Tendremos, pues, tres señales eléctricas. » Máscara Bayer

El nombre se toma de su inventor, el ingeniero de Kodak Bryce E. Bayer, que inventó

esta

división

cromática

de

gran

solución

para

no

tamaño

se

poder

trabajar

realiza

donde

se

con

por prisma,

ha

un

único

sensor.

sino que se

incrustado

un

En

utiliza

máscara

este

un

caso,

la

único sensor

compuesta

por

sucesivos

“microfiltros” de los colores primarios. Esto hace que a cada píxel del sensor sólo llegue un componente primario de la luz (véase página 395, arriba).

» RAW, demosaico e interpolación

La señal que sale de este sensor es la conocida como “datos en bruto" o, más comúnmente, RAW. Esta En

interpretación

función de

otra,

es

cómo se

dependiendo

de

el

proceso

realice,

si

conocido

como

demosaico

(demosaicing).

tendremos una

imagen

de mayor

resolución que

aplicamos

interpolación

(submuestreo)

o

no.

Posterior-

mente, podremos optar por formatear la imagen en un fichero estándar. Volveremos a tratar este tema en el siguiente apartado, dedicado a los sensores. » Ventajas y desventajas

Ambos Cada Hay

sistemas, fabricante

que

barato

Bayer

señalar,

que

o

opta

uno

prisma,

son

por

uno

o

eso

sí,

que

un

con

tres,

válidos

por

otro

sistema

consumirá

para por

con

menos

una

correcta

motivos

un

fotografía

técnicos

o

solo sensor siempre

energía

y

ocupará

digital.

comerciales. será

menos

más

espacio,

permitiendo cámaras más pequeñas. Tradicionalmente,

en

televisión

siempre

se

han

usado

cámaras

con

tres

sen-

sores. La tecnología en este sentido está muy consolidada. Uno de los problemas asociados es indeseado

en

el calentamiento de la la

imagen.

El

prisma

cámara, que puede ser una fuente de ruido dicroico

es

también

una

importante

fuente

de calor. Y al subir la resolución de SD a HD se precisan sensores mayores, lo cual

explica

los

problemas

de

calentamiento

de

muchas

cámaras

HD.

El

calor

del "bloque dicroico” puede tener un efecto colateral importante, que es la descolimación

o

desajuste

en

el

backfocus,

debido

al

calentamiento

de

las

partes

metálicas de la montura. Principalmente por esta razón, el exceso de calor, la opción de un solo sensor con

máscara

HR.

Los

su

Bayer

sensores

tamaño.

Pero

se

está

también el

bloque

extendiendo

se

calientan, dicroico

mucho, y

lo

siempre

sobre

hacen se

todo

de

calienta

en

manera mientras

las

cámaras

proporcional el

a

diafragma

esté abierto y le llegue luz. Un sensor único se calentará más por ser más grande, pero lo hará fundamentalmente en el momento de activarse. Una

tecnología

con

un

solo

sensor

también

ofrece

la

“ventaja

relativa”

de

que

su

35

mm.

tamaño Y,

se

como

aproxima, ya

hemos

o

incluso

explicado,

supera,

el

tamaño

esto permite que

del

reproduzca

fotograma la

en

respuesta

de profundidad de campo del fotoquímico. La industria no ofrece en la actualidad un sistema de tres sensores con un tamaño S35 mm o superior, estando el límite en los 2/3 de pulgada. Y es poco probable que el futuro traiga un desarrollo de este tipo, pues el calor producido derivaría en una herramienta impracticable. Un argumento más a favor de un futuro sin bloque dicroico.

» 167

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

» Foveon

Un

último

avance

sobre

la

división

tricromática

son

los

sensores

Foveon.

Se

trata de una tecnología de la que se viene hablando hace tiempo, pero que en la actualidad no está operativa en ninguna cámara de HD o cine digital, pero sí en cámaras ofrecer

de

fotografía

opción

de

digital.

grabación

Dado

que

HD,

muchas

seguramente

de

estas

cámaras

pronto

veamos

realiza

"en

vertical".

En

el

empiezan

soluciones

a

Foveon

para cine y televisión (véase página 395, abajo). En ningún capas y

este

caso,

tipo

de

superiores

las

profundas

defensores un

de

Foveon

de

la

separación

máscara

Bayer

ni

de

cada

diodo

al

verde.

Esto

esta

cromática

tecnología

12

millones

se

microfiltro son

de

sensibles

color.

al

azul,

permite

fotodiodos

hablen

de

de

fotodiodos

de

las mayor

resoluciones permite

chip

No

Foveon,

intermedias

al

tamaño

que

y

verdaderamente

una

existe

resolución

las rojo los

nativas:

nativa,1x1,

de 12 megapíxeles RGB (3 canales con 12 millones de muestras en cada uno de ellos). Los

detractores,

no

obstante,

hablan

de

una

menor

de sensor con respecto al CMOS o al CCD. No es descartable ésta u otras tecnologías para cámaras del futuro.

sensibilidad

de

este

tipo

PARTE II: CAPTACIÓN

Los sensores

Una

vez

atravesada

la

lente

y

el

dispositivo

de

separación

tricromática,

la

luz

llega por fin al sensor. Como se explicó en la primera parte del libro, cada sensor dispone de equis elementos cionan

fotosensibles

cada

una

de

que

llamamos

las

muestras

fotodiodos, de

la

que

realidad

son

los

que

pretendemos

que

nos

propor-

representar,

lo que conocemos como píxeles. El

número

de

estos

elementos

es

el

que

determinará

“resolución

su

nativa”,

pues se convertirán en las muestras o píxeles de nuestra imagen digital. » CMOS y CCD

En

su

origen,

tecnología res

las

cámaras

actualmente

en

de

televisión

desuso.

planos, con tecnología

CCD

trabajaban

Después

se

con

tubos

desarrollaron

de

los

(dispositivo de doble carga,

imagen,

primeros

en inglés).

una

sensoPermitían

un uso más robusto de las cámaras, más eficiente que los tubos. Posteriormente, los

CMOS

(semiconductor

complementario

de

metal-óxido)

aparecieron

en

otros

ámbitos de la industria, y, en los últimos años, se aplican también con éxito a soluciones

profesionales

de

televisión

y

cine.

En

este

capítulo

no

hablaremos

de

la tecnología Foveon, pues, a día de hoy, no hay aplicaciones en el terreno de imagen en movimiento. Tanto el CCD como el CMOS han evolucionado en el tiempo y ofrecen pequeñas

variantes.

Si

bien

tradicionalmente

se

consideró

el

CCD

de

mejor

calidad,

hoy en día los CMOS se han puesto muy a la par y ofrecen ventajas adicionales. Una

de

ellas,

continua

el

evolución,

menor

coste

ambas

de

fabricación.

tecnologías

son

No

obstante,

plenamente

en

válidas

un y

mercado compiten

en sin

obstáculos. » Capturar fotones

Todos

los

algunos

sensores

elementos

la

energía

es

aplicable

captación

presente a

se basan en en

cualquier

electrónica.

la

semiconductores la

luz

CMOS

Hablamos

misma idea: aprovechar las particularidades de (aleación

de

silicio)

(fotones)

en

corriente

o

CCD

(o

Foveon)

del

cine,

de

la

que

eléctrica en

televisión,

pueden

cualquier pero

convertir

(electrones).

Esto

dispositivo también

de

de la

fotografía o de aplicaciones industriales y científicas (visión artificial).

» 169

1. ELEMENTOS COMUNES A TOGAS LAS CÁMARAS

Un sensor (imager) está compuesto por equis celdillas en forma de rejilla que se

denominan

fotodiodos.

El

material

del

que

están

hechos

permite

capturar

la

energía presente en la luz (fotones) y convertirlos en un flujo de electrones.

Aunque parezca extraño, la tecnología empleada en los sensores captadores es básicamente la misma existente en las placas fotovoltaicas generadoras de corriente eléctrica basadas en energía solar: convierten fotones en electrones.

Una gran intensidad de la luz implica un mayor número de fotones y, por ende, una

mayor

luminosidad

corriente emiten

eléctrica

pocos

en

fotones

y

forma

de

electrones.

por

tanto

contaremos

todos

los

Situaciones pocos

con

electrones

baja a

la

salida. Generalmente, base

(silicio),

y lo

dado que

que

casi

tenemos

que

entender

sensores es

que

usan un

el

mismo

fotodiodo

material

podrá

captar

más fotones en función de su área o tamaño.

No es el propósito de este libro profundizar en las diversas soluciones y tecnologías aplicadas en los fotodiodos. Basta con entender los conceptos básicos para poder hablar de diferentes calidades y sensibilidades.

» Resolución y sensibilidad

Una es

vez que

que

se

un

sensor

conoce

este

funcionamiento,

determinará

los

dos

lo

primero

parámetros

que más

tenemos importantes

imagen digital: su resolución o número total de píxeles, y su sensibilidad o

» 170

que de

pensar una

PARTE II: CAPTACIÓN

rango

dinámico

(Dynamic

Rangé),

que

dependerá

fundamentalmente

del

área

actuales:

A

total del fotodiodo. Esto igual

implica

tamaño

una

de

regla

sensor,

sencilla,

aplicable

resolución

y

a

todas

sensibilidad

las

son

tecnologías inversamente

proporcio-

nales. Esto

quiere

decir

sencillamente

que,

si

contamos

con

un

sensor

de

un

área

dada (2/3 de pulgada, por poner un ejemplo muy común en HD), sólo podremos aumentar

la

resolución

(tener

más

o

menos

megapíxeles)

sacrificando

la

calidad

de cada uno de ellos (pues resultarán fotodiodos con menor área sensible). Esta

regla,

como

veremos,

no

es

la

única

que

determina

la

calidad

de

una

cámara, pero sí resulta importante tenerla siempre presente. » Tamaño del sensor

Siempre hay un

límite para el número de píxeles

(“densidad

sensor

integración”).

de

Por

esa

razón,

por milímetro cuadrado de un el

propio

tamaño

del

sensor

nos puede dar una idea de su resolución. En tanto

televisión,

tradicionalmente

arbitrariamente)

siendo

este

último

como el

de

estándar

se 1/3

usan de

profesional

tres

pulgada, tanto

tamaños, 1/2 en

que

pulgada SD

como

se y en

denominan 2/3

de

HD.

(un

pulgada, Los

otros

se usan, por lo general, en el ámbito doméstico y el semi-pro o prosumer.

Decimos

que

generalmente sensor,

ni

es

arbitrario

abreviada siquiera

a

con su

porque dos

aquí

la

apóstrofres:

diagonal.

El

medida

inglesa

")

corresponde

origen

no está

en

los

de

“pulgada” al

tubos

(inch,

tamaño de

del

captación

analógicos de los años cincuenta (más concretamente, su diámetro).

» 171

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

El

sensor de 2/3" tiene un tamaño

aproximado

(con

posibles

pequeñas

va-

riaciones) de 9,6 mm x 6 mm, con una diagonal de un poco más de 11 mm. Es

parecido

al

tamaño

del

negativo

de 16 mm, por lo que algunas de estas

ópticas

funcionan

bien

en

cámaras

con este tamaño de sensor.

&

Muchas sistema

de

las

medidas

métrico

decimal,

que

se

sino

usan que

en

la

tienen

tecnología

origen

en

de el

los

sensores no

sistema

utilizan

"imperial"

el

anglosajón.

Una pulgada son 25,4 mm (el tamaño de un pulgar medio, al parecer). Curiosamente, 16 mm equivalen casi precisamente a 2/3", si bien tiene un origen distinto.

» Sensores Super 35 (Full Aperture, FA)

En la actualidad, 2/3" es el límite superior co.

para

Sería

trabajar posible

con

prisma

dicroi-

trabajar

con

sensores

de mayor tamaño, pero el calor generado

sería

poco

controlable,

y

ningún

fabricante ha optado por esa opción. Sin

prisma

contrarnos de

dicroico

sensores

pulgada

o

de

podemos

igualmente mayor

en-

de

2/3

tamaño.

En

este sentido, la idea es poder asemejarlos 35

al mm,

tibilizarlos mentos la

área pues con

sensible así sus

auxiliares,

profundidad

de

del

negativo

podríamos ópticas

y

de

compacomple-

pero

también

cine

tan

con

distintiva

del "look” cinematográfico. ílsr Recordemos que

el

Súper 35 mm

es

la

película

negativa

de 35 mm donde

también

se aprovecha la parte reservada al sonido en el positivo. De manera similar existe el "formato” S16 mm.

» 172

PARTE II: CAPTACIÓN

El

Súper

35

Aperture,

(S35)

FA)

o

también

de

4

se

conoce

perforaciones.

como Su

formato

tamaño

de

ventanilla

digital

en

abierta

milímetros

(Full es

de

(aproximadamente) 24 x 18.

» Sensores de fotografía (Full Frame, FF) Hasta

ahora,

pulgada

y

los

los

sensores

Súper

de

35

2/3

de

digitales

eran

la máxima calidad ofrecida por la industria.

Pero

desde

hace

muy

poco

tiempo, la irrupción de las cámaras de fotografía digital con opción de grabación en HD, nos obliga a hablar también

de

los

tamaños

dispositivos.

No

son,

de

este

en

tipo

este

de

momen-

to, una opción 100 % broadcast, pero todo apunta a que pueden llegar a serlo a medio o incluso corto plazo. En fotografía tradicional se usa el mismo ancho de negativo que en cine, 35 mm. Sin embargo, la película corre de

manera

longitudinal,

y

no

perpen-

dicular. Por eso el área sensible es el doble que

en

cine, con un área

total

en milímetros de 36 X 24. Es lo que se conoce como Full Frame (fotograma completo), FE En fotografía digital

está

amateur

presente

avanzado.

al

tamaño

del

APS,

variaciones:

(o y

en

las

más

bien

del

APS-H,

de

las

tamaños)

dependiendo

APS-C,

cámaras

Tradicionalmente,

muy

alta

cámaras

de

APS

(Advanced

fabricante,

APS-N...,

gama, foto

nos

pero

tipo

estar

se

torno

con al

o

ceñían

System).

encontrar en

profesional

reflex

Photographic

podemos

suelen

de digital

Dentro pequeñas

tamaño

de

lo que en cine conocemos como Súper 35 mm. Dentro de que el

de

tamaños, también formato

la desde en

fotografía los

ocasiones

“intermedio"

fija

digital

minúsculos

que

encontramos se

cuentan

con

desarrollado

por

también

incorporan opción

a

de

Olympus

los

una

grabación y

gran

teléfonos

Panasonic

en

variedad

móviles

(y

vídeo),

hasta

conocido

como

cuatro tercios (mayor que los 2/3, menor que el S35). Por encima del 35 mm también nos encontramos con los estándares de medio y largo formato. En digital, sólo el medio formato cuenta con soluciones comer-

» 173

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

cíales

estándares.

impresionantes,

Su

pero

gran

el

alto

tamaño flujo

proporciona

de

datos

una

que

resolución

maneja

no

y

resulta

sensibilidad práctico

para

la imagen en movimiento, por lo que no es probable que se pueda ver una solución similar a las DSRL con modo vídeo en este formato en los próximos años.

» Opción Full

Frame/S perforaciones

En

realidad,

el

usó

en

tiempo

su

Full

Frame algo

perforaciones,

hoy

al

evidentes

FA

son

novedades

que

se

en

no

desuso. y

es

similar, Las

simples:

anuncian

en

nuevo

el

ventajas el

la

en

formato doble industria

el

mundo

conocido en

cuanto

de

tamaño.

del

cine

audiovisual.

como a

En

Vistavisión

calidad

del

cine

se

de

8

o FF

Por

eso

algunas

digital

ya

hablan

frente de

de

las este

tamaño de sensor, y sin duda será la opción futura por excelencia. En este caso, habrá que recordar que los sensores FF no se manejan bien con las ópticas FA ni de 2/3. Por lo que la deriva del cine digital hacia el FF implica

» 174

PARTE II: CAPTACIÓN

también

un

nuevo

diseño

de

lentes

(o

el

aprovechamiento

de

las

tradicionales

de fotografía fija). » Tamaño del fotodiodo y rango dinámico

Se habla mucho del tamaño del sensor,

pero no tanto del tamaño de cada uno

de

ambas

los

fotodiodos

que

lo

componen.

Y

cosas

son

igual

de

importantes

a

claves

la

la hora de valorar la calidad de una cámara. El

tamaño

del

fotodiodo

tiene

que

ver

con

dos

especificaciones

en

calidad: la sensibilidad o rango dinámico, y el ruido. El

rango

dinámico

(latitud,

sensibilidad,

en

ocasiones

contraste

o

contraste

máximo) es el valor entre el mínimo y el máximo nivel; entre el valor de negro puro y el valor de blanco puro. En cine, el RD se suele medir en pasos de diafragma (stops, f stops) o latitud. Un valor tradicional del fotoquímico de 35 mm son los 11 stops es

que

una

permite.

tecnología

Si

hablamos

analógica,

este

de

sensores,

valor

se

y

dado

mide

en

que

como

decibelios.

hemos Un

indicado

ejemplo

son

los 56 dB que se exige a las cámaras de televisión profesional. Convertido a digital,

es el concepto de profundidad de bits, donde una señal

de 8 bits tendrá siempre menor RD que una de 12. Sin ser exacto, se calcula un valor aproximado de 6dB = lbit. La relación entre el tamaño del fotodiodo y el RD es sencilla: cuanto mayor sea

el

área

expuesta

a

la

luz,

más

fotones

captará y,

por

ende, más

electrones

tendrá a la salida. Explicado de una manera sencilla esto quiere decir que si mi valor mínimo es un electrón (e~), y el máximo es de 100 e~, mí RD o contraste máximo será 100:1. Pero si mi valor máximo es de 10.000 electrones, el contraste será de 10.000:1. Por esa sencilla regla física es el tamaño del fotodiodo y no el del sensor en general el que nos delimitará el RD de una imagen. El tamaño del sensor se expresa en micrones o millonésimas de metro, notado con la letra griega μ Se puede expresar en longitud (4 μm) o en área (16 μm2).

>> Ruido En la imagen electrónica el ruido es aquella parte de la información que no se corresponde con la realidad que se quiere mostrar, originada por imperfecciones de los procesos de captación. En fotoquímico, el ruido toma el nombre de "grano", y se origina por una deficiente exposición de los elementos fotosensibles o un excesivo forzado en el relevado. El origen del ruido en sistemas electrónicos tiene dos fuentes, y según cuál sea se habla de patrón fijo de ruido (fixed pattern noise) o ruido aleatorio (random noise).

» 175

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

El

ruido

controlable, sensor tes),

aleatorio azaroso.

(entre pero

es

el

Tiene

millones

también

que

que

de

tiene ver

fotodiodos

con

las

un

con

origen,

diminutos,

condiciones

como

imperfecciones de

siempre

trabajo.

su

nombre

en

la

habrá

Las

indica,

construcción algunos

altas

no del

deficien-

temperaturas,

los

cambios bruscos o incluso la humedad pueden ser fuentes de ruido aleatorio. El patrón fijo es el propio de cada sensor, de cada tecnología. En este caso, la

mayor

fuente

de

ruido

se

debe

a

una

particularidad

física

de

los

fotodiodos:

su vaciado o reseteo. Una vez que el fotodiodo se ha " llenado" de fotones, de luz, debe descargarse en

forma

descarga en

el

de no

electrones siempre

fotodiodo.

Y,

para

es lo

su

cuantificación.

completa; que

siempre

complica

aún

Sucede

queda

más

el

sin

embargo

que

algo

de

carga

asunto,

este

remanente

esta

remanente puede

variar de un fotodiodo a otro. De esta manera, al tomar una nueva muestra (otro fotograma),

el

valor

resultante

no

será

el

exacto

que

nos

mostraría

la

realidad,

lo que originará el ruido. Este hecho es el que explica que el ruido en las bajas luces (negros, sombras, shadows)

sea

más

En

señal

de

será

una

evidente baja

porcentualmente

más

en

intensidad elevado

las

herramientas

lumínica que

en

electrónicas

(pocos las

y

cámaras

fotones/electrones)

zonas

de

alta

sensores

es

de

el

digitales. ruido

intensidad

fijo

lumínica

(muchos fotones/electrones).

» Tecnología: CCD y CMOS

Básicamente,

la

tecnología

empleada

en

los

dos

CMOS. Tradicionalmente, el CCD (dispositivo de doble carga, en sus siglas en

tipos:

CCD

y

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

inglés), es el propio de las cámaras de televisión desde hace décadas, pues sustituyó

a

los

conductor)

tradicionales

es

una

tubos.

tecnología

El

que

CMOS

se

ha

(Complementary

aplicado

más

Metal-Oxide

recientemente

Semi-

al

mundo

audiovisual. Tanto si se trata de CCD como de CMOS pueden optar por máscara Bayer o por prisma dicroico para la separación de colores. Siempre mi

ha

opinión,

habido,

y

en

la

y

habrá,

de

defensores

muchos,

de

actualmente

una ambas

y

otra

se

encuentran

tecnología. a

Pero

en

par

en

la

cuanto a prestaciones se refiere. Es

necesario

conocer,

eso

sí,

su

arquitectura,

pues

las

dos

tecnologías

tienen

sus ventajas y desventajas. » Arquitectura de cada tecnología

La diferencia entre los CMOS y el CCD no son sus materiales (ambos usan el silicio como base), sino la arquitectura. En el CCD, como su nombre indica (doble carga),

la

celdilla

o

fotodiodo se

usa

tanto para

capturar

los fotones

como

para

transferir la carga de electrones generada. Una vez expuesto a la luz, un fotodiodo descarga

su

descarga

por

al

producirse

carga

de

columnas. un

vacío,

electrones El la

al

primer carga

inmediatamente fotodiodo de

inferior.

descarga

electrones

Es

decir,

en

un

bus

superior

lo

llena,

hay

intermedio,

una y,

produciéndose

un "efecto cascada" (en lo que se conoce como "intervalo vertical”). Esta

carga

se

convierte

siguientes procesadores de la señal.

» 178

entonces

en

corriente

eléctrica

y

se

transfiere

a

los

PARTE II: CAPTACIÓN

/ Arquitectura CMOS

/

1. El fotodiodo convierte

sus propios electrones en carga eléctrica 2. que los transporta

directamente 3. hasta una columna de amplificación.

En

un

CMOS,

por

el

contrario,

cada

fotodiodo

tiene

su

propia

salida,

inde-

pendiente del resto de la columna. En cada una de las celdillas no hay un solo transistor

(la

célula

propiamente

fotovoltaica),

sino

otros

dos:

uno

que

proporcio-

na la salida a la carga y otro que resetea el fotodiodo. Es la tecnología conocida como CMOS 3T (3 transistores) o simplemente CMOS. » Ventajas y desventajas

Esta

diferencia

entre

ambas

de

diseño

tecnologías

nos

puede

(señalando,

ir

una

señalando

algunas

vez

las

más,

ventajas

diferencias

y

desventajas

mínimas

entre

ellos). •

Fill

Factor.

Dado

que

el

CMOS

precisa

espacio para

otros

transistores,

a

igual tamaño de fotodiodo, el CCD tendrá un Fill Factor mayor que el CMOS. Esto significa mayor rango dinámico y menor ruido inherente. « Consumo y tamaño. Los CCD precisan de otros procesadores unidos al sensor, mientras que los CMOS no. Esto implica un menor tamaño en los segundos,

menor

pueden

resultar

consumo más

y

menor

sensibles

calentamiento.

al

ruido

En

este

aleatorio,

aspecto,

producto

de

los

CCD

ese

calor

(random noise). •

Producción. Un

único

Los

CCD

fotodiodo

son

puede

menos estropear

tolerantes el

con

los

rendimiento

errores de

toda

de una

fabricación. columna.

Por el contrario, los CMOS pueden ser operativos con más de un elemento defectuoso. Esto facilita su diseño y fabricación, abaratando el coste. •

Por la razón expuesta, el patrón fijo de ruido de un CMOS puede hacerlo más ruidoso que en un CCD. Exige un mejor filtrado, pero al mismo tiempo,

» 179

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

dado que se cuenta la información píxel a píxel, y no por columnas, el patrón fijo es más fácilmente eliminable. o ROI. El diseño de los CMOS permite el uso de regiones de interés (ROI, windowed; véase más adelante), cosa que sólo es posible en los CCD de manera menos eficiente. o Logarítmico. Dado que la salida de voltaje del CMOS es unitaria, no por columna, se considera que su respuesta dinámica es ligeramente más logarítmica que la del CCD, más lineal y uniforme. Esto podría suponer una mejor respuesta en las altas luces (pero no todos los expertos están de acuerdo en este punto). o Shutter. La arquitectura del CMOS 3T es generalmente de rolling shutter, mientras el CCD permite sin problemas el global shutter (véase más adelante). >> Shutter

En

cine

y artifacts

tradicional

el

shutter

u

obturador

es

una

de/permite el paso de la luz sobre el negativo. abertura

de

180°,

correspondiente

a

pieza

mecánica

Generalmente, Esta

que

impi-

se coloca en una

1/48

de

segundo.

abertura

es

posible

este

mecanismo

electrónica.

Con

esto

se

puede

ampliar o reducir para afinar esta exposición. la

imagen

más

En

común

el

una

vez

electrónica

uso

tomada

de

una

también

la

obturación

muestra,

el

fotodiodo

se

vacía

nos

físico,

pero

es

referimos

a

que,

electrónicamente

para

poder

tomar la siguiente muestra, quedando de nuevo los valores a cero. El

problema

surge

en

CMOS que se usan información obliga na

a

(de

de

todos

realizarlo ahí

el

la

en

la

los

descarga

fotodiodos

secuencialmente,

nombre

de

de

industria no

la

información.

es posible

del

sensor

al

por

líneas,

como

rolling).

En

caso

En

la

realizar toda mismo si

contrario,

mayoría

tiempo.

Su

bajáramos se

de

los

la descarga de arquitectura

una

colapsarían

persialos

buses

intermedios de almacenamiento de datos. La "captura de fotones + salida de electrones + reseteo” es lo que se conoce como “tiempo de integración”, común en todos los sensores.

Esto

supone

que,

CMOS

nunca

rencias

de

conocidos “burbujeo"

» 180

si

será

hablamos

microsegundos como

“distorsión

(bubble),

de

perfectamente

según

entre

imagen e

las

horizontal" hablemos,

en

movimiento,

indiscutiblemente líneas,

ocasionando

(skew),

"efecto

respectivamente,

la

captura

"progresiva". los

desajustes

gelatina" de

lo

que

de

Hay

(jelly afecta

un

dife-

(artifacts) effect) a

o una

PARTE II: CAPTACIÓN

imagen,

al

conjunto

de

ellas

en

movimiento

horizontal

o

con

una

combinación

de movimiento vertical y horizontal. Sucede cuando se mueven los objetos o la cámara.

/ Distorsión horizontal debido al rolling shutter /

» Contaminación (smear)

Los

CCD

fectamente

son

inmunes

progresivo.

"contaminación

a

Sin

lumínica”

esta

distorsión,

embargo

(smear).

están

pues

permiten

afectados

Esto sucede

por

cuando un

un lo

global

que foco

se de

shutter

per-

conoce

como

luz

muy in-

tensa se dirige directamente al sensor. La o las celdillas se cargan de electrones, desbordándose incluso, y afectando al resto de las celdillas de su columna. Aparece

entonces

en

la

imagen

una

línea

horizontal

sobre

toda

la

columna.

Este

artifacts no aparecerá nunca en un sensor CMOS.

/ Contaminación smear /

2. inunda de electrones los fotodiodos 1. Un foco de luz muy intenso...

del sensor que se desbordan y afectan toda la columna vertical.

» 181

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

» Desarrollos posteriores: IT, FIT, 4T...

Tanto la contaminación como la distorsión son defectos conocidos de estas tecnologías, por lo que se ha trabajado desde hace tiempo en su corrección. En

el

caso

de

los

CCD,

se

desarrollaron

dos

tecnologías,

conocidas

como

IT

(Interline Transfer) y FIT (Frame Interline Transfer). En la primera de ellas, junto a

cada

Esto

columna

limita

además

de

descarga

de

fotodiodos

(pero

no

evita

añadir

la

columna

equivalente

a

todo

se

habilita

totalmente) el

intermedia tamaño

otra

la

a

la

que

contaminación. de

del

descarga, sensor.

Con

se En

se

transfiere la

habilita eso

se

la

carga.

arquitectura otra

FIT,

zona

consigue

de

evitar

totalmente el smear. Como es lógico, la inclusión de una columna de almacenamiento intermedio va en detrimento del Fill Factor del CCD (y por ende, reduce su rango dinámico). En el caso de los CMOS, para evitar la distorsión se intenta la técnica conocida como global exposure / rolling shutter, donde, como su nombre indica, a

/ Corrigiendo el smear /

IT (Interline Transfer)

1. El fotodiodo transfiere sus electrones a la columna vertical de registro... 2. las cuales a su vez se descargan sobre la columna

horizontal de

registro.

IT (File Interline Transfer)

1. El fotodiodo transfiere la carga a un segundo sensor habilitado

como

zona de descarga... 2. que también descarga sobre una columna vertical de registro... 3. que finalmente descarga sobre una columna horizontal.

» 182

PARTE II: C APTAC IÓ N

pesar

de que

la

salida

sigue

siendo

secuenciada,

línea

a

línea,

la

exposición

se

realiza al mismo tiempo en cada celdilla. Esto con

se

un

puede

diseño

botella,

o

nuevo

transistor

obtener

más

bien

bien

eficiente

añadiéndole serviría

con

de

un

un

los

nuevo

como

obturador

buses

de

mecánico

salida

transistor

a

almacenamiento

(muy

que

poco

evite

cada

celdilla

temporal

de

los

(CMOS la

común),

cuellos 4T).

carga,

de Este

mientras

se realiza la descarga, evitando saturar los buses del transistor. Hay

nuevas

feccionan del

su

CCD,

tecnologías

rendimiento

siempre

en

la

(con 5

tendremos

arquitectura

CMOS

que

y hasta 6 transistores).

el

inconveniente

de

incrementan

Pero,

disminuir

y

como en

el

Fill

per-

el caso

Factor

y,

en

consecuencia, de perder sensibilidad.

Es raro encontrar una herramienta, siquiera fotográfica, con un CCD simple; normalmente son siempre ya, como mínimo, IT.

» Tecnologías equivalentes

Como

hemos

venientes. a

lo

visto,

Y

largo

plenamente

los de

tanto

el

defectos los

años.

operativas

CCD

como

asociados

con

Por el

a

esa

mismo

el su

razón, nivel

CMOS

presentan

arquitectura

se

actualmente, de

calidad.

se Y

ventajas

han

ido

e

consideran

se

incon-

solucionando tecnologías

espera

que

mejoren

píxeles

que

contiene

con el paso de los años (Live MOS, back-light CMOS, etc.). » Nativo, interpolación y rasterizado

Diremos

que

un

sensor

es

„„nativo"

cuando

el

número

de

equivale (o supera) al del número de píxeles que requiere el formato. Por canal. (por

ejemplo, Luego

canal).

terminado

sabemos que una

un En

„„nativo

chip este

tamaño

ejemplo,

tienen

señal 1.080 precisa de 1.920x1.080 píxeles por

1.080” nos

esta

deberá

tener

encontramos

cantidad

de

que

píxeles

al sólo

menos los

2.073.600 sensores

(generalmente

píxeles de

de

de-

2/3"

en

adelante). En

caso contrario, si el sensor no

fotodiodos

por

canal,

pero

nos

ofrece

es nativo, no tiene esos dos millones de una

resolución

de

1.080,

la

conclusión

es

que la cámara está rasterizando y/o interpolando la resolución. Interpolar

quiere

decir

que,

mediante

procesos

electrónicos

internos,

la

cáma-

ra “se inventa” un número de líneas que no son las que realmente le proporciona el sensor. Este

proceso

es

muy

común,

sobre

todo

en

cámaras

domésticas

y

prosumer,

pues abarata el coste. Pero en ocasiones se utiliza incluso en equipos superiores.

» 18 3

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

Por lo general, los fabricantes son reacios a hablar de la resolución "real" de sus sensores.

Y

hay

que

fiarse

de

la

“aparente",

resolución

la

que

proporciona

la

salida. La interpolación les.

Los

todo

mayores

con

objetos

malas

que

es algo negativo, si bien los resultados pueden ser funcionainconvenientes

condiciones

presenten

suelen

venir

lumínicas)

líneas

y

por

una

verticales

u

un

falta

aumento

de

del

definición

horizontales

muy

ruido

en

(sobre

planos

definidas

con

(aliasing

y/o moaré), y en general cualquier objeto que precise nitidez y detalle, como en planos generales de espacios abiertos. La

interpolación

rasterizado. una

El

relación

imagen;

es

una

rasterizado de

aspecto

mientras

la

solución

es

un

del

píxel

de

alguna

submuestreo

interpolación

diferente se

manera

que a

la

inventa

similar

utiliza

pero

de

del

considerar

“ensanchando"

1:1,

cuadrada

"muestras”.

nuevas

diferente

“truco"

el

Existen

la

cáma-

ras en las que a una resolución rasterizada se le añade, además, interpolación. >> Píxeles activos

Los

sensores

pueden

del

formato

que

sores las

se

fabrican

cámaras

cámaras mentan

de

de

sus

de

incluso Esto

manera

fotografía

digitales en

llegar

ofrecen.

fija, Si

ofrecer debe,

industrial visión

cinematografía

dispositivos.

a

se

una

con

artificial aprovechan

"sobran"

resolución

fundamentalmente,

a

a

estos

que

la

nativa sen-

medidas

estándares,

también

y

usos.

fabricantes

otros estas

algunos

superior

Los

soluciones

píxeles,

lo

que

y

las

hacen

es

para de

implehablar

de "píxeles activos" dentro del propio sensor. Este aspecto es muy común en los CMOS, pero no en los CCD (una vez más, por sus diferentes diseños). » Windowed

o región de interés (ROI)

Algunas cámaras que ofrecen pueden optar por dos opciones:

diferentes

resoluciones

de

formato

(2K,

720,

576),

• La primera, captar toda la información proveniente del sensor (por ejemplo, 2K)

y

posteriormente

realizar

una

downconversion

interna,

electrónica,

al

formato de salida (en este ejemplo 720 o 576). •

La otra opción es utilizar en la captación sólo la parte del sensor correspondiente de

a

windowed,

esta

otra

donde

resolución. se

En

desprecian

este los

caso,

píxeles

se que

habla

determinada. Sería como “recortar” el sensor para hacerlo más pequeño.

» 184

de

superan

un la

proceso resolución

PARTE II: C APTAC IÓ N

Dado

que

al

reducimos

reducir

también

el

el

número

flujo

de

de

píxeles

datos,

activos

podemos

en

en este

nuestra

región

caso aumentar

de

interés,

la

cadencia

sin producir cuellos de botella en los buses. Por eso el windowed (o Región of Interest)

se

usa

mucho para

este

fin:

aumentar

o

reducir la

cadencia

con

objeto

de realizar efectos de cámara rápida / lenta (over/ undercranking).

que tener en cuenta que si se usa un windowed, esto puede influir en la distancia focal del objetivo que se utilice. Al reducir el tamaño del sensor, hay un factor de multiplicación de la focal. » Sobremuestreo

En

oposición

al

(super-sampling,

submuestreo,

bining).

existe

Consiste

la

técnica

básicamente

en

conocida que

un

como píxel

sobremuestreo en

la

imagen

toma la información no de una única celdilla o fotodiodo, sino de dos o más. Esta técnica, todavía no existente a día de hoy en cine en

o

la

televisión,

ya

se

implementa

en

sensores

el mundo profesional del industriales

y

científicos

y

algunas cámaras fotográficas (Súper CCD o CCD-S/R de Fuji). El objetivo es

reducir

el

aliasing

y,

mucho

más

interesante,

obtener

imágenes

de

mayor

rango

dinámico (Higher Dinamic Range images). El los

sobremuestreo

próximos

es

años,

una

pues

de

las

promete

técnicas

superar

los

de

mayor

famosos

futuro

11

y

stops

recorrido

en

latitud

del

de

fotoquímico, permitiendo HDRi de 12, 14 o incluso 16 pasos de diafragma. >> Demosaico y resolución

A la hora de

de entender un sensor como nativo, es decir, con el mismo número

fotodiodos

que

píxeles

resultantes

en

la

imagen,

surge

el

problema

de

cómo

considerar los procesos de demosaico. Tradicionalmente, diferenciados, y

toma

uno

sus

tres sensores

tres

en por

el

mundo

de

canal

de

cada

valores

de

la

televisión

color

tres

RGB.

fotodiodos

se Un

trabaja píxel

claramente

con se

tres

sensores

entiende

diferenciados.

tricolor, Por

eso

de 2/3 con resolución nativa 1.920 x 1.080 (2 mpx, si se quiere)

proporcionan un fichero RGB de 6 MB. Sin

embargo,

cuando

se

usan

máscaras

Bayer

tradicionales

(GRGB),

los

foto-

diodos para el canal verde son el doble en número que los del rojo y el verde. Para reinterpretar bruto

(raw).

la La

imagen

se

forma

recurre

más

simple

al

demosaico

de

demosaico

(demosaicing) (conocida

de

como

los

datos

nearest

en

neigh-

bour, o también líneal) es tomar el valor de un píxel RGB en función del valor real

de

un

fotodiodo

en

concreto

y un

promedio de los

ocho adyacentes

(véase

página 396, abajo).

» 185

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

En el ejemplo de la figura, el valor del píxel correspondiente al fotodiodo A, en formato de 8 bits (de 0 a 255) sería: Rojo: 188 Verde: (35 + 57 + 63 + 88)/4 = 177 Azul: (115 + 56 + 87 + 121)/4 = 95 De esta manera, se consigue una triple muestra de color por cada píxel. Y por ello, de sensores con máscara Bayer de 12 mpx (4.096 px(h) x 3.100 px(v)), se pueden

conseguir

ficheros

4K con

un peso

de 36 MB

(y superiores,

dependiendo

de su profundidad de color). ¿Se

podría

considerar

nalmente,

pienso

será

submuestreo

un

el

resultado,

resultados

y

que si

visuales

un

no, o

fichero

pues

nativo

sería

interpolación.

mediante óptimos,

éste

Sin

u

habrá

con

confundir

tipo

los

embargo,

otros

que

este a

lo

procesos

considerarlo

de

demosaico?

técnicos: que

para

importa

de

demosaico

una

herramienta

Perso-



siempre

al se

final

es

consiguen de

trabajo

estándar. En este caso, la profundidad de color / sensibilidad que nos pueda proporcionar el sensor es clave, pues si el sensor tiene una gran respuesta (digamos 12 bits), se puede obtener una resolución superior a 8 bits con muy buena calidad.

Este, y no otro, es el modelo que propone RED, fabricante de las cámaras Red One, Epic, Scarlet y otras, a las que atribuye altas resoluciones (4K, 5K, 6K) que no son realmente nativas. Pero otros fabricantes están siguiendo esta línea. » Otras máscaras y demosaicos

El demosaico sencillo no es el único posible. A partir de los datos en bruto del sensor (raw) se pueden usar otros sistemas de demosaico que no sean el nearest, que suele producir problemas de aliasing muy evidentes. Algunos de estos demosaicos

son

estándares

(bicubic,

bicubic

tras

otros

corresponden

a

desarrollos

de

tomar

información

de

únicamente

cuadratic,

propios los

de

lanczos,

micthell,

empresas

píxeles

y

etc.),

fabricantes.

adyacentes,

toma

en

mienEn

vez

conside-

ración también los adyacentes a éstos, aplicando luego logaritmos propietarios. Para

complicar

posible. propuesto

soluciones

diodos

sin

último

dato

que

» 186

filtro para

recomiendan

(yellow,

aún

Precisamente

GRBY).

más para

la

distintas.

(en

blanco,

mejorar algo

la

Una

el

este de

white), pero

proyectores

sistema

Bayer

GRGB

no

"sobremuestreo"

del

canal

ellas

dejar

uno

de

así

un

sistema

los

otros

es

teniendo

información

parecido,

Algunos

materia,

evitar

en

de

vez

digitales

de lo

tres.

blanco

implementan,

cada

RGBW, Hay lo

es

verde,

se

cuatro usando

incluso muestran

pues

el

así,

único han fotoeste

sistemas amarillo asegu-

PARTE II: CAPTACIÓN

ran, el

corrigen número

ciertas

de

aberraciones

muestras

azules,

cromáticas.

BRBG,

pues

Otros

incluso

hablan

de

doblar

los

sensores

actuales

son

menos

en

sensibles al color azul (a su longitud de onda) que a los otros dos. » Máscara stripped

Esas máscaras citadas (RGBW, ladas

en

algunas con

ninguna cámaras

herramienta de

igual número

cine de

BRBG, CMYW) son propuestas, todavía no instade

captación.

digital

un

fotodiodos

de

tipo los

Pero de



se

máscara

tres colores,

ha

implementado

diferente en

a

bandas

la

ya

en

tradicional,

(stripped)

(véase

página 397, arriba). En

ocasiones,

tecnología otros

fabricantes)

conjunto

los

(actualmente de

los

se

píxeles

se

usada

por

puede

tres

distribuyen Sony

considerar

fotodiodos

RGB

y

diagonalmente Panavision,

nativa

si

o

como

si,

cada

sobre pero

píxel

sucede

el

no toma

en

sensor. descartable el

algunos

valor casos,

Esta en del se

realiza un sobremuestreo. La disposición de las columnas puede ser también en diagonal. » Aliasing

La

traducción

de

este

término

al

castellano

es

el

de

“solapamiento",

pero

siempre se usa el término en inglés. Se produce un efecto de aliasing cuando la información

“baila"

entre

dos

o

más

fotodiodos

anexos.

En

televisión

se

conoce

como el "efecto moaré” y también como "ruido mosquito".

» 187

1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

Afecta

fundamentalmente

a

líneas

verticales

u

horizontales

muy

definidas

y

contrastadas, cuya imagen pasa de un fotodiodo al anexo con facilidad. También en

líneas

se

considera

oblicuas,

y

aliasing en

el

general

cuadrado de los píxeles dispuestos

efecto

de

cualquier

"diente

efecto

de

cuyo

sierra" que se

produce

origen

formato

sea

el

en rejilla (común, pues, al CCD y al CMOS,

pero también en las imágenes generadas por ordenador). » Filtro anti-aliasing (AA, OLBF)

En las cámaras, para evitar este defecto o artifact, se usan medios físicos, como el

filtro

AA

(anti-aliasing),

también

conocido

como

de

paso

bajo

(Optical

Low

Band Filtei OLBF) o por software, como los filtros de demosaico ya mencionados. El filtro AA suele consistir en una fina capa de un material determinado que recubre

el

industrial

sensor. del

El

fabricante.

material Lo

en que

concreto hace

es

varía

y

suele

discriminar

las

ser

parte

“altas

del

secreto

frecuencias

de

contraste", líneas finas muy definidas; de ahí el nombre de paso bajo. La introducción

de

un

OLBF

significa,

inevitablemente,

una

pérdida

siquiera

mínima

en la “nitidez" (entendida como líneas por milímetro).

En ocasiones, y cuando no queda más remedio, se usan soluciones más burdas: una sería desenfocar ligeramente la imagen, o colocar un filtro de suavizado (soít) en la lente; y si se hace en postproducción, se aplica un efecto de suavizado (blur) a la zona afectada. Ambos sistemas, obviamente, no son muy recomendables en cuanto a calidad.

Recapitulación

• Hay dos grandes arquitecturas de sensores, CCD y CMOS. • Son equivalentes en calidad y prestaciones, si bien hay pequeñas diferencias entre ellos. •

Un sensor tiene dos variables importantes: el número de fotodiodos, que determina

su

resolución

máxima,

y

el

tamaño

de

cada

uno

determinará su rango dinámico. • Resolución y rango dinámico son inversamente proporcionales a un mismo tamaño de sensor. • La industria ofrece una amplia variedad de tamaños, desde los más grandes (Full Frame) a los más pequeños (1/3 de pulgada). • Hay otros factores importantes en la calidad, como el Fill Factor, el filtro anti-aliasing y el método de demosaico en las máscaras Bayer.

de

ellos,

que

2. Elementos diferencíadores de cada cámara

Toda

cámara

tiene

un

objetivo,

Una

vez

un

obtenida

la

información

sistema del

de

separación

sensor,

ésta

se

cromática puede

y

un

procesar

sensor.

de

muy

diversas maneras, dependiendo de cada fabricante.

La conversión analógica/digita l (A/D)

Lo

que hace el chip

se

convierten

se

ha

de

en

captador es

señal

digitalizar

eléctrica;

para

su

transformar por

la

definición,

conversión

en

luz (fotones) una

unos

señal

y

ceros,

en

electrones, que

analógica. propia

Esta del

señal

lenguaje

binario. Esta etapa es igualmente importante, pues ha de hacerse en tiempo real y con la

mayor

fiabilidad

superior

a

primero,

la

la

posible.

finalmente

precisión

de

El

cálculo

obtenida la

en

debe

efectuarse con

grabación.

codificación

de

Hay

color.

Y

dos

una

cantidad

razones

segundo,

la

de

bits

fundamentales: discriminación

del ruido inherente a toda señal. Por ejemplo, si queremos obtener una señal de 8 bits por canal, es necesario contar con una etapa de 10 bits, y será excelente si la etapa es de 12 bits o superior. Actualmente, el límite tecnológico está en los 14. Esto nos puede proporcionar una señal de hasta 12 bits de profundidad de color, pero para algunos técnicos es una señal un tanto “sucia”, con exceso de ruido. Se espera que con el desarrollo completo de etapas de 16 bits o superiores y el aumento de sensibilidad de los sensores, estos problemas desaparezcan. Una vez digitalizada la señal, lo que tenemos es un valor en bits de cada uno de los fotodiodos, y es lo que se conoce como fichero RAW (del inglés raw, crudo o en bruto).

» 189

2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

» ISO y ganancia

Tanto

en

sensor.

la

tecnología

Recordemos:

del

CMOS

como

sensor

sólo

CCD, sale

la

una

etapa

A/D

corriente

es

independiente

eléctrica.

Pero

esa

del señal,

muy débil, se amplifica para su lectura. Una

característica

propia

del

mundo

de

la

fotografía

digital

son

los

valores

ISO, que no se usan en el mundo audiovisual, donde sí es común el valor de "ganancia”.

Los

ISO

recogen

la

tradición

de

los

carretes

de

negativo

fotoquímico

(valores ASA o ISO, que se expresan en múltiplos de 100,200,400, etc.), mientras que la ganancia lo hace en decibelios (-3 dB, 0 dB, 3 dB, 6 dB, etc.).

Cada valor de ISO correspondería a un stop o paso de diafragma. En el caso de las ganancias, menos estandarizadas, no siempre se correspondería el valor ya citado de 6 dB = 1 stops. El

ISO

(y la

ganancia) depende

de esta amplificación. Una amplificación

“están­

dar" sería un valor 100 de ISO. Doblando la señal, se dobla el valor de ISO a 200, y

así

sucesivamente.

amplificamos

el

Sucede

ruido

sin

inherente

embargo y,

que

asimismo,

al

amplificar

estrechamos

el

la

señal rango

también dinámico

(pues los valores altos no se pueden amplificar indefinidamente).

También

hay

que

señalar

la

diferencia

entre

ganancia nativa) y “no nativa”. Nativa sería

en

la

amplificación

“nativa"

(ISO

o

el caso de que hablemos de la

amplificación de la señal analógica previa a la etapa A/D. Y “no nativa" cuando esta

amplificación

del

vídeo,

» 190

se

después

realiza de

después

masterizada).

de Es

cuantificada importante

digitalmente subrayar

(o, esto

en

el

porque

caso por

PARTE II: CAPTACIÓN

lo

general

la

“nativa"

amplificación

es

de

mejor

calidad

que

la

amplificación

realizada sobre el fichero ya cuantificado. Lamentablemente, ficaciones

si

la

sus

mayor

valores

parte

del

ISO/ganancias

equipamiento son

nativos

no o

aclara

no.

en

En

sus

especi-

ocasiones,

incluso,

algunos de ellos (100, 400, 800, por ejemplo) lo son, pero otros intermedios (200, 600, 1.600... ) no lo son. Sólo un correcto análisis de las imágenes puede ayudar a conocer la idoneidad de estos valores. Señalar rrección

también

de

que

niveles

irreversiblemente

un

en

ISO

o

ganancia

postproducción.

grabado

en

el

Pero

fichero,

no

nativa

si

lo

cosa

equivaldría

hacemos

que

no

a

en

sucede

una

co-

cámara,

cuando

queda

trabajamos

en postproducción no lineal, donde cualquier proceso siempre es reversible. » Límites

Los

valores

rizadas un

a

ISO

los

que

ofrecen

valores

fotómetro

ISO

profesional,

algunas

cámaras

tradicionales

por ejemplo.

(sí

“aproximaciones”

son

estandarizados)

La

terminología

es

no

estanda-

que

nos

puede

sólo

una

ayuda,

ofrecer y

es

conveniente examinar los equipos previamente para ver la correlación real. En

fotografía

digital,

actualmente

altos

sin

que

llegue

ayudan

los

procesadores

mente eso como

se

discriminadores

racterística

aleatoria

apreciable

en

dente.

tampoco

Y

y de

las

los

pueden

"apreciar"

el

A/D

diseñados

para

eliminadores

del

distribución

imágenes

se

a

en

filtrados

del

alcanzar

valores

aumento

de

ello,

ISO

ruido

que

funcionan

ruido.

Sin

embargo,

por

la

ruido,

éste

siempre

será

más

movimiento,

pues

pueden

tan

ser

"baila" efectivos

relativa-

generado.

de

propia

manera

como

ca-

visible más

en

A

también

la

y

evi-

fotografía

fija, pues se maneja un número de bits por segundo enormemente más elevado. Por uso y

las

de

razones

ISO

fotodiodos

o

expuestas

ganancias

más

(aumento

no

grandes,

la

es

de

muy

ganancia

ruido

y

estrechamiento

recomendable.

No

obstante,

ISO

ser

más

puede

del con

efectiva

RD),

el

sensores que

en

convertida

en

número

de

fotodiodos más pequeños, pues el nivel de ruido inherente es también menor. » Matrización

Tras

la

una

sucesión

píxeles repetirse

etapa o

A/D de

muestras tantas

ya

unos con

veces

tenemos y

ceros su

por

“digitalizada que

característico segundo

la

realidad",

corresponde como

detalle

a y

determine

un

es

decir,

determinado

precisión. la

Este

cadencia

proceso que

debe

hayamos

elegido (24, 25, 30...) para tener una imagen en movimiento en nuestro cerebro.

» 191

2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

A partir de este momento, podemos tomar dos opciones: • Trabajar con los datos en bruto (raw) • Matrizar la señal "Matrizar” algo

la

señal

es

básicamente

convertir

la

sucesión

de

unos

y

ceros

en

entendible por nuestro monitor y el resto de herramientas de la cadena de

producción.

Esto

es

lo

que

convierte

verdaderamente

los

unos

y

los

ceros

en

una señal HDTY asignando a cada valor obtenido en el sensor un punto exacto en la imagen. Es decir: que tal valor obtenido por el sensor en un determinado momento corresponderá a la información del píxel situado en la fila X y la columna

Y del

fotograma

correspondientes do

y

de

color

armonizado

y

o campo dentro

Z de nuestra imagen y tendrá unos

de

entendible

su

por

gama.

todas

Todo

las

correctamente

herramientas

valores

sincroniza-

estándares

(véase

página 397, abajo). El

otro

proceso

importante

de

la

matrización

es

determinar

el

espacio

de

color. También es en esta etapa donde optamos por trabajar en RGB o en YUV Como se observa en la figura, de todo el espectro de colores visibles por el ojo humano,

la

narlos

todos

(RGB,

por

tecnología sería

digital

selecciona

casi imposible.

ejemplo)

para

que

un

Esta

el

resto

rango

determinado,

parametrización de

equipamiento

debe lo

pues ser

seleccio-

estandarizada

interprete

igual.

Es

decir, el valor que corresponde al rojo absoluto, al blanco o al negro debe ser igual en todas las herramientas. Este

espacio

debe

ser

compartido

por

nuestra

cámara,

por

el

fichero

grabado

y por el monitor, para que la información (unos y ceros, recordemos) sea no sólo reconocible sino inalterada: que el rojo que hemos visto en cámara sea el mismo rojo que nos muestra el monitor. Evidentemente, el ideal de representación fidedigna no siempre es posible, pues tanto los monitores como las cámaras alterarán la representación: no son herramientas perfectas, y presentan diferencias, siquiera mínimas, incluso entre dos dispositivos de la misma marca y modelo. Para ello, es necesario calibrarlos. Una cámara o un monitor descalibrado es una fuente segura de errores.

» Correcciones de gama

Una la

de

las

características

matrización

podemos

"tocar”

es

un

de

proceso

algunos

de

las

cámaras

estándar sus

y,

digitales

modernas

generalmente,

parámetros

para

es

automático,

obtener

algunos

fotografía. Es lo que se conoce como “corrección de gama” o “curvas de gama".

» 192

que, hoy

si

bien

en

día

efectos

de

PARTE II: CAPTACIÓN

No en

todas

las

por

las

cámaras

defecto

cámaras high

end

tienen

estas

o

alta

de

(del

tipo

son

seleccionables

aparatos),

y

cámaras.

Pero

el

"cinelook

operador

I, sin

opciones, gama.

cinelook más

II..."

a

través

experimentado

pero

suelen

Algunas

de

que

se

de

también

incluirse

estas

los

encuentran menús

puede

por

correcciones en

internos

adentrarse

defecto vienen algunos de

las

más

en

esos menús y producir sus propias "curvas” personalizadas. No se debe confundir este proceso con el trabajo logarítmico (véase el anexo). Una

corrección

blecidos,

de

sino

gama

que

nunca

variará

las

saldrá

de

los

relaciones

de

colores

estándares y

internacionales

contrastes

siempre

estadentro

de estos límites. » Utilidad del manejo de gamas / Riqueza en tonos medios /

Las

curvas

de

gama

son

útiles

para

"estirar" algo las posibilidades de trabajo de los equipos digitales. Se suelen utilizar con tres motivos: •

Generalmente, intentar ganar contraste y riqueza de detalles en las partes “clave” de la imagen (sean altas,

medias

o bajas,

según

in-

terese). •

Compensar

unas

condiciones

de

rodaje especialmente exigentes. •

Variar la temperatura de color o las

dominantes

cromáticas

de

una

escena. » Riqueza en tonos medios

Un uso muy común en las correcciones de gama es el de reforzar los “tonos medios” de la imagen. Los

tonos

neralmente

a

medios la

corresponden

abertura

del

ge-

diafrag-

ma según la lectura del fotómetro, y es donde

se

suele

situar

la

información

“relevante” de la imagen. Por ejemplo, el rostro del protagonista.

» 193

2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

Una vez más, hay que contar con la particularidad de que el ojo humano es más

sensible

quiere

al

decir

contraste

en

sencillamente

las

zonas

que

medias

podemos

que

apreciar

en

las

las

altas

o

diferentes

bajas.

Esto

tonalidades

de

una piel (si es morena o clara, si se ha ruborizado, si ha tomado el sol) mejor que

las

diferencias

entre

gamas

de

blancos

de

una

nube o,

mejor

aún,

que

las

sutilezas de una zona sombreada o en oscuridad. “Tocando"

la

curva

de

respuesta

de

la

matriz

podemos

aumentar

los

niveles

de detalle y contraste en estas zonas medias, pero con la condición de perderlos, comprimiéndolos, en las otras zonas. Más

detenidamente,

se

puede

diseñar

una

curva

que

pueda

subir

los

medios,

comprimir los bajos pero mantener los altos. Las posibilidades son infinitas. La nes

terminología

en

los

aparecen o

como

se

knee.

variar llaman

master,

simplemente

terminologías,

puede

medios

lift

o

En

dependiendo

en

cada

midtones, pedestal:

equipos del

cámara. grey

los

de

Generalmente,

o

simplemente

altos

como

postproducción

fabricante.

Pero

siempre

los

bajos

white

knee

se

nos

correccio-

gain,

whites,

también

las

gamma’, usan

diferentes

referiremos

a

las

zonas bajas, medias o altas. » Situaciones extremas de rodaje

Hay ocasiones en que se dan unas condiciones de rodaje extremas: un desierto a las doce del mediodía, un exterior de noche iluminado con farolas o un día soleado en el polo norte..., o cualquier otra situación donde las diferencias de contraste sean muy grandes o muy críticas. En ese caso nos puede interesar corregir la curva de respuesta en la matriz para intentar suavizar y armonizar nuestra imagen. El de

caso

knee",

conseguimos falta

de

más que

común suele

evitar latitud,

es

del

incluso

“apretar

tener

su

los "cielos

blancos." o

consiguiendo

mantener

los

blancos"

propio

quemados cierta

con

“preset”

en

la

tan típicos

riqueza

llamada

el

“corrección

menú.

Con

del vídeo

cromática

en

las

esto

por

su

zonas

altas que luego podemos trabajar en postproducción. » Trabajo con el color

El tercer caso más común es variar la colorimetría. En los ajustes de la matriz podemos

trabajar

individualmente

cada

canal,

por

lo

que

podemos,

por

ejemplo,

intensificar un poco el canal rojo para dar una apariencia más "cálida” a nuestra imagen.

También

tener una

para

evitar

la

fuente no controlable.

dominancia Un

de

un

caso típico es

determinado el

color

toldo verde

de

que

puede

la

terraza

de un bar en un día soleado: bajando un poco la matriz verde, evitamos que los rostros de las personas adquieran esa tonalidad.

» 194

PARTE II: CAPTACIÓN

Realmente con

eso lo que hacemos es variar la

"temperatura de color" de la

cámara sin recurrir al balance de blancos. » Irreversibilidad

Hay que tener mos

en

esta

en etapa

cuenta es

una

cosa: cualquier

irreversible.

Si

cambio

variamos

la

o corrección

dominante

roja

que apliquede

una

toma,

por ejemplo, esta variación quedará unida a la señal y será la base de todo el trabajo posterior. Por

esta

razón,

internos

y

dejar

ducción.

Pero

el

otros,

muchos resto sin

operadores de

prefieren

correcciones

embargo,

quizá

para por

trabajar el

su

poco

trabajo

con

posterior

experiencia

los en

profesional,

menús postproprefieren

llegar a la posproducción con la imagen lo más semejante posible a lo que será el resultado final. Ambas implicados

opciones, sean

por

descontado,

conscientes

de

que

son las

válidas,

siempre

correcciones

en

la

y

cuando

matriz,

las

todos

los

ganancias

y otros circuitos internos alteran irreversiblemente la señal obtenida. >> Grabación de datos RAW

La otra opción de trabajo es guardar sin más o con alguna compresión los unos y ceros obtenidos desde el sensor tras su etapa A/D.

» 195

2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

Esta

técnica

muchos alta

años

gama,

graban

es

de

idéntica

a

adelanto.

sobre

todo

directamente

Este

en

en

la

fotografía sistema

aquellas

algún

tipo

fija,

se

donde

empieza

el

a

trabajo

en

RAW

en

cámaras

de

decir,

que

aplicar

ya

sin

cinta,

es

(disco

duro,

que

pueden

trabajar

de

soporte

informático

lleva

tarjetas,

memorias sólidas, conexiones informáticas en un ordenador, etc.). El lo

trabajo

en

realizaremos

zacíón

es

RAW

a

necesaria

optamos

por

cámara.

Y

para

hacer nos

no

implica

posteriori, este

en la

la

ofrecer

matrización,

postproducción.

estandarización

trabajo

puede

obviar

la

delante la

de

del

Ya la

señal.

de

que

visto

este que

En

RAW

en

vez

de

trabajar

con

otros

ordenador

posibilidad

sino

hemos

proceso

la

matri-

simplemente

dentro

de

la

espacios

de

color diferentes a los de la HDTV como el XYZ propio del entorno DCI (Digital Cinema Initiatives). Al

igual

que

lo

que

apuntamos

antes,

ambas

opciones

son

siempre

válidas,

siempre que se sea consciente de lo que se está haciendo.

» Ventajas RAW Para los defensores del RAW, su principal ventaja es que este tipo de decisiones clave

se

pueden

tranquilo

lejos

finos

calibrados.

y

tomar

del

en

estrés Y,

una

de

sobre

sala

un todo,

de

montaje,

rodaje.

Los

trabajamos

en

ajustes,

con

un

ambiente

además,

todas las

relajado

podrán

ser

posibilidades

y más

que nos

ofrece el sensor, sin el recorte inevitable que supone la etapa de matriz, o el paso a un formato de 8 bits. También CineForm

se y

señala

otros)

que

la

más

“limpia",

es

compresión

del

genera

RAW

menos

(en ruido,

códecs que

como

la

Redcode,

compresión

de

una señal matrizada. Lo ideal en este caso sería trabajar; como en fotografía digital, con ficheros RAW sin comprimir. Pero dado el enorme flujo de datos que se genera, resulta poco más o menos que impracticable en situaciones de rodaje real. No obstante, es posible y así sucede en algunos equipamientos de visión artificial, y si la miniaturización de las tecnologías sigue avanzando, su implementación en cine y televisión podría no estar lejos.

» Desventajas RAW Sin

embargo,

hay

también

algunas

desventajas.

La

principal

es

que

la

señal

RAW no se puede monitorizar. Al no estar matrizada, no se puede conectar a un monitor por

para

una

matrizadas,

» 196

visualizarla.

matriz, e

siquiera

incluso

Es

necesario,

temporal,

tienen

ya

el

como

para ajuste

poder de

hemos

visto,

visionarios. temperatura

pasar

los

Estas

salidas

de

color

datos u



otros

RAW están que

PARTE II: CAPTACIÓN

hayamos

seleccionado,

cosa

que

los

datos

RAW

no

tienen.

No

es,

pues,

fiable

al 100%, ni para temas de color ni de contraste. Sí lo es, por contra, para el encuadre y para el foco. » Reversibilidad

Los

ajustes

fichero

de

como

monitorización

metadatos,

softwares

licenciados

volver

retocar

a

y

ser

todo

ajustes

propios

del

color...).

Lo

no

que

no

que

lo

alteran

pueden

mostrados que

en

podríamos

original.

pantalla.

en

el

(nitidez,

recuperar

RAW

interpretados la

deseemos

'„matrizado”

el

ser

Pero

fichero

un

ISO

incorporan

incluso

original

contraste,

es

Se

automáticamente

o

así,

para

saturación,

por

podemos

resetear

temperatura

ganancia

nativa,

al los los de

pues

ya

vimos que era una etapa previa a la digitalización. Si el ISO o ganancia no es nativa, sí se puede recuperar, pues como hemos visto es posterior a la etapa A/D y, por tanto, posterior al flujo RAW. También la cámara puede originar al mismo tiempo que el fichero RAW otros matrizados, una

rápida

referenciados

o

de

menor

visualización

o

un

premontaje

resolución en

(proxies,

un

espejos),

ordenador

de

que

permitan

rodaje,

sin

que

por

esta

sea necesario procesar el RAW original. » Tiempo real

Al

formato

RAW

se

le

característica.

Igual

que

ha

el

llamado

digital”

"negativo

fotoquímico,

es

necesario

precisamente

"revelarlo

y

positivarlo”,

procesarlo en definitiva, para poder trabajar con él. Por

lo

general,

los

operadores

provenientes

del

campo

de

la

cinematografía

se sienten a gusto con el workflow o flujo de trabajo RAW. Se asocia el disco duro o la tarjeta de memoria donde se almacenan los datos al “chasis” de 35 mm donde va el negativo. Cuando la memoria se llena, se cambia el “chasis”. Por flujo

el de

contrario, trabajo

los

un

operadores

tanto

provenientes

engorroso,

de

acostumbrados

nitorizar la señal original, con la certeza

la

televisión

como

encuentran

están

a

este

poder

mo-

de que lo que ven en el monitor es

exactamente lo que se almacena en el archivo. Por No

descontado,

existe

tiempo, conectar

por

incluirse a

una

el

ahora en mesa

trabajo una

una de

RAW

cámara cadena edición

con de

es

específico

grabación producción

RAW

o

una

en

del

mundo

RAW

televisiva unidad

que

estándar móvil

cinematográfico.

pueda, (no

RAW

al

mismo

se

puede

como

otra

puramente HDTV).

» 197

2. ELEMENTOS DIFERENCIADORES EN CADA CAMARA

Almacenamient o y salidas

>> Camascopios

Aunque

se

asocia

regularmente

macenamiento,

no

grabación.

unión

La

todas

el

las

de

concepto

cámaras

una

“cámara"

de

incorporan

cámara

y

un

a

la

captación

necesariamente

magnetoscopio

se

y

al-

un

sistema

conoce

como

"ca-

de

se

habla

mascopio”

(camcorder

de

siglas de Electronic News Gathering, o recolección electrónica de noti-

ENG,

en

inglés;

en

los

equipos

de

televisión

también

cias). Hoy en día muchas cámaras no contemplan el magnetoscopio (con cinta), sino

soportes

de

grabación

rígidos

(discos

duros

o

tarjetas).

“camascopios

Serían

no lineales", pero el término “camascopio” sigue usándose indistintamente. Tanto su

las

vez

salidas

también entrada al

cámaras

para y

la

salida

camascopio.

simples

que

permiten

como usar

monitorización. (I/O), Por

es

mayoría

de

los

almacenamiento

En

decir,

descontado,

la

algunos

que estas

salidas

externo.

dispositivos,

admitirían

camascopios

la

Estas

estas

grabación

están

incorporan salidas

interfaces de

señales

estandarizadas

dentro

a

sirven son

de

externas de

la

normativa HDTV para asegurar la compatibilidad entre todas las herramientas. » Compresión interna en el camascopio

Casi Los

sin

excepciones,

sistemas

portátiles

un

camascopio

actuales

de

grabará

la

almacenamiento,

señal

de

sean

con

manera cinta

o

comprimida. no

linea-

les, no permiten la grabación sin compresión. Pero no se descarta para un futuro próximo en entornos IT.

» 198

PARTE II: CAPTACIÓN

Se habla de “entorno IT” cuando todo el proceso se hace en digital y sin cinta (no lineal).

El HDCAM SR es una solución portátil de Sony que permite la grabación 1.080p 4:4:4

con

falta

de

una

compresión

compresión.

mínima

Éste

se

2:1,

que

puede

se

considera

considerar

el

de

similar

calidad

magnetoscopio

de

a

más

la alta

calidad de grabación. Panasonic bién

la

cuenta

grabación

con

un

sin

compresión

magnetoscopio en

no

portátil,

determinadas

el

D5,

que

cadencias

ofrece

y

tam-

formatos.

Pero

no está incorporado a ningún equipo de camascopio. Las cámaras de la casa Red son capaces de grabar la señal RAW, pero tras una

compresión

los

sistemas

previa, de

pues

el

flujo

almacenamiento

de

datos

rígidos

es

(Compact

todavía Flash,

demasiado en

su

alto

para

caso).

Otros

fabricantes proponen soluciones para grabar RAW sin comprimir. » Tipos de compresión

Como

ya

hemos

explicado,

las

compresiones

no

son

estándares.

Cada

fabricante

presenta sus propias soluciones, y es libre de ofrecer o no los códigos al resto de la industria. Con

la

planteaba

introducción

muchos

de

la

problemas,

grabación

por

lo

no

que

se

lineal, ha

este

problema

intentado

de

establecer

patentes

un

criterio

común, que llamamos MXE Media eXchange File no es un códec sino un “pro­ tocolo

empaquetamiento‟‟

de

(cámaras, bución) licencias

informático

equipos

de

grabación

entiendan

la

información

pertinentes,

trabajen

IT,

editores

contenida

con

que

los

no en

permite

que

lineales,

postproducción

el

códecs

fichero

y,

nativamente.

diferentes si

equipos y

distri-

disponen

Incluso,

la

de

las

extensión

del MXF ha abierto además estos códecs, y la mayoría de los fabricantes optan por

una

política

de

códecs

abiertos,

no

propietarios,

empaquetados

con

formato

MXE No obstante, algunos códecs siguen siendo propios de determinados equipos, plataformas (MAC, Windows) o fabricantes. Será tema para el siguiente capítulo. >> Grabación externa sin compresión

La otra opción, que se usa con cierta frecuencia en producciones de alta calidad, es

usar

algún Se

las sistema

gana

en

salidas

de

externo calidad,

las

cámaras

(generalmente,

pero

se

pierde

para

almacenar

ordenadores en

operatividad,

la con

señal

sin

potentes

puesto

que

compresión discos conlleva

en

duros). el

uso

de cableado y un espacio propio para los sistemas de almacenamiento. Es una solución muy usada en rodajes digitales en plato.

» 199

7 2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

» Cadena HDTV / DC

La

etapa

de

matriz

es

básica

en

la

cadena

de

producción

de

televisión

debido

a que las emisiones en directo lo requieren. Por esta razón, lo más usual es que todas

las

cámaras

digitales

ofrezcan

señales

estándares

HDTV

de

1.080

o

720.

Esto descarta las resoluciones superiores (2K, 4K), que, al no provenir del ámbito televisivo, no tienen salidas estandarizadas. Esto no quiere decir que el 2K o el 4K siempre trabajen en RAW. La información se puede matrizar y guardar, por ejemplo, como secuencias de ficheros dpx o tiff, con

un

espacio de color

diferente al

televisivo (SuperRGB,

Adobe,

Apple o,

más

corrientemente, XYZ, que es el específico del DCI). Pero también una señal 2K/4K se

puede

en

este

grabar caso,

como

ambas

un

formato

soluciones

de

vídeo

SIEMPRE

(quick

se

time,

grabarán

windows

media...).

formato

no

en

Pero

lineal,

sin

cinta. La razón es que todos los magnetoscopios que se fabrican en la actualidad están estandarizados a una señal HDTV y no existen magnetos ni 2K ni 4K. » Tipos de salidas

Una cámara I/O):

tendrá,

por

lo

general,

todas

o

algunas

de

estas

salidas

(interfaces

• Analógicas, para la compatibilidad de equipamiento de este tipo, principalmente monitores. • Digitales para monitorización y captura en equipamientos digitales. • Informáticas para el traspase puro de datos y/o la captura de las imágenes. Para cualquiera de las dos primeras es necesario que la cámara pase por la etapa matriz. Para la segunda, puede hacerlo o no. El

tema

de

(véase

el

salida

como

proporciona

anexo

las

salidas,

identificación una

su

cableado

correspondiente), salida

del

pues

formato.

HD-SDi,

e es Por

deducimos

identificación muy

común

ejemplo, que

se

si

trata

merece usar

el

un

anexo

aparte

nombre

de

decimos

que

cámara

de

señal

una

la

1.080

la o

720, interlazada, YUV y con una cadencia estandarizada; si se ofrece salida Dual Link, entendemos que es una señal RGB. >> Downconversion SDi

Internamente,

muchas

cámaras

pueden

convertir

la

señal

HDTV

en

una

SDTV

que se suele sacar por la misma conexión y el mismo cable (pues la interface es la misma). Esto permite visualizar la señal en un monitor SD (por ahora, mucho más baratos que los HD) o realizar una captura offline (a baja resolución). Esta

» 200

PARTE II: CAPTACIÓN

opción nús

suele

ser

accesible

internos

de

las

general

dan

también

por

los me-

cámaras,

que

las

opciones

tres

en

de salida de 16/9 a 4/3: recorte (crop), viñeteado

con

bandas

(letterbox)

o

re-

en

la

escalado anamórfico (resize). Volveremos

sobre

este

tema

parte de postproducción. » 800 mbs, 3 gbs

800 mbs es el flujo estándar del HDTY el

que

porta

la

señal

sin

comprimir

HDTV 8 bits 4:2:2. 3 gbs es el bitrate que se empieza a señalar como el futuro estándar de conexiones para la HDTV Este flujo permitiría

trabajar

siempre

con

señales

sin comprimir de 2K y 1.080 4:4:4 y hasta

60p

(cuadros

progresivos),

con

sonido de alta calidad. La

coincidencia

aquí

de

la

informática

es

el

mínimo

con

el mundo

total,

exigible

a

pues

las

esta

cifra

conexiones

también

internas

empieza

(discos,

a

extenderse

procesador,

como

periféricos,

tarjeta de vídeo, etc.), que actualmente es de 1,5 gbs. Es

un

dato

informático

puro,

pero

es

necesario

tenerlo

en

cuenta

en

todo

momento para nuestro posterior trabajo no lineal. » Uso de conexiones informáticas

Además

de

las

salidas

informático

(firewire,

que

como

sirven

estandarizadas,

usb...).

simples

Esta

muchas

clase

"tubos‟‟

de

de

cámaras

salidas

transmisión

no entre

ofrecen ofrecen los

salidas un

datos

de

tipo

estándar,

sino

digitales

de

la

cámara (en cinta o no) y el disco duro donde realizaremos el montaje. Esto HDV

significa usando

una

que

si

salida

nuestra

cámara

tradicional

graba,

HD.SDi

por

ejemplo,

obtendremos,

con

previa

el

formato

descompresión

interna de la cámara y upconversion, 1.080 4:2:2 8 bits a 800 mbs; pero si usamos la

conexión

IEEE1394

(también

conocida

como

firewire)

lo

que

obtendremos

son

los datos puros de HDV a 25 mbs (que se pueden almacenar tal cual en ficheros con extensión ,m2t).

» 201

2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

/ Salidas HDV /

Lógicamente, la opción propuesta de salida HD.SDi no mejora la calidad ya almacenada y previamente comprimida existente en la cinta HDV Por eso, ambas opciones son equiparables. El caso sería distinto si usáramos esa salida en el momento de la captación, sin el paso por la compresión de la cinta o el disco. En ese caso, la salida HD.SDi nos ofrecería una calidad superior. >> Captura, importación, log

La

salida

IEEE

1394,

en

& transfer, FAM...

concreto,

puede

ser

reconocida

por

la

mayoría

de

los

editores no lineales (ENL o NLE, en inglés) como una entrada de datos de vídeo para

realizar

una

captura,

como

si

se

tratara

de

otra

conexión

digital

"estándar".

Reconoce generalmente los ficheros DV HDV, DVPRO HD y algún otro. En este caso, la posible upconversion la realiza el ENL, no la cámara. Una

conexión

informática

también

se

puede

usar

para

el

traspase

de

datos.

En ese caso, el ordenador reconoce la cámara (o el soporte donde se grabaron los datos)

como

estructura sistema

un

de

disco

externo

archivos

operativo

y

con

más,

carpetas.

las

pudiéndose acceder

La

transferencia

herramientas

de

copiar

a

se y

los

realiza pegar

clips

por

entonces

(el

la

usual

dentro

popular

del

copypaste).

En este caso, en vez de una captura, estaríamos ante una "importación” de datos en el ENL. En

algunas

cámaras,

se

usa

una

salida

(firewire,

generalmente)

para

la

opción

de captura y otra (usb) para el tranfer de datos, previa selección en el menú de la

opción

File

Acces

Mode,

FAM,

o

una

terminología

similar

(depende,

una

vez

más, de las marcas y modelos). Un último desarrollo, muy interesante, es la función log & transfer (el nombre puede

variar

“identificación función u

otros

en y

permite

las

diferentes

transferencia", previsualizar

metadatos

e

marcas y

los

incluso

es

ENL).

Traducido,

en

todos

de

audio

y

clips

seleccionar,

partes del clip que importaremos a nuestro ENL.

» 202

de

común

con

sería

aquellos vídeo,

puntos

de

algo

ficheros

cambiarles entrada

así

como

MXE

Esta

los y

nombres

salida,

las

PARTE II: CAPTACIÓN

Finalmente, fectamente

hay

el

una

fichero

última

opción,

almacenado

y

que

es

podamos

tiempo sin necesidad de importación

o

log

que

nuestro

pasarlo

ENL

reconozca

directamente

& transfer.

Sería

a

la

per-

línea

una solución

de

Direct

to Edit, directa a la edición. Trataremos

más

ampliamente

estas

opciones

en

la

parte

dedicada

a

la

post-

producción. » Salida HDMI

High

Deffition

Multimedia

principalmente

en

nición

todas

entre

el

Interface

consumidor las

es

un

final.

herramientas

desarrollo

Permite

la

domésticas

de

la

industria

interconexión

de

alta

en

pensado

alta

definición:

defi-

televisores,

handycam, reproductores BlueRay, consolas de videojuegos, receptores de TDT, etc. La

conexión

en



es

incluso

con

resoluciones

nientes

son

el

precio

excelente,

de del

con

un

alto

flujo

de

datos

sin

comprimir,

2K

3D

estereoscópicas

y

superiores.

Los

inconve-

cable,

su

mala

de

conexión

(con

conectores

interface

muy frágiles y sin ligazón de seguridad para evitar su desconexión fortuita y/o su desgaste)

y

lo

limitado

de

su

máxima

longitud

sin

pérdida

(actualmente,

sobre

los cinco metros). No de

la

obstante, gama

se

ve

prosumer.

de

manera

Incluso,

habitual

los

en

fabricantes

muchas

cámaras

de

tarjetas

una

protección

domésticas

capturadoras

ya

y han

implementado soluciones de captura. Las

conexiones

HDMI

pueden

incluir,

o

no,

anticopia

conocida

como HDCE En ese caso, se permite el visionado pero no la copia. » Conexiones Ethernet

Las

conexiones

firewire

y

usb,

muy

comunes,

están

limitadas

por

su

escaso

ancho de banda, 400 mbs. En algunas cámaras HR y otras de visión artificial se implementan la

salidas

transmisión

de

aún muy

más altos

rápidas, flujos

de

de

tipo

datos,

Ethernet incluso

o

de

Giganet.

Esto

señales

HD

o

equipos

o

permite 2K

sin

comprimir. » Memorias búfer

En de

ocasiones, elevada

sobre

cadencia,

todo el

en

flujo

cámaras de

datos

de

alta

resultante

resolución puede

superar

la

especiales

capacidad

de

transmisión de las salidas . Suele pasar en sistemas 4K sin comprimir (8 gbs o superior) o en cámaras de alta velocidad (500, 1.000 o más imágenes por segundo).

» 203

2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

En estos casos y en general en todos aquellos limitados por el flujo máximo de la

salida,

se

recurre

al

uso

de

memorias

internas

de

almacenamiento

temporal,

conocidas también por el anglicismo “búfer" (buffer). La alta

información velocidad

procedente

en

el

del

momento

sensor

de

la

se

almacena

grabación

en

para

estas

memorias

posteriormente

de

descargarse,

ya no en tiempo real, a otro dispositivo de almacenamiento. La

mayor

entre y

los

4

y

complejas,

pero

más

medio de

limitación los

pues

32

rápido

memorias

Mayores

memorias

que

novedades

acceso

estas

GB.

estas

voluminosas

plazo,

de

las llegar

su

capacidades

son

del

tipo

tarjetas

SD

u

informáticas

pueden

es

a

esperadas

capacidad,

implican RAM,

otro en

implementarse

muy

de

más

estar grandes

rápido

acceso,

memoria

flash.

de

las

memorias

de

captación

mundo

en

suele

cámaras

de

tipo el

que

equipamientos

A

como solución de grabación no temporal sino permanente. Dependiendo de

imágenes

del de

flujo

alta

de

datos,

cadencia

permiten

hasta

dos

o

grabar tres

desde

unos

minutos

de

pocos

señales

segundos 2K

RGB

12 bits a 24 fps. Son

soluciones

claramente

pensadas

para

el

cine

digital,

pues

no

permiten

un trabajo en tiempo real. En el mundo de la televisión se aplican a cámaras de alta en

velocidad,

muy

comunes

en

eventos

deportivos

y

que

nunca

se

“pinchan"

directo, sino que se utilizan en las repeticiones de las jugadas (una vez que

se haya descargado la información a un magnetoscopio). » Grabación no lineal: soluciones de estado rígido

Cuando no grabamos en cinta, estamos en un entorno IT con grabación en formatos

rígidos.

Éstos

suelen

ser

soluciones

estándares

de

la

industria

informática,

como discos duros externos, adaptados al rodaje con batería, o memorias de tipo flash (SD, Compact Flash, Xpress Card). Panasonic pioneras por

es

tarjetas

las bahías

el P2,

único del

fabricante

que

es

de tipo PCMCIA,

el

que

optó

único

pero

por

fabricante.

este

una

solución

Éstas pueden

estándar se

ha

propietaria, ser

abandonado

las

reconocidas por otros

de menor tamaño, lo que ha dejado esta compatibilidad fuera de juego. Así pues, actualmente,

la

solución

P2

suele

requerir

un

modo

FAM

o

un

dispositivo lector

(deck) compatible.

En realidad, técnicamente, las tarjetas P2 tienen dentro de su carcasa varias tarjetas SD estándar dispuestas en modo RAID.

» 204

PARTE II: CAPTACIÓN

Otra solución propietaria fueron los Digital Disc de los equipos XDCAM de Sony. Se

trataba

una

capacidad

doble

en

cara.

realidad

de

cuatro veces Pero

se

un

DVD-RAM

superior

precisaban

a

los

para

almacenamiento

normales,

pues

igualmente

lectores

de

soluciones

eran

de

datos,

con

de doble capa

fabricados

o

licenciados

y de

Sony para su lectura y acceso. Huelga

decir

que

la

razón

estas

propietarias

es

puramente

comercial, no tecnológica. Por el contrario, la adopción de tarjetas estándares de la industria IT, cada vez más la

extendida, bahía

como

permite

extraer

correspondiente

una

tarjeta

deseemos: bien

de

de

traspasar

estas

la

memorias

mayoría

almacenamiento los datos

a

de

de

los

más.

la

cámara

ordenadores,

Podemos

otro disco duro,

e que

proceder realizar un

introducirlas las

en

reconocerán

entonces log

como

& transfer

o bien una edición Direct to Edit, tal como ya hemos comentado. Esta

tendencia

también

se

puede

ver

en

los

fabricantes

señalados:

Panasonic

ya tiene en el mercado cámaras prosumer con grabación en tarjetas SD, no P2; y Sony

también

ofrece

cámaras

con

formato

XDCAM

y

grabación

en

tarjetas

tipo

XpressCard (el nombre comercial de estas cámaras es XDCAM-EX). Por más

se

pacidad

compatibilidad

y

economía,

en

el

y

de

transferencia

velocidad

futuro

estos

desarrollarán

sistemas

próximo, cada

pues pocos

abiertos estas meses,

el precio, como ocurre en general en toda la industria informática.

parecen

tarjetas

ser

aumentan

disminuyendo

a

los

que

su

ca-

su

vez

POSTPRODUCCION

» Premisa fundamental

Una

vez

elegida

la

cámara

para

nuestra

producción,

tendremos

que

pensar

una

vez más en el flujo de trabajo que vamos a usar en el resto de la cadena de producción. La

premisa ineludible en este trabajo, y que debe guiar todos nuestros pasos,

es única: • Mantener la calidad nativa del trabajo. Por "calidad nativa” entendemos la calidad obtenida en la cámara. (En el caso de producciones por ordenador, sería la calidad de los CGI.) Los

procesos

obtenidos Para

en

evitarlo,

la

de

montaje

cámara

y

postproducción

pueden

mermar,

a

los

en

que

muchos

hay que planificar de antemano los

someteremos momentos,

pasos que vamos

los

esta a

datos calidad.

realizar

y

seguir un protocolo de trabajo que impida esta merma. » Conversiones

A la hora de cualquier intermediación se realizan numerosos transfer y/o conversiones

de

formatos.

También,

exportaciones

y

renderizados

de

material.

Todas

estas transformaciones se pueden calificar como: • Upconversion, cuando pasamos de un formato menor a otro de más calidad. • Crossconversion, cuando no afecta a la calidad. • Downconveision, cuando se pierde calidad. La calidad se altera en función de los cinco parámetros básicos: si se cambia la resolución, el muestreo, la profundidad de color, la cadencia o la compresión. También

afecta

a

la

calidad

la

"profundidad

de

cálculo"

de

nuestro

programa

de postproducción (véase más adelante). En

postproducción

sólo

están

permitidas

las

dos

primeras

conversiones.

última sólo se aplica a la hora de crear formatos de distribución.

» 209

La

PARTE III: MONTAJE Y POSTPRODUCCIÓN

>> Upconversion

Esta

palabra

aumentar

puede

la

llevar

calidad

de

la

a

engaño.

imagen:

Realizar

sólo

se

una

trata

upconversion

de

aumentar

no

la

significa

calidad

del

formato de trabajo. Un ejemplo puede ser pasar de una señal grabada en cámara de 1.080/4:2:2/8 bits, a una de 1.080/4:4:4/12 bits. La calidad de la imagen no aumenta, pues es la

cámara

la

que

marca

la

calidad

nativa.

No

la

hemos

convertido

en

algo

de

igual calidad a lo grabado por una cámara 1.080/4:4:4/12 bits. Lo

que

hacemos

con

esta

upconversion

es

seleccionar

un

formato

de

trabajo

más robusto y flexible para nuestra postproducción. >> Crossconversion

Este proceso ocurre cuando la conversión no altera la calidad. Un

ejemplo

sería

un

cambio

de

cadencia

de

24

a

25

fps

sin

pérdida

de

fotogramas. También

sucede

con que se

cuando

grabó en

capturamos

digital. Sería

en

el

ordenador

con

la

misma

calidad

el caso de un fichero grabado en cinta por

una cámara HDV (mpeg2, 4:2:0, 8 bits a 25 mbs), el cual pasamos al ordenador a

través

del

cable

firewire

convirtiéndolo

en

un

fichero

con

extensión

,m2t,

que

es exactamente mpeg2, 4:2:0 8 bits a 25 mbs. Se (1:1)

considera a

otro

también

igualmente

una sin

crossconversion compresión.

pasar

Por

de

ejemplo,

un

fichero

una

sin

secuencia

compresión

de

TIFFs

a

una secuencia de TGAs. » Downconversion

Aquí siempre se produce una pérdida de calidad. Hay

una

comprimir

a

downconversion uno

cuando,

por

Aun

cuando

comprimido.

ejemplo, la

pasamos

compresión

se

de

un

anuncie

formato "sin

sin

pérdida

aparente”. Hay downconversion pasando de HD a SD, de RGB a YUV de 30 fps a 15 fps, de 12 a 8 bits, etc. En el trabajo profesional sólo sion a la hora de distribuir la señal.

se

debería

realizar

un

proceso

de

las

producciones

downconver-

» Etapas de la cadena

Una

vez

grabado

el

material,

la

mayor

parte

de

proceso similar: montaje, postproducción y masterizado para distribución.

» 210

siguen

un

PARTE III: MONTAJE Y POSTPRODUCCIÓN

Es

evidente

visual del

es

que

muy

trabajo

el

mundo

amplio,

que

y

audio-

/ Cadena de la producción audiovisual /

dependiendo

tengamos

entre

manos

las etapas variarán. También será diferente según el género. No es lo mismo una

producción

documental

que

una

de ficción o una película generada por ordenador. » Terminología

Por

montaje

o

edición

entendemos

que

se trata del proceso de ordenar o empalmar

sucesivamente

todos

los

pla-

nos que tendrá la obra. Montaje

es

matográfico" visivo

(al

un

término

más "cine-

"edición”,

que menos

en

más

España).

tele-

Pero

el

trabajo es el mismo y el operador siempre

se

llamará

“montador”.

En

inglés

se usan más los términos de editing y editor, pero en televisión el "editor” es el responsable de contenidos de un programa informativo. Si el montaje se hace en directo para televisión, al operador se le denomina también “mezclador". La que

postproducción sufre

la

previamente digital digitales. sino

con

(Digital La

todo

se

producción

entiende tras

el

fotoquímico,

se

Intermediate, intermediación

el

conjunto

de

por

lo

montaje. usa

DI),

cuando

digital

no

general En

a

cine,

menudo la

es

postproducción

como

el

resto

sobre

todo

si

el

término

postproducción pues digital

un

se

proceso

realizado

de se

de

rodado

intermediación

realiza o en

procesos

ha con

etapa una

medios concreta,

producción

cinematográfica. Los medios fotoquímicos para la postproducción son muy escasos. Se limitan por lo general al conformado (corte de negativos y transiciones); a la creación de los cartones de crédito; a algún que otro trabajo sencillo de composición, y al etalonaje de luces (o colormaster, por la herramienta que se usa habitualmente).

Dado

que

hoy

en

día

es

casi

irrelevante

el

soporte

original

de

grabación

(fo-

toquímico o digital), se tiende a considerar como intermediación digital (DI)

» 211

PARTE III: MONTAJE Y POSTPRODUCCIÓN

todos la

los

procesos

postproducción

refiriéndose

sólo

entre y

a

la la

la

captación

y

la

masterización.

Otros

postproducción

más

distribución, dejan los

fuera

englobando de

procesos

la

DI

últimos

de

el

montaje,

el

montaje,

acabado

y

conformado (conform & finishing). Salvando país,

nos

la

queda

terminología

que

siempre

sentido

el

nunca

es

común

estándar, para

saber

ni de

siquiera qué

dentro

estamos

de

un

hablando.

A mí me gusta hablar de montaje por un lado y por otro, postproducción o DI, que incluye el conformado final.

1. Montaje

Generalidades

Hoy

en

ta

en

día, un

prácticamente ordenador,

toda

la

mediante

producción

cinematográfica

aplicaciones

informáticas

se

monta

llamadas

o

edi-

editores

no

lineales (ENL o NLE, en sus siglas inglesas Non Linear Editing).

» Sistemas abiertos o cerrados

En

los

editores

no

lineales

debemos

tener

en

cuenta

si

estamos

ante

sistemas

"abiertos” o “cerrados". Esto no influye en la calidad, pero sí en el coste y/o en la comunicación con el resto de programas y máquinas. Decimos

que

una

solución

es

abierta

si

permite

trabajar

con

códecs,

software

y hardware de otros fabricantes. En caso contrario, se trata de un sistema cerrado o propietario. La

tendencia

del

duda

favorece

la

puede

notar

que

sin

Esto

último

soluciones

se

ENL

en

mercado,

los

no

obstante,

comodidad en

últimos

la

de bajada

años.

es

los

ir

hacia

operadores

de

precios

Bajada

de

sistemas

y

también

que

precios

han

que

abiertos, la

lo

economía.

experimentado

en

ningún

las

momento

ha supuesto una pérdida de calidad, sino todo lo contrario. » Diferencia de sistemas y versiones

¿Qué

es

lo

que

actualmente

diferencia

unos

ENL

de

otros,

incluso

en

versiones

del mismo software? En general, será la posibilidad de trabajar con más o menos resolución. Hasta hace no

poco, HD.

había

Hoy

en

editores

que

día,

todos

son

permitían

el

polivalentes,

trabajo si

con

bien

resoluciones

algunos

SD,

implementan

pero o

no

soluciones específicas de cine digital: 2K, 4K. Es en más es

importante

la

máquina:

potente habitual

y

señalar hay más

encontrar

que

que

el

tener

memoria

incremento un

RAM

soluciones

de

de

procesador para bajo

todos coste

resolución

más

rápido,

los

procesos.

que

implica un Por

permitan

una

tarjeta esa trabajar

mejora

de

vídeo

razón, en

no 4K

reales (pero será cuestión de tiempo, dada la velocidad de desarrollo de la informática).

» 215

1. MONTAJE

» La duda del montador

La

parte

existe

negativa

en

sistemas.

el

de

la

mercado

variedad

es

Antiguamente,

que

un

el

de

programas

operador

montador

se

de

ve

aprendía

edición

obligado

a

trabajar

que

actualmente

a

conocer

con

una

múltiples mesa

de

montaje, o con un sistema AB Roll, y podía hacerlo a partir de ahí con cualquier otro

sistema

compartían un

de

la

montaje

misma

profesional

o

edición

mecánica

freelancer

el

de

tener

en

cualquier

trabajo.

parte

Hoy

que trabajar

en

ora

del

día

con

mundo,

resulta

Avid,

ora

pues

todos

fastidioso con

para

Final Cut,

ora con Edius, Premiére, Vegas o cualquier otro sistema de edición no lineal. El trabajo de "montaje" no deja de ser el mismo, pero a veces sucede que se tiene

que

rechazar

un

trabajo

específico

por

desconocer

determinado

programa

y no disponer de tiempo para adaptarse. Ciertamente, hacerse

con

un

las

montador

herramientas

profesional básicas

de

apenas cualquier

necesitará programa.

unas Pero

horas

en

el

para

montaje,

como en el resto de la profesión, sigue vigente la norma de as good as fast, esto es, "bueno

pero

tres

o

cuatro

por

aquello

también

rápido".

programas, de

las

tiempo

es

siempre

seremos

más

de

experiencia

horas

El

dinero.

Y

rápidos

(los

aunque con

programas

podamos

unos son

que

dominar

con

siempre

otros,

tontos

y

lentos; son los operadores los que pueden ser rápidos e inteligentes). Por desgracia, no se prevé a medio plazo (ni posiblemente a largo plazo) una única

solución

de

edición

universal,

una

mesa

prevén,

dada

la

de

montaje

digital

que

complazca

las

soluciones

el

montador

a todos los agentes implicados. y

La

solución

el

incremento

que

algunos

de

potencia

de

los

bajada

ordenadores

de

precios

portátiles,

es

de que

acabe llevando con él su propia solución portátil al lugar de trabajo. » Cualquier programa es bueno

Dicho todo esto, insistiremos una vez más: cualquier programa ENL en el mercado es perfectamente válido para un trabajo profesional. Excluiremos de esta afirmación, claro está, los programas pensados para el usuario final o doméstico, que tiene muy limitadas sus capacidades de montaje.

>> Cualquier máquina no es suficiente

También

tenemos

que

advertir

que

tan

importante

como

el

programa

es

la

máquina o estación de trabajo sobre la que trabajemos. Unas

nociones

postproducción digital.

» 216

básicas

de

informática

son

imprescindibles

para

la

edición

y

PARTE III: MONTAJE Y POSTPRODUCCIÓN

» Streams

Es común en los programas ENL y de postproducción hablar de streams (flujos) como sinónimo de calidad o potencia de cálculo. Un stream se refiere a la posibilidad de visionar una pista de vídeo a máxima resolución, exigir

sin

a

compresión,

una

solución

en

ENL

nuestro

es

que

ordenador. nos

muestre

Lo

mínimo

que

dos

streams

en

le

podemos

HD

para

un

montaje cómodo. Aunque no siempre es posible. El cálculo es sencillo: una señal HD 1.080 4:2:2 25p corre a unos 800 mbs; si

se

trata

hablamos

de

de

RGB

1,2

4:4:4

gbs.

(que

Con

es

como

cadencias

los 1,5 gbs. Luego si queremos

internamente

superiores,

como

trabajan 29,94p,

los

ordenadores)

nos

acercamos

a

asegurar dos flujos o streams HD, necesitaríamos

una herramienta capaz de gestionar cerca de 3 gbs por segundo como mínimo. » Códecs de edición

Todavía hoy resulta difícil para un ordenador manejar dos streams de HD 1.080 RGB

sin

comprimir.

Por

ello

los

fabricantes

de

soluciones

más

representativos

ofrecen códecs específicos para la edición. Como norma,

abierta a excepciones, diremos que estos códecs

son muy útiles

en la edición, y que en ocasiones sirven para todo un flujo de trabajo televisivo,

incluso

pantallas

en

de

HD.

cine,

Pero

donde

si

pretendemos

cualquier

la

defecto

máxima

se

calidad

amplifica,

para

siempre

proyectar se

en

recomienda

trabajar sin compresión. Una

vez

más,

aquí

podemos

encontrarnos

con

soluciones

de

códecs

abiertas

o cerradas. » Procesos destructivos y no destructivos

Hay

una

sistemas

cuestión

básica

analógicos

de

a

tipo

entender AB

en

Roll

la

o

ENL

las

digital.

moviolas

A

diferencia

fotoquímicas,

de

la

los

edición

digital no es un sistema destructivo. Decimos que una moviola (aunque,

obviamente,

el

es

negativo

destructiva porque el copión se corta físicamente original

queda

a

salvo);

también

es

destructivo

un sistema analógico por la pérdida de calidad de cada generación. Sin

embargo,

los

sistemas

digitales

siempre

mantienen

la

calidad

original.

En este caso, la calidad original sería la que hemos elegido para la ingesta de material. Hay

que

tener

claro

este

concepto:

una

vez

que

se

introduce

la

información

digital de audio o vídeo, cualquier transformación a la que le sometamos siempre será

“virtual”

o

paralela:

el

archivo

original

permanece

inalterable.

A

diferencia

» 217

1. MONTAJE

de

la

energía,

los

ficheros

originales

no

se

pueden

transformar:

lugar

volver

sólo

se

pueden

crear y destruir (borrar). Esto

nos

permite

siempre

y en

todo

a

iniciar

¿por

qué

un

trabajo desde

cero, y por eso consideramos la ENL como no destructiva. » Renderizados, realtime

Si

los

archivos

effects, on the fly

originales

permanecen

inalterados,

podemos

ver

un

encadenado o un efecto? Hay

dos

ma/máquina

maneras (soft

para

&

que

eso

hardware)

suceda:

nos

una,

permita

que

un

la

combinación “virtual”,

visualizado

progracalculando

en “tiempo real” (realtime) las imágenes. La otra opción es que se genere un nuevo archivo con el encadenado o efecto. Este archivo es un render o renderizado. Render es un vocablo inglés de difícil traducción

en

español,

por

lo

que

comúnmente

se

usa

este

término

castellani-

zado: renderizar. Esta la

renderización

puede

realizar

la

él

podemos

correcta

visualización

del

refiere

a

programa

que

el

solicitar

automáticamente, efecto.

Una

manualmente

cuando

vea

modalidad

está

es

el

continuamente

al

que

programa,

es

necesario

render

on

generando

the

o

bien

para

una

fly,

que

renderizados,

se

aunque

no se haya solicitado su visualización, para agilizar el trabajo. Evidentemente, pues

es

más

bajas

o

efectos

superiores,

ya

es

preferible

rápido

y

sencillos, depende

trabajar

ocupa es

menos lo

tanto

con

en

común.

Pero

más

del

efectos

espacio

programa

realtime

el

como

disco con

de

que

duro.

resoluciones la

renderizados,

En

potencia

resoluciones HD,

de

2K

la

y

má-

quina. » ¿Dónde se guardan los renderizados?

Generalmente, muestra

como

el

programa

clip

de

independiente

edición en

la

puede línea

generar de

un

tiempo.

render

Es

un

pero

no

lo

“oculto”,

fichero

que maneja internamente la ENL. Cada la

programa

opción

de

los

elegir

crea una

automáticamente

carpeta

donde

en

guardar

un

determinado

estos

ficheros.

directorio, Algunos

o

da

programas

permiten importarlos, una vez creados, si se desea, a la línea de tiempo. Otros no lo permiten para no crear conflictos en su base de datos de clip (media manager). Una

vez

terminado

el

trabajo,

es

pues sólo ocupan espacio sin tener mayor utilidad.

» 218

conveniente

eliminar

todos

estos

renders,

PARTE III: MONTAJE Y POSTPRODUCCIÓN

» Exportación

Cuando hemos terminado una fase de un trabajo y deseamos pasar a la siguiente, es posible hacerlo mediante la exportación de toda o parte de la línea de tiempo. Esta

exportación

también

es

generada

por

la

ENL

y

se

considera

asimismo

un renderizado. » Renderizados y código de tiempo

Otra

cosa muy importante de los renderizados

cia

de

código

programa todos

le

los

de

tiempo

aplica

efectos,

una es

con

los

ficheros

identificación

un

clip

y

un

independiente

es que ya no mantienen referen-

nativos

de

nuevo

código

cámara. de guarda

que

ya

no

pues

en

muchos

corriente

es

aplicar

Al

generarse,

tiempo

el

interno.

relación

A

con

las

imágenes que sirvieron de fuente para su creación. Esto es

es

importante

altamente

tenerlo

desaconsejable.

en

cuenta,

Un

caso

procesos un

del

efecto

trabajo complejo

a un conjunto de clips. Por comodidad, en ocasiones se renderiza el efecto y se importa

como

hemos

perdido

nuevo

clip,

cualquier

sustituyéndolo

referencia

de

en

la

código

línea

tiempo.

Pero

al

con

el

clip

original,

más

cómodos

y

prácticos

parte

de

efectos

de

de

tiempo

hacerlo, lo

que nos impedirá un recaptura a mayor calidad. Por llos

esa

razón,

programas

entendemos

que

puedan

también realizar

que la

son

mayor

los

aque-

en

tiempo

real. » Media y proyecto

En

una

labor

de

montaje,

tendremos

dos

datos

bien

diferenciados.

Por

un

lado,

los clips de audio y vídeo que trabajamos. Es lo que se conoce como ficheros o archivos de media (media o essence, en algunos textos en inglés). Por

otro

lado,

tendremos

la

información

propia

del

montaje,

que

se

guarda

con la extensión propia de cada programa ENL, en forma de proyecto. El proyecto

en sí

suele ocupar

muy poco espacio, apenas unos KiloBytes.

Lo

que realmente ocupa espacio son los media. Pero la ventaja de la ENL es que podemos que,

si

borrar

tranquilamente

conservamos

el

los

proyecto

media y

las

del cintas

disco o

duro

discos

con

originales

la

seguridad con

los

de

brutos

de cámara, siempre podremos recuperar todo el trabajo. » Online,

online

Se dice que un montaje es online cuando la calidad de los media con los que trabaja

es

la

del

máster

final,

preparada

para

emitir

o

proyectar.

Si

el

montaje

» 219

1. MONTAJE

está

realizado

que

tendrá

sobre

clips

final,

se

al

capturados

entiende

que

a

una

es

un

resolución montaje

menor

Offline,

que

que

la

será

calidad necesario

recapturar o reimportar para los siguientes procesos.

No se suele traducir estas dos palabras, Online y Offline. Tampoco hay que confundirlas con premontaje o diferentes versiones de montajes, antes del montaje definitivo o final. Pueden existir premontajes online, y también montajes definitivos en calidad Offline.

El montaje OFFLINE se suele hacer cuando el peso y tamaño de los ficheros online (sin

comprimir,

disco

duro,

y

o

con

agotarían

códecs los

de

producción)

recursos

de

la

ocuparían

máquina

mucho

(RAM,

espacio

procesador,

en

el

tarjeta

de

vídeo). » Conformado

Se

entiende

como

conformado

(conform)

el

convertir un

proyecto

Offline

en

otro

online. Esto

se

portación

realiza

(batch

generalmente

import)

de

mediante

los

clips

la

recaptura

originales,

(batch

eligiendo

capture)

esta

vez

o

reim-

como

opción

de ingesta un códec de producción o sin compresión. Una vez más recordar la importancia de que los ficheros offline hayan mantenido el código de tiempo original, que es el que los referencia con los nativos de

cámara

referencia). anterior

(de

ahí

También

el el

cuidado sentido

al

trabajar

común

nos

con

renderizados,

indica

que

el

que

pierden

conformado

ha

de

esta ser

a cualquier tipo de efecto o trabajo de postproducción. No tiene sentido

corregir el color o ajustar máscaras sobre una calidad offline. » Proxies o ficheros de baja resolución

Se entiende por proxy un clip o fichero o espejo que está en lugar de otro original. Son ficheros de menor resolución o calidad que los originales y que permiten

trabajar

comparten

con

más sus

cómodamente nativos

en

los

originales

toda

procesos la

Offline.

metadata,

Los

ficheros

incluyendo

el

proxies

código

de

tiempo, pero con una calidad de imagen y de sonido inferior. Los ficheros proxies se pueden generar en la ingesta por los ENL, pero también un

ya proxy

existen de

cámaras,

menor

por

calidad

lo en

general paralelo

sin al

cinta, nativo

que

generan

original.

Esto

directamente permite

una

visualización y edición rápida, incluso en el mismo lugar de rodaje. Si se trabaja con tecnología IT, sin cinta, la sustitución de los proxies por los originales es inmediata. Si el original está en cinta, es necesario una recaptura.

» 220

PARTE III: MONTAJE Y POSTPRODUCCIÓN

En

ocasiones,

neran

sus

maquinaria tante

algunos

propios durante

saber

si

programas

proxies, el

de

visionado

y

programa

trabaja

nuestro

edición

principalmente

y

para

manejo

de

o

la

no

postproducción

optimizar línea

con

los de

también

recursos

tiempo.

proxies,

pues

Es

es

ge-

de

la

impor-

posible

que

posteriormente encontremos errores inesperados en los renderizados finales. Es los

común

en

procesos.

algunos

Pero

programas

es

poco

de

edición

recomendable

trabajar

con

un

programa

que

proxies,

para

de

agilizar

postproducción

trabaje con proxies.

La ingesta de material

» Ingesta

Llamamos

ingesta

(ingest)

al

proceso

de

introducir

la

imagen

y

sonido

grabadas

en el ordenador donde realizaremos el montaje y la postproducción. Es un proceso clave en un correcto flujo de trabajo, pues será entonces cuando determinemos

cuál

será

nuestro

formato

de

trabajo

final

para

todo

el

proceso

de

postproducción. La palabra “ingesta" esté sustituyendo a “captura" (capture) debido a la aparición de modelos de grabación sin cinta. Así, la ingesta incluye la captura, la importación y/o el transfer de archivos hasta la línea de tiempo de la ENL.

» La importancia de la ingesta online

Como

ya

hemos

cámara

en

el

comentado,

ordenador,

y

en

esta

etapa

para

ello

podemos

hay

que

optar

introducir

por

dos

los

vías:

datos un

de

montaje

offline, con ficheros de baja resolución, o uno online. Si elegimos la segunda opción, debemos ser conscientes de que la calidad de este

online

norma

es

el

que

entenderemos

determinará

que

NUNCA

la se

calidad

final

puede

de

la

mejorar

un

producción, fichero

ya

pues como capturado

dentro de un ordenador. ¿Qué primera

elección opción,

(uncompressed), máxima

la en

resolución

tomar? que

Cuando proporciona

cualquier y

hablemos la

formato de

profundidad

de

de

máxima

postproducción calidad,

este tipo que color.

Será

es se

siempre

veremos

trabajar nos

sin

ofrezca,

nuestra

que

la

compresión y con

primera

la

opción

online.

» 221

1. MONTAJE

Pero

trabajar

en

disco

sin

compresión

segundos, Pero

a

con

duro

en

donde partir

estos

ficheros

significa

en

proceso

de

como una

el

producción

material

de

cierta

pequeña,

grabado puede

cantidad

un

de

gran

cálculo.

como

llegar

metraje,

consumo

Podríamos un

a

el

ser

de

recursos,

plantearnos

spot

publicitario

de 20

minutos,

montaje

online

sin

tanto

un

online de

30

no más.

comprimir

se

convierte en una odisea. De

esta

decir,

sin

manera, la

hay

máxima

producciones

calidad)

y

que

se

permiten

pueden

un

considerar

online

comprimido

perfectamente

(es

profesiona-

les.

Es el caso de la mayoría de las producciones de televisión. En el proceso

de

distribución

de

estas

producciones

(analógico,

TDT,

cable,

satélite,

etc.)

la

señal perderá ya de por sí mucha de su calidad, por lo que la diferencia de calidad

entre

un

formato

sin

compresión

o

un

buen

códec

profesional

de

edición,

se

trata

posiblemente no será apreciada por el espectador. >> Percepción y calidad

Al

decir

que

menospreciar

el

la

formato calidad

televisivo

televisiva

soporta

frente

mejor

a

la

la

compresión,

cinematográfica.

no

La

clave

en

de este

caso es la percepción por parte del espectador. Una

pantalla

drados. razón,

Un

de

cine

televisor

cualquier

puede

raramente

defecto

o

medir

fácilmente

supera

las

minorización

42

de

varias

decenas

pulgadas

de

la

calidad

de

metros

diagonal.

(resolución,

cua-

Por

esa

compresión,

color, e incluso el foco y la nitidez) será más visible en la pantalla de cine que en la televisión. Todos los tests de calidad subjetivos, y lo que entendemos por MTF (función de

transferencia

tivas),

deben

de

la

incluir

modulación,

que

inevitablemente

determina

la

la

percepción

resolución del

o

nitidez

espectador

efec-

como

una

variable más. » Códecs de edición y postproducción online

Llegado

este

momento,

tendremos

que

mercado

ya

decidir

qué

códec

online

será

el

que

se

use. Afortunadamente,

el

ofrece

diferentes

códecs

de

alta

calidad

para este trabajo online tanto de montaje como de postproducción televisiva. Los códecs

más de

conocidos Avid

son,

DnxHD

actualmente,

(Digital

el

Non-linear

Apple for

ProRes

High

HQ

y

Defiition,

la

véase

familia el

de

anexo),

pero también hay otros igualmente válidos de otras casas y fabricantes. Estos de

códecs

edición.

» 222

de

Equilibran

edición la

están

calidad

desarrollados con

el

peso

pensando y

el

flujo

en

un de

robusto

datos,

trabajo

permitiendo

PARTE III: MONTAJE Y POSTPRODUCCIÓN

ahorrar

espacio

tiempo

real

"seguros”,

en

o

el

disco

renderizados

robustos

y

duro

pero

también

cortos

en

duración.

las

posibles

fiables

en

un

montaje

Son

ágil,

códecs

con

que

efectos

crean

transformaciones,

en

ficheros

minimizando

el

añadido de ruido y artefactos a los renderizados, y evitando el riesgo de ficheros corruptos. Cualquiera que

de

debemos

las

tener

soluciones

en

profesionales

cuenta

es

su

del

mercado

compatibilidad

con

es

buena.

el

resto

Lo

de

único

programas

del flujo de trabajo. No todos estos códecs son abiertos, sino que están limitados por

sus

desarrolladores.

determinado

códec,

Esto

realizar

implica el

que

montaje

podemos

y

luego

optar

en

descubrir

la

ingesta

que

por

nuestro

un

programa

auxiliar de corrección de color no reconoce ese códec. O (más habitual), que este programa

está

licenciado

por

el

desarrollador

del

códec

para

su

lectura,

pero

no

para su exportación o render. Una vez más, tendremos que estar atentos a las especificaciones de cada programa,

y

acumular

experiencia

para

evitar

tediosos

(y

en

ocasiones

destructivos)

procesos de transferencia y cambio de códec. » Códecs nativos de cámara para la edición

El

códec

de

Sony

necesitaremos

HDCAM,

seleccionar

en

por la

ejemplo,

ingesta

no

un

tiene

códec

un

paralelo

adecuado

para

en

edición,

y

el

trabajo

a

realizar. Pero como

hay

otras

códec

de

cámaras

edición

cuyo

en

el

códec

de

ordenador.

compresión

Es

el

caso

tiene del

una

códec

equivalencia de

Panasonic

DVCPro HD, del formato HDV o de los más recientes XDCAM HD o AVC-HD. Podemos grabar en HDV en cámara, y trabajar con ficheros HDV clónicos en la edición (se crean con la extensión .m2t, mpeg2 transportstream). En

este

caso

tenemos

que

plantearnos

si

estos

códecs

se

pueden

se

facilita

considerar

códecs de edición online, como los mencionados en el apartado anterior. En

realidad,

tenemos

dos

cuestiones.

Una

a

favor:

que

la

ingesta

y no se pierde nada de calidad con respecto a la grabada en cámara. Otra en contra:

que

estos

códecs

están

pensados

para

almacenar

datos

en

cámara,

y

quizá no tanto para una edición o postproducción exigente. Como el mundo profesional no es una ciencia exacta, una vez más insistiremos en que sólo el sentido común y, sobre todo, la experiencia o el método de ensayo y error, nos puede indicar si un determinado códec nativo de cámara es adecuado o no para un determinado flujo de producción. Mi opinión particular es que si el trabajo de edición y postproducción no es muy

exigente,

la

mayoría

de

estos

códecs

nativos

de

cámara

se

pueden

utilizar

» 223

1. MONTAJE

en

la

edición

sin

problemas.

En

caso

contrario,

habría

que

valorar

el

códec

en

sí: no es lo mismo un HDV que AVC-HD 10 bits, 4:2:2 lOOmbs, o el RAW del Redcode. » Modos de ingesta

Básicamente,

la

ingesta

se

puede

hacer

de

cuatro

maneras,

dependiendo

del

formato de grabación: a) Captura b) Importación c) Directo to Edit d) Log & tranfers • Captura y volcado El término "captura" (capture) va asociado en los ENL a la inclusión de los datos desde

el

magnetoscopio

al

ordenador.

Se

realiza

a

través

de

las

llamadas tarjetas

capturadoras con entradas y salidas estandarizadas HD- Sdi, Dual Link y otras. Hace

tiempo,

capturadoras,

e

opción

cerrada

a

plena

la

muchos

programas

imposibilitaban

la

o

Pero

propietaria.

compatibilidad

ENL

captura en

entre

sólo con

la

todos

reconocían

otras

marcas.

actualidad

se

los

fabricantes,

determinadas Una tiende

tarjetas

vez

más,

una

cada

vez

más

principalmente

por

la

paulatina desaparición de las cintas y las capturadoras. También ñrewire, optar

por

la

señal

o

bien

este

se

habla

común hacer del

una el

no

captura

muchos

cuando

se

equipamientos

simple

camascopio

cambiar

volcado

de

en

usa

transferencia

de

datos

es

un

fichero

clónico

formato

de

edición

(por

necesitaremos

una

el

prosumer. (por

ejemplo,

tarjeta

popular En o

cableado

este

caso,

importación,

ejemplo, de

capturadora,

de

de se

tipo puede

convirtiendo

HDV

a

.m2t),

HDV

a

ProRes).

Para

sino

simplemente

una

conexión estándar ñrewire reconocible por la ENL. El proceso inverso, del ordenador a la cinta, se llama "volcado" (edit to tape, print to tape). • Importación y exportación Cuando

usamos

(import) los

cámaras

ficheros

con

grabación

a nuestra ENL.

sin

cinta,

procederemos

a

importar

Esto implica una recodificación de todos los

datos del clip original hasta el clip que manejará el ENL. Podemos

realizar

una

importación

offline

formado a online con la herramienta batch import.

» 224

y,

posteriormente,

realizar

un

con-

PARTE III: MONTAJE Y POSTPRODUCCIÓN

El proceso inverso, es decir, pasar del ordenador a un formato susceptible de ser

distribuido

o

traspasado

a

otros

sistemas

es

conocido

"exportación”

como

(export). • Direct to Edit Recientemente, el

trabajo

la

con

implementación

ficheros

no

de

lineales,

los

protocolos

evitando

la

MXF

ha

importación

permitido

pura

de

mejorar

datos

y

su

transcodificación. Si los ficheros grabados por la cámara son compatibles con nuestro ENL bajo el

mismo

tiempo

y

protocolo

MXE

empezar

a

podemos

editarlos.

incorporarlos

Generalmente,

directamente esta

a

nuestra

posibilidad

se

línea

conoce

de

como

Direct to Edit.

Muchos ENL trabajan ya así: permiten incluir en su línea de tiempo cualquier tipo de fichero no propietario o para el que tenga su licencia. No obstante, otros programas como Avid requieren, para determinados ficheros, una importación que conlleva una transcodificación a sus propios códecs de trabajo. • Log & transfer (selección y transferencia) Una

mejora

formatos conoce

con

de

respecto

grabación

al

„„identificación

como

Direct

compatibles

to

Edit

igualmente

transferencia”

y

la

podemos

con o

encontrar

nuestro

en

aquellos

ENL.

Es

lo

que

se

log

&

transfer

(si

herramienta

bien este término puede variar en los diferentes ENL). Esto permite trabajar no con todo el clip, sino con una parte de él, la que nos resulte una

de

interés,

herramienta

permitiendo

auxiliar

ahorrar

(plugin,

espacio

tool)

nos

en

el

permite

disco

duro.

visionar

el

Generalmente, clip

original,

marcar los puntos de entrada y salida e incluso añadir metadata. Una vez elegidos los puntos de edición y modificados, en su caso, los datos auxiliares, se procede a trabajar en la ENL sólo la parte seleccionada. Tendremos clip

aparecerá

así

como

opción

es

dos en

los

opciones:

una,

trabajar

la

con

los

ENL

metadatos

proceder

a

la

o

el

en

puntos

nombre

importación

y

modo de

que

Direct

entrada hayamos

transcodificación

to

y

Edit,

salida

querido sólo

pero ya

donde

escoger. de

el

seleccionados, esa

La

otra

parte

del

pérdida

de

clip al códec que hayamos escogido para el trabajo. • Ventajas y desventajas Es

evidente

que

la

captura

o

importación

de

ficheros

supone

una

tiempo considerable con respecto a las soluciones Direct to Edit.

» 225

1. MONTAJE

Sin

embargo,

si

trabajamos

directamente

con

los

ficheros

originales,

perde-

mos la posibilidad de una recuperación de datos en el caso de que se destruya por error o accidente. La

solución es hacer siempre una copia de los ficheros

que usamos para un

trabajo Direct to Edit. Pero esta copia requiere tiempo y supone doblar el espacio en el disco duro. La medio:

“selección

solución por

una

parte,

transferencia”

y

es

necesaria

con

una

transcodificación

importación,

aunque

se

más

sitúa rápida

en pues

no lo es de todo el material, sino de aquella parte del clip que nos interese. Pero, por otra, conservamos, aparte, el fichero original.

Como siempre, optar por una solución u otra dependerá del tipo de trabajo y de nuestras posibilidades en cuestión de tiempo y recursos.

• La importancia del backup En

este

mismo

sentido

es

conveniente

recalcar

la

importancia

ya

por

de

tener

un

backup, copia de seguridad o respaldo de nuestro material nativo. Tradicionalmente,

el

trabajo

con

cinta

nos

daba

supuesto

este

respaldo

en la edición digital ENL. Pero actualmente se trabaja más y más sobre grabación IT no lineal, sin cinta. Si usamos estos mismos ficheros para la edición, corremos el

riesgo,

siempre

presente,

de

que

se

corrompan,

se

borren

accidentalmente,

o

se pierdan definitivamente por un fallo en el disco duro. Es

conveniente,

pues,

hacer

siempre

una

copia

de

seguridad

de

estos

ficheros

de cámara. >> La ingesta en fotoquímico

• Escaneado y telecine Si

el

formato

original

es

fotoquímico,

necesitamos

maquinaria

específicamente

diseñada para convertir los fotogramas del negativo en imágenes digitales. Básicamente,

hay

dos

procesos

considerados

profesionales:

el

escaneado

y

televisión.

En

el telecinado. • Telecine y kinescopiado El

telecine

es

la

herramienta

tradicional

de

conversión

de

cine

a

principio es más barato y económico, y permite la conversión en tiempo real. Su límite suele estar en los 8 bits de profundidad de color y resolución HD.

» 226

PARTE III: MONTAJE Y POSTPRODUCCIÓN

Los tas

telecines

de

de

corrección

última

de

generación

color

y

permiten

etalonaje,

así

además

como

su

una

uso

como

mejora

en

herramien-

la

profundidad

de color. Generalmente,

el

formato

de

salida

de

un

telecine

será

una

cinta

estándar,

sea SD o HD. Pero los nuevos modelos también permiten formatos IT. El talla el

telecinado el

puede

pietaje

montaje

del

en

incorporar material

ordenador

de

como

metadato

o

como

negativo.

Esta

películas

cinematográficas,

información

información

es

en

pan-

imprescindible

debido

a

la

para

diferencia

de cadencia y a la necesidad de cortar posteriormente el negativo original, El proceso inverso,

de cinta a

fotoquímico realizado con una máquina similar,

se conoce como kinescopiado. • Cinevator Una

variante

reciente

del

kinescopiado,

basado

en

tecnología

LED,

es

la

cono-

cida con la marca comercial de Cinevator. La

ventaja

competitiva

con

que

apareció

en

el

mercado

es

que

realizaba

la

transferencia digital/fotoquímico en tiempo real, tanto de audio como de sonido. Y

también

que

lo

podía

hacer

directamente

en

copias

positivadas,

sin

necesidad

de interpositivo o internegativo. Esto

supuso

una

revolución

en

muchas

producciones

independientes,

así

co-

mo documentales y cortometrajes, pues ahorraban costes. • Escaneado y filmado El escaneado láser es un desarrollo posterior, de mayor calidad (desde 8 a 12 bits, y con resoluciones de 2K, 4K e incluso 6K y superiores) pero más lento y costoso. Se

escanea

vidualizado, estos ficheros

cada

fotograma

generando

individualmente

una

secuencia

y de

es

transferido

imágenes

a

un

fichero

numerada.

indi-

Generalmente,

son de tipo dpx (digital picture exchange, heredero del Cineon de

Kodak), pero también hay opciones como tiff o tga (véase el anexo).

Algunos escáneres modernos ofrecen la posibilidad de escaneos de 6K, 8K o superiores. Sin embargo, como vimos, la resolución nativa del 35 mm es de 4K, por lo que un escáner a 6K no tiene mucho sentido, pues se trataría de una upconversion sin aumento de la calidad nativa.

Además

del

coste

superior,

la

desventaja

estriba

en

que

no

es

un

proceso

en

tiempo real (1:1, un minuto de rodaje, un minuto de escaneado). Hay que planificarlo, pues, con tiempo.

» 227

1. MONTAJE

El proceso inverso con tecnología láser similar se conoce como filmado. Tampoco es en tiempo real. Debido a la diferencia de precio y operatividad, los offlines cinematográficos se hacen siempre con telecine. No tendría sentido perder tiempo y dinero en capturar todo el material filmado en escáner láser. En muchas ocasiones, el telecinado del negativo ha sustituido a los daylies o copiones.

• Otros transfers Nada nos impide colocar una cámara digital delante de una pantalla donde se proyecta una película para hacer un "transfer" digital (este sistema es el usado habitualmente para piratear películas). También podríamos colocar una cámara de 35 mm delante de un monitor de televisión para lograr un “kinescopiado". Sin embargo, estos procesos no son los habituales en la industria, pues no obtienen la misma calidad de imagen que el escaneado/filmado o el telecinado/kinoscopiado. No obstante, estos remedios "caseros" se utilizan en ocasiones para lograr texturas subjetivamente muy interesantes, o para abaratar costes en producciones de baja calidad. • Calidad y textura Las transferencias fotoquímico digital pueden tomar también un valor artístico, no sólo técnico. No me refiero sólo al uso de herramientas de corrección de color o de viñeteo y máscaras, sino a la propia textura de cada soporte. Se puede grabar unas imágenes en calidad DV para luego transferirlas por kinescopiado casero a Súper 8 mm, posteriormente tratarlas en digital para terminar en una copia en 35 mm y en una cinta HD. El objeto sería lograr un textura especial, que va tomando "grano” y artefactos de cada uno de los procesos. Igualmente, algunos especialistas prefieren el telecinado o el Cinevator para formatos frágiles como el HDV antes que un filmado láser. Éste tendría más calidad, pero por esa misma razón se verían más sus defectos. Un telecinado los suaviza y logra un textura muy interesante. Y, no hay que olvidarlo, la experiencia, el buen gusto y el conocimiento técnico del operador encargado del transfer es un punto siempre a tener en cuenta. » CGI en efectos y animación CGI son las siglas de Computer Graphic Images, o imágenes generadas por ordenador.

» 228

PARTE III: MONTAJE Y POSTPRODUCCIÓN

En este orden incluimos una gran variedad de ellas, siendo las más determinantes las dedicadas a los efectos digitales y la animación.

» Efectos Gran parte del desarrollo cinematográfico de los últimos años se debe a los efectos digitales. Lejos quedan los efectos de Superman, MaryPoppins o Chitty Chitty Bang Bang, que eran poco más o menos lo que se podía hacer con la truca convencional. Hoy en día se puede hacer volar un vaca con facilidad, hacer estallar un edificio de cincuenta plantas o recrear el impacto de un meteorito en la Tierra con grandes dosis de credibilidad (al menos visualmente, no sé si argumentalmente). Estos efectos se generan en ordenador y posteriormente se integran sobre las imágenes reales. Para preservar su calidad, se renderizan en formatos de gráficos sin comprimir RGB como son los tiff, tga, bmp, png y otros, prefiriendo aquellos que tienen un canal alfa o de transferencia (en ese caso, en ocasiones se dice que son formatos 4:4:4:4). Es útil tener una idea siquiera general de estos ficheros gráficos, por lo que se incluye un anexo.

« Animación Dos de las técnicas tradicionales de animación son el dibujo animado, cartoon, y la animación paso a paso stop motion. Hoy en día, todas estas producciones se realizan por medios digitales, salvo algún estudio que continúa con las técnicas tradicionales de lápiz y papel. e Cartoon Se puede distinguir en la animación 2D tradicional (diríamos tipo Disney) o la 3D más actual (tipo Pixar). Ambas se generan por ordenador, si bien con programas y tecnologías distintas. Pero el resultado final es en los dos casos secuencias de ficheros gráficos (generalmente tiffs de 16 bits con canal alfa). Estas secuencias de ficheros (el término coloquial es “chorizo”, aludiendo al embutido típico del país), una vez generadas, pasan por los procesos tradicionales de montaje, postproducción y masterización. En ocasiones, algunos programas pueden generar también clips de vídeos. Es otra opción que agiliza el proceso con pérdida de calidad (mucha o poca dependiendo del códec).

Conformado

>> Offline a online Si partimos de un montaje offline el primer paso sería conseguir el montaje online con una nueva ingesta de los brutos de cámara. Aquí volvemos a señalar lo ya apuntado anteriormente: este proceso es clave para asegurar la máxima calidad de nuestro trabajo. Por eso hay que ser cuidadosos con la elección del códec con el que vamos a trabajar a partir de ahora. Como siempre, la primera opción será una sin comprimir, y luego algún códec

específico y fiable para una postproducción exigente. Podemos recapturar todos los clips, pero lo más práctico es recapturar sólo aquella parte del clip (subclip) que realmente se ha usado en la línea de tiempo o montaje. Los ENL tienen herramientas que realizan automáticamente esta función, incluyendo las colas necesarias para las transiciones. De ahí la necesidad de trabajar con criterio. Si en la línea de tiempo hemos sustituido un clip original de cámara por un renderizado (porque hemos incluido un crédito o algún efecto, por ejemplo), lógicamente nuestra ENL no reconocerá el código de tiempo de ese clip como referenciado con ningún clip de las cámaras. Hay que recapturar antes y renderizar después. Además de las colas que ya se precisan para las transiciones en la línea de tiempo, es conveniente hacer una captura de todos los sublicp con colas (handles) de uno o dos segundos tanto de entrada como de salida. No es inusual que un montaje dado por "definitivo" precise de algunos pequeños retoques posteriores, por lo que estas colas serán importantes. Estas colas pueden parecer pocos segundos, pero, en una producción de larga duración, puede haber miles de cortes, miles de subclips. Si añadimos 2+2 segundos de cola por clip, la cantidad total puede superar fácilmente la hora: es necesario tenerlo en cuenta sobre todo pensando en el disco duro.

» Identificación de las cintas Otro tema importante si se trabaja con cintas es mismas. Todas las cintas comparten el mismo código 00:00:00:00 a 99 horas, 59 minutos, 59 segundos que no permite distinguir una cinta de otra. Por

» 238

la correcta identificación de las de tiempo SMPTE, que va de y 25 frames (30 para NTSC), y lo que si nos equivocamos de

PARTE III: MONTAJE Y POSTPRODUCCIÓN

cinta en nuestro VTR, nuestro ENL puede capturar por error (nuestro error, no el suyo) un clip equivocado. La identificación debe figurar claramente en la etiqueta de la cinta y también en las preferencias de captura. Es una dinámica de trabajo imprescindible, pues muchos trabajos pueden contar con decenas de cintas y realizarse a lo largo de muchas semanas. Aprovechando que la mayoría de las cintas no superan la hora de grabación, un buen protocolo de trabajo es que el operador de cámara identifique cada cinta con los dos primeros dígitos, empezando la grabación no en 00, sino en 01, 02, 03 y así sucesivamente. Si las cintas son de más de una hora, se pueden identificar igualmente como 10, 20, 30... Esto, claro está, es responsabilidad del cámara y del productor, pero facilita mucho el trabajo de montaje. » La grabación del código de tiempo Las cámaras permiten por lo general dos maneras de grabar el código de tiempo (time-code, TC): • Rec Run, de manera continua desde 00:00:00:00 (o el que se elija como TC inicial) hasta el final, independientemente de los planos que haya. • Free Run: donde se coloca un TC inicial y éste no para, se grabe o no se grabe, aunque se apague la cámara (es útil para estimar tiempos reales de grabación). Si queremos trabajar con offline de montaje, el Rec Run será nuestra opción. El Rec Run produce un TC continuo, pero con una salvedad: si por alguna razón se pierde el sincronismo (al sacar una cinta, o al visionar y rebobinar hacia adelante en demasía), y la cámara encuentra una zona virgen en la cinta, inmediatamente volverá a poner el contador a 00. Esto será interpretado por nuestra ENL como dos cintas diferentes, lo que resulta cuando menos engorroso. Para evitar este problema (además de ser rigurosos en el trabajo), está la opción de empistar previamente la cinta de cámara, grabándola completamente con el objetivo tapado. Así nos aseguraremos de que nunca se produzcan cortes en el TC. También es posible “linkar" dos o más cámaras para que tengan el mismo TC, mediante la opción de genlock. Es muy útil en grabaciones multicámara de eventos en directo, pues una vez en nuestra ENL la sincronización será inmediata. Y también es posible compartir de la misma manera el TC de una cámara con el equipo de sonido autónomo. De nuevo, facilitará enormemente la sincronización.

» 239

1. MONTAJE

» Código de tiempo en ficheros IT Si grabamos en soporte rígido, también los clips se graban con su TC correspondiente, pero además del Rec Run y el Free Run, se puede indicar por menú que cada clip (el espacio entre REC y STOP de cámara) se reinicie a cero. Hay que señalar que en grabación IT no es tan crucial el TC como en cinta. Además de por el TC, cada clip está igualmente identificado individualmente con su nombre y el resto de metadata. El riesgo de equivocación de clips es muy bajo. » Identificación de fichero IT Al grabar en IT, la cámara genera un nombre, que puede ser aleatorio y consecutivo, o se puede señalar por menú. Este será el nombre que veremos siempre. Sin embargo, en ocasiones, además de este nombre (panorámica.uno.mov, por ejemplo), internamente el sistema de archivos maneja otro nombre menos usual (por lo general, una combinación de números y letras como MXF0002AZ 345HG.mov). El primer nombre es el que mostrará nuestra ENL, y podremos modificarlo sin problemas si nos apetece, pues la ENL no se equivocará en la identificación. Pero también a través del sistema operativo de nuestro ordenador podremos acceder al segundo, si bien es aconsejable no cambiarlo nunca. Sucede de manera parecida en ciertos ENL a la hora de la ingesta: dentro del programa se identifica el clip con un nombre, y fuera de él, en el sistema operativo, con una combinación de letras invariable.

» Tipos de fichero IT Cualquier grabación en soporte rígido de un clip de audio y vídeo es un fichero IT. Actualmente, muchos dispositivos permiten capturar imágenes en movimiento: teléfonos móviles, cámaras de vigilancia, webcams, cámaras de fotos, etc. Generalmente, este tipo de dispositivos grabarán los archivos con códecs y extensiones universales (para Windows tipo .avi o .wmp, para Apple tipo .mov) de una manera sencilla, sin prácticamente metadata asociada. Los cámaras más profesionales utilizan los protocolos profesionales MXE y por lo general suelen adoptar una estructura de subcarpetas. En cada carpeta irá un tipo de fichero: en unas el audio, en otras el vídeo, en otras unproxie (si la cámara lo genera), en otra un thumbnail o viñeta de identificación, en otra metadatos, en otra el canal de audio para comentarios del operador, etc. No hay una única estructura de subcarpetas para todos los archivos.

» 240

PARTE III: MONTAJE Y POSTPRDOUCCIÓN

Se supone que el MXF es un contenedor universal, pero sucede sin embargo que al crearse el protocolo MXF en realidad se crearon dos: el Atom y el II-A. La diferencia es mínima: el Atom separa audio y vídeo en dos ficheros separados, y el II-A lo hace en un único fichero multiplexado. En principio, el Atom iba a ser el protocolo de “producción" (captación, edición y postproducción) y el II-A el de distribución de la señal. Pero algunos fabricantes implementaron en sus cámaras el protocolo II-A que no era reconocido, en un primer momento, por algunos ENL que esperaban sólo protocolos Atom, lo que originaba incompatibilidades. Se trata, otra vez, de argucias empresariales por parte de alianzas de diferentes broadcasters que, afortunadamente, se superaron, y hoy en día casi todos los ENL pueden trabajar nativamente con cualquier fichero MXE Pero advertiré que digo “casi'‟, y que además la situación puede cambiar: siempre habrá que leer especificaciones, actualizar las versiones del ENL y estar atentos a los movimientos del mercado. » De offline a online mediante EDL En ocasiones, preferiremos recapturar todo el material no en nuestra ENL, sino en el programa de postproducción con el que continuaremos el trabajo. Para ello se usan las listas de decisiones de montaje (Edition Decission List, EDL). Las EDL se usan también en algunas editoras AB Roll. Una EDL es un pequeño archivo de texto que tiene muy poca información. En la mayoría de las EDL (hay diversas variaciones comerciales, pero suelen ser bastante compatibles entre sí), la información de metadata se limita al nombre del clip, los puntos de entrada y salida de cada clip y su colocación la línea de montaje (mediante el Timecode o código de tiempo de la línea de tiempo) y a unas pocas transiciones: encadenados, cortinillas sencillas y poco más. La gran limitación de las EDL más utilizadas es que sólo admiten una pista de vídeo (y generalmente una o dos de audio). Esto nos obliga, si tenemos activas más de una pista de vídeo, a exportar como EDL diferentes cada una de las pistas de vídeo de nuestro timeline para poder reconstruir el montaje original. Para superar las limitaciones de las EDL se han creado lenguajes de metadata más avanzados. » Lenguajes de metadata En la actualidad los editores ENL pueden realizar un sinfín de operaciones con los planos: pueden trastocar su cadencia (time relapsed o re-timing), pueden aumentar o disminuir la pantalla (resize), mover el punto central (move anchor point), voltearlos horizontal y/o verticalmente (ílip, flop), tocar parámetros de color (color correction), generar cortinillas 3D, etc. » 241

1. MONTAJE

Además de eso, a diferencia del montaje tradicional en moviola o AB-Roll, se trabaja con sistemas multicapa, es decir, con varias pistas de vídeo al mismo tiempo. El montaje multicapa y los efectos complejos no tienen cabida, pues, en las sencillas EDL. Para ello, se han creado unas listas de montaje mejoradas que pueden incluirlas: los lenguajes de metadata compartida. » Estándares comerciales Como es habitual, una vez más por motivos comerciales, no hay un único estándar. Avid creó en su momento el formato OMF (Open Media Framewoik, en versión 1 y 2), que posteriormente amplió y mejoró en el actual AAF (Advanced Authoring Foimat). Este archivo de metadata está abierto actualmente a otros fabricantes, pero eso no quiere decir que sea adoptado por ellos. En las plataformas Apple, la tecnología usual es la XML (basada en los protocolos de internet, extended Markup Language). Muchos programas de edición y postproducción también entienden este lenguaje. En ocasiones, este código XML se puede manejar mediante scrípts (pequeños "guiones" o instrucciones informáticas que pueden ser interpretadas por un software en concreto). De nuevo, antes de tomar una decisión sobre qué lenguaje de metadata utilizar, hay que leer las especificaciones de todas las herramientas que encontremos en la línea de producción. » Mejora en el flujo de trabajo La utilización de estas “edl" mejoradas o “lenguajes de metadata” va más allá del simple paso del off al online. Si dos programas comparten el mismo lenguaje de metadatos, pueden manejar prácticamente la misma información. La utilidad es grande, pues nos ahorramos los lentos y delicados procesos de renderización y transfer. OMF el primer lenguaje de Avid, hacía compatible el montaje de las pistas de audio del Timeline entre su programa de edición de vídeo y uno de sonido como Protools. Esto permitía que el mezclador de sonido dispusiera de la misma información con sólo abrir el pequeño fichero OMF y se ahorrara el complicado proceso de remontar todas las pistas de audio una a una. Pero aun así, era preciso enviar un archivo de referencia con el vídeo para una correcta sincronización. Generar este archivo retrasaba el trabajo y consumía recursos. Con los formatos AAF el XML u otros, ya se podría incluir la pista de vídeo, sin necesidad de renderizar: sólo es necesario que los diferentes programas re-

» 242

PARTE III: MONTAJE Y POSTPRODUCCIÓN

conozcan el mismo lenguaje. Si además disponemos de un acceso a los media común, varias estaciones de trabajo pueden trabajar de manera paralela, compartiendo la lectura de los mismos ficheros originales y actualizando en tiempo real las variaciones. » Las suites de edición Esta versatilidad ha animado a muchos fabricantes de soluciones informáticas a ofrecer paquetes completos de programas de montaje y postproducción. Son las llamadas suites, donde a un programa central de ENL se le añaden soluciones para el trabajo 2D, 3D, audio, incrustación de textos, corrección de color, etc. Compartiendo el mismo lenguaje, estos programas optimizan el tiempo de trabajo. El inconveniente, claro está, es tener que dejar de trabajar con otros programas que no leen su metadata (nuevamente, una cuestión comercial, no técnica). No obstante, en este sentido la tendencia de ser compatibles unos con otros es cada vez mayor entre todos los fabricantes. También existe la posibilidad de recurrir a empresas independientes con conocimientos informáticos que diseñen programas auxiliares y plugins para este intercambio de metadata: convertir un fichero AAF a XML, por ejemplo. » Cine: proceso tradicional Si el material online es fotoquímico, y queremos realizar un trabajo de postproducción en laboratorio, lo usual es mandar una EDL específica al laboratorio para que se proceda al corte de negativo. Este proceso consiste en seleccionar las partes del negativo filmado y cortarlo físicamente. Es un trabajo delicado, que debe realizarse en total asepsia para evitar daños en el negativo. Para facilitar el trabajo de truca, se corta el negativo en dos rollos, uno para los planos pares y otro los impares, colocando colas y material neutro (cola blanca transparente) entre ambos. Esta EDL específica para cine la generan ENL preparadas para calcular los cambios de cadencia entre lo que vemos en la sala de edición (25 o 29,97 fps) y el resultado final (24 fps). Hoy en día se cuenta con la ventaja de que es posible disponer de material de vídeo a 24 fps. Las referencias se ajustan al pietaje del negativo. El pietaje funciona de manera similar al código de tiempo del vídeo: cada uno de los fotogramas se identifica mediante una combinación de números y siglas particular.

» 243

1. MONTAJE

Es conveniente también enviar un DVD o cinta al laboratorio con el montaje y el pietaje y el TC en pantalla para evitar errores.

» Cine: proceso con intermediación digital Si queremos contar con material fotoquímico para seguir un proceso totalmente digital, DI, también mandaremos una EDL para cortar el negativo, pero en ese caso procederemos a su escaneo láser en 2K o 4K, generando secuencias de ficheros dpx. Obviamente, no se realiza ninguna transición ni efecto previo, pues se hará todo digitalmente. Una vez que tenemos el disco duro con los dpx en la sala postproducción, haremos el conformado de montaje con la misma EDL, o similar en la herramienta de postproducción que vayamos a utilizar. » Exportación vía referenciado Otra opción similar a estos lenguajes es la "exportación referenciada", sin "media". Se crea un fichero de audio y vídeo desde el ENL (un quick time, por ejemplo), pero que no contiene ni audio ni vídeo, sino que permite ir leyendo en el disco duro toda la secuencia de montaje original. Sirve para el mismo propósito de multitarea entre diferentes programas (edición, postproducción, sonido...), ahorrándonos tiempo y espacio en el disco duro. Hay que tener en cuenta que estos ficheros precisan acceder a los discos duros donde se encuentra la media. Si no, son inservibles. Si los llevamos a otro ordenador sin acceso a los discos duros donde se halla la media, no veremos nada. La exportación referenciada sólo incluye una pista de vídeo (como las EDL tradicionales). Precisa, además, una renderización previa de todos los efectos. » Renderizado de efectos y transiciones Lo mejor de cualquier flujo de trabajo es realizar el menor número posible de procesos de renderización. Pero en ocasiones es preciso renderizar algunas cosas, como transiciones o efectos sencillos. Hay que tener en cuenta una vez más con qué máquina estamos trabajando: si una que procesa la información internamente con gran profundidad (10, 12, 16 bits, o hasta coma flotante) o con una ENL que trabaja a un máximo de 8 bits. Incluso una simple transición, o una cortinilla con un filo degradado, puede verse afectada en su calidad por un mal cálculo. También hay que contemplar los posibles efectos posteriores. Si realizamos una transición entre dos planos que no han sido todavía etalonados (corrección

» 244

PARTE III: MONTAJE Y POSTPROOUCCIÓN

de color), tendremos en realidad tres clips: el entrante, la transición y el saliente. Podemos aplicar una corrección diferente al entrante que al saliente, luego, ¿qué corrección le aplicamos al render de la transición? Por estas y otras razones, si es posible, es mejor renderizar incluso las transiciones en la etapa final del trabajo. » Consolidado Una herramienta que se suele conocer como “consolidado” (consolídate), pero que también puede tener otros nombres, dependiendo de la ENL, sirve para seleccionar, de todo el material ingestado, sólo aquella parte usada en el montaje (con colas o sin ellas). Se utiliza para "limpiar” de ficheros el disco duro antes de empezar la postproducción, para hacer copias de seguridad o para trasladar todo el material de un equipo de trabajo a otro. Si se usan ficheros referenciados, también es útil hacer un consolidado. » Trabajo en red (SAN) Las EDL, los lenguajes de metadata y los ficheros referenciados son muy útiles para el trabajo multitarea. Pero con la condición sine qua non de que todos los operadores tengan acceso a los mismos discos de almacenamiento (a la información de media). Storage Acces NetWork (SAN) es el nombre que se da a aquellas soluciones que permiten el acceso a varios equipos a la vez (edición, grafismo, postproducción, audio, emisión...). Básicamente, es un gran disco compartido, pero optimizado para un alto rendimiento y un rápido acceso desde cualquier puesto de trabajo en una productora, televisión o empresa de servicios de postproducción. Y con actualización de todos los metadatas inherentes a cualquier cambio. Trabajando con el software adecuado, cualquier cambio introducido por algunos de los operadores (montador, mezclador, editor de postproducción, diseñador gráfico, colorista, etc.) se puede reflejar en las timelines del resto sin necesidad de renderizar el material. Además de ahorrarnos mucho tiempo, evitaremos la duplicación de archivos en varios discos duros, así como los siempre delicados procesos de renderizados, exportaciones y transferencias.

» 245

» 246

2. Postproducció n

El trabajo de postproducción empieza justo después del montaje definitivo y llega hasta la creación del máster digital o DSM (del inglés Digital Source Master). Dependiendo del tipo de producción, pero también del canal de distribución elegido, tendremos diferentes diseños de postproducción. No se puede generalizar por tanto un único flujo de trabajo, pero sí existe una norma: no perder calidad en todo este proceso. Esto quiere decir simplemente que nuestro máster digital ha de tener, como mínimo, la misma calidad objetiva o técnica que nuestro formato original de grabación (el que se captó en la cámara). >> Formatos para DI Una postproducción o una intermediación exigente precisa de un formato robusto. 1. Nuestra primera opción será mantener la resolución nativa y trabajar sin compresión, en cualquiera de las opciones uncompressed o 1:1 que nos permita nuestro programa. Además, intentaremos siempre trabajar con la mayor profundidad de color. 2. Si por cuestiones técnicas no fuera posible (falta de recursos o de tiempo), la segunda opción sería elegir algún códec específicamente diseñado para la postproducción, como los ya mencionados. En este caso intentaríamos mantener el muestreo completo (no todos lo permiten) y la mayor profundidad de color (una vez más, la mayoría trabaja a 8 bits; si bien sería preferible a 10 o 12 bits). 3. La tercera opción sería trabajar con el fichero nativo de cámara. Al menos, ni ganamos ni perdemos calidad: sería una crossconversion. Cualquier otra opción sería ya una downconversion y dañaría la calidad de nuestro trabajo, por lo que son altamente desaconsejables.

» 247

2. POSTPRODUCCIÓN

>> ¿Excepciones? En ocasiones, podemos realizar una downconversion antes de la postproducción. Un ejemplo puede ser la realización de programas para televisión estándar SD con cámaras HD. Personalmente aconsejaría realizar siempre una postproducción HD para terminar igualmente en un masterizado HD. A partir de él, realizaríamos una downconversion a SD en el formato que pida la cadena de televisión. Pero en ocasiones lo que se hace es una ingesta de material online en SD, continuando el flujo de trabajo en SD, incluyendo el masterizado. Dado que ése sería el formato final de emisión / exhibición, se podría considerar correcto. Es una forma de trabajar que se ha venido realizando en estos años de transición entre el SDTV y la HDTV, generalmente debido a que muchas empresas tenían un equipamiento de montaje y postproducción SD por amortizar. Aun así, sería aconsejable aprovechar el trabajo de edición a fin de realizar una recaptura en HD para una masterización HD. La televisión estándar es una tecnología obsoleta que desaparecerá en los próximos años, por lo que contar con un máster HD será interesante de cara a futuras reemisiones.

» ¿Por qué sin comprimir? Ya hemos comentado que el uso de compresión equivale de alguna manera a la "pérdida por generación” en el analógico. Toda compresión comporta pérdida de información y aumenta el ruido inherente a la señal de vídeo. / Compresión / Pérdida de calidad producida por la excesiva compresión de una imagen

» 248

PARTE III: MONTAJE Y POSTPROOUCCIÓN

Otro problema de los ficheros comprimidos es que al aplicar un efecto, nuestro software los descomprimirá, calculará el efecto y volverá a comprimir la imagen para guardar el formato. Eso equivale nuevamente a una pérdida. Si acumulamos muchos efectos, iremos acumulando pérdida tras pérdida y aumentando el ruido. Por último hay también un argumento que a veces es difícil de entender: si trabajamos sin compresión (y sin submuestreo), nuestra máquina trabajará más rápido. Nuestra tarjeta de vídeo espera ofrecernos en la pantalla datos puros sin comprimir RGB 8 bits. Si tenemos un formato comprimido 4:2:2, el procesador del ordenador y/o el de la tarjeta de vídeo (dependiendo de la configuración) tendrán que utilizar sus recursos RAM para hacer el cálculo de descompresión y el submuestreo. Asimismo, a la hora de calcular efectos para renderizados y exportaciones, el procesador trabajará más ligero y rápido. Incluso el visionado puede ser defectuoso. Sucedió al inicio de presentarse el formato HDV (mpeg2 fuertemente comprimido), y últimamente con códecs de cámara de gran compresión (AVCHD, H-264 y otros mpeg4, fundamentalmente). En señales HD y superiores, los cálculos que precisan los procesadores para descomprimir la señal y mostrarla pueden impedir una correcta visualización a la cadencia normal. Se ve entonces trabado, "a saltos". La solución suele estar en aumentar la RAM de la CPU y la GPU o incluso actualizar completamente la estación de trabajo. » Ingesta online Dicho esto, lo más común es que a la hora de hacer un ingesta online del material nativo de cámara realicemos una upconversión. Esto se debe a que la mayoría de los sistemas actuales de captación sufren una compresión, un submuestreo, un máximo de 8 bits o las tres cosas juntas. En la actualidad no existe ninguna cámara que grabe los datos sin comprimir, RGB y hasta 12 bits de profundidad. Lo cual no quiere decir que no aparezca una en el futuro próximo, pues como hemos visto en la parte dedicada a la cámara, el embudo actual no nace en el sensor, sino en el manejo y almacenamiento de los datos.

La forma tradicional de realizar esta ingesta online es a través de una tarjeta capturadora mediante una conexión HDSDi. Esta conexión nos proporciona invariablemente una señal 4:2:2 8 bits sin comprimir. Pero ¿qué sucede si el formato de la cinta o el disco duro de la cámara ya está comprimido? Lógicamente, lo que hace la cámara internamente es descomprimir los datos antes

» 249

2. POSTPRODUCCIÓN

de ofrecerlos a través de la interface digital. Es decir, una upconversion que no aumenta la calidad de la imagen, sino sólo la calidad de la señal o formato. Otro caso sería si utilizamos esta conexión HDSDi en vivo, directamente desde la cámara al mismo tiempo que se realiza la acción. Es posible hacerlo si durante el rodaje se dispone de un ordenador y una capturadora. En este caso, al evitar el paso previo de la compresión interna del camascopio, tendremos una señal pura HDTV sin comprimir, de mejor calidad. La ingesta online en vivo es complicada de hacer en muchas situaciones de grabación y rodaje. Pero cada vez se ve más en estudios y sets de rodajes debidamente preparados y cableados.

Una salida HD.SDI Dual Link nos proporcionaría la misma posibilidad, pero en 4:4:4. Una última posibilidad, de aún mayor calidad, es la ingesta en vivo y en RAW de los datos provenientes del sensor. Esto lo permiten algunas cámaras a través de interfaces informáticos, como Giganet, Ethernet y otros. Sería el máximo de calidad alcanzable, pero, por contra, necesitaríamos cantidades ingentes de almacenamiento. » Límites al trabajo sin compresión Evidentemente, hay un límite para la compresión: el que nos proporcionan los discos duros. A mayor calidad, mayor bitrate y mayor peso. Por lo que precisaremos discos duros más grandes, más rápidos y con conexiones ultrarrápidas a la CPU. Debemos tener siempre presente el dato más común: una señal HD 1.080 4:4:4 8 BITS 25 fps tiene un flujo de datos de 1,2 gbs (800 mbs si se tratara de 4:2:2). Dado que los procesadores son cada vez más rápidos, es en el almacenamiento donde se produce el actual “cuello de botella” de la postproducción. Un cuello de botella se produce en la velocidad de lectura del propio disco duro. Esta velocidad depende del tipo de disco y las revoluciones por minuto que alcanzan sus cabezas lectoras (5.600, 7.200,10.000 rpm), así como las conexiones de transferencia de datos (interfaces): SATA, SCSI, etc. Los discos duros tradicionales están llegando a su límite "físico": no pueden almacenar más datos ni leerlos o grabarlos a más revoluciones. Por eso están teniendo un gran auge los soportes rígidos (en este caso se refieren a no tener partes móviles), como las tarjetas SD, Compac Flash, Xpress Card y otras posibles innovaciones futuras.

» 250

PARTE III: MONTAJE Y POSTPRODUCCIÓN

» RAID Una solución al "embudo" de los discos duros es disponerlos en modo RAID. Esta palabra es el acrónimo en inglés de “conjunto redundante de discos baratos" (redundant airay of inexpensive disks), y como su nombre indica no opta por incrementar la capacidad de transferencia de un solo disco (mejor y por tanto más caro), sino por distribuir el flujo de datos entre una serie de discos de menor velocidad (y por tanto más baratos). Antes de la conexión con los discos duros, hay una etapa en la que se distribuyen los datos en los diferentes discos duros. Si, por ejemplo, tenemos una RAID de dos discos, y nos llega un flujo de 1,2 gbs, podemos mandar sólo 0,6 gbs a cada disco, permitiendo una grabación y lectura muy ágil. Y si disponemos de 4 discos, el flujo que llegaría a cada disco sería sólo de 0,3 gbs. » Tipos de RAID Lo anterior sería una RAID 0: se distribuye el flujo entre el número de discos que disponemos. Pero también podemos aprovechar esta estructura para grabar dos veces la misma información, haciéndonos con un respaldo o copia de seguridad instantáneo. Sería lo que se conoce como RAID 1. Mayores niveles de RAID (2, 3, 4...) nos permiten aumentar nuestro nivel de seguridad, haciendo copias con mayor protección. Un nivel RAID 1 simplemente hace una copia del material en otro disco duro; pero si éste falla, se puede perder la información que guardaba. En niveles superiores de RAID, esta información se distribuye en todos los discos duros, de manera que, aunque uno de ellos falle físicamente, se pueda recuperar toda la información a partir del resto de discos.

» 251

2. POSTPRODUCCIÓN

» SAN Los límites de la RAID son los flujos de datos entre el distribuidor y la interface o conexión a la CPU. El mayor problema que nos encontramos a la hora de trabajar en HD o 2K es que la arquitectura informática de usuario actual está diseñada para flujos de hasta 1,5 gbs. Como vemos, muy cerca del límite de 1,2 gbs que hemos señalado para la señal estándar HD1.080 o 2K 4:4:4. (No obstante, ya se está hablando en la industria IT de un estándar de 3 gbs, que sería de gran ayuda para toda la industria audiovisual.) Soluciones más profesionales, no estándares, permiten arquitecturas y conexiones extremadamente rápidas, incluyendo en ocasiones sistemas operativos no usuales (UNIX y otros). Por eso muchas herramientas de postproducción de alta gama se venden con estaciones de trabajo específicas, previamente comprobadas por las casas. La opción más común en muchas empresas de postproducción es el trabajo con SAN ultrarrápidas. No sólo permiten, como hemos visto, el trabajo multitarea en diversos equipos de trabajo, sino que aseguran unos altísimos flujos de datos, permitiendo sin problemas incluso varios streams HD sin compresión. » Capacidad de cálculo del software La otra variable importante para un buen flujo de trabajo es la capacidad de cálculo de nuestro equipo.

» 252

PARTE III: MONTAJE Y POSTPRODUCCIÓN

La capacidad de realizar un cálculo ajustado de los parámetros se mide también en bits: 8, 12, 16 o en “coma flotante" (en función de lo que requiera la imagen, hasta el límite de la combinación software+hardware). Una señal de 8 bits de profundidad de color exige como mínimo 8 bits de cálculo. Pero con 12 o 16 bits cualquier efecto siempre será más ajustado, más fino. Lo mismo sucede con el tamaño de la imagen: cuanta más resolución tengamos, más bits precisaremos para proporcionar una mejor definición del efecto. El ejemplo típico en estos casos es efectuar un degradado suave en una imagen: con un cálculo a 8 bits, el degradado nos permitirá 256 niveles; pero con 12 bits nos permitirá 2.048. Si estamos hablando de una imagen de HD, que tiene hasta 1.920 píxeles en horizontal, es casi inevitable que encontremos banding con sólo 8 bits / 256 niveles en un degradado.

En general, las programas puramente ENL trabajan a 8 bits de cálculo, mientras los programas y las soluciones específicas de postproducción nos permiten usar mayor profundidad. Por eso, una vez más, no es conveniente realizar trabajos de postproducción con programas y máquinas pensadas sólo para el montaje. » Etapas de la postproducción: renderizados Como hemos dicho, cada producción tiene su propio flujo de trabajo, dependiendo de qué es lo que se quiera conseguir. Por postproducción podemos entender un etalonaje sencillo y los títulos de crédito, o un proceso largo que exija incrustación de CGI tanto 2D como 3D,

» 253

2. POSTPRODUCCIÓN

utilización de imágenes superpuestas (por llaves o keys de luminancia o color), composición simple, uso de cortinillas simples o parametrizadas, rotulación especial, colorimetría, etc. Es posible que en algún momento precisemos de un renderizado previo antes de pasar a una nueva etapa. Aun contando con la mayor calidad de formato y de programa de edición, siempre se pueden generar ruidos y efectos no deseados; sobre todo si se trata de formatos de trabajo comprimidos. Por eso debemos diseñar el flujo de trabajo (workflow) para evitar en la medida de lo posible los renderizados, o realizarlos de manera conjunta al final del proceso. Y evidentemente hacer todos los procesos con la máxima exigencia. La calidad final de nuestro trabajo estará determinada no por el proceso de mayor nivel, sino precisamente por el de menor nivel.

Lo ideal sería trabajar en una sola máquina, pero es difícil que una sola máquina y un solo operador realicen bien todos estos procesos. Por lo general, se usan diferentes herramientas para diferentes efectos. Habrá un programa y un operador especializado para generar e incrus- tar efectos CGI 3D. Se le enviará el clip o corte que precise, y él lo devolverá ya renderizado para pasar a colorimetría. Trabajando con la máxima calidad y exi- gencia (siempre up/crossconversions), minimizaremos en lo posible las pérdidas de calidad de estos renderizados intermedios. Depende también del supervisor de postproducción que se minimicen en la medida de lo posible estos pasos intermedios, que se mantenga el nivel de calidad en todos ellos y que nunca se haga dos veces, innecesariamente, el mismo proceso. » Incrustación de imágenes generadas por ordenador (CGI) Una cuestión a considerar son las imágenes o efectos generados por ordenador, sean 2D o 3D. Dado que la informática siempre trabaja a muestreo completo, RGB, estas imágenes serán igualmente 4:4:4. Por sus propias características, además, se pueden generar con calidad de 10, 12 o más bits de color. El problema surge cuando nuestro material nativo, sobre el que incrustaremos estas imágenes, es 4:2:2 8 bits, que es lo más común. Aunque hayamos hecho una ingesta online a un formato superior (upconveision a 4:4:4 12 bits, por ejemplo), ya hemos dicho que esto no supondría una mejora en la calidad, y que la imagen adolecerá del submuestro y profundidad de color nativo. En este caso, para que ambas "texturas” casen, quizá sea necesario, paradójicamente, rebajar un poco la calidad del original CGI, reduciendo el muestreo o incluso añadiendo un poco de "ruido” artificial. »

Broadcast safe

Algo a tener en cuenta cuando se trabaja para televisión, es el pequeño "recorte” de la señal que sufre la imagen tanto por arriba (blancos) como por abajo (negro). Es lo que se conoce como broadcast safe, que se podría traducir como "margen (de seguridad) profesional”. Básicamente, lo que se hace es constreñir los valores de la señal de 8 bits no entre 0 y 255, sino entre 16 y 235. Por debajo de 16, se considera todo negro, por encima de 235, todo blanco.

» 255

2. POSTPRODUCCIÓN

Si está dentro de estos márgenes, se considera una "señal legal"; si los supera (en brillo o en saturación) hablaríamos de una señal ilegal que no se visionaria correctamente en los. televisores e incluso podría provocar trastornos visuales y hasta jaquecas.

» Masterizado final: el negativo digital o DSM Terminados todos los procesos de intermediación, procederemos a realizar el renderizado final. Por lo general, será una secuencia de ficheros del mismo formato de la ingesta (dpx de 10 bits, tifs de 16 u otros). Para evitar confusiones, estos ficheros se vuelven a renombrar correlativamente a partir del cero hasta el fotograma X donde termine la obra. Esta secuencia de ficheros es lo que se conocería como máster digital, y personalmente lo considero como el verdadero negativo o resultado final de nuestro trabajo. Hasta ahora, el verdadero valor de una producción cinematográfica, después de haberse gastado millones de euros en sueldos, alquileres, decorados que se destruyen y otros gastos, eran los aproximadamente cinco rollos con el negativo cortado. Todo el gasto se resumía en él, y por eso se cuidaba con mucho mimo y, si entraba dentro del presupuesto, se realizaban copias en internegativo para ponerlo a salvo de los destructivos procesos de tiraje de positivos.

Aún más: ¿podemos estar seguros de que dentro de veinticinco años, incluso en condiciones ideales de conservación, los datos informáticos almacenados en estos sistemas (discos duros, DVD) seguirán ahí? Rotundamente, no: no lo sabemos. Incluso corremos el riesgo de la obsolescencia tecnológica: que desaparezcan los sistemas de lectura apropiados. Quien todavía conserve un flopydisk de cinco pulgadas, o incluso un disquete de tres y media, sabrá de lo que hablo: hoy ya no se venden sus cabezas lectoras, ya no podemos acceder a esos datos. Recientemente se han dejado de fabricar magnetos VHS, y no sabemos si dentro de veinticinco años se venderán todavía lectores DVD. Lo más probable es que dentro de veinticinco años toda una filmoteca quepa en un aparato del tamaño de una uña, que se situará no en un lugar físico, sino virtual, en alguna nube de la galaxia internet.

Esto ya ha sucedido. Todos tenemos en la memoria muchas imágenes de la guerra de Vietnam, pero muy pocas de la invasión soviética de Afganistán. No sólo se debe a posibles motivos políticos y/o de censura, sino que en esos años el reporterismo de televisión pasó del engorroso pero fiable 16 mm como soporte estándar, al vídeo broadcast analógico. Las cintas analógicas, se supo más tarde, resisten muy mal el paso del tiempo, así que al cabo de cinco o diez años, incluso sin haberse utilizado nunca, todos los archivos analógicos estaban tan deteriorados que no servían como documento. » Otras opciones para el backup Aunque parezca paradójico, algunos de los sistemas de seguridad de datos informáticos más avanzados se basan no en discos, sino en cintas. Son cintas específicas, distintas a las usadas en audiovisual, pero que ofrecen una fiabilidad y rapidez de acceso envidiables. Las empresas financieras, por ejemplo, usan servidores centrales basados en sistemas de cintas por considerarlas más fiables que los discos duros. En el mundo audiovisual, con el tiempo irán apareciendo empresas que ofrezcan este tipo de servicios: almacenamiento, cuidado y copias de seguridad periódicas de nuestros DSM. Pero aquí llegamos a otra paradoja: sí conocemos un sistema que ha demostrado su fiabilidad durante más de cien años: el negativo fotoquímico. Bien almacenado, puede conservarse durante decenas de años. Aunque sufra daños se puede proceder a su restauración. Y, más importante aún, su mecanismo de lectura es muy simple: pasarlo a través de una luz. No hay riesgo de obsolescencia.

» 260

PARTE III: MONTAJE Y POST PROD UCCIÓN

Incluso, como hemos visto, el fotoquímico sirve para guardar los datos de manera digital.

Por eso muchas productoras optan por un escaneado a negativo del DCM aun en el caso de que no se haya previsto una distribución en salas.