Você está na página 1de 38

ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

ILUMINACION Y CAMARA 2 - B

RESUMEN

PRIMER CUATRIMESTRE

TEMA: LOS MEDIOS Y FORMATOS ELECTRONICOS


LOS MEDIOS Y FORMATOS ELECTRONICOS

• Disco de Nipkow: Primer desarrollo visual, patentado por Paul Nipkow en 1884. Este
dispositivo constaba de dos discos con agujeros que giraban a alta velocidad y que podían
enviar y recibir impulsos eléctricos a través de un cable, y transformarlos en imagen. El
selenio detrás
del primer disco
agujereado,
permitía
traducir la
luminosidad
que pasaba a
través de los
agujeros en
impulsos
eléctricos que
se transmitían
por cable hasta una lámpara, situada detrás del segundo disco, haciendo que esta se ilumine.
Al pasar la luz de la lámpara por el segundo disco (sincronizado con el primero), la luz
generada por los impulsos eléctricos se traducía nuevamente en imagen. De esta manera,
Nipkow sienta las bases de lo que son los sensores hoy en día, como un sistema de puntos
ordenados que traducen la luz en electricidad, así como también sienta las bases de las tazas
de refresco (refresh rate), con cada giro completo del disco.
• Tubo de rayos catodicos:
Patentado por (1850-1918), un
físico alemán. Es una tecnología
que permite visualizar imágenes
mediante un haz de rayos
catódicos constante dirigido
contra una pantalla de vidrio
recubierta de fósforo y plomo
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

• Iconoscopio: es el primer sistema de registro punto por punto. Vladimir Zworykin patenta
este invento, en
realidad perteneciente
a su alumno Philo
Taylor Farnsworth,
quien lo invento a los
13 años. Es el primer
sistema de imágenes
totalmente electronico,
en el cual se exponia
un sensor y en base a
la exposicion, un
escaner de rayos
catodicos lo escaneaba
y determinaba el valor
de exposicion de cada
punto, para luego
proyectarse en una
pantalla.
• Baird Television:
(1929) Empieza a transmitir la BBC una señal formada de 30 líneas, formada mecánicamente,
y una taza de refresco de 12 imágenes por segundo.
• Marconi Television: (1937) EMI, junto a Marconi, comercializa un sistema de 405 líneas,
totalmente eléctrico.
• NTSC: (1940) Surge a partir de la necesidad de estandarizar el formato. Se establece un
sistema de 525 líneas, a 25 cuadros por segundo, con 50 campos y 5MHz de ancho de banda.
• Grabacion: (1950): La AMPEX Vr1000 hace su aparición como el primer magnetoscopio,
permitiendo grabar los programas transmitidos en vivo.
• Color: (1968) AMPEX desarrolla el primer magnetoscopio a color.
• Sistemas de grabacion en cassette:
o U-Matic: (1972) emplea cinta de ¾ de pulgada, siendo el primer sistema profesional de
grabación en cassette, con 250 líneas de resolución vertical (Res. Vrt.)
o Formato C: (1978) SONY desarrolla el ultimo formato de carrete, siendo este de 1
pulgada, dominando el mercado de los soportes electrónicos con calidad de transmisión,
hasta la entrada del digital.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

TEMA: SISTEMA ZONAL


INTRODUCCION

El sistema zonal es un sistema que posibilita pensar la exposición de la imagen punto por punto,
permitiendo diseñar el nivel de exposición en zonas muy chicas. Este sistema es el más utilizado en
el cine. Existen dos formas de trabajar el sistema zonal, una vieja (la de Ansel Adams) y una más
actual.

Ansel Adams fue un fotógrafo de paisajes que dadas sus fuertes convicciones religiosas (quería
fotografiar la “obra de dios”), buscaba conseguir imágenes que no fueran afectadas por las
“imperfecciones” de la cámara, como la profundidad de campo o el movimiento de las imágenes.
Esto lo llevaba necesariamente a buscar exponer imágenes con diafragma cerrados (creó un grupo
junto a otros fotógrafos que se llamóf.64) y tiempos de exposición rápidos, lo que, sumado a la
baja sensibilidad del material en la época, llevaba a una limitación muy grande al momento de
exponer.

Estas mismas convicciones también llevaban a que Adams quisiera exponer TODO en la imagen,
dado que la limitación del rango dinámico de la cámara tampoco debía modificar la realidad de la
escena. Según sus premisas, en la imagen debían coexistir zonas de máximo blanco posible, junto
con zonas de máximo negro posible, llegando así a desarrollar un sistema de 10 zonas de
exposición.

VALORES DE EXPOSICION (EV)

Los valores de exposición son la medida para evaluar cuanta luz


Calculo del EV
refleja un objeto.
EV= Log2 (f2/t)
0 EV es la cantidad de luz que se necesita para exponer
correctamente una imagen de un gris 18% (gris medio) con f./1 y Calculo del EV con base decimal
1” de tiempo, en ISO 100.
EV=Log10 x 3,32 (f2/t)
Sin embargo, para facilitar la tarea, existen tablas de valores EV
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Número f

EV

1.0 1.4 2.0 2.8 4.0 5.6 8.0 11 16 22 32 45 64

0 1s 2s 4s 8s 15 s 30 s 1 min 2 min 4 min 8 min 16 min 32 min 64 min

1 1/2 s 1s 2s 4s 8s 15 s 30 s 1 min 2 min 4 min 8 min 16 min 32 min

2 1/4 s 1/2 s 1s 2s 4s 8s 15 s 30 s 1 min 2 min 4 min 8 min 16 min

3 1/8 s 1/4 s 1/2 s 1s 2s 4s 8s 15 s 30 s 1 min 2 min 4 min 8 min

4 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s 4s 8s 15 s 30 s 1 min 2 min 4 min

5 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s 4s 8s 15 s 30 s 1 min 2 min

6 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s 4s 8s 15 s 30 s 1 min

7 1/125 s 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s 4s 8s 15 s 30 s

8 1/250 s 1/125 s 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s 4s 8s 15 s

9 1/500 s 1/250 s 1/125 s 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s 4s 8s

10 1/1000 s 1/500 s 1/250 s 1/125 s 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s 4s

11 1/2000 s 1/1000 s 1/500 s 1/250 s 1/125 s 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s 2s

12 1/4000 s 1/2000 s 1/1000 s 1/500 s 1/250 s 1/125 s 1/60 s 1/30 s 1/15 s 1/8 s 1/4 s 1/2 s 1s

* ‘s’ = segundos, ‘min’ = minutos (según el Sistema Internacional de Unidades). La tabla está
calculada para ISO 100 /DIN 21.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

El sistema zonal sirve para situaciones complejas, donde se puede controlar la iluminación de cada
punto. Para situaciones simples, como la luz natural, este sistema no sirve. Ansel Adams
fotografiaba con mucha paciencia, esperando a que los valores le den como él los necesitaba,
esperando que el día se nuble, o el viento pare, o diversas otras combinaciones climáticas que le
permitían fotografiar la escena con la exposición deseada por él.

Zonas:

El sistema zonal divide la imagen en 10 zonas de luminosidad.

Las zonas se pueden ampliar o reducir, pero siempre a partir de la zona V (gris medio). Por
ejemplo: un sistema de 6 zonas comprende la zona V y las I-II-III y VI-VII-VIII, es decir, tres zonas
por debajo de la zona V y 3 zonas por encima de ella.

GRIS MEDIO (O GRIS 18%)

El gris medio es el punto central del Sistema Zonal, dado que de él parten las demás zonas.

El gris medio es un punto intermedio entre el negro más oscuro que puede existir en la realidad, y
el blanco más claro; expresados en valores de reflectancia, estos serían 4% y 81% de reflectancia
respectivamente.
Otra forma de sacar este
El Gris 18% indica que la reflectancia es del valor 18%, dado que es el punto medio es a través
punto medio entre el negro al 4% y el blanco al 81%, con la misma lógica de la siguiente fórmula
que rige a los pasos de luz, de medios y dobles: para calcular valores
medios entre dos valores:
(2,2% <->[4%]<-> 4,5% <-> 9% <->[18%] <-> 36% <-> 72% <->[81%]<-> 144%)
√ (4 X 81) = x
-2,3 EV 0 EV +2,3 EV
√324 = 18
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

DIFERENCIACION DE LAS ZONAS

Zona 0: Negro sin imprimir. Negro Teórico

Zona I: Negro puro. Es el negro más oscuro que puede dar el sistema.

Zona II: Negro con textura (la textura se refiere al relieve de los objetos, pero no a su detalle; no se
alcanza a distinguir el material del que está hecho el objeto, pero si el objeto).

Zona III: Primer gris con detalle visible.

Zona IV: Gris con pleno detalle. Sombras.

Zona V: Gris Medio 18%

Zona VI: Piel caucásica bien iluminada.

Zona VII: Blanco con detalle.

Zona VIII: Blanco con apenas detalle.

Zona IX: Blanco quemado

Zona X: Brillos muy altos. Máximo blanco que el sistema puede dar

RELACION EV – SISTEMA ZONAL – MEDICION EN SET

Los EV y las zonas tienen una relación directa: subir o bajar un EV es subir o bajar una zona.

Para utilizar este sistema, hay que seguir una serie de pasos:

Primero, se debe definir la iluminación deseada en la escena, planificándola según las zonas que se
quieren utilizar en cada parte del cuadro.

Una vez hecho esto, se debe pensar en la puesta cual es la luz más inamovible (por la dificultad
que implica su movilidad, ya sea por su posición o el efecto que se quiere lograr con esa luz en
particular), y se miden los EV que refleja la parte del cuadro iluminada por ella. Una vez que se
tienen los valores EV, se configura la cámara para que exponga dicha luz en la zona que se busca
lograr en ese punto en particular.

Una vez hecho esto, se acomoda el resto de la puesta de luces para que cada punto iluminado se
corresponda con la zona que debe ser según la planificación. Esto se hace a través de la medición
constante con el spotmeter de los valores EV de los puntos que ilumina cada luz.
Dado que los EV se corresponden directamente con las zonas en una relación simétrica, sabemos
que los valores EV deben ubicarse en un rango de 10 valores, es decir, que la diferencia no debe
ser mayor si no se quiere dejar zonas por fuera del sistema.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Ej: Si la luz inamovible ilumina un objeto que debe exponerse en zona VI (una luz practica que
ilumina la cara de un personaje de piel caucásica, para llevarlo al extremo más práctico), y al medir
da un valor de 11 EV, entonces el resto del cuadro se configura para que los demás valores EV den
los valores 6, 7, 8, 9, 10, 12, 13, 14, 15, dando así con las zonas I, II, III, IV, V, VI, VII, VII y X
respectivamente.

En el caso de las luces en cuadro, estas se van a medir en zonas mayores a la zona X, dado que no
solo mostrarán un blanco quemado en sí mismas, sino que además emitirán algo de luz,
invadiendo la escena; de esta manera, lo que se elige es la cantidad de luz que esas lámparas
estarán emitiendo.

EXPOSICION Y AJUSTE BASICO PARA FOTOGRAFIA DIGITAL

1) Elección de la Clave Tonal y Gamma. Esto va a ayudar a trabajar fácilmente con el histograma,
dado que este nos mostrara las cantidades de pixeles distribuidos según la escala tonal.

2) Definir la sensibilidad real de la cámara:

a- Iluminar de forma pareja un cartón gris de 18% de reflexión y tomar una serie de
fotografías que varíen entre los -2 EV y los +2 EV del valor que el fotómetro muestra para su
correcta exposición.

b- Observar los gráficos producidos por las fotografías en el histograma (en el programa de
post-producción a utilizar, o en la misma cámara, y elegir la toma que represente una línea vertical
en el nivel 120 (no es el centro exacto, debido a la distribución tonal en el histograma) de una
cuantificación de 256 pasos (8 bits). Si no se describen los pasos, se debe saber que el histograma
toma como punto medio el valor 128, por lo cual el valor 120 estará ligeramente a la izquierda del
medio del mismo.

c- Con la medición realizada en el fotómetro, hay que ir modificando los valores de


diafragma, sin cambiar los valores de obturación. Por lo tanto, variaran los valores de sensibilidad.
Cuando se llegue al diafragma que logro el histograma con la línea en el nivel 120, podremos
observar la sensibilidad que marca el fotómetro, y será esa misma sensibilidad a la que estará
trabajando la cámara.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

3) Con el fotómetro ajustado, realizar la puesta y una vez iluminada, leer la imagen a través del
histograma y considerar el rango dinámico dentro de los valores del histograma. En una imagen en
crudo, no conviene que los valores estén pegados a los bordes (0 o 255), ya que esto significará un
contraste muy elevado que luego será muy difícil de corregir.

4) Una vez terminada la toma, buscar los niveles de negro y blanco a gusto, ajustando los valores
en post producción, teniendo así un control total del detalle sobre las zonas peligrosas.

5) Ajustar los tonos intermedios al nivel de brillo deseado.

6) Si se desea más control sobre el contraste, se puede personalizar la gamma puntual a través de
las curvas.

7) También es importante definir valores de acutancia (contraste de borde [o “Definición”, en


algunos editores más amateur]) para lograr la dureza buscada. Los valores estándar para tener en
cuenta son:

-Cantidad (Amount): 60
- Radio (Radius): 2.8
- Umbral (Threshold): 0
8) Por último, es importante lograr el ajuste fino de color,
siempre y cuando se haya respetado el balance entre la
cámara y las luces. Para esto se pueden utilizar los valores LAB
o RGB, para tener de referencia en los tonos de grises en que
buscamos neutralidad. En el primer caso, los valores A y B
deberán ubicarse ambos en 0. En el caso de utilizar RGB, los
tres valores deben tener cifras similares.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

EL SISTEMA ZONAL EN VIDEO Y MEDICION ELECTRONICA

Si bien el histograma hace un análisis sobre el rango dinámico, e indica la cantidad de pixeles que
trabajan en cada punto, tiene la limitación de que no puede indicar la posición de los pixeles, sino
solo la cantidad de estos.

Sin embargo, existe una herramienta que hace esto, que es el monitor en forma de onda. Esta
herramienta mide el nivel de brillo de los objetos en cuadro, representándolos en una escala
normalizada que va de -40 a 120 valores IRE (de los cuales solo los valores entre 0 y 100
representan el rango dinámico) en su eje vertical, y organiza en su eje horizontal estos valores
dispuestos tal como aparecen en el cuadro.

El monitor en forma de onda mide el rango dinámico del 0 al 100, por lo que el sistema zonal, al
ser un sistema también decimal, se distribuye de forma pareja a lo largo de estos valores. Así, el
gris medio queda en el valor 45, y la zona VI –piel caucásica bien iluminada- estaría rondando los
60 IRE.

CALIBRACION DEL MONITOR

Para la calibración de los monitores, se utilizan placas con barras cuyo fin es lograr la correcta
calibración del mismo.

Por ejemplo, las barras SMPTE HD, que todos conocemos, se conforman por una serie de barras de
tonos puros y también desaturados, que se utilizan para medir con el Monitor en Forma de Onda
la iluminación y saturación de cada color.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Las barras marcadas como PLUGE son tres barras pequeñas cuyos valores correspondientes son -
2,5 IRE, 0 IRE y 2,5 IRE. Con ellas se puede regular el contraste en diferencias muy pequeñas de
valores IRE, dado que -2,5 y 0 IRE deben verse como un bloque de negro, ya que la primera está
por debajo del rango dinámico, pero diferenciadas ambas de la del valor de 2,5 IRE, dado que esta
si entra en el rango dinámico, y en monitores HD su diferencia debe notarse, aunque sea mínima.

También están las barras ARIB para la calibración de los monitores, y estas se diferencian por el
hecho de que además tienen unas barras en degrade, que permiten regular el contraste para
lograr una mayor suavidad en las transiciones de un tono a otro.

BARRAS ARIB

REPRESENTACION DE LAS BARRAS ARIB EN EL MONITOR EN FORMA DE ONDA


ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

MEDICION DE VALORES CROMATICOS

Los valores cromáticos de la imagen se miden a través del


Vectorscopio. Esta es una herramienta que presenta la
coloración de la imagen tomada por la cámara,
diagramada en un gráfico polar, con los colores
distribuidos en grados a lo largo de los 360° del círculo. El
ángulo en el que se ubica el color en el círculo indica su
matiz, mientras que su posición respecto al centro del
diagrama indica la saturación del mismo. El círculo
VECTORSCOPIO

exterior indica el valor máximo de


saturación permitido antes de que el
color comience a generar ruido. (Para
calibrar la saturación del color del
monitor correctamente, se utilizan las
barras BLUE ONLY, las cuales solo
muestran el color azul en el formato
de Barras SMPTE)

EJEMPLO DE POSICION DE LOS COLORES EN EL VECTORSCOPIO


ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

CALIBRACION DE COLOR

El colorista pasa el cartón gris por el vectorscopio y a través del CCU (Unidad de Control de Cámara
– Camera Control Unit) ajusta los valores de Balance de Blancos y de Balance de Negros hasta que
el valor del cartón gris quede en su lugar indicado: un punto único en el centro del vectorscopio (al
no tener color, la neutralidad se encuentra en el centro exacto del diagrama polar).

Control de Balance de Blancos


Control de Balance de Negros

El balance de blancos y el balance de negros -en conjunto- permiten que se tenga un mayor
control sobre la neutralidad tonal de la imagen.

El CCU tiene solo las perillas de ajuste de los valores rojos y azul, dado que ambos conforman el
magenta. Por este motivo no existe una perilla separada para la escala de tinte, dado que basta
con aumentar o disminuir ambas perillas de rojo y azul en la misma cantidad.

El vectorscopio también se utiliza para revisar y modificar (a través del CCU) la fase de la imagen.
La imagen fuera de fase se da cuando la cámara capta erróneamente los colores, mostrando una
desviación (o giro, teniendo en cuenta que es un diagrama polar, y por lo tanto, circular) en el
vectorscopio. El Control de Fase en el CCU permite “girar” la fase hasta que los colores sean
captados debidamente.

Una de las funciones principales del vectorscopio es el empate de cámaras de distinta marca y
distinto modelo, dado que se puede llevar a ambas a la neutralidad a partir de la calibración con el
cartón gris.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

En resumen, la señal que llega de la cámara pasa primero por el Monitor en Forma de Onda (MFO) para calibrar la exposición según la
escala IRE, y luego por el Vectorscopio para calibrar el color, a fin de llegar a la neutralidad y poder empatar así dos o más cámaras,
además de corregir los desfases del color.

El MFO y el Vectorscopio son herramientas de medición, y la Unidad de Control de Cámara (CCU) es la consola que se utiliza para
realizar las modificaciones necesarias a fin de poder exponer correctamente la imagen (a través del control IRIS [Diafragma]), o lograr
la neutralidad (a través de los controles del Balance de Blancos y del Balance de Negros y de la Fase), entre otras funciones.

Todo lo que sean calibraciones se llevan a cabo gracias a la utilización de las barras SMPTE o ARIB, y el cartón gris, utilizados como
referencias para lograr el correcto balance, tanto de la cámara como de los monitores.

TEMA: DISEÑO FOTOGRAFICO

DISEÑO FOTOGRAFICO DEL EFECTO NOCHE

Ejemplos vistos en clase:

- Memoirs of a Geisha: esta película presenta un diseño de la iluminación nocturna, basado en el


estudio realizado por el director de fotografía sobre las imágenes producidas culturalmente en la
época en la que se da la historia, definiendo el estilo de iluminación desde una posición supina.
Este esquema es algo extraño, fuera de lo común, dado que la iluminación supina produce
sombras extrañas, deformando el rostro de los actores, y generando una cierta incomodidad en el
espectador por este motivo. Sin embargo, la iluminación se resuelve mediante una fuerte difusión
de la luz, eliminando las sombras duras, y jugando también con el movimiento de los personajes
en el plano para hacer una iluminación más dinámica. La ruptura con los esquemas clásicos
presento tal nivel de innovación que convirtió a la película la más premiada en el ámbito de la
fotografía, demostrando de esta manera que lo importante en el área es la innovación y no la
repetición de estos esquemas.

- Blade Runner: en la película se experimenta mediante la utilización de tubos fluorescentes en


cuadro y la exposición controlada (muy baja) de estos, logrando un tratamiento particular de la
imagen a través del tinte, dejando una iluminación verdosa en algunos planos, dando con una
estética del tipo Hi-Tec, imitada luego por varias películas.

- Map of the human heart/ The man In the high castle: ambas películas se caracterizan por la
utilización de iluminantes no profesionales. En el caso de The Man In The High Castle, la escena de
la pelea en la habitación se encuentra iluminada solamente por el fuego de la chimenea,
generando una iluminación muy cálida y altamente contrastada. En Map Of the Human Heart, la
escena del bombardeo contiene dos particularidades: la primera es que el director de fotografía
estudio la iluminación de las explosiones desde el punto de vista de los aviones a fin de lograr
explosiones más reales; la segunda es que es una escena completamente cálida, dado que está
iluminada con barriles de fuego, que cada tanto contrasta con un azul muy fuerte, productos de
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

chispazos producidos por asistentes con soldadoras en los bordes del cuadro. Esta escena
mencionada es una de las más fuertes en la historia del cine bélico, en conjunto con otras del
calibre del desembarco en Saving Private Ryan, etc.

DISEÑO FOTOGRAFICO DEL EFECTO DIA

Ejemplos vistos en clase:

- Jackie / Il deserto rosso: ambas películas presentan un esquema de iluminación de la luz día que
se basa más que nada en la utilización de condiciones climáticas determinadas para lograr una
estética particular. La escena del cementerio en Jackie, y prácticamente toda la película de Il
Deserto Rosso se rodaron en día nublado, con neblina, dando a la imagen un fondo naturalmente
difuminado, y una tonalidad de color más fría, logrando transmitir una cierta desolación a través
de la misma. En Il Deserto Rosso, esta cuestión también hace que toda la película tenga un estilo
casi post apocalíptico, gracias a la combinación del fondo nublado y con neblina y la selección de
locaciones industriales, con chimeneas de metal, cables de alta tensión y demás.

- Pauline à la plage: en Paulina a la Playa, el director de fotografía se adecua completamente a la


narrativa del director (Eric Rohmer), generando una iluminación completamente natural,
modificada solo con rebotes y difusores, que hacen juego con el estilo de la película en su
totalidad. Se destaca la importancia de utilizar la luz natural en contraluz del personaje, dejando
siempre el sol detrás, no importa que la escena requiera un plano y contraplano.

- The red shoes:en esta película, el director de fotografía opto por realizar las escenas de
exteriores día en un estudio, realizando una iluminación clásica sobre los personajes, con un back
(o rear) projecting de un exterior detrás de estos.La iluminación se ve artificial, dado que se
cumple el esquema básico, cosa que no pasa en un exterior, pero la escena no deja de ser
verosímil. Cabe destacar que la iluminación de los primeros planos se hace más notoria, dado que
a medida que el plano se cierra sobre los personajes, la iluminación debe generar más contraste
en el personaje para resaltar sus rasgos.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

ILUMINACION Y CAMARA 2 - B

RESUMEN

SEGUNDO CUATRIMESTRE

TEMA: CADENCIA DE CUADRO


TIPOS DE ESCANEOS DE LA IMAGEN

La composición de la imagen en movimiento implica la toma y proyección de imágenes a altas


velocidades, engañando el ojo humano por el principio de pregnancia.

Como ya sabemos, cuando se establece una cadencia de cuadro, el movimiento del obturador
implica que la imagen se va a tomar en la mitad del tiempo que indica la cadencia misma. Es decir,
si yo establezco una velocidad de 25fps, la obturación de la escena va a ser de 1/50 de seg. dado
que la mitad del tiempo el obturador se encuentra cerrado.

En la proyección de la imagen, esta se puede componer de dos maneras diferentes: mediante un


escaneo progresivo, y mediante el escaneo entrelazado.

• El escaneo progresivo implica que un cuadro sucede


al siguiente, proyectándose completamente línea por
línea desde la primera línea de pixeles hasta la
última. Este sistema de escaneo implica un mayor uso
del ancho de banda, dado que la información que se
transmite es la imagen completa.
• El escaneo entrelazado, en cambio, implica la división
del cuadro en dos semicuadros llamados “campos”,
dado que el primero consta de las líneas impares
(llamado “campo impar”), y el segundo hace lo
propio con las líneas pares (“campo par”). Al dividir

la imagen en dos campos, lo que se consigue es


reducir el uso del ancho de banda, y la diferencia
entre campos no se nota, debido a la rápida
proyección de la imagen.

La diferencia entre ambosestá en el ancho de banda utilizado, dado que la transmisión de la señal
es más rápida con el escaneo entrelazado, debido a que la información se “dosifica”.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Sin embargo, el escaneo progresivo implica una mayor calidad de la imagen proyectada, evitando
el posible “flicker” de la imagen.

CADENCIAS DE CUADRO

Para grabar, la cámara ofrece una multiplicidad de cadencias de cuadro. Sin embargo, la elección
de estas cadencias depende de múltiples factores:

- Primero, el sistema de escaneo, dado que el destino de lo que grabemos va a recortar nuestras
opciones. No es lo mismo filmar para proyectar en cine, para lo cual necesitamos una calidad de
imagen máxima, y por lo cual utilizaremos un escaneo progresivo, que filmar para un canal de
televisión, donde el canal para el cual filmemos nos determinará su sistema de emisión, que
seguramente será con escaneo entrelazado, debido a la economización del ancho de banda.

- Segundo, tenemos que tener en cuenta la frecuencia eléctrica del lugar donde nos encontremos,
sobre todo si para filmar utilizamos iluminantes con principio de descarga, dado que se puede
producir un flicker dado por el cambio de polaridad en el flujo eléctrico 1. En Argentina tenemos
una frecuencia de 50Hz, lo que implica que la polaridad cambia 50 veces por segundo, y esto nos
lleva a utilizar una cadencia de cuadro de 25p, dado que la exposición de la imagen se corresponde
con 1/50. En el caso de Tv, se debería utilizar una cadencia de 50i, lo que es equivalente a 25p.

- Por último, tenemos que tener en cuenta que utilizar más o menos cuadros por segundo implica
una diferencia en la percepción de la imagen, dado que se graban más cuadros por segundos, lo
que podemos traducir en “más movimientos” por segundo. Es por eso que el HFR (High Frame
Rate) todavía no es del todo aceptado por el público, dado que se percibe como algo antinatural.
Además, filmar en una alta cadencia de cuadros implica utilizar equipamiento especial, dado que
al tener más imágenes por cuadro necesitamos cámaras especiales y mayor espacio de buffer y
almacenamiento.

EJEMPLOS DE CADENCIAS DE CUADRO

• 24p: velocidad clásica del cine. Es la velocidad a la que trabajan los proyectores DCI (de
cine digital), aunque también pueden trabajar a otras velocidades. Si filmamos a esta
cadencia y trabajamos con lámparas de descarga, necesitamos empatar la obturación con
la frecuencia eléctrica, modificando el ángulo del obturador. En el caso de Argentina, el
ángulo de obturación necesario es de 172,8°.
• 50i: velocidad de la televisión argentina actual. Es filmar a 25 cuadros entrelazados.
• 60i: velocidad de los sistemas NTSC. Es para países con frecuencia eléctrica de 60Hz, y
equivale a 30 cuadros entrelazados.
• 50p/60p: HFR. La cámara capta 50 o 60 cuadros completos por segundo.
• 25p: velocidad clásica para canales de Tv progresivos y pantallas de PC.

1
Como las lámparas con principio de descarga necesitan corriente para ionizar los gases que las componen,
al cambiar la polaridad del flujo eléctrico este se corta por una milésima de segundo, apagando la lámpara
en esa milésima, cosa que no pasa con las lámparas incandescentes, las cuales se mantienen iluminando,
dado que el filamento no alcanza a enfriarse en ese periodo tan corto de tiempo.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

• 23,976p: permite tener la menor perdida en la transcodificación (pulldown) a 24p, 25p y


30p. Es la “cadencia de la duda”, dado que permite empatar cadencias de tomas filmadas
en más de un país con distintas frecuencias eléctricas (permite evitar una gran pérdida de
calidad en el pulldown)

TRANSFER O PULLDOWN

En caso de haber tomado a distintas cadencias de cuadro, ya sea por necesidad o por error, existe
la posibilidad de convertir una cadencia de cuadro a otra, pero perdiendo en el proceso entre un
10% y un 30% de calidad de la imagen. Hay que tener en cuenta que no todas las cadencias tienen
la misma compatibilidad para hacer un transfer a otra.

Ejemplos:

• Cine a PAL: Cada fotograma de cine dura mas tiempo. Al pasarlo a PAL, el fotograma de
cine se divide en dos campos, y la diferencia de tiempo que se genera se transfiere al
siguiente cuadro, haciendo que la pelicula se proyecte “mas rapido”. Como el cine
funciona por cortes, esto no afecta a la sincro, a menos que existan planos secuencia
largos.
• Cine a NTSC: Cada fotograma por medio (digamos “impar”, sin confundir por campos) de
cine se convierte en 3 campos (impar+par+impar) y los demas (llamemoslos “par”) se
convierten en 2 campos (impar+par), equilibrando asi las duraciones de los fotogramas.
• 23,976 a 29,97: cada 4 fotogramas de 29,97 se obtienen 5 fotogramas de 23,976,
mediante la repeticion del ultimo fotograma. De esta manera se obtiene una sincro
perfecta, sin perdida, como pasaria al convertir a otra cedencia.

Sincronización perfecta
Traslado de la
diferencia de tiempo al Par
siguiente cuadro Impar

Impar

Par

Impar

Par
Par

Impar
Impar

PAL CINE NTSC


ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

TEMA: SENSORES
CARACTERISTICAS TECNICAS

Al momento de evaluar el sensor de una cámara, tenemos que centrarnos en ciertos ejes:

1) Sensibilidad Vs. Resolución

2) Eficiencia Cuántica

3) Temperatura Color Nativa

El sensor de una cámara está formado por pixeles de material fotosensible, capaces de generar
una reacción fotoeléctrica, es decir, de traducir fotones (partículas que conforman la luz y se
desplazan en ondas) en electrones (información eléctrica).

Sin embargo, no toda la superficie del sensor actúa de la misma manera, sino que, dependiendo
del tipo de sensor, una parte del mismo puede funcionar como área de descarga (una porción no-
sensible, cuya función es retener la información de la imagen mientras se descarga al procesador
de la cámara, para que la parte sensible del sensor pueda seguir exponiendo), mientras que el otro
actúa como Target (parte sensible).

Cada pixel del target es sensible por sí mismo, es decir, no existe un sensor que tenga una
sensibilidad global, en el que cada pixel tenga la misma sensibilidad que el resto.

Actualmente, cada pixel es una superficie de silicio-selenio que genera una reacción fotoeléctrica.
La superficie del pixel y la eficiencia cuántica son los elementos que van a determinar la
sensibilidad del target a la luz.

Si los pixeles son más grandes, estos van a captar más fotones que los pixeles chicos, por lo cual la
cantidad de pixeles en un espacio determinado influye sobre la luminosidad del sensor. Por lo
tanto, entre dos sensores del mismo tamaño, aquel que tenga menor resolución tendrá mayor
luminosidad, dado que sus pixeles serán más grandes que el de mayor resolución.

Otro parámetro es el material con el cual está hecho el sensor. La eficiencia


cuántica (QE) es la capacidad que tiene el sensor de convertir los fotones QE = Nro de Electrones
que recibe en electrones. En la película, la QE es del menos del 10% Nro de Fotones
mientras que en los sensores CCD esta es de hasta el 90%.

Sin embargo, la principal diferencia entre las cámaras de cine y las cámaras de sensor reducido
esta principalmente en el procesador que utilizan, dado que las primeras procesan la información
completa que reciben de cada pixel, sin realizar ninguna compresión en la imagen.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

TEMPERATURA COLOR NATIVA

La multiplicidad de opciones para elegir una temperatura color desde la camara no son mas que
procesados de la imagen.

El sensor de toda camara viene con un balanceo de fabrica cuyo fin es brindar una mejor respuesta
a determinado tipo de temperatura color.

Esto es lo que entendemos como temperatura color nativa, y es importante conocerla, dado que
el sensor respondera mejor a este temperatura. Al modificarla desde la camara, lo que hacemos es
que le procesador reinterprete los datos asignando colores que la camara nunca capto
directamente, y generando de esta manera, mediante la aplicación de una ganancia de color, una
perdida en la calidad de la imagen.

TIEMPOS DE DESCARGA

Dado que los datos almacenados por el sensor tienen un tiempo de descarga, estos se almacenan
en alguna parte del sensor. Este tiempo de descarga genera diferentes errores en la toma de la
imagen pro parte del sensor, como son:

- Efectos de Blooming: Si la luz que recibe el pixel es demasiada, los fotones “rebalsan” y se
transmiten a los pixeles inmediatos. En un mayor tiempo de descarga, los fotones se acumulan,
dado que el sensor no deja de exponer.

- Lag (efecto cometa): el pixel se sensibiliza al grabar un punto luminoso sobre un fondo oscuro, y
se puede ver el movimiento de la cámara a través de la “cola” que deja el punto de luz al moverse
en el cuadro.

- Efecto Jelly: si el sensor descarga por línea, y el tiempo de descarga entre la primera línea y la
ultima es muy amplio, al registrar un objeto en movimiento que exceda esta velocidad de
descarga, y dado que la información de cada línea captara al objeto o sujeto en distintas partes del
movimiento, se generara una deformación del cuerpo en movimiento.

Al respecto de esto, hay dos tipos de descarga del sensor:

- Global Shutter (propios de los sensores CCD): estos sensores captan la imagen completa y luego
los pixeles del target descargan la información hacia otra parte del sensor que funcionan solo
como espacio de descarga.

- Rolling Shutter (en sensores CMOS): estos sensores captan línea por línea y descargan de la
misma manera. Es en estos sensores que se puede presentar el inconveniente del efecto Jelly.

Hoy en día se está generando una nueva tecnología, que son los sensores CMOS con Global
Shutter, lo que puede llevar a evitar varios de estos problemas en la imagen.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

TIPOS DE SENSORES Y MODOS DE DESCARGA

Los sensores CCD captan la imagen y la trasladan de manera mecánica, teniendo para esto canales
dedicados a este proceso. Una vez realizado el traslado, la imagen se descarga, teniendo que
convertir la información de los pixeles en información que el procesador de la cámara pueda
interpretar. Por este motivo, la construcción de un CCD conlleva más elementos, ocupando más
espacio, y teniendo un costo más elevado en su fabricación.

Los sensores CMOS surgen como una opción económica de las empresas fabricadoras de cámaras,
dado que el CCD es fabricado por una única compañía, y con costos elevados. El sensor CMOS,
además de tener una descarga individual por línea, se monta sobre un chip, y la conversión de la
información en datos procesables (pulso eléctrico) se realiza en las mismas celdas que conforman
los pixeles, por lo cual se ahorra espacio y dinero en la construcción de estos sensores.

CCD-FT (Frame Transfer): descargan la imagen hacia la otra


mitad del sensor, que no recibe luz, y de ahí se pasa, como
todos los CCD, a un Convertidor Analógico-Digital (A/D
Converter) que traduce la información de cada pixel a
datos.

CCD-IT (Interline Transfer): la imagen se descarga


lateralmente por canales específicos para este fin, y
luego sigue su curso como en todo sensor del tipo
CCD. 2

CMOS: la descarga se hace por líneas de pixeles, existiendo una diferencia entre la descarga de la
primera línea y la descarga de la última. 3

2
Para comprender mejor este tipo de descarga:
https://vimeo.com/103279733
3
Para comprender mejor este tipo de descarga:
https://vimeo.com/103279734
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

LOS SENSORES Y EL COLOR

Los sensores, sean del tipo que sean, son incapaces de captar el color de la imagen que toman,
sino que solo pueden captar la luminancia que reciben.

Para resolver este inconveniente, se utiliza un filtro sobre los pixeles, llamado Filtro de Bayer con
un patrón RGB que permite que cada pixel capte información de la luminancia de un solo color, y
de esta manera, la información recopilada de cada pixel se procesa agregando el patrón de color
del filtro Bayer a la imagen resultante, dando como resultado distintos niveles de luminancia
filtrados bajo distintos colores. De esta manera, al ser tan pequeños los pixeles, la información en
conjunto de ellos con el filtro Bayer conforman el resto de los colores. La imagen es, por esto
mismo, un patrón de puntos Rojos, Verdes y Azules con diferencias de luminancia y que se
mezclan por proximidad.

En estos filtros existe una predominancia de color verde, dado que se busca lograr mejor
definición de esta manera, dado que nuestros ojos tienen una mejor recepción del color verde,
por lo cual la disposición en realidad es RGBR, intercalados.

También existen filtros RGBE, desarrollados por Sony. Estos tipos de filtros incorporan un pixel
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Esmeralda. Dado que el esmeralda es el opuesto directo al magenta, de esta manera se logra una
mejor captación de los tonos piel en la imagen.

Es importante observar un inconveniente de este mecanismo:

Al tomar imágenes de un único color, solo


estamos utilizando un tercio del sensor
(excepto en el caso de tomar una fotografía
de puro verde, en cuyo caso estamos usando
un 50% del sensor), por lo cual se produce
una perdida inevitable en la resolución y
definición de la imagen.

Sin embargo, no es este el único método por el cual se puede dar color a la imagen. Existen otros
sistemas como, por ejemplo:

- Sistema Foveon: implica un triple filtrado,


semejante al existente en la película clásica,
siguiendo el orden (de fuera hacia adentro)
de Azul, Verde y Rojo. Este tipo de filtrado
impide que se produzca la perdida de color si
se toma una imagen de un solo color, dado
que no hay pixeles dedicados a un único
color.

- Sistema 3CCD: Este sistema ofrece la mayor resolución,


dado que implica que la cámara tenga 3 sensores, cada uno
dedicado a un color especifico, al cual le llega la información
de color gracias a un juego de prismas dicroicos que rebotan
la luz hacia el sensor correspondiente, sobre el cual se sitúa
un filtro de un único color. La imagen resultante de cada
sensor se procesa superponiéndolos, y logrando de esta
manera la mejor resolución posible.

TIPOS DE CAMARA DE TV

No hay un único tipo de cámara en lo que se refiere a TV.


Principalmente, podemos diferenciar 3 tipos:

- Cámara de estudio:
o Constan de:
 Comandos de Foco y Distancia Focal (mecánico y de servo controlado)
 Viewfinder
 Cable multicore o cable triaxial
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

 Pedestal Dolly
 4 Sensores (RGB – Monocromo)
o Poseen una gran calidad de imagen
o Muy pesadas y fijas al estudio
- EFP (Electronic Field Production):
o Son cámaras más livianas
o Se utilizan en exteriores o como complemento en el estudio
o Se suelen utilizar como cámara libre, dado que se pueden mover o montar en grúa
o Necesitan un CCU
o No poseen VTR (Sistema de Grabación), solo transmiten
- ENG (Electronic News Gathering)
o Son cámaras muy livianas y pensadas para una cómoda portabilidad
o Poseen todos los ajustes en el cuerpo de la cámara
o Calidad inferior
o Incorpora VTR o similar
o Utilizan poca potencia, por lo cual tienen una gran autonomía

GANANCIA Y RELACION SEÑAL-RUIDO

La ganancia es la amplificacion de una señal ya capturada. Se utiliza en lo que respecta a la


fotografia, para elevar los niveles de luz en una imagen subexpuesta y se mide en dB

Cuando los stops de luz de una imagen son demasiados bajos respecto de lo que deberian haber
sido, la ganancia no funciona, dado que este proceso amplifica la señal, pero no puede crear
informacion, y si la imagen no tiene informacion, no puede reproducir nada.

El problema de la ganancia es que genera ruido.

La llamada Sensibilidad no existe en si, sino que es una pauta que da el fabricante del sensor, y
cualquier modificacion a la sensibilidad en ISO es solo una amplificacion. En otras palabras, al
aumentar el nivel del ISO implica aumentar la ganancia de la imagen que realmente toma el
sensor.

Aumentar un paso de luz implica aumentar 6 Db. Los dB vienen dados por la relacion de la imagen
tomada y las veces que se amplifica.

Voltaje de Voltaje de Vb
Entrada Salida
Sensor
( Va ) ( Vb )
Va
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Log Vb 2.Log Vb 20.Log Vb


Va Va Va

Belio Decibelio

Equivalencias de Ganancia:

6 dB = 1 Stop

9 dB = 1,5 Stop
Hasta 10 dB el nivel de ruido
12 dB = 2 Stop en la imagen es aceptable

15 dB = 2,5 Stop

18 dB = 3 Stop

24 dB = 4 Stop

En resumen, al momento de elegir un sensor para trabajar hay que tener en cuenta ciertas cuestiones:

• Tipo:
o CCD
o CMOS
• Modo de descarga:
o Global Shutter
o Rolling Shutter
• Sensibilidad:
o Resolución
o Eficiencia Cuántica
• Sensibilidad Nativa
• Temperatura Color Nativa
• Posibles “errores”

TEMA: FORMATOS DE TRANSMISION


FORMATOS ACTUALES

Debido al fin ultimo de los contenidos de TV es la transmision de los mismos, la señal de video
debe cumplir con ciertas normas que permitan que esta pueda ser interpretada en destino para
poder visualizarse correctamente.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Es por esto que a lo largo de la historia los formatos de transmision han ido variando tanto como
el aparato mismo.

Actualmente contamos con dos formatos:

• SDTV:
o Regulado por la Norma ITU-R BT. 601
o Muestreo para 525/625px por 720px
o Luma:
o Canales Muestreados: y, Cb y Cr
o Estructura de Muestreo: 4:2:2
o Cuantizacion: 8 bits
o Ancho de Banda: 13,5 MHz
• HDTV:
o Regulado por Norma ITU-R BT. 709
o Muestreo para 1080px por 1920px
o Luma:
o Canales Muestreados: y, Cb y Cr
o Estructura de Muestreo:4:2:2
o Cuantizacion: 10 bits
o Ancho de Banda: 30MHz/60MHz

Estos formatos se encuentran regulados por normas internacionales, planteadas por la Union
Internacional de Telecomunicaciones, haciendo referencia la letra “R” al sector de
Radiocomunicaciones, y “BT” al Servicio de Radiodifusion (Television).

Estas normas son las que regulan factores de la transmision como los antes planteados.

Para que un formato sea considerado, este debe duplicar la resolucion del anterior, en lo que a
cantidad de lineas se refiere.

Se proyecta a futuro la utilizacion de un formato UHD (Ultra HD).

Las normas no estan escritas con valores al azar, sino que se utilizan varios criterios al momento
de determinar el formato:

1) Agudeza Visual

Es la capacidad de percibir y diferenciar dos estimulos separados por un angulo determinado. Es la


capacidad de resolucion del sistema humano.

Esto determina la separacion de las lineas para que estas sean percibidas como parte de una
totalidad y no como partes separadas de la imagen. El valor debe ser de menos de 1°
(especificamente 0,0002907 rad).

0,0002907 rad
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

2) Distancia del espectador al televisor

La distancia del espectador a la pantalla ayuda a que este ultimo perciba las lineas como partes de
un todo, dado que el tamaño de las lineas se vuelve mas pequeño desde un punto de vista alejado,
y por lo tanto, tambien lo hace el espacio que las divide. Lo inverso ocurre a medida que nos
acercamos a ella.

• En PAL, la distancia entre el espectador y la pantalla debe ser de la siguiente relacion:


o Distancia = 6 . h (donde h representa la altura de la pantalla de la Tv)
• En NTSC, la distancia es aun mayor, debiendo ser de la siguiente manera:
o Distancia = 7 . h (donde h vuelve a representar la altura de la pantalla de la Tv)

3) Numero de Lineas:

El numero de lineas necesarias, según la agudeza visual y la distancia queda expresado de la


siguiente manera:

N = 1 / (AV . d) N: Numero de Lineas

N = 1 / 0,0002907 . 6 AV: Agudeza Visual

N = 573 Lineas d: Distancia

4) Factor de Kell

Todo esto esta muy bien desde la teoria, pero ¿Cuánto terminamos viendo realmente?.

El Factor de Krell expresa cuanto podemos interpretar del sistema que estamos viendo.

Según esto, los sistemas entrelazados tienen un valor de 0,7 FK mientras que los sistemas
progresivos tienen 0,9 FK.

Como en el sistema progresivo la imagen es mas lenta (dado que no se divide en campos),
alcanzamos a interpretar mas de ella. De esta manera, podemos expresar lo siguiente:

NTSC = 480 Lineas Activas4 . 0,7 FK = 336 Lineeas

PAL = 576 Lineas Activas . 0,9 FK = 403 Lineas

LINEAS TVL

Las lineas TVL son lineas que se toman para medir la resolucion suponiendo un formato cuadrado.

ANCHO DE BANDA

El ancho de banda se refiere a la cantidad de datos transferidos por segundo. Para calcular esto,
multiplicamos la resolucion vertical por los cuadros por segundo, y el resultante, lo multiplicamos

4
Las Lineas Activas son el resultado de el total de líneas que utiliza el sistema, menos las líneas de borrado,
es decir, aquellas que el sistema utiliza para ir reemplazando una imagen con la siguiente.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

por la cantidad de pixeles horizontales. Esto nos dice la cantidad de datos (pixeles) transferidos
por segundo. Sin embargo, al ser distinto el segundo de television del segundo convencional, hay
que dividir el total anterior por 0,83 (valor del segundo en TV), dandonos el verdadero valor de los
datos transferidos.

En el formato FULL HD con cadencia de cine (24p) podemos realizar la siguiente cuenta:

1080px x 24 = 25.920 El Ancho de banda necesario para


1920px x 25.920 = 49.766.400 transmitir en formato FULL HD a
24p es de 60.690.732 px/seg
49.766.400 / 0,82seg = 60.690.732 px/seg

VIDEO: AMPLITUD MODULADA

La transmisión de video implica la utilización de una amplitud


modulada, es decir, que la onda varia su amplitud, pero no su SISTEMA FULL HD A 24P
frecuencia, a diferencia del sonido, que si varia su frecuencia.
60.690.732 / 2 = 30.345.366 ciclos
Cada ciclo de esta frecuencia puede describir dos elementos de la
imagen, por lo que, para conocer la frecuencia a la que debe = 30,3 MHz
trabajar un sistema basta con dividir el ancho de banda necesario
por 2.

CODIFICACION DE COLOR

La codificación del color es la compresión que se hace del sistema del material grabado, para
generar un sistema más liviano.

Si bien la luz blanca está conformada por valores de rojo, verde y azul, estos valores no tienen el
mismo valor de peso. Para formar el blanco, se necesitan un 30% de rojo, un 59% de verde y un
11% de azul.

Esta compresión se lleva a cabo mediante la eliminación de uno o más de los canales de color, y es
un proceso del sensor que se denomina “matrizado”.

El matrizado elimina el canal de verde (el de mayor peso), dejando el video compuesto de un canal
de Luminancia (y [luma]), y uno de Crominancia (Ry [diferencia de color rojo], By [diferencia de
color azul]). Obviamente, este método implica una pérdida de calidad en la imagen resultante.

RGB MATRIZADO y

Ry / By
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Existen 4 sistemas por los que puede viajar el color, y cada uno implica distintos niveles de
compresión:

RGB

Video por Componentes Mayor


Compresión
Y/C

Video Compuesto

TEMA: PROCESOS DEL SENSOR


MUESTREO

El muestreo se refiere a la forma en que la cámara toma la información de la imagen. Existen


distintas estructuras que implican una mayor o menor compresión del color. Los nombres de las
estructuras tienen la forma de X:Y:Z, refiriéndose a los datos de y, Ry y By respectivamente, y estos
sistemas se toman por bloques de 4 pixeles de largo y dos líneas de ancho.

Estructura 4:4:4

Cada pixel toma información de Luma y Color

Estructura 4:2:2

El primer pixel muestrea el total de los datos (Luma+Color),


mientras que el segundo muestrea solo Luma. El tercero muestrea
todo nuevamente, y el cuarto, solo Luma de nuevo.

Estructura 4:1:1

El primer pixel toma información de Luma y de Color, y los


siguientes solo de Luma.

Estructura 4:2:0

El primer pixel toma el valor de Luma y de solo una de las diferencias de


color, y el segundo pixel toma solo Luma, repitiendo este proceso en los
pixeles 3 y 4 de la misma línea. En la siguiente línea, el primer pixel toma
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

solo Luma y la otra diferencia de color, y el segundo pixel toma solo Luma, repitiendo este proceso
en los pixeles 3 y 4.

RGB

El muestreo RGB es de estructura 4:4:4, dado que no se puede


comprimir, y cada pixel toma información de los tres canales de
color.

El muestreo se puede aumentar mediante la utilización de una grabadora externa a la cámara,


conectada al sensor de la misma.

CUANTIFICACION
DIGITAL / ANALOG
COMPRESION DE COLOR
CONVERTER (DAC)
R Y
S Ry MUESTREO
E By
N G 4:4:4
S 4:2:2
Y/C
O B 4:1:1
R Y 4:2:0

Como podemos ver, en el DAC (Digital / Analog Converter o A/D Converter) se realizan dos
procesos: el de muestreo, y el de digitalización.

Como ya se dijo antes, una señal de video es de amplitud modulada, por lo cual, es una frecuencia.

Una señal analógica implica una onda continua, mientras que una señal digital implica una onda
discreta. La digitalización es esta conversión.

Señal Continua Señal Discreta


ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Para la digitalización existe un problema:

En la señal analógica, cuando hablamos del “hilo del pixel” nos referimos al valor eléctrico del
pixel, sin importar su cromaticidad. Para tomar un nivel de brillo de la señal, podemos tomar
cualquier punto a lo largo de ella, por lo cual, existen infinitos niveles de brillo (tonos) en una señal
analógica, cosa que no ocurre en la señal digital, que es discreta y por lo tanto, escalonada. A
partir de esto, se puede plantear la siguiente pregunta: ¿Cuántos tonos de grises existen entre el
blanco absoluto y el negro absoluto?

Hay que pasar de una cantidad de tonos infinita a una cantidad de tonos finita.

Acá aparece la Cuantización o Cuantificación como la capacidad de representar los tonos. Esto es
importante para la postproducción, dado que mientras menor sea la cuantificación, menor será la
libertad que nos podremos tomar en ella, dado que la postproducción resta tonos.

Por ejemplo, una cámara que grabe a 8 bits tendrá 256 tonos para reproducir, lo cual es el mínimo
necesario para que el ojo humano capte las diferencias tonales.

La cuantización funciona gracias a un sistema de “preguntas y respuestas” binario que determinan


las propiedades de ese tono. Ahora, si tengo un tono determinado, el sistema debe saber de
alguna manera cual es específicamente ese tono. Si el sistema fuera “preguntando” tono por tono,
tendríamos una sucesión de 256 preguntas hasta llegar dentro de ese rango al tono indicado.
Funcionaria, si, pero no de manera eficaz.

Para funcionar de manera eficaz, se limitan las preguntas a 8, mínimo necesario para poder
identificar un tono de una escala de 256. De esta manera, pasamos de tener un sistema de 256
ceros y unos, a tener un sistema de solo 8.

128 64 32 16 8 4 2 1

0/1 0/1 0/1 0/1 0/1 0/1 0/1 0/1

8 7 6 5 4 3 2 1

Las cámaras DSLR tienen 8 bits, mientras que las cámaras de cine tienen 12, 14 o hasta 16 bits,
implicando cada bit una captación del doble de tonos.

Al postproducir una imagen, lo que hacemos es quitar tonos, por lo


cual una imagen de 8 bits no podría postproducirse demasiado
(restarle tonos implicaría “volar por debajo” del mínimo que nuestro
ojo es capaz de captar).Probablemente, en esta postproducción se
produzca un error común, llamado banding, que es la ruptura de la
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

transición armónica de los tonos (degradado), en tonos diferentes, identificables uno de otro a
simple vista.

Un aspecto a tener en cuenta en cuanto al tema de la cuantización, es que en los tonos más bajos
es donde tenemos menos tonos.

IMAGEN LOGARITMICA - DISTRIBUCION TONAL

Si tomamos por ejemplo el máximo blanco que puede ofrecernos este sistema, y que podemos
encontrar en el valor 256 (correspondiente al valor 255, dado que existe el valor 0), y teniendo en
cuenta que el sistema funciona en mitades y dobles, al modificar un stop en el sistema, nos estaría
dando lo siguiente como resultado:

n = 256

n = 128 Entre estos tonos hay D


64 tonos de diferencia I
n = 64 S
T T
n = 32 R O
I N
n = 16 B A
U L
n=8
C
n=4 I
O
n=2 N
Entre estos tonos hay
n=1 1 tono de diferencia

Proceso logarítmico

Se realiza una conversión entre la escala logarítmica a una escala lineal, para poder representar
estas diferencias distributivas de los tonos en un grafico lineal en lugar de una curva.

255
128
64 200
32 150
16 100
8 64
4 32
2 16
1 8
Escala Logarítmica Escala lineal
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

COMPRESION

La compresión propiamente dicha es el proceso que se hace para quitar información y alivianar el
peso.

Se expresa en un formato de ratio (ratio de compresión)

Ejemplo:

DVCAM PAL 25p (4:2:0 / 8bits)

Y = 720 x 576 x 25 x 8 = 82.944.000 b/s Pixeles efectivos de Luma

Cr/Cb = 360 x 576 x 25 x 8 = 41.472.000 b/s Pixeles efectivos de color

82.944.000 + 41.472.000 = 124.416.000 = 125 Mb/s Generados por el sistema

Flujo de datos (bitrate) = 25 Mb/s = 1,5 Gb/minuto

Ratio de Compresión = 1:5

TIPOS DE COMPRESION

• Intraframe (también llamada “Compresión con perdida”)


o Es un tipo de compresión dentro del fotograma.
o Utiliza el algoritmo DCT (Discrete Cosine Transform) para trabajar en fotogramas
fijos, aprovechando la redundancia de información.
o Quita información de cada fotograma, tomando bloques de 8 x 8 pixeles
(macrobloques). El algoritmo DCT quita la información redundante y deja la mas
relevante.
o Es una compresión con pérdidas, porque quita información.
• Interframe (también llamada “Compresión sin perdida”)
o Es un tipo de compresión que toma bloques GOP (Group Of Picture), que pueden
abarcar 12 (Short GOP) o 25 (Long GOP) fotogramas por vez.
o La compresión interframe lleva incluida siempre la intraframe.
o Estructura GOP:
I–B–B–P–B–B–P–B–B–P–B–B–I

Comprimido Bidireccionales Predictivo


Intraframe
 Los fotogramas bidireccionales analizan los valores de los pixeles tanto del
fotograma anterior como del siguiente, para codificar solo los cambios
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

que se producen y repetir lo que se mantiene igual. Ningun pixel se


pierde, dado que no se eliminan, sino que solo se repiten.
 Los fotogramas predictivos son complejos, dado que su funcion es
predecir el movimiento que se producirá en el siguiente fotograma, sin
analizarlo. Esto es un problema, porque quita fluidez a la cadencia, sobre
todo cuando el movimiento predicho no es el movimiento efectivo que se
realiza, y la imagen debe reacomodarse para seguir.
o Es utilizada por los formatos de compresión MPEG.

En resumen, la compresión más valorada es la Intraframe, ya que, aunque conlleva una pérdida de
información, no trae problemas a la cadencia, mostrando movimientos más fluidos. Su único
inconveniente es la formación de los macrobloques, pero mediante la aplicación de un filtro de
deblocking se pueden eliminar en la mayoría de los casos. Por ejemplo, el códec H264 equilibra los
macrobloques consecutivos a través de la manipulación de la luminancia, aclarando el más oscuro
y oscureciendo el más claro.

TEMA: GAMUT, SISTEMAS Y ESPACIOS DE COLOR


SISTEMAS DE COLOR

Los sistemas de color son representaciones necesarias del espectro visible, cuyo origen se
encuentra en la necesidad de homogeneizar las representaciones del color con fines corporativos,
de marcas y demás.

Los sistemas de color toman en cuenta el matiz, la saturación y la luminancia de los colores.

Sistemas:

• Ostwald: es el primer sistema de color, y se


elabora a través de la conformación de un
triangulo a partir de la escala de luminancia
en relación al tono y a
las sucesivas
desaturaciones del
mismo. En el sólido de
color 5 podemos ver que
los colores saturan al
medio.

5
El sólido de color es la representación tridimensional del sistema de color.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

• Munsell: crea un sistema de color propio que admite


que se le vayan agregando colores nuevos. Parte del
Rojo, Verde, Amarillo, Azul y Purpura, y les brinda a
estos un valor de 5. A partir de esto, se establece una
escala de valor de luma/valor de croma, y los distintos
valores de los tonos
surgen de la mezcla
de los principales,
teniendo los tonos
mezclados el valor
10. En el sólido de
este sistema, podemos ver que Munsell sostiene que los
colores saturan mejor en los tonos más bajos.

CIE

El sistema CIE (Comission Internationale de l´Éclairage)


es un sistema que representa todos los colores del
espectro visible.

En este sistema, podemos ubicar un color gracias a los


ejes cartesianos en los que se inserta el sistema.

En este sistema, cada color se enfrenta a su opuesto, si


se traza una línea que pase a traves del centro (blanco)
del sistema.

GAMUT

El GAMUT es el espacio de color que podemos usar


según lo que puede representar el soporte a utilizar, en
relación al sistema CIE. Es, en otras palabras, la gama de colores que puede reproducir un sistema
determinado.

El GAMUT de una cámara va a estar definido por todos los procesos de captación y compresión de
la imagen. Ademas, cada empresa fabricadora de sensores tiene su propio “blanco”, dependiendo
de su interpretación de la temperatura color. Por ejemplo, para la TV japonesa, el blanco de
referencia se encuentra alrededor de los 7000K.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

ESPACIOS DE COLOR

Los espacios de color son sistemas de interpretación del color, es decir, una organización
especifica de los colores en la imagen fija o en el video.

Los espacios de color determinan, por lo tanto, la cantidad de colores que el sistema captara o
reproducirá.

Ejemplos de espacios de color:

XVYCC: espacio de color ampliado, que surge para abarcar la representación de color de los LED Tv
RGB

DCI / P3: posee una representación de


color de 48 bits (una cantidad de tonos
exagerada, teniendo en cuenta que las
cámaras de hoy en dia filman a 12, 14 y 16
bits, y cada bit implica una duplicación de
la cantidad de tonos del anterior). Este
espacio tiene la característica de que se
puede correr el eje de blanco de
referencia según la temperatura color.

ProPhoto RGB: es un espacio de color de


la imagen fija que puede abarcar hasta
colores que nos son visibles para el ojo
humano.

Como el color depende del tipo de iluminante que se utilice, el GAMUT de una pantalla, por
ejemplo, estará determinado por este. Por ejemplo, los televisores LCD funcionan por la doble
polarización de la luz de un iluminante fluorescente. La luz se dirige hacia el primer polarizador,
que toma solo un plano del haz luminoso y lo proyecta hacia el cristal liquido; si el cristal liquido se
encuentra activado por la descarga eléctrica, sus propiedades físicas llevan a torcer el haz recibido
del primer polarizador, y permite de esta manera que el haz se pueda filtrar por el segundo
polarizador, que esta girado a 90° respecto al anterior; si el cristal liquido no estuviera activado
por la descarga eléctrica, el haz no se torcería, y no pasaría por el segundo polarizador.

Los televisores LED funcionan de la misma manera, pero con LEDs blancos como iluminantes. Sin
embargo, hace poco surgieron los televisores LED RGB, los cuales iluminan con LEDs rojos, azules y
verdes, delante de los cuales se coloca un filtro difusor que hace que los colores se mezclen y den
luz blanca en resultado. Estos LED RGB tienen un GAMUT muchísimo mas elevado que los LED
comunes, dado que el espectro de colores que resulta de los LED blancos es mucho menor que la
de los LED RGB.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

Tipos de iluminantes estandarizados:

• Iluminante A: Es la luz emitida por una lámpara de Wolframio, y la temperatura resultante


es de 2855°K.
• Iluminante B: Es la luz de mediodía, y su temperatura color es de 4874°K.
• Iluminante C: Corresponde a la luz de dia en el hemisferio norte, sin luz de sol directa, y su
temperatura color es de 6774°K.
• Iluminante D: Se obtiene de la mezcla de la luz solar y del dia nublado, y es el blanco de
referencia que se utiliza en la Tv occidental; la temperatura color es de 6500°K.
• Iluminante E: es el blanco equienergetico, es decir, del resultado de la suma de todos los
colores del espectro visible, y corresponde a 5500°K.

TEMA: TV
SWITCHERS

Dado que el formato de Tv es la grabación en vivo y a más de una cámara, es necesario también
un control en vivo de los cortes y transiciones. Como los cámaras tienen control solo sobre el
enfoque y el encuadre, el director va a estar en contacto permanente con ellos a través de un
intercomunicador directo, a fin de poder indicarles el encuadre para realizar el corte o transición
(wipes) que él desea realizar.

Así como el DF cuenta con el vectorscopio y el monitor en forma de onda, el director cuenta con
una herramienta particular que le permite controlar estos cortes y transiciones, además de
permitirle previsualizar las demás cámaras: el switcher.

Esta herramienta permite previsualizar las cámaras, darle salida a una a través del Line Out,
controlar efectos, cambiar a enlatados y móviles y demás. Es, en si, un conjunto de buses que se
organizan de la siguiente manera:

Remo

Bus de Efectos

Bus de Programa
Bus de Previsualización
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

• Bus de Efectos: Es el encargado de controlar las transiciones, marcando en la línea A el


origen y en la línea B el destino, y realizando la transición a través del:
• Remo: Es una palanca cuyo fin es marcar, de manera manual, la velocidad de la transición
o del efecto seleccionado.
• Bus de Programa: Este bus se utiliza para marcar la cámara o el bus activo (en el caso de
marcar el Bus de Efecto a través de la tecla “Effects”, dando pie a la posibilidad de utilizar
una transición). Este bus le da salida al Line Out. Utilizar este control directamente da un
corte directo.
• Bus de Previsualización: Este bus permite previsualizar una cámara o material pregrabado,
sin que tenga salida. Este bus también permite previsualizar las transiciones, marcando la
tecla de “Effects”, dando pie a la previsualización del Bus de Efectos.

Los buses del switcher funcionan de la siguiente manera:

Bus de Efecto 1

Bus de Efecto 2

Bus de Programa Line Out (salida a pantalla)

Bus de Previsualización

Todos los buses cuentan con los siguientes elementos: Cam 1 – Cam 2 – Cam 3 – Cam 4 – Ext – VTR
– Black

Cam: Cámara

Ext: Movil (Exterior)

VTR: Contenido Enlatado

Black: Plano negro

ERRORES HABITUALES DE LA ILUMINACION PARA TV:

- Luz sin difusión: hay que evitar la iluminación teatral y las múltiples sombras. Hay que
lograr, mas bien, una iluminación mas cosmética, al estilo del esquema de beauty.
- Iluminación cenital sin difusión: esta luz debe funcionar como luz de pelo o luz de piso, y
no tener difusión implica una caída brusca de la intensidad luminosa (Ley de Lambert), lo
cual se notara al pasar una persona por debajo de estas luces, generando sombras duras
sobre la cara. Hay que generar el relleno adecuado.
ILUMINACION Y CAMARA 2 B 2017 Resumen de Erik Filleaudeau

- Iluminar todo: Este es un error que lo que logra es aplanar la imagen. Es importante dejar
que cada sector del escenario tenga su propia luminosidad
- Luz lateral: es una luz no televisiva, y genera una sensación de extrañeza al utilizarla en Tv.
En todo caso, es necesario utilizar un relleno frontal para que el contraste no sea tan alto,
y difuminar la luz.

Você também pode gostar