Você está na página 1de 184

Hugo E.

Álvarez

Fotografía de escena de “Saudades.com”

Fotografía
Profesional
Fundamentos técnicos de la fotografía fija y cinética.
Hugo E. Álvarez

2
Fotografía Profesional

A Natalia, Martín y Matías en la UNC.

A Felipe, Augusto, Mauro y Cecilia en la UNVM.

3
Hugo E. Álvarez

4
Fotografía Profesional

CAPÍTULO 1

Percepción visual y Fotografía


La percepción visual y la “adaptación” fotográfica. - Fundamentos de la imagen fotográfica
analógica. - Fotografía digital.

1.1 – La visión humana: El ojo humano tiene forma aproximadamente esférica, y unos 2,5 cm de
diámetro. La parte frontal posee una curvatura algo mayor y está recubierta por una membrana
transparente y resistente, llamada córnea (C).

Figura 1

La región situada detrás de la córnea contiene un líquido, (A) llamado humor acuoso. A continuación,
está el cristalino, (L) cápsula que contiene una gelatina fibrosa, dura en el centro y que se hace
progresivamente más blanda hacia las partes exteriores. El cristalino está sostenido en su lugar por
ligamentos que lo unen al músculo ciliar (M). Detrás de la lente que conforma el cristalino, el ojo está
lleno de una gelatina ligera, (V) que contiene en su mayor parte agua y se llama humor vítreo. Los
índices de refracción del humor acuoso y del humor vítreo son iguales, muy similares al del agua;
alrededor de 1,336. El cristalino, aunque no es homogéneo, tiene un índice medio de 1,437, que no
difiere mucho de los citados anteriormente, de modo que la mayor parte de la refracción de la luz
que entra en el ojo es producida por la córnea.

Una gran parte de la superficie interna del ojo está recubierta por una delicada película de fibras
nerviosas, (R) llamada retina. Las fibras nerviosas constituyen una prolongación del nervio óptico (O)
y terminan en estructuras diminutas llamadas bastones y conos. Los bastones y los conos,

5
Hugo E. Álvarez

conjuntamente con un líquido azulado llamado púrpura visual que se encuentra entre ellos, reciben
la imagen luminosa y la transmiten por el nervio óptico al cerebro.

 Los conos y bastones son agrupaciones de células nerviosas foto receptoras. La etimología del
1
vocablo foto es asimilable a luz , por lo que tanto conos como bastones, son procesadores de la
radiación visible. Los conos, de tamaños muy pequeños y agrupados en conjuntos, son los
responsables de identificar y clasificar colores. Así, y obviamente siguiendo la composición espectral
de la luz, existen conos sensibles a la porción azul, otros sensibles al segmento verde y los restantes
a la parte roja de la radiación. Las transmisiones de estos receptores en su ponderación de
componentes básicos, son suficientes para que el cerebro ordene, identifique y clasifique todos y
cada uno de los colores conocidos. En tanto, los bastones son células neuronales de mayor tamaño
que perciben esencialmente densidades y movimientos, con poca información de color; proveen la
“visión nocturna”. En condiciones pobres de iluminación, las personas apelamos a nuestra más
primaria noción de supervivencia, utilizando esta visión periférica que alguna vez nos puso a salvo
de depredadores. Como ya se dijo, los bastones proveen muy poca información cromática, variando
apenas entre tonos pardos y azules. Es por esto que consideramos la luz de noche como azulada,
convención que se utiliza en la cinematografía para generar efectos nocturnos en la imagen.

Hay una ligera depresión en la retina en el punto Y, llamada mancha amarilla o mácula. En su centro
existe una minúscula región, de aproximadamente 0,25 mm de diámetro, llamada fóvea centralis,
que tiene conos exclusivamente. La visión es mucho más aguda en la fóvea que en las restantes
partes de la retina, y los músculos que gobiernan el movimiento del ojo giran siempre el globo ocular
hasta que la imagen del objeto hacia el cual se dirige nuestra atención, cae sobre la fóvea. La porción
exterior de la retina sirve simplemente para dar un cuadro general del campo de visión. La fóvea es
tan pequeña, que es necesario el movimiento del ojo para enfocar distintamente dos puntos tan
próximos como los del signo de puntuación (:).

En el punto por el cual el nervio óptico entra en el ojo, no existen conos ni bastones; por lo tanto, no
es visible una imagen que se forme en dicho punto, que se denomina por ello, punto ciego. Puede
demostrarse la existencia del punto ciego, cerrando el ojo izquierdo y mirando con el derecho la cruz
de la figura de abajo. Cuando el dibujo está a unos 25 cm del ojo, el cuadrado desaparece. A una
distancia aún menor, el cuadrado reaparece, mientras que el círculo desaparece. Por último, para
una distancia todavía más pequeña, el círculo aparece de nuevo.

Figura 2

Delante del cristalino se encuentra el iris, en cuyo centro hay una abertura, P, denominada pupila. La
función de la pupila es regular la cantidad de luz que entra en el ojo, ya que la pupila se dilata
automáticamente si el brillo del campo es pequeño y se contrae si el brillo aumenta. Este proceso se
denomina adaptación. La figura que sigue, ilustra como varía el tamaño de una pupila normal con el
brillo del campo visual.

1
La palabra fotografía significa literalmente, “dibujar con luz”.
6
Fotografía Profesional

2
Fig. 3 - Variación de la apertura de la pupila relacionada al brillo del campo visual expresado en Candelas .

Los límites del intervalo dentro del cual es posible la visión distinta se conocen con los nombres de
punto remoto y punto próximo del ojo. El punto remoto de un ojo normal se encuentra en el infinito.

La posición del punto próximo depende evidentemente del grado en que pueda aumentarse la
curvatura del cristalino por acomodación. El alcance de la acomodación disminuye gradualmente con
la edad, debido a que el cristalino pierde flexibilidad. Por esta razón, el punto próximo se aleja
progresivamente con el tiempo. Este alejamiento se denomina presbicia y no debe considerarse
como un defecto de la visión, ya que se produce con la misma proporción en todos los ojos normales.

1.2 – El registro fotográfico.

Los soportes profesionales de la imagen fotográfica, son dos:


Analógico: La imagen se forma en una película dotada de emulsión fotosensible, estructurada sobre
la base de una suspensión de haluros de plata en gelatina animal, que resultan en un negativo que
debe ser revelado químicamente para ser visible y permanente. Este sistema tradicional está hoy en
vías de desaparecer.

2
Candela: Unidad de la intensidad luminosa en el sistema internacional, que tiene una intensidad radiante de
1/683 vatios por estereorradián. También llamada bujía nueva.

7
Hugo E. Álvarez

Digital: la imagen se crea sobre un sensor de imagen y es resuelta por un procesador electrónico –
digital que entrega inmediatamente un positivo del sujeto fotografiado.

1.2.1 - Fundamentos de la imagen analógica:

Nos detendremos un momento para dar una idea de funcionamiento de la fotografía tradicional,
dado que su extraordinaria performance a lo largo de un siglo y medio ha dado pie a cualquier
sistema fotográfico que conozcamos hoy, por traslación directa de sus principios físicos y su
admirable desarrollo tecnológico.

Desde el principio mismo de la experiencia fotográfica, se supo que la plata resultaba sensible a la
acción de la luz, es decir, reaccionaba a la exposición directa a la energía luminosa ennegreciéndose,
aunque de un modo progresivo y extremadamente lento.
El avance científico y tecnológico de la fotografía a lo largo de los siglos XIX y XX, esencialmente en
este último, posibilitó diversas combinaciones de la plata con otras sustancias químicas, alcanzando
respuestas en términos de calidad de reproducción, absolutamente inigualables para cualquier otro
sistema de recolección y archivo de imágenes.

1.2.2 - Los materiales sensibles: Emulsiones fotográficas y cinematográficas negativas.

Vamos a detallar algunos aspectos principales de la estructura y funcionamiento de una emulsión


blanco y negro, que consideramos necesarios con relación a la tecnología actual, incluida por cierto,
la imagen digital.
La necesaria aproximación del estudiante al funcionamiento de la fotografía como sistema
tecnológico, se relaciona con la noción de fabricación y aplicación de las emulsiones negativas de
blanco y negro: la plata fundida es combinada con sustancias halógenas (cloro, bromo, yodo), en
función del tipo de emulsión que se desee conseguir: películas negativas, reversibles, positivas,
intermediarias, radiológicas, de artes gráficas, papeles fotográficos, etc. El posterior enfriado de la sal
química resultante, provoca un precipitado natural de microscópicos granos, denominados haluros o
halogenuros de plata.
Estos compuestos son, de hecho, sensibles a la acción de la luz; pero en términos muy elementales,
lo que equivale a pensar en tiempos de exposición tan largos que resultan impensables para la
fotografía actual; recuérdense los registros a pleno sol y por horas de los precursores de la fotografía.
Este tipo de emulsiones deben por consiguiente, ser enriquecidas en dos aspectos fundamentales: su
rapidez de reacción cuantitativa a la energía lumínica, y su respuesta parcial o total al espectro de
colores formadores de la luz.

 La luz blanca es una parte de la energía electromagnética ubicada entre los 400 y 700 NM.
(Nanómetros), y resulta de la sumatoria de radiaciones de color. Entre tales colores, pueden
identificarse tres fuentes energéticas “puras”: azul, verde y rojo. Estas tres radiaciones son
formadoras de todos los colores conocidos, y se los denomina Primarios Aditivos, ya que sumados
en igual proporción dan como resultado precisamente, luz blanca o acromática. De hecho, son
formadores de nuestra percepción visual y de todos los registros fotosensibles de imagen.

Las emulsiones primarias, además de su lentitud de respuesta, son sólo sensibles a la porción azul del
espectro y a una respetable cantidad de radiación ultravioleta, pero son funcionalmente “ciegas” a
las radiaciones verdes y rojas.

8
Fotografía Profesional

Este “defecto” es aprovechado sustancialmente en los sistemas fotográficos en color, pero en


función del registro normal de cámara para imágenes monocromáticas, resulta un déficit a corregir.

De este modo, los haluros que nacen de la simple combinación de plata y halógenos, deberán ser
enriquecidos en función de cumplimentar dos objetivos: rapidez de respuesta y registro de todo el
espectro, para lo cual, y ya emulsionados en gelatina, recibirán sensibilizadores químicos que
potenciarán ambas funciones. Las emulsiones primarias no cromatizadas son sensibles al azul y a la
radiación ultravioleta; las ortocromáticas, además de mantener la sensibilidad al azul y ultravioleta,
son tratadas para formar imagen con la porción espectral verde y las pancromáticas logran captar
todo el espectro, es decir, azul, verde y rojo, además de la no muy deseada aprehensión del
ultravioleta, característica común de todo el registro fotográfico.

Cabe aquí repasar algo de la tecnología tradicional de la fabricación de películas; más allá de las
técnicas de sensibilización, las emulsiones negativas estaban atadas a una constante: como la
producción de haluros de plata era en cierto modo aleatorio y con escasas posibilidades de control
técnico respecto de su tamaño y respuesta energética proporcional, la producción y oferta de
sensibilidades diversas estaba sujeta a un aspecto poco modificable: para conseguir mayor
sensibilidad cuantitativa a la luz, debían utilizarse halogenuros de mayor tamaño. Esto es, a mayor
respuesta, mayor efecto de granularidad, y límites muy acotados en cuanto a posibilidades de
ampliación de la imagen. Piénsese en el alto factor de ampliación de una proyección cinematográfica.

En todo caso, la acción más destacada de la tecnología de entonces, consistía en seleccionar los
cristales resultantes de la decantación, en función de sus distintos tamaños.

Así, los haluros más pequeños se incluían en emulsiones destinadas a películas de baja sensibilidad
(25, 32, 50, 64 ISO), que producían imágenes de excelente resolución, contraste elevado y latitud de
exposición corta.

Cristales pequeños y medianos se reunían en películas de sensibilidad media (100 a 200 ISO), de
buen poder resolutivo, contraste medio y latitud de exposición más generosa.

En las películas de alta sensibilidad (400 ISO o más), halogenuros pequeños, medianos y grandes se
empaquetaban en una sola capa de emulsión, generando negativos de resolución pobre, contraste
bajo, extensa gama tonal y amplia latitud. Estas películas tenían un espesor bastante mayor que las
de baja o media sensibilidad, y la vecindad de cristales de distinto volumen traía como consecuencia
una mayor dispersión de energía dentro de la estructura de la emulsión, generando problemas de
nitidez y de “contagio” de exposición, además del mencionado efecto de granularidad,
perfectamente denotados en las copias positivas.

9
Hugo E. Álvarez

Fig. 4 - Halogenuro de plata tradicional.

Las películas en blanco y negro en definitiva, se producían depositando una única capa de emulsión
sobre el soporte, con sus haluros de distinto tamaño que, por otra parte, al ser productos de escaso
control técnico en su génesis, resultaban cristales irregulares que formaban sus centros de
sensibilidad (unidades útiles formadoras de imagen) fundamentalmente en pequeños sectores
superficiales como sus aristas y bordes, dejando una gran parte de su superficie como un desecho
sin mayor utilidad.

La tecnología de cristales gemelos estructurados fue desarrollada casi simultáneamente por Kodak y
Agfa, (ambas empresas hoy, prácticamente desaparecidas respecto de la producción analógica) y
resultó una revolución para la disciplina fotográfica.

El cristal es controlado en su forma y tamaño desde el momento inicial de su fabricación, y sus


centros de sensibilidad se forman en una superficie generosa pero acotada, que coincide con la placa
central de yoduro de plata.
Las placas exteriores de bromuro de plata sirven como catalizadores de la exposición y son
prácticamente llevadas a la disolución por los procesos de revelado, dejando a la placa central como
unidad de imagen de altísimo grado de utilidad, con una superficie muchísimo menor que sus
antecesores “tradicionales”.

Así, los haluros de plata que pertenecen a la llamada Tecnología de cristales gemelos estructurados,
han demostrado una extraordinaria capacidad para procesar y aprovechar la incidencia de energía
luminosa en el momento de la exposición, y fueron conocidos por marcas registradas como T-Grains,
(Kodak) haluros Core – Shell, (Agfa) o cristales Sigma, (Fuji).

Estos cristales son conseguidos a partir de una cuidadosa producción que controla su tamaño y la
formación de centros de sensibilidad, lo que antes era prácticamente imposible, pues ambas
variables dependían de la precipitación algo anárquica de la plata disuelta en un medio halógeno.

La composición de los cristales gemelos estructurados es como sigue:

10
Fotografía Profesional

 Dos placas exteriores de Bromuro de plata. (Shell: corteza.)


 Una placa central, encerrada entre las anteriores, de yoduro de plata. (Core: núcleo)

 Esta conformación permite una superficie de reacción a la luz mucho mayor, por lo que el
tamaño del grano no aumenta sustancialmente en emulsiones de alta sensibilidad. La
superficie total de un cristal gemelo estructurado está en el orden de 0,2 a 0,3 milésimas de
milímetro cuadrado.

Yoduro de plata
Bromuro de plata

Fig. 5 - Esquema de un cristal gemelo estructurado; la placa central de yoduro de plata, constituye la unidad de
imagen más pequeña que se haya creado.

La emulsión se completa con sensibilizadores cromáticos (al verde y al rojo) y sustancias inhibitorias
de revelado en un medio de gelatina animal, dispuesto sobre un soporte de poliéster al que se
agregan capas de protección y una capa antihalo que, en el caso de las películas negativas de color
destinadas a la cinematografía, es ubicada en forma dorsal por detrás del soporte, y debe ser
eliminada en un baño previo al revelado.

De este modo, se consiguieron películas de muy variadas sensibilidades con escasas diferencias en
tamaño o percepción de grano, y respuestas de contraste más parecidas entre sí, ensambladas por
capas separadas que mejoran la nitidez y con espesores de menor cuantía, lo que provoca menores
efectos de dispersión interna.

La exposición a la luz a través del objetivo de una cámara, produce lo que denominamos imagen
latente, que resulta de la migración de iones plata dentro de la estructura atómica del halogenuro,
para formar los centros o núcleos de sensibilidad que serán luego reducidos por el baño revelador,
transformando la imagen latente en visible.

11
Hugo E. Álvarez

Fig. 6 - Izquierda: Emulsión de haluros tradicionales. Derecha: Emulsión de cristales gemelos estructurados.
A: Capa protectora de gelatina. B: Capas de emulsión. C: Capa separadora. D: Capa antihalo. E: Soporte de
poliéster. F: Capa de protección dorsal.

1.2.3 - El proceso químico: Revelado de negativos.

En términos químicos, el revelado fotográfico se conoce como Reducción. Y el fenómeno de


intercambio iónico entre la emulsión y el revelador, se denomina proceso de óxido - reducción, ya
que, apelando a una descripción simple pero efectiva, el revelador reduce las sales de plata
expuestas a plata metálica ennegrecida, y la disociación de estas sales (compuestos de bromo, cloro o
yodo) oxidan al revelador.
Veamos, de manera muy sencilla y sintética, la secuencia que se origina desde el instante en que se
produce la exposición, hasta el momento en que se consigue una imagen visible y permanente:

a) Cuando se expone la película, la luz incide sobre los cristales de haluros de plata contenidos
en la emulsión. En las áreas donde llega suficiente energía, se forman centros o núcleos de
revelado, produciendo una imagen invisible (latente).
Para formar una imagen visible útil, necesitamos de un revelador. La formulación de éste
contiene uno o dos agentes reveladores (metol, hidroquinona, fenidona, pirocatequina,
glicina, parafenilendiamina, etc.); un álcali para activarlos (bórax, hidróxido de sodio, etc.), un
conservador para combatir la oxidación (sulfito de sodio) y en oportunidades, un restringente
para reducir el velo químico (bromuro de sodio o de potasio), todos ellos disueltos en agua.

b) Los núcleos de revelado en los haluros de plata expuestos actúan como catalizadores, y el
revelador comienza a reducir a plata metálica los haluros que circundan los núcleos. Los
cristales con mayor exposición se revelan primero y, en términos generales, el número de
cristales que se revelan está en proporción directa al grado de exposición.
Los cristales de halogenuros no expuestos, carecen de núcleos de revelado. Debido a esto, se
supone que ninguno de ellos se revelaría. Pero son afectados, y por lo tanto revelados

12
Fotografía Profesional

aunque de una manera insignificante, causando un velo químico de muy baja densidad que
no incide en el copiado a positivo.

c) Conforme progresa el revelado, el reductor convierte los cristales expuestos en masas de


filamentos de plata negra, que forman una imagen negativa sobre un fondo lechoso
constituido por haluros de plata sin revelar.- Dentro de límites normales, un mayor revelado
producirá una imagen más oscura o densa y, por el contrario, un tratamiento menor, dará
imágenes claras o poco densas; el grado de revelado se controla en función de cuatro
variables:
- Formulación del revelador, tiempo, agitado o turbulencia y temperatura del proceso.

d) El revelado debe detenerse cuando se ha producido una cantidad de plata suficiente para
formar una imagen utilizable en cuanto a densidad y contraste. Una solución detenedora
ligeramente ácida, logra este propósito rápida y uniformemente, ya que la mayoría de los
agentes reveladores actúan “impulsados” por una solución alcalina. El baño detenedor o de
paro, evita las manchas que causan los subproductos del revelador y prolonga la vida útil del
fijador, impidiendo el arrastre de revelador alcalino, que podría contaminar y neutralizar al
fijador.

e) Los haluros de plata que quedaron sin exponer deben ser eliminados; son demasiado densos
para que la luz de una copiadora pase a través de ellos eficientemente, y con el tiempo la luz
los volvería negros y ocultaría la imagen; de modo que se debe preservar la imagen útil
revelada, y por otra parte dotar de transparencia a las áreas no expuestas del negativo. Para
ello se emplea un fijador (solución de tiosulfato de sodio o amonio), que disuelve los haluros
inservibles. El fijador es un solvente selectivo: tiene poco efecto sobre la imagen de plata,
pero reacciona con los haluros que se han mantenido como tales, para formar sales de plata
solubles.

f) Las sustancias químicas del fijador, las sales de plata disueltas y otros subproductos, deben
eliminarse por medio de un profundo lavado, ya que si quedaran restos de tiosulfato de
sodio, la vida útil de un negativo se acortaría peligrosamente. El paso final es el secado, en
condiciones de temperatura y humedad que sean las indicadas para cada tipo de emulsión.

1.3 – La fotografía digital: La diferencia esencial que existe entre la fotografía analógica y la digital
refiere al soporte de imagen. En la fotografía tradicional, el film foto sensible se carga en la cámara y
luego de ser expuesto, es retirado de la misma para proceder a su revelado químico. Es decir que el
soporte de imagen no forma parte de la cámara.
En cambio, el soporte de imagen de la fotografía digital, que se denomina sensor, es parte esencial
de la estructura de la cámara. Este sensor captura la imagen creada por los brillos del sujeto y, a
través del circuito de su procesador electrónico, la almacena en una tarjeta de memoria.

1.3.1 - La cámara réflex digital: Las cámaras réflex digitales, también llamadas DSLR (Digital-SLR,
del inglés Single lens reflex), son del tipo réflex de único objetivo (SLR). Entre sus características más
importantes, está el empleo de sistemas de control para la automatización de la mayoría de los
mecanismos, tanto de dispositivos de obturación, sincronización con flashes (tanto internos como
externos), y en general el conjunto de funciones de la cámara, aunque se siguen comportando en la
generalidad de aspectos (enfoque, disparo, estabilización) como dispositivos electromecánicos, al

13
Hugo E. Álvarez

igual que sus predecesoras analógicas. En casi todos los casos, mantienen las mismas características
(y compatibilidad, dependiendo del fabricante) en cuanto al sistema réflex tradicional, popularizado
mundialmente por la Nikon F de 1959.

Fig. 7 - Canon EOS-350D.

A diferencia de sus antecesoras, incorporan además una pantalla LCD en la que se puede visualizar
la fotografía inmediatamente después de la toma y comprobar por ejemplo, con la ayuda de
un histograma, que la exposición ha sido correcta. Sin embargo esta pantalla, en la mayoría de los
modelos, no es indispensable como visor para realizar la fotografía, tal como sucede en las cámaras
digitales compactas, debido a que el sensor se encuentra oculto tras el obturador y el espejo del
visor, imitando a las cámaras réflex de película. Algunas cámaras incorporan además funciones de
pos procesado de la imagen, como cambio del balance de blancos, “revelado” RAW3 y conversión a
blanco y negro, entre otras opciones. En general, a partir de 2006, la mayor cantidad de modelos
incorpora un sistema denominado Live View, que levanta el espejo y permite capturar la imagen
directamente, de la misma forma que en las cámaras compactas.

1.3.2 - Formato del sensor de imagen: En fotografía digital, el formato refiere a las dimensiones
(alto – ancho), a la forma (rectangular, en mayor o menor medida) y tamaño (superficie total)
del sensor de imagen.
Los sensores se pueden clasificar según su tecnología, en los siguientes tipos:

 CCD y Súper CCD


 CCD RGBE
 CMOS
 Foveon X3

Cabe destacar que los dos tipos de sensores más expandidos o populares son el CCD y el CMOS.
El formato del sensor de imagen determina el ángulo de visión de un objetivo específico cuando está
utilizado con una cámara determinada. Particularmente, los sensores de imagen en cámaras réflex
digitales tienden a ser más pequeños que el área de 24 x 36 mm que forma el fotograma de las
cámaras analógicas de 35 mm y por lo tanto, llevan a una clasificación distinta de las distancias
focales (normal, gran angular, teleobjetivo).

3
RAW es un sistema de archivo de imágenes. Posteriormente, se explicarán sus principales características.
14
Fotografía Profesional

 Se considera “normal” de un formato, al objetivo que tiene un ángulo de visión similar a la de la


visión central humana y, además, ofrece una relación entre las distancias y la perspectiva
generadas por los elementos que componen el encuadre, muy parecida a la apreciación visual
directa.

 La distancia focal del objetivo normal de un formato determinado, puede calcularse midiendo la
diagonal de la imagen que produce; así, en el formato analógico de 24 x 36 mm (full frame digital),
esa diagonal mide 43,27 mm. Por consiguiente, se designa como normal del formato fotográfico de
35 mm, a los objetivos que tengan entre 45 y 50 mm de distancia focal. Desde hace muchos años,
el estándar de un “normal” se fijó en 50 mm.

 Como corolario y siempre pensando en el formato mencionado, todas las distancias focales
menores a 50 mm, serán consideradas como gran angulares; y todas las superiores a ella, como
teleobjetivos.

1.3.3 - Formatos comunes de sensores de imágenes: Desde junio de 2009, la mayoría de los
sensores ofrecidos usan soportes de alrededor del tamaño de un fotograma de película APS-C, con
un factor de multiplicación de la distancia focal de 1.5 a 1.6.
Una notable excepción es el sistema de cámaras de Cuatro Tercios, hecho sobre todo por Olympus,
que usa sensores más pequeños con un factor de multiplicación de distancia focal de 2.0. Algunos
sensores profesionales de DSLR’s usan sensores de cuadro completo ("full frame"), iguales al tamaño
de un fotograma de película de 35 mm.
Se usan muchos términos diferentes en la comercialización y la descripción de estos formatos de
sensor, incluyendo los siguientes:

 Formato digital SLR "Full Frame" o de cuadro completo, con dimensiones del sensor
equivalentes a las de la película de 35 mm (24 x 36 mm).
 Sensor M8 y M8.2 de Leica (factor de recorte 1.33).
 Formato de APS-H Canon para DSLR’s de nivel profesional, alta velocidad (factor de recorte
1.3)
 APS-C se refiere a un rango de formatos de tamaño similar, incluyendo:
o Formato Nikon DX, Pentax, Konika, Minolta/Sony, Fuji (factor de recorte 1.5)
o Formato Canon DSLR de gama baja o para principiantes (factor de recorte 1.6)
o Formato Foveon X3 usado en las DSLRs Sigma SD-series (factor recorte 1.7)
o Formato de sistema de Cuatro Tercios (factor de recorte 2.0)
Debido a los límites siempre cambiantes del procesamiento y la fabricación de semiconductores, y
debido a que los fabricantes de cámaras obtienen los sensores de constructores externos, es común
que las dimensiones de los sensores varíen ligeramente dentro del mismo formato nominal.
Por ejemplo, los sensores de las cámaras Nikon D3 y D700, que normalmente son sensores de cuadro
completo, realmente miden 23.9 x 36 mm, ligeramente más pequeño que un fotograma de película
de 35 mm.
En otro caso, el sensor de la Pentax K200D (fabricado por Sony) mide 15.7 x 23,5 mm, mientras que el
sensor contemporáneo de la K20D (hecho por Samsung) mide 15,6 x 23,4 mm.

15
Hugo E. Álvarez

Fig. 8 - Tamaños de los sensores usados en la mayoría de las cámaras digitales actuales, relacionados con el
área de un fotograma estándar de 35 mm.

La mayoría de los formatos de los sensores de imagen DSLR se aproximan a la relación de aspecto 3:2
de la película de 35 mm. Una vez más, el sistema de Cuatro Tercios es una notable excepción, con
una relación de aspecto de 4:3 tal y como se ve en la mayoría de las cámaras digitales compactas.

1.3.4 - Formato DSLR medio: El tamaño de sensor más común para las cámaras digitales de
formato medio es aproximadamente 36 × 48 mm, debido al uso extenso de los sensores CCD KAF-
22000 de 22 megapíxeles y KAF-39000 de 39 megapíxeles de Kodak en ese formato. Por su parte,
Leica ofrece un DSLR "S-System" con un sensor de 45 mm x 30 mm que contiene 37 millones de
píxeles.
1.3.5 - Formatos compactos de cámaras digitales: Los tamaños del sensor de muchas cámaras
digitales compactas están expresados en términos del sistema no estandarizado de pulgadas,
expresando en esta medida la longitud diagonal del sensor. Esto se retrotrae a la manera en que los
tamaños de imagen de las antiguas cámaras de video eran expresados en términos del envoltorio de
cristal del tubo que cumplía la función del sensor formador de imagen. Cuando el tamaño de los
sensores actuales se expresan de esta manera, en vez de "formatos", son a menudo llamados tipos,
como por ejemplo, "CCD de tipo 1/2 pulgada". La mayoría de los sensores compactos de imagen
tienen una relación de aspecto de 4:34. Esto se empareja por cierto, a la relación de aspecto de las
resoluciones de antiguos monitores de computadora como VGA, SVGA y XGA.
Desde diciembre de 2007, la mayoría de las cámaras digitales compactas utilizan sensores del
tamaño 1/2.5". Las cámaras digitales recientes con este tamaño de sensor incluyen la Panasonic
Lumix DMC-FZ18, Canon PowerShot A570 IS, Canon SD870 IS Digital ELPH (IXUS 860 IS), Sony Cyber-
shot DSC-W80, Canon Powershot S5is, Sony Cyber-shot DSC-H7, Canon PowerShot TX1, Sony Cyber-
shot DSC-H9, y Casio Exilim EX-V7.

4
4:3 alude a la relación de aspecto de la pantalla de los televisores analógicos que puede expresarse también
como 1:1,33. En pocas palabras, la medida horizontal de la pantalla era sólo un 33 % más ancha que la vertical.
16
Fotografía Profesional

Las cámaras compactas, usando sensores de casi dos veces el área, incluyen la Fujifilm Finepix
s6000fd/ s6500fd (1/1.7"), Fuji Finepix F50fd (1/1.6") y Finepix F31fd (1/1.7"), Canon PowerShot G9
(1/1.7") y SD950 IS (1/1.7"), Ricoh Caplio GX100 (1/1.75"), Nikon Coolpix P5000 (1/1.8"), y algunas
cámaras Panasonic Lumix como la DMC-LX3 (1/1.63").
Inversamente, los sensores de los teléfonos con cámaras fotográficas son más pequeños que los de
las cámaras compactas típicas, teniendo una mayor miniaturización de los componentes eléctricos y
ópticos, con una consecuente pobre calidad de imagen. Los tamaños de sensor de alrededor 1/6" son
comunes en teléfonos con cámara, así como en las cámaras web y cámaras de video digitales.

1.4 - Poder resolutivo de la imagen: Una imagen fotográfica, sea de naturaleza analógica o digital,
expresa en algún modo su nivel de calidad, en función de su poder resolutivo; aquello que suele
llamarse comúnmente, “definición de la imagen”.

Esta capacidad tiene que ver con la calidad y cantidad de puntos o unidades formadoras de
imágenes. En el caso de las imágenes analógicas, la unidad formadora de imágenes es el haluro o
halogenuro de plata, mientras que en la fotografía digital, la unidad es el píxel.
Para medir su capacidad o poder resolutivo, las películas utilizan el índice R.M.S. Es un método de
medición para determinar la granularidad del material fotográfico.
Se entiende como granularidad el agrupamiento de granos de plata metálica revelada en emulsiones
blanco y negro, o la formación de nubes de color en los materiales cromáticos.

El granulado aparece o se hace visible como estructuración inconstante de las densidades de grises o
de color, a partir de un grado de ampliación determinado que varía de acuerdo a la emulsión
negativa utilizada, respecto del tamaño de sus haluros y del formato de imagen.

Las comparaciones de granularidad de las películas, se efectúan, como dijimos, por el método de
medición R.M.S., el cual busca una congruencia del valor de medición, con la impresión visual del
granulado generado por la emulsión.

La abreviatura R.M.S. significa Root Mean Square, es decir, cuadrado medio de oscilación, y es
mediante este método que son medidas las oscilaciones de densidad del granulado de las películas,
para ser luego transformadas en valores numéricos.

Mientras más pequeño sea el número R.M.S. expresado, menor será la granularidad de una
emulsión. Si por ejemplo, tuviéramos dos películas cuyos valores R.M.S. fueran 7 y 9, sabremos que
la de índice 7 produce menor efecto de grano, en iguales términos de ampliación. En términos más
didácticos, podemos decir para un mejor entendimiento, que una emulsión analógica reproduce 125
líneas por 𝑚𝑚2 .
En la fotografía digital, se producirán imágenes de más alta calidad cuanto más grande sea el sensor
de imagen, porque los píxeles individuales tendrán un tamaño menor, comparado con la totalidad de
la superficie del sensor que los contiene.
Así, y en igualdad de circunstancias, los sensores más grandes capturan imágenes con menos ruido y
mayor rango dinámico5 que los sensores más pequeños. Las características deseables tanto de

5
El rango dinámico expresa la capacidad de un sistema recolector de imágenes para registrar una determinada
cantidad de tonos medios y textura, entre los extremos del blanco total y negro absoluto.
17
Hugo E. Álvarez

la relación señal/ruido y de la ganancia unitaria del sensor se expresan con la raíz cuadrada del área
del sensor.
Desde diciembre de 2007, muchas DSLRs tienen áreas de sensor de alrededor de los 370 mm2,
mientras que muchos sensores de cámaras compactas tienen una décima quinta parte del área de
esa superficie: un sensor estándar de 1/2,5" tiene una superficie de 24,7 mm2 Así, un sensor DSLR
típico tendrá una relación señal/ruido casi cuatro veces mayor que las típicas cámaras digitales
compactas:

370 ÷ 24,7 = 15 = 3,9


Debido a sus sensores más grandes, las cámaras réflex generalmente pueden tomar fotogramas de
alta calidad en ISO 1600, 3200, o aún sensibilidades más altas, mientras que las cámaras compactas
tienden a producir imágenes con marcado efecto de granularidad, incluso en ISO 400. Este problema
es exacerbado por el número de píxeles; la duplicación del número de píxeles en un sensor de un
tamaño determinado, significa que cada píxel (unidad formadora de imagen) ocupa más espacio en
relación a la superficie total del sensor; por lo tanto, se lo aprecia en su forma a simple vista; es más
“ruidoso” y menos sensible.

Fig. 9 - Ejemplos de cámaras equipadas con sensores de distintos tamaños.

De la ilustración precedente, se puede inferir que el formato Full frame, está normalmente
reservado a cámaras profesionales de gama alta; APS-C, especialmente usado por Nikon, Canon y
Sony en cámaras réflex de gama básica y gama avanzada, y por último el sistema 4/3, impulsado
por Olympus junto a otros fabricantes como Panasonic, Leica y Kodak, entre otros.

Factor Tamaño del sensor Diagonal

2 4/3” Cuatro Tercios 21,3 mm

1,6 APS-C Canon 27,1 mm

1,5 APS-C Nikon DX, Pentax, Sony Alpha 28,3 mm

1 Formato completo (Full frame) 43,3 mm

18
Fotografía Profesional

El factor, alude al número por el cual debe multiplicarse la distancia focal de un objetivo fabricado
para cada tamaño de sensor, relacionándolo con el sistema de 35 mm (full frame) para conocer su
prestación como objetivo normal, gran angular o tele.

Fig. 10

Figura 10

19
Hugo E. Álvarez

Fig. 11

Un párrafo respecto a ciertos términos tecnológicos actuales:


1.5 - 4K: ¿Qué significa la sigla 4K?
4K puede hacer referencia a dos conceptos principales:

 4K es un estándar emergente para resolución en cine digital y en infografía. El nombre deriva


de la resolución horizontal, la cual es aproximadamente de 4.000 píxeles.
 4K UHDV (2160p) es usada en la industria de la televisión digital, las cuales son representadas
por el conteo de píxeles verticales.
En la fotografía y el cine digital, la sigla 4K representa la resolución horizontal, dado que existen
numerosas relaciones de aspecto usadas en filmes. Así, mientras la resolución horizontal se mantiene
constante, la vertical depende de la relación de aspecto con la que el director decida trabajar. Hay
diferentes resoluciones que califican como 4K.

1.5.1 - Resoluciones 4K:


 4096 × 2160 (17:9) (8,8 megapíxeles) - Full 4K
 3840 x 2160 (16:9) (8,3 megapíxeles) (4K UHDV)

Fig. 12 - Comparación de 4K en relación a otras resoluciones en la relación de aspecto 16:9.

1.6 - Formatos del Cine digital:


Como ya dijimos, en el cine digital la resolución de píxeles varía según la relación de aspecto. Algunos
ejemplos de equipos de grabación digital 4K son el Dalsa Origin anunciado en 2003 y lanzado en 2006
como la primera cámara de cine digital 4K disponible comercialmente, la Red One, anunciada en
20
Fotografía Profesional

2006 y lanzada en 2007, la Red Epic lanzada a principios de 2011 y la Sony CineAlta F-65, anunciada
en abril de 2011. El sistema de Dalsa Origin registra imágenes con resolución 4096 × 2048 y la Red
One graba a 4096 × 2304 píxeles.
Por su parte, la Arri Alexa en sus diferentes versiones, ofrece también resolución de 4096 x 2048 y
agrega una novedad en la concepción de su construcción: todo elemento (hardware, procesador de
imágenes) susceptible de ser modificado y superado por las tecnologías inmediatas o futuras, son
parte de paneles independientes, estructuralmente conectados al cuerpo de la cámara, pudiendo ser
desmontados y reemplazados por otros de mayor y mejor desarrollo técnico, salvaguardando la
vigencia de la cámara por varios años.

Estándares de Cine Digital en originales de cámara:

Estándar Resolución Relación de aspecto Pixeles

Apertura total 4K 4096 × 3112 1.32:1 12.746.752

Académico 4K 3656 × 2664 1.37:1 9.739.584

Cine Digital 4K 4096 × 1714 2.39:1 7.020.544

Cine Digital 4k 3996 × 2160 1.85:1 8.631.360

Resoluciones de trabajo de post-producción

Relación de aspecto
Estándar Resolución Relación de aspecto Píxeles
comparada al original

Apertura total 4K 4096 × 3112 4:3 1:1 12.746.752

Académico 4K 3656 × 2664 1.37:1 1:1 9.739.584

Por otra parte, 4K es la resolución mínima utilizada en UHDV; su resolución de 3840 x 2160 pixeles
(16:9) (8,2 megapíxeles, con aproximación a 8,3), dobla al estándar de televisión de alta
definición, de sólo 1080p en ambas dimensiones, vertical y horizontal.

21
Hugo E. Álvarez

4K UHDV (3840x2160)

1080p 1080p
(1920x1080) (1920x1080)

1080p 1080p
(1920x1080) (1920x1080)

1.7 - Ultra alta definición. Especificaciones principales:

 Resolución mínima: 3840 × 2160 píxeles (4K UHDV) (16:9) (8,2 megapíxeles, aprox 8,3)
 Resolución máxima: 7680 × 4320 píxeles (8K UHDV) (16:9) (33,1 megapíxeles, aprox 33,2)
 Imágenes por segundo: 60 imágenes/s.
 Audio: 22.2 canales
o 9 — Por encima de los oídos.
o 10 — A nivel de los oídos.
o 3 — Por debajo de los oídos.
o 2 — Bajas frecuencias.
 Banda: 21 GHz de frecuencia de banda.
o 600 MHz, 500~6600 Mbit/s de banda.

Ultra Hi-Definition (en español: ultra alta definición), también conocido como UHDTV (siglas en
inglés de Ultra High Definition TeleVision) y UHDV (siglas en inglés de Ultra High Definition Video), se
refiere a un formato de vídeo digital, actualmente propuesto por la NHK de Japón.
La tecnología UHDV proporciona una imagen cuya resolución es 16 veces superior a la alta
definición (1280×720), y hasta 75 veces superior al sistema PAL (720x576).
La tecnología UHDTV cuenta con 7680 píxeles por línea horizontal y 4320 píxeles por columna
vertical (resolución de 7680 x 4320), es decir, más de 33 millones de píxeles. Comparada con las 1080
píxeles por columna vertical del HDTV y sus poco más de dos millones de píxeles, mejora en dieciséis
veces la nitidez de la imagen y también la experiencia con los nuevos sistemas digitales de
entretenimiento, como las consolas de videojuegos.
Características:
Vídeo UHDV:
18 minutos de vídeo UHDV sin comprimir ocupan alrededor de 3,5 terabytes, y un solo minuto
alrededor de 194 gigabytes (necesitando así, aproximadamente 25 terabytes de almacenamiento
para 2 horas). Si el vídeo de HDTV (1920×1080p 60) tiene un bitrate de 60 Mbit/s usando la
compresión MPEG-2, entonces un vídeo que es 4 veces la cantidad de píxeles, a lo alto y a lo ancho,
requerirá un bitrate 16 veces superior a esa cantidad, lo que llevaría a 100 Gb para 18 minutos de
UHDV o 6 Gb por minuto.
Si se implementaran los códecs H.264 (MPEG-4 AVC) o VC-1 se llegaría a usar solamente la mitad del
bitrate de MPEG-2, lo que se traduce en 50 Gb por cada 18 minutos de UHDV, o 3 Gb por minuto
(suponiendo que fuera una compresión lineal, lo que quiere decir que es un bitrate exagerado y serían
más que aceptables los resultados a tasas de compresión mucho más bajas). Esto supone que la
22
Fotografía Profesional

tecnología actual es incapaz de manejar la ultra definición y se estima que en 15 años aparecerán
prototipos compatibles.
Sonido UHDV:
El futuro televisor UHDV estará provisto de un sonido 22.2, (10 altavoces a nivel medio, 9 a nivel
superior, 3 a nivel bajo y 2 para los efectos sub bajos), claramente superior al 5.1 o 7.1 que existen en
la actualidad.
Sin embargo, pasará algún tiempo antes de que se pueda emplear esta tecnología a nivel doméstico,
debido a que producir películas y demás contenidos audiovisuales será mucho más complejo. Los
defectos se notarán a simple vista, y además el hardware y equipamiento que se deben utilizar para
poder trabajar con este tipo de tecnología, aún no están disponibles.
Cuestiones de almacenamiento:
Todo lo anterior quiere decir que un Disco Holográfico Versátil de 12 cm, con una separación de 3
micrones entre pistas (cada uno de 3,9 TB) podría almacenar alrededor de unas 11 horas de vídeo
UHDV con MPEG-2 o 22 horas usando la compresión H264/VC1, comparado con los 18 minutos y
medio de capacidad, si tal archivo no tuviera compresión.
De otro modo, usando un disco Blu-ray de 8 capas (con una capacidad total de 200 GB) se podría
almacenar aproximadamente 36 minutos de vídeo UHDV con MPEG-2, o 72 minutos con H264/VC-1
(sin comprimir, sería apenas un minuto de UHDV). A 50 TB, un PCD (protein-coated disc) podría
almacenar unas 284 horas (~12 días) de vídeo UHDV con compresión H.264/AVC/VC-1, pero
resultaría redundante, dado que este medio podría contener 4 horas de vídeo UHDV sin comprimir.
Una vez que se logren implementar materiales ferroeléctricos estabilizantes, se podrían almacenar
alrededor de 1024 horas de vídeo UHDV sin comprimir y 24.064 horas de vídeo UHDV con
compresión H.264/AVC/VC-1.

1.8 - A modo de reflexión:


Ahora bien; si de acuerdo a esta breve reseña la tecnología parece encaminarse a la producción de
imágenes casi perfectas: ¿Cuál es la dificultad de conseguir fotografías o producir cine de una alta
calidad técnica para cualquier persona?
¿Por qué las aplicaciones más comprometidas de la fotografía requieren del operador un nivel de
conocimiento técnico que parece anteceder, incluso, a la construcción estética?

Las razones que vamos a explicar de aquí en adelante, tienen que ver con cinco principios esenciales:

1) Conocimiento del material que resultará soporte de la imagen.


2) Iluminación de la escena a registrar.
3) Medición y evaluación fotométrica de la escena iluminada.
4) Decisión (técnica y estética) de la exposición.
5) Procesado y post-producción de la imagen final.

El ordenamiento precedente responde solo a aspectos en algún sentido cronológicos respecto de la


tarea del fotógrafo o del Director de Fotografía de cine, pero en función de una mayor eficiencia
pedagógica, serán desarrollados en este texto a partir de una estructura de conceptos crecientes y
vinculados; de este modo, los primeros elementos a considerar serán los que tienen que ver con el
23
Hugo E. Álvarez

conocimiento de los materiales sensibles, la codificación matemática, y la medición fotométrica que


deriva en la exposición de una escena.

De todas maneras, la primera pregunta que podría formularse respecto de un soporte fotosensible,
estaría relacionada a su capacidad de reproducir una escena; esto tiene que ver necesariamente con
una comparación directa en función de la percepción visual humana, ya que en definitiva casi todas
las imágenes que se generan para la fotografía o la cinematografía, tienen que ver con una
concepción realista o con implicancias psicológicas que aceptamos como parte de la realidad que nos
rodea; de este modo, podemos inferir que en gran cantidad de oportunidades, la fotografía puesta al
servicio de una aplicación, intenta recrear estímulos visuales percibidos en algún momento por todos
y cada uno de los espectadores.

Entender las diferencias entre sistemas de reproducción y archivo de imágenes (fotografía, cine,
televisión, video) y percepción visual directa, puede partir de la evaluación de simples números.

Para que tales números resulten rotundamente efectivos, vamos a plantear un ejemplo sencillo:

Supongamos estar frente a un paisaje abierto:

El sol ilumina en plenitud todo lo que vemos, y tal fenómeno, (percibir visualmente todos y cada uno
de los elementos constitutivos del paisaje) se debe a que la luz solar es absorbida y reflejada de modo
distinto por cada porción componente del todo (cielo, árboles, suelo, etc.), produciéndonos
sensaciones de color y densidad (brillos altos, medios y sombras) que corresponden a cada parte de
lo observado.

Detengámonos en el concepto de densidad, que en todo caso es un término fotográfico:

Un intento sencillo de definir conceptualmente la densidad, sería decir o pensar en una escala de
brillos que vayan desde la sombra franca (negro) hasta el brillo más alto (blanco), pasando por una
serie de tonos intermedios (grises), con una prescindencia total de la idea de color. La escala tonal en
términos de brillo que presenta una escena (en este caso el paisaje), se llama Intervalo de
luminosidades, y representa el “mapa” de todos los brillos que componen la escena.

De hecho, el intervalo de luminosidades de un paisaje iluminado por el sol, es sumamente amplio; si


apelamos nuevamente al lenguaje fotográfico, podemos decir que es un motivo de alto contraste, y
si precisáramos aún más el “discurso”, lo definiremos como un sujeto de escala larga.

Digamos entonces en lenguaje simple que, visualmente, el referido paisaje está compuesto por una
enorme variedad de brillos, producto de los distintos índices de reflexión de cada una de sus partes,
constituyendo una escala, desde el negro puro hasta el blanco absoluto, de miles de tonos o brillos
sutilmente diferenciados entre sí.

Comparemos entonces, como percibe el ojo humano y de qué manera lo hacen los sistemas
fotográficos, frente a la disparidad de energías reflejadas por un sujeto complejo.

24
Fotografía Profesional

Fig. 13 - “Supongamos estar frente a un paisaje abierto.”

Delante de esta situación:

El ojo humano puede distinguir y clasificar 100.000 brillos diferentes.

Una emulsión negativa de media sensibilidad (100/21° ISO) logra discernir 128 brillos. 6

Una emulsión negativa de alta sensibilidad (Por ej. 500/28° ISO) puede identificar 256 brillos.

Los sensores digitales (según modelo y capacidad) pueden registrar desde 64 a 512 brillos.

Los sensores de imagen, obviamente, no son todos iguales ni prestan la misma performance. Si
pensamos incluso en medios y soportes relativamente modestos, la lectura delante del mismo
paisaje, sólo logrará procesar 32 brillos como tonos distintos, antes de hundir su lectura en blancos y
negros sin detalles; y una videocámara digital de alta definición (HDV) alcanzará a identificar desde
64 a 128 brillos. Sólo algunos modelos de cámaras HD de alta performance (Red One, Arri Alexa, Sony
Cine Alta F- 65) logran alcanzar estándares de 256 a 512 brillos. Parece quedar claro entonces, que la
reproducción fotográfica está bastante lejos de la capacidad y versatilidad de la visión humana; y lo
segundo que queda claro es que, en estas condiciones de captación limitada, el fotógrafo debe poder
manejar cada material para que, una vez terminado el proceso de la imagen, esta se parezca y aún se
confunda con la percepción visual directa.

6
Entiéndase como la gama tonal que se registra con sustancia y textura, es decir, con detalles visibles. Además
de este registro textural, la imagen contiene tonos negros puros, grises adyacentes al negro, blancos rotos y
blancos absolutos, todos ellos sin información ni detalle relevante.
25
Hugo E. Álvarez

26
Fotografía Profesional

CAPÍTULO 2

La cámara fotográfica
La cámara fotográfica – Estructura y funcionamiento de las cámaras réflex –Control de obturación –
Visor – Control de enfoque – Diafragmas.

Los instrumentos ópticos basan su estructura en la imitación funcional del ojo humano. En ese
sentido, la cámara fotográfica emula la morfología del ojo y su modo de formar imágenes, casi a la
perfección. Por esto, es dable una comparación parte por parte, que facilite la comprensión del
lector sin experiencia en el manejo de la tecnología fotográfica.

Ya hemos visto detalladamente en el Capítulo 1, la conformación y funcionalidad de cada parte del


ojo humano. Ahora, sólo compararemos los mecanismos de las cámaras, que imitan su
comportamiento.

La percepción visual humana se fundamenta en la capacidad de la combinación ojo – cerebro para


decodificar imágenes luminosas constituidas por sombras, brillos de distinta gradación y colores
influenciados por aquellos. Sin dudas, la posibilidad de ver, como la de fotografiar, está
indisolublemente ligada a la existencia de niveles mínimos de iluminación. Entonces, la luz es la
materia prima esencial que permite el registro de una imagen continua y directa por nuestra
percepción, o reproducida por un sistema fotográfico (fotografía, cine, televisión o video).

En el esquema siguiente, se recuerdan las partes componentes del ojo humano y se explican las
funciones de cada una, para trazar luego una analogía con la construcción y controles que
caracterizan a las cámaras fotográficas.

El globo ocular está recubierto por la córnea, membrana resistente, protectora de agentes externos
que podrían dañarlo. El iris, es la circunferencia que otorga el “color de ojos” característico que
identificamos en cada persona. En el centro del iris, la pupila es un orificio negro que permite el paso
de la imagen luminosa que miramos; la pupila maneja la cantidad de luz que llega al ojo: si la
iluminación es muy intensa, se contrae formando un paso muy estrecho; en pobres condiciones
lumínicas, la pupila se dilata, compensando la falta de iluminación con una mayor absorción de
energía.

Es decir, que la función primordial de la pupila es la de administrar, regular, la cantidad de luz que
será procesada por el conjunto del ojo. Inmediatamente por detrás de la córnea, una sustancia
denominada humor acuoso, realiza una primera refracción de la luz. Esta imagen es puesta en foco
por el cristalino, conjunto circular de células nerviosas accionado por los músculos ciliares que actúa
como una lente, curvándose o aplanándose según el objeto enfocado esté cerca o lejos.

La mayor parte del globo ocular está ocupada por el humor vítreo, sustancia de aspecto gelatinoso
que tiene como misión completar la refracción de la imagen luminosa. Finalmente, el sujeto captado,
enfocado y refractado, incide sobre la retina, conjunto de células foto sensibles que forman una
imagen equivalente e invertida del objeto real.

27
Hugo E. Álvarez

Tal fenómeno es posible gracias al tipo de células que forman la retina. La zona central, llamada
fóvea centralis, está compuesta por conos, agrupamientos nutridos de células que disciernen
detalles finos y perciben los colores por sensibilidades específicas a las bandas primarias; hay conos
sensibles al azul, otros al verde y los restantes al rojo. Las sutiles combinaciones de estos colores,
generan todos los tonos cromáticos conocidos, la “paleta de colores” de la visión humana. En la
superficie restante, la retina está constituida por bastones, células especializadas en discernir
densidades.

La imagen invertida formada en la retina es “transmitida” por el nervio óptico al cerebro. Este la
vuelve a su posición correcta (la endereza) y la interpreta en razón de experiencias previas, propias o
heredadas, que están guardadas en el prodigioso banco de memoria que disponen los seres
humanos.

Cabe consignar aquí la idea de continuidad de la visión humana; esto significa que, el tiempo durante
el cual una persona mira un objeto, es un elemento casi irrelevante. No ocurre lo mismo al tomar una
fotografía; necesariamente, la toma de una imagen fotográfica necesita un límite temporal. De lo
contrario, la continua llegada de energía produciría una excitación desmedida de la emulsión o del
sensor de imagen, “velaría” la imagen útil, tornaría el registro como un campo absolutamente negro
y sin detalles.

Así, las cámaras fotográficas deben tener incorporado un obturador, una “cortina” que impida el
paso permanente de la luz y que permita operar sobre la cantidad de tiempo en que la emulsión
estará expuesta a la energía generada por el sujeto encuadrado. Equivaldría a que cerráramos los
párpados, para impedir que la luz llegue a nuestra retina y por ende, a nuestro cerebro.

Si bien analizaremos las partes que constituyen una cámara, veamos de inmediato las semejanzas
que tales mecanismos tienen con el ojo humano. Para empezar, el objetivo que procesa la imagen
luminosa, cubre dos características fundamentales: refracta la imagen, (humores acuoso y vítreo) y
pone en foco óptico la parte del sujeto que seleccionemos con el telémetro o anillo de enfoque
(cristalino). Pero también administra la cantidad de energía que impresionará a la emulsión o al
sensor, a través del diafragma, agujero variable que podrá cerrarse ante luminancias altas o abrirse
en condiciones de baja iluminación (pupila).

El cuerpo de la cámara equivale a las profundidades del globo ocular; la imagen enfocada, refractada
y administrada en cantidad (diafragma) y tiempo (obturador) llega al plano focal, donde una película,
dotada de emulsión foto sensible, o un sensor electrónico, imprimirán la imagen en forma invertida,
en directa analogía con la función de nuestra retina.

2.1 - La cámara.

Cada cámara, reducida a sus componentes más básicos, es simplemente una caja provista de una
abertura frontal con el fin de admitir luz, además de un dispositivo que retiene la película o que aloja
un sensor de imagen. La forma del cuerpo y los aspectos activos, sin embargo, varían según las
características particulares de diferentes tipos y marcas de cámaras.

Las cámaras profesionales modernas tienen un objetivo constituido por grupos de lentes, montado
sobre el orificio por donde penetra la luz, cuyo fin es tomar cuadros lo más detallados posibles con la

28
Fotografía Profesional

menor cantidad de luz. Un dispositivo mecánico controlado electrónicamente, el obturador, maneja


la cantidad de tiempo en que la luz ingresa al cuerpo de la cámara. El disparador del obturador es
una palanca o botón de estímulo que activa el funcionamiento del mismo.

Todas las cámaras tienen algún tipo de sistema de visión u ocular: por este medio, el fotógrafo puede
ver el campo encuadrado por el objetivo. Hay dos tipos principales de oculares: el sistema de visor
directo y el sistema de visor réflex. El más eficiente y fácil de operar es el visor de las cámaras réflex.

Durante el encuadre, un espejo refleja la imagen luminosa que entra en la cámara y mediante un
prisma que vuelve la imagen al derecho, llega a la ventana del visor, donde el fotógrafo apoya su ojo.

Cuando se toma un cuadro, el espejo se mueve hasta tomar una posición horizontal, permitiendo
que la luz impacte sobre la película o sensor. Las lentes se acoplan mecánicamente para estar en foco
simultáneamente cuando se opera sobre el anillo de enfoque (telémetro).

En cámaras analógicas, el propósito del avance de película es desenrollar la película desde su envase.

A cada área individual de cuadro se la denomina marco o fotograma. Dependiendo de la cámara, la


película puede ser avanzada manualmente accionando la palanca de arrastre o por un motor
eléctrico de arrastre incluido en el cuerpo, que automáticamente después de cada exposición, avanza
la película hasta el siguiente fotograma.

En cámaras digitales, obviamente, no existe palanca de arrastre. Simplemente, después de cada


toma, el dispositivo queda preparado para la siguiente exposición.

Hagamos una comparación sencilla entre las partes y funciones del ojo y de una cámara.

Ojo humano Cuerpo de cámara Objetivo Función


Párpados Obturador Alternativamente, evitar o permitir el paso
de la luz.
Pupila Diafragma Administrar la cantidad de luz reflejada que
será admitida para la formación de la
imagen.
Cristalino Telémetro o Enfocar nítidamente el punto de interés.
anillo de
enfoque
Córnea, Grupos de Refractar las ondas lumínicas para procesar
humores lentes los componentes energéticos de la imagen,
acuoso y vítreo evitando aberraciones.
Retina, fóvea, Emulsión sensible Forman la imagen. Procesan, identifican y
conos y o sensores CCD, clasifican colores y densidades.
bastones CMOS

2.2 – El sistema Réflex.

Como hemos dicho, una cámara fotográfica es un dispositivo encargado de recoger los haces de luz
reflejados por un sujeto y proyectarlo sobre la emulsión fotosensible de una película (fotografía

29
Hugo E. Álvarez

analógica), o en la superficie de un sensor electrónico CMOS o CCD (fotografía digital), de forma que
sobre cada punto del fotograma, incida la energía luminosa pasando por un cono visual tan estrecho
como sea posible. Es decir, la cámara debe formar una imagen equivalente a la real sobre la emulsión
fotosensible o el sensor, de todos los objetos encuadrados por el campo de cobertura del objetivo
que se seleccione.

En el caso de la emulsión analógica, formará una imagen por agrupamientos (nubes) de halogenuros
de plata y/o colorantes. Tal imagen será negativa, es decir contraria en densidades a la imagen real y
deberá ser positivada en un proceso posterior, sobre un papel fotográfico (fotografía fija) o una
película positiva (cine analógico).

En cuanto a la fotografía digital, la imagen se formará sobre los pixeles del dispositivo que actúa
como sensor de imagen, atravesando un mosaico o matriz de filtros de color. También será, en
principio, una reproducción negativa del sujeto real, que será positivada inmediatamente por el
procesador de imagen de la cámara.

Pentaprisma

Ocular
Objetivo del
visor

Plano focal:
Trenes de Emplazamiento
ondas de la película.
lumínicas (Cámaras
reflejadas analógicas)
por el
sujeto O del sensor de
imagen.
(Cámaras
digitales)

Diafragma Espejo rebatible Obturador de


plano focal

Fig. 14 - Esquema de una cámara réflex.

Se denominan cámaras réflex a aquellas dotadas de un sistema de visor que toma la imagen captada
por el objetivo; es decir que el encuadre que percibe el fotógrafo, coincide exactamente con la
imagen colectada por las lentes.

De este modo, el cambio de una distancia focal por otra, no acarrea problema alguno de adaptación
o compensación del cuadro y facilita la tarea del operador y la selección de la tecnología apropiada a
cada escena.

Las cámaras réflex están identificadas con la sigla TTL (through the lens) que en inglés significa “a
través del objetivo”, lo que define claramente la utilidad de su sistema de visor y enfoque.

30
Fotografía Profesional

2.2.1 - Partes de una cámara réflex.


2.2.1.1 - Caja o Cuerpo: Compartimiento hermético a la luz, que contiene la célula fotoeléctrica
y el circuito microprocesador del exposímetro, el procesador de imágenes de fotografía
digital, los mandos de control del tiempo y de disparo del obturador. Aloja al
pentaprisma, (sistema óptico del visor) placa de enfoque (donde se guía y fija la película
o se instala el sensor de imagen) y el espejo rebatible que permite la visión del
operador, rebotando la imagen captada por el objetivo hacia el mencionado
pentaprisma.

Describiremos a continuación los elementos constitutivos que se hallan en la estructura


exterior del cuerpo de las cámaras réflex.

Cabe destacar que según marcas y modelos, la disposición de cada elemento puede variar,
según las características particulares que cada fabricante aplica en la construcción de sus
cámaras.

 Montura de objetivos: Dotada de un sistema de bayoneta que es particular de cada marca,


sirve para calzar los sistemas ópticos de distintas distancias focales (Objetivos de focal única)
o de focales variables (Zoom)
 Mando rebobinador del eje que sostiene el chasis de película (en cámaras analógicas).
 Mando de lectura de sensibilidad de la emulsión o de la sensibilidad de trabajo que se le
indicará al sensor de imagen.
 Control de tiempos de obturación.
 En cámaras analógicas, palanca de arrastre de película y/o alojamiento del motor de arrastre.
Cualquiera de estos sistemas cumple la función de “cargar” frente a la ventana de exposición
el fotograma que va a exponerse y arma el obturador para permitir el disparo.
 Botón de disparo del obturador.
 Contador de exposiciones realizadas.
 Control de nivel de baterías.
 Pentaprisma, sistema de visor óptico por donde el operador ve la imagen encuadrada.
Dependiendo de algunas variables que corresponden a particularidades de construcción de
cada cámara, puede además brindar las siguientes informaciones: lectura del fotómetro o
exposímetro, con los datos de tiempo de obturación y valor del diafragma combinados para
determinar una posible exposición; sistema de enfoque (imagen partida, placa despulida,
etc.) y apreciación visual de la profundidad de campo.
 Zapata para acoplamiento y contacto de flash.
 En cámaras analógicas, tapa o compuerta de acceso del sector donde se aloja la película. La
apertura permite la carga y descarga de la misma. En cámaras digitales, pantalla LED o LCD
que permite observar el encuadre y/o visualizar las imágenes almacenadas en la tarjeta de
memoria.
 Alojamiento de baterías.
 En cámaras analógicas, anclajes para motores externos de arrastre de película y embrague de
rebobinado.
 Rosca para sujeción a trípode.

31
Hugo E. Álvarez

 Pantalla LCD: En cámaras digitales, esta pantalla, situada en la parte posterior del cuerpo,
muestra el encuadre seleccionado y actúa también como monitor de las imágenes fijas o de
video almacenadas en la tarjeta de memoria.

En el interior del cuerpo, se alojan los siguientes dispositivos:

 Exposímetro: El exposímetro incorpora una célula fotoeléctrica comandada por un circuito


electrónico. Mide la luz que llega desde el objetivo al plano focal y muestra, en el visor y en
ventanas externas al mismo, las combinaciones posibles de valores de diafragma y
obturación que producirán la exposición y captura de la imagen encuadrada.

 Obturador de plano focal: Dispositivo instalado en el cuerpo de las cámaras réflex,


encargado de permitir el paso de la luz hacia la película o sensor de imagen durante periodos
de tiempo regulables, desde segundos, hasta centésimas y milésimas de segundo.

 Plano focal: En este plano se sitúa la película o está instalado el sensor de imagen CCD o
CMOS. Es el plano donde confluirá la imagen refractada y puesta en foco por el operador.

 Procesador electrónico / digital de imágenes: En cámaras digitales, este procesador


convierte las señales tomadas por el sensor, en imágenes digitales positivas.

2.2.1.2 - Objetivo: Es el encargado de colectar la energía luminosa que refleja el sujeto


encuadrado y formar una imagen óptica sobre el plano de enfoque o plano focal, donde
se aloja la película o está instalado el sensor de imagen. Consta de un conjunto de lentes
fijas y móviles que determinan una distancia focal expresada en milímetros, que indican
la distancia existente entre el punto nodal del objetivo7 (referente de la refracción
máxima del conjunto de lentes) y el plano focal donde se formará la imagen proyectada.

 Telémetro o anillo de enfoque: Es el anillo situado en la parte frontal del objetivo,


que sirve para seleccionar la parte del sujeto que se colocará en foco óptico (nítido).

 Diafragma: El diafragma está ubicado en el cuerpo de los objetivos, por detrás del
telémetro y regula el caudal (cantidad) de luz que llegará a la película. La variación de
apertura se expresa en números f.

7
Nos referiremos al punto nodal en el capítulo 4, correspondiente a Óptica.
32
Fotografía Profesional

Fig. 15 - La Nikon F5 es uno de los últimos exponentes relevantes de la fotografía analógica. Le siguieron los
modelos F6 y F7. Su construcción no dista mucho de las actuales cámaras digitales profesionales, como puede
verse en las ilustraciones de la página siguiente.

33
Hugo E. Álvarez

Fig. 16 - Nikon D4 para fotografía digital profesional.

34
Fotografía Profesional

Fig. 17 - Transparencia que muestra la compleja estructura interna de la Nikon D4

2.3 - Control de la exposición.

2.3.1 - El Diafragma:

El diafragma está formado por un conjunto de láminas que se abren o cierran sobre un hipotético
punto central, determinando que cantidad de luz va a recibir la película o el sensor digital. Si el nivel

35
Hugo E. Álvarez

de iluminación es bajo, se necesita una abertura mayor y para objetos muy iluminados o muy
brillantes, una abertura menor.

La apertura (o abertura) de diafragma que usemos afecta a la profundidad de campo, que es la


nitidez que puede logar una imagen fotográfica, por delante y por detrás del sujeto enfocado.

El valor de apertura del diafragma se representa con la letra "f" seguido del número que
corresponda, que es igual al cociente entre la distancia focal del objetivo expresada en milímetros y el
diámetro real de la abertura, también expresada en milímetros.

Como consecuencia, cuando se habla de una apertura pequeña, nos referimos a un número f cuyo
valor absoluto es mayor; y una abertura grande se expresa con un número f menor; así:

Número f = Distancia focal ÷ Diámetro de la abertura

Número f: 100 mm ÷ 25 mm. = f: 4

Distancia focal del Diámetro =


objetivo = 100 mm. 25 mm

Tamaño del diafragma


relacionado al Nº f

Fig. 18

Se verá en profundidad el fundamento teórico y la funcionalidad técnica del diafragma, en el


capítulo de Matemática y Fotografía del presente texto.

Ahora, nos detendremos sobre un aspecto esencial de las imágenes fotográficas, que
atiende a la elección estética del operador: la profundidad de campo.

2.3.1.2 – Profundidad de campo:

Por profundidad de campo se entiende tradicionalmente en óptica y particularmente en fotografía,


al espacio entre el primer y el último punto aceptablemente nítidos reproducidos en el mismo plano,
por delante y por detrás del sujeto enfocado.

36
Fotografía Profesional

O sea, aquellos elementos constitutivos de la imagen que resultan apreciablemente nítidos, a pesar
de no estar incluidos en el foco óptico seleccionado por el operador.

Depende de cuatro factores fundamentales, que desarrollaremos puntualmente en los párrafos que
siguen:

1) El tamaño del círculo de confusión máximo (y por tanto el formato y el tamaño de la


impresión o proyección, además de la distancia de observación y de la capacidad
resolutiva de la visión de cada espectador que contempla la obra terminada).
2) La distancia focal elegida.
3) El número f seleccionado.
4) La distancia de enfoque. (Distancia cámara – sujeto y operación de “puesta en foco” del
objetivo).

1) Círculo de confusión máximo (CCM): Los círculos de confusión son los discos de luz que
forman una imagen que no está a foco. Si un punto de un sujeto está en el plano enfocado,
nos produce (o nos debería producir) un punto en el plano del sensor o película. Lo que
solemos decir es que un punto del sujeto produce un punto de imagen. Pero si situamos un
objeto por delante o por detrás de ese objeto enfocado, en vez de un punto / imagen, se nos
formará un disco de luz más o menos grande, dependiendo de que esté más o menos cerca
del plano enfocado.

El círculo de confusión máximo es el tamaño que ha de tener un círculo de confusión en la


película o sensor para que, al ampliarlo, nos sea indistinguible de un punto inferior en
tamaño, de manera que a partir de ese tamaño de punto, empezamos a percibir las cosas
como con falta de nitidez. Internacionalmente se ha establecido que un punto de 0,25 mm
en una copia de 20 x 25 cm visto a unos 63,5 cm (25") es considerado como el máximo
tamaño de punto a partir del cual, las imágenes nos parecerán con falta de nitidez.

Este valor se ha establecido con datos de observación directa de un gran número de


individuos y se ha establecido un valor medio, pues es evidente que para personas con una
agudeza visual mayor a la normal, el tamaño de ese círculo ha de ser inferior a los 0,25 mm; y
en personas con menor agudeza visual, será al revés. La agudeza visual no depende de la
corrección que se necesite por medio de anteojos (esta corrección se da por bien hecha), sino
de la densidad de células receptoras en la retina.

Para calcular finalmente el valor del círculo de confusión máximo, debemos dividir este valor
de 0,25 mm por el factor de ampliación que resulta de pasar de un formato determinado al
tamaño de copia de 20 x 25 cm establecido como canon.

Así, en formato 24 x 36 mm (tamaño del fotograma analógico de 35 mm y de varios sensores


digitales), considerando los valores respecto al lado más corto, 24 mm, (el lado más largo es
variable en función de la relación de proporción de los lados, 2/3 o 4/3 etc.) para pasar a
medir 200 mm (la copia) 200/24 (del sensor) = 8,33 y nos dará que 0,25 ÷ 8,33= 0,03
mm como tamaño del CCM para este formato de 24 x 36.
37
Hugo E. Álvarez

En la tabla siguiente, se ven los valores para diferentes formatos.

Dimensiones del Factor de equivalencia Diámetro círculo de confusión


Formato
sensor (mm) óptica máximo (mm)

Fotograma analógico
FF – Full frame Sensores digitales 1 0,03
24 x 36

19 x 28,7 1,3 0,024


APS-H (Canon)

APS-C (Nikon) 15,7 x 23,6 1,5 0,02

APS-C (Canon) 15,1 x 22,3 1,6 0,019

4/3 13 x 17,3 2 0,016

Nikon 1 8,8 x 13,2 2,7 0,011

Micro 4/3 5,7 x 7,6 4,2 0,007

Compacta
4,29 x 5,76 5,6 0,005
1/2,5"

2) Distancia focal: El efecto de la distancia focal sobre la profundidad de campo es


inversamente proporcional al valor numérico de dicha distancia focal. A menor distancia
focal, más profundidad de campo, si mantenemos el resto de los parámetros (nivel de
iluminación, sensibilidad, valores de diafragma y obturación, distancia cámara – sujeto y
distancia al objeto enfocado) constantes. Lo que pasa es que la proporción no es lineal; y
pasamos de tener una profundidad de campo que va desde muy cerca hasta infinito en
grandes angulares, a reducciones drásticas a medida que aumentamos la distancia focal. Para
cada caso, hay una distancia focal a partir de la cual, las proporciones de profundidad de
campo pasan de ser infinitas a limitadas. Un objetivo de 28 mm de distancia focal en formato
24 x 36, a f 16, enfocado a 3 m, tiene una profundidad de campo desde 1,49 m hasta ∞
(infinito); y un 35 mm en el mismo diafragma, va desde 1,51 m hasta 195 m y a partir de ahí,
se produce un pronunciado declive: un 50mm en las mismas condiciones tiene una
profundidad de campo desde casi 2 m hasta casi 7 m, (en total 5 m de nitidez aceptable); y un
100mm tendrá una profundidad de campo desde 2,63 m hasta 3,49 m, o sea, un campo
nítido total de tan sólo 0,86 m. Como se puede ver, la reducción de la profundidad de campo
es importante cuando la distancia focal va aumentando.

38
Fotografía Profesional

3) Número f: El efecto del valor de diafragma sobre la profundidad de campo también es


sencillo de resumir. A diafragma más cerrado, mayor profundidad de campo; o lo que es lo
mismo, a mayor Nº f, más profundidad de campo. La razón física se debe a que, al cerrar el
diafragma, el cono de luz que forma éste con respecto al punto enfocado del objeto, reduce
el ángulo proyectado al plano de enfoque, por lo que los círculos de confusión máximos se
situarán más lejos del plano enfocado en comparación a un ángulo más abierto. En el dibujo
que sigue, se muestra el resultado de cada opción.

Fig. 19

Efecto del diafragma sobre la profundidad de campo. Los puntos en el plano enfocado (2),
proyectan puntos en el plano focal (5), pero los que están fuera del plano enfocado (1 y 3) al utilizar
un diafragma abierto, (lado izquierdo del dibujo) causan un círculo de confusión, proyectando una
imagen borrosa. Al emplear un diafragma cerrado, (lado derecho del dibujo) el área efectiva de la
lente (4) se reduce, empequeñeciendo a su vez el tamaño de los círculos de confusión (ya que el
ángulo entre los rayos de máxima separación angular provenientes de un mismo punto ven reducida
esa separación angular por el tamaño reducido del diafragma); así que, objetos alejados del plano
enfocado se ven más nítidos, aumentando la profundidad de campo (la distancia por delante y detrás
del plano enfocado en que los objetos se ven con una cierta nitidez).

39
Hugo E. Álvarez

4) Distancia de enfoque: Cuanto más cerca se encuentre el motivo que se desea fotografiar,
menor será la profundidad de campo; por el contrario, si enfocamos más lejos aumenta la
profundidad de campo hasta el límite de la distancia hiperfocal, que es el punto de enfoque
en que tenemos la máxima profundidad de campo. Si enfocamos más lejos de esta distancia
iremos perdiendo otra vez profundidad de campo, aunque no tanta como si nos acercamos.
Circula una “teoría” muy extendida que dice que hay el doble de PDC por detrás del punto
enfocado que por delante y esto es verdad sólo para una combinación exacta de Nº f,
distancia focal y distancia de enfoque. Por ejemplo, si enfocamos a 2 m con un objetivo de 50
mm de distancia focal, diafragmado a f:16 se cumple esta afirmación en términos
aproximados; pero si enfocamos más cerca, la PDC apreciable por delante y detrás, se va
paulatinamente igualando; y si enfocamos más lejos de 2 m, la nitidez por detrás aumenta
muchas más veces que por delante, al punto de enfocar a la distancia hiperfocal en la que la
PDC por detrás se dispara hasta ∞ (Infinito).

Influencia del cambio de formato en la profundidad de campo: A lo largo del siglo XX, la fotografía y
el cine analógicos desarrollaron, entre muchos avances tecnológicos, la posibilidad de trabajar sobre
distintos formatos de imágenes.
Así, por ejemplo, el cine impuso su tradicional película de 35 mm dotada con doble perforación, que
aseguraba la tracción mecánica por parte de las cámaras. Como la película corría verticalmente
respecto de la ventana de exposición, la cámara cinematográfica, en las primeras dos décadas del
siglo, producía un fotograma original que medía 16 mm de altura por 21,95 mm de ancho. Este
formato se llamó “Academia”, en directa relación al cine de Hollywood.
La fotografía fija, en tanto, trabajaba sobre placas y películas de tamaño mayor, hasta que en la
década de 1930, la industria alemana desarrolló una cámara que cargaba la misma película que
utilizaba la cinematografía: nace entonces la mítica Leica, la primera cámara fotográfica de 35 mm.
Para sintetizar, la fotografía analógica trabajó simultáneamente, los formatos profesionales que
siguen:

Películas negativas y reversibles: 35 mm, que generaban imágenes originales de 24 x 36 mm; rollos
120 y 220 mm, que producían fotogramas de 6 x 4,5 cm, 6 x 6 cm, 6 x 7 cm y 6 x 9 cm. Y también
placas de 10 x 12 cm, 12 x 18 cm y 18 x 24 cm.
El cine, además del mencionado sistema de 35 mm, utilizado con muchas variables de formato,
produjo películas sobre emulsiones de 16 mm (con su alternativa de Súper 16) y de 65 mm.
El video y la televisión, por su parte, fueron manejándose con cámaras cuyos sensores no superaban
la medida diagonal de 1/3”. Esto es, producían un fotograma más pequeño que cualquier sistema
analógico de fotografía fija o cinética, exceptuando algunas cámaras de estudio dotadas de sensores
de mayor tamaño, pero utilizadas en el contexto de la TV analógica, cuya resolución de imagen era
realmente pobrísima.
Lo que pretendemos explicar con esta breve cita histórica, es que han existido y existen, una
cantidad de formatos (relación alto / ancho del fotograma producido) con superficies de imágenes
mayores o menores, de acuerdo al sistema elegido.
Y referimos entonces, lo que nos interesa en este punto que estamos desarrollando:
A mayor formato (superficie) del original producido por una cámara, la profundidad de campo
disminuye, el campo nítido resultante es menor y se aprecian claramente las formaciones de
círculos de confusión, por delante y detrás del sujeto enfocado.
40
Fotografía Profesional

En la época inaugural de la imagen digital, las cámaras de fotografía y de video, no podían utilizar el
recurso narrativo de una baja profundidad de campo, simplemente por el tamaño reducido de sus
sensores. Aún hoy, las llamadas cámaras “hogareñas” de fotos y las de video que están por debajo de
estándares profesionales, no pueden hacerlo. Los sensores de imagen de pequeña superficie
(formato) cargan con el “estigma” de mantener una profundidad de campo extrema, lo que no
permite utilizar el recurso de un auténtico “foco selectivo”, al no crear círculos de confusión por fuera
del sujeto enfocado.

La empresa estadounidense RED de cámaras para cine digital, en su modelo inaugural “RED One”,
revolucionó esta situación al desarrollar sensores CMOS de tamaño equivalente o superior al 35 mm
analógico, ofreciendo entonces a los directores de cine el hecho de poder elegir la profundidad de
campo con la que deseaban trabajar, a partir de cámaras digitales que se comportaban ópticamente
como sus antecesoras analógicas.

Posteriormente, la novedad fue incluida en cámaras fotográficas con prestaciones profesionales, con
lo que comenzó a zanjarse una cuestión técnica que afectaba las posibilidades narrativas de las
imágenes fotográficas digitales.

Finalmente, debe considerarse el tema de la exhibición. Cuando pensamos en una muestra de


fotografías o en una proyección cinematográfica, estamos ante el compromiso de una considerable
ampliación de nuestras imágenes.

Supongamos, para no abundar, en un paisaje urbano o rural fotografiado con mucha profundidad de
campo, buscando una gran nitidez en la totalidad del encuadre. Ocurre que podemos juzgar como
“nítidos” elementos de la composición, a través de observarlos en un tamaño moderado, tal como el
monitor de una PC. Pero al realizar la ampliación impresa o proyectar en las dimensiones enormes de
la pantalla cinematográfica, podemos encontrar la sorpresa de que tal nitidez, no era tal.

En éste como en otros temas, debe existir claridad sobre el destino final de nuestras imágenes; y si
tal intención implica la exhibición pública, habremos de asegurar todos los aspectos técnicos y
conceptuales de cada una de nuestras obras.

A continuación, se muestran imágenes ilustrativas tomadas por el autor de este texto, respecto de la
elección de una mayor o menor profundidad de campo.

La primera imagen, es una típica fotografía de paisaje con mucha profundidad de campo, que
muestra el Monte Aconcagua; capturada con cámara analógica Minolta X-700, emulsión
cinematográfica Fuji 250 T, con filtro de conversión B&W 85. Gran angular de 28 mm, f: 11, 1/125”
de obturación.

En la segunda, una mariposa al momento de posarse sobre una flor. La profundidad de campo es tan
poca, que algunas partes de la propia mariposa y de las flores, no se ven nítidas. Se combina una
sensación de movimiento, producida por una obturación que resulta baja respecto de la velocidad
del movimiento de las alas. Cámara analógica Minolta X-700, emulsión fotográfica Kodak Ultra 400
ISO, teleobjetivo de 200 mm, f: 4, 1/250” de obturación.

41
Hugo E. Álvarez

Fig. 20

42
Fotografía Profesional

2.3.2 - El Obturador:

Existen dos tipos de Obturadores:

El obturador de plano focal, ubicado en el cuerpo de las cámaras réflex, y el obturador central o de
laminillas, que utilizan las cámaras de visor directo y que se encuentra alojado en el objetivo. En este
último caso, el obturador adopta la estructura y funcionamiento ejemplificado para el diafragma en
la ilustración 18 de página 36, permaneciendo cerrado hasta que se produce el disparo.

En las cámaras Réflex como dijimos, el obturador está en el cuerpo de la cámara, por delante de la
película analógica o del sensor digital, impidiendo el paso de la luz hasta el momento del disparo.
Esto permite que podamos cambiar los objetivos sin que se produzca problema alguno de exposición
accidental.

El obturador de plano focal está compuesto por dos cortinillas que se solapan entre sí delante de la
película o del sensor de imagen y que corren sobre un eje, separadamente, cuando disparamos y
producimos la exposición.

Posición Inicial del Obturador de plano focal

La película o el sensor de imagen digital,


están situados por detrás de las cortinas,
que la protegen de la luz.

Posición del fotograma a


exponer

Disparo:

Al disparar la cámara, la 1º cortina corre sobre su eje, creando una “ventana” entre ella y la 2º
cortina, la que inmediatamente también se desliza, manteniendo el tamaño de la ventana por
donde pasa la luz, que expone la imagen sobre la emulsión de la película o sobre el mosaico
del sensor.

Al finalizar la exposición, la 2º cortina cubre totalmente la película, protegiendo la exposición


que recibió el fotograma. Cuando la cámara es nuevamente dispuesta para otra toma, las
cortinas deslizan sobre sus ejes, en sentido contrario al de disparo, volviendo a su posición
inicial.

Fig. 21 - Acción del obturador de plano focal

Desde la aplicación de controles electrónicos, los obturadores de plano focal ampliaron su capacidad
de respuesta en cuanto a la precisión de su funcionamiento.

43
Hugo E. Álvarez

Actualmente, y con ligeras variantes en cuanto a marcas y modelos de cámaras, pueden controlar
exposiciones que van desde varios segundos (10 por lo menos) hasta 4 (1/4000”) u 8 (1/8000”)
milésimas de segundo.

Estas grandes posibilidades de control sobre el tiempo en que la luz impactará sobre el soporte
sensible, nos permite elegir el período adecuado para cada toma que nos propongamos.

Los tiempos mayores de exposición, (1 segundo o más, hasta1/30” o 1/60”) nos sirven para lograr
imágenes de objetos inanimados o para crear efectos de “movimiento”, barriendo partes de un
sujeto que se mueve. Sirva como ejemplo la fotografía de la mariposa de la página 42, donde las alas
aparecen “movidas”, lo que confiere a una imagen objetivamente fija, una dinámica de movimiento
inexistente, pero sugerido.

Los tiempos menores de exposición (desde 1/500” a 1/8000”) posibilitan “congelar” a un sujeto que
se mueve, incluso a gran velocidad, como podría ser el caso de un atleta de cualquier disciplina o de
un auto de carrera lanzado a más de 200 Km/h.

Cabe consignar que las sugerencias de los párrafos anteriores son sólo guías aproximadas, nunca
aplicables a la totalidad de situaciones fotográficas que podemos enfrentar a lo largo de una serie de
determinadas experiencias.

¿Por qué?

Porque la acción de congelar o no a un sujeto, dependerá:

a) Del caudal de iluminación existente en la escena.


b) Del objetivo (distancia focal) que se elija para la toma.
c) De la luminosidad del objetivo seleccionado (N° f de la máxima apertura).
d) Del ángulo de toma entre cámara y sujeto. (Frontal, lateral, oblicuo, picado, contrapicado).
e) De la dirección en que se desplaza el sujeto, respecto del punto de vista de la cámara, que
puede ser perpendicular (se acerca o se aleja), transversal (a derecha o izquierda), oblicuo (se
acerca o se aleja), diagonal al cuadro, (¿se acerca, se aleja o mantiene la distancia a
cámara?) etc.

Ocurre que la conjunción entre la velocidad relativa –y la direccionalidad- de un sujeto en


movimiento relacionado a un punto de observación (cámara), sólo puede ser mensurada aplicando
procedimientos de la Física. La Teoría de la Relatividad de Albert Einstein, desarrolla y explica este
tipo de fenómenos.

Como modestos fotógrafos, lo que tenemos a mano es construir un camino empírico que nos sirva
como base de posibles elecciones; la fotografía, en la totalidad de sus conceptos técnicos y
expresivos, se aprende a partir de la correcta interpretación de sus postulados teóricos, que deben
ser llevados inmediatamente, a una práctica intensiva, constante y coherente.

Finalmente, nos queda una última recomendación, como las anteriores para nada absoluta, respecto
de los soportes posibles de cámaras con relación a la distancia focal de los objetivos que se elijan
para determinadas tareas.

Algunas preguntas a responder, serían:

44
Fotografía Profesional

¿Cuáles son los tiempos de obturación mínimos para distintas focales, que nos permitan operar la
cámara en mano? ¿Cuándo se necesita el apoyo de un trípode o mono pie?

Si nos ubicamos en el formato clásico de 35 mm (analógico) o de sensores full frame (digitales) que
igualen esta superficie sensible, podemos recomendar:

El valor de obturación debe ser numéricamente igual o mayor a la cifra que expresa la distancia focal
del objetivo: Ej. Un gran angular de 28 mm necesita un tiempo base de obturación de 1/30”. Un
objetivo normal de 50 mm, 1/60”. Un teleobjetivo de 200 mm, por lo menos 1/250”. Y si el objetivo
supera los 200 mm de distancia focal… busquemos el apoyo de un trípode o mono pie.

¿Por qué estas últimas recomendaciones tampoco son absolutamente certeras? Porque vuelven a
cruzarse las variables físicas de movimiento, velocidad del desplazamiento, direccionalidad, etc., que
ya mencionamos anteriormente.

Pero es al menos, un punto de partida.

Un último párrafo, para referir al concepto de la exposición fotográfica, por lo cual nos hemos
detenido tanto en la explicación de las funciones del diafragma y del obturador:

La exposición fotográfica es una ecuación basada en el producto de la intensidad (diafragma) por el


tiempo (obturador):

E=Ixt

Y responde a la Ley de reciprocidad, que momentáneamente y con el único propósito de facilitar la


comprensión, expresaremos así: En una escena dada, con un nivel de iluminación constante, si
decidiéramos cambiar una de las variables de la exposición (por ej. el valor de diafragma),
necesariamente deberemos ajustar el otro término (obturación) en la misma proporción, para que la
imagen final no varíe desde el punto de vista técnico.

Por ejemplo:

Si en principio optamos por una exposición de f: 8 x 1/125”.

Y decidimos cambiar el diafragma a f: 5,6

La obturación deberá corregirse a 1/250”

Profundizaremos y fundamentaremos este concepto más adelante.

45
Hugo E. Álvarez

46
Fotografía Profesional

CAPITULO 3
El Cine Digital.

Evolución de las cámaras que dieron origen y evolución al cine digital.


Sensores y formatos.

Compresión de la imagen.
Los 14 pasos de registro del intervalo de luminosidades .

El cine digital, como sistema tecnológico de captura y archivo de imágenes cinematográficas, tiene
una historia por ahora, bastante breve. Sin embargo, ha producido tal variedad y cantidad de equipos
de cámara, que podría llenar a esta altura espacios amplios de algún museo audiovisual. A
continuación, se detallan algunos de los equipos que son (o fueron) referenciales en la búsqueda de
suplantar al soporte fílmico tradicional.

3.1 - Cámara Sony HDW-F900 Cine Alta

En el año 2000, Sony introdujo el sistema de producción de cine digital HDTV con el Camcorder HDW-
F900 de alta definición y barrido progresivo a 24 cuadros por segundo (24P) y la grabadora de HDTV
HDW-F500 de video de alta definición; este sistema, mejor conocido como “Cine Alta”, ofrece la
función de captura de video de alta definición de 1.920 x 1.080 píxeles y 24 cuadros de imagen
progresiva. El costo de este sistema era de aproximadamente u$s 185.000,- por cámara y grabadora.

Fig. 22 - Cámara HDW-F900 24P, 25p, 30p, 50i, 60i Camcorder HDTV 1080 Sony CineAlta.
Fuente: Sony
3.2 - Panasonic AJ-HDC27F VariCam

Panasonic contestó el reto con su AJ-HDC27F VariCam Variable Frame Rate 16:9 HD Cinema. Una
cámara con Software CineGamma y un precio de lista de u$s 65,900.- para la cámara y la grabadora
AJ-HD1700 de 126 Minutos 1080i/720P DVCPRO HD Studio VTR con posibilidad de reproducción de
DVCPRO 50/25, DVCAM y DV.

47
Hugo E. Álvarez

Fig. 23 - Cámara AJ-HDC27F VariCam® 4-60P. Incrementos de cuadro por cuadro 24P, 60P, HDTV 720. Apareció
en el mercado con un precio de lista de u$s 65,900.-.
Fuente: Panasonic

3.3 - Cámara F23, línea Cine Alta de Sony: imágenes 4:4:4 de 1920 x 1080.

En Diciembre de 2006, Sony Electronics anunció la nueva cámara F23, que generaba imágenes 4:4:4
en RGB con resoluciones 1920 por 1080. Este sistema se une a las cámaras HDW F-900 y a la HDC-
F950 en el alto nivel de la línea Cine Alta de productos para televisión digital y de películas.

Fig. 24 - Cámara Sony F-23


Fuente: Sony

Utiliza sensores de imagen CCD del tipo progresivo de 2.2 megapíxeles con tamaño de 2/3 de
pulgada y un conversor A/D de 14-bit. El sistema soporta los formatos 1080/23.98 P, 24 P, 25 P,
29.97 P, 50 P, 59.94 P, 50 i y 59.94 i.

Comparte el diseño de la cámara HDC-F950 de 1920 x 1080 RGB 4:4:4, pero también incorpora varias
prestaciones nuevas, que fueron el resultado de la realimentación por investigación y de las
sugerencias de los profesionales de la producción.

El grabador digital 4:4:4 modelo SRW-1 se acopla directamente al tope o a la cola de la cámara. Esto
elimina la necesidad de la manipulación de cables entre la cámara y el grabador. Cuando es
requerida una mayor movilidad de la cámara, el grabador también puede ser conectado vía cables,
utilizando una conexión "dual-link", de manera que la cámara opera de manera más compacta y
ligera.
48
Fotografía Profesional

Para poder relacionarse con la producción de cine, el cuerpo de cámara es compatible con una
variedad de accesorios de cámaras cinematográficas, incluyendo los puentes, matte boxes
(portadores de filtros y parasoles de fuelle) y unidades de asistencia de foco "follow focus". Estas
pueden ser acopladas a la unidad sin modificación alguna. Para una durabilidad y confiabilidad
aumentada, como para soportar los numerosos cambios de lentes que a menudo ocurren en la
locación, el sistema F23 utilizará un material más fuerte para su montura de lentes del tipo bayoneta
B4.

Cuando se utiliza con el videograbador SRW-1 HD de Sony, el nuevo sistema de cámara puede
capturar y grabar imágenes de velocidad variable, desde 1 P hasta 60 P (1 P hasta 30 FPS8 en 4:4:4 y
desde 1 P hasta 60 FPS en 4:2:2) a una resolución completa de alta definición de 1920 por 1080
píxeles. Esto le permite una funcionalidad de cámara rápida o cámara lenta, también conocida como
“undercranking” u “overcranking”, para producir así efectos especiales de movimiento comúnmente
utilizados en las producciones de alto nivel. Estas imágenes de velocidad variable pueden ser
reproducidas por los videograbadores de la serie SRW (SRW-1, SRW-5000, SRW-5500)
inmediatamente después de la grabación.

La superficie de control del sistema de cámara, los indicadores y el sistema de menú fueron
diseñados para darles a los camarógrafos de cine una interfase de usuario familiar e intuitivo.
Los usuarios pueden operar la cámara con un controlador remoto incluido, llamado “Assistant
Panel”. Este dispositivo se conecta a la cámara con un cable sencillo y permite a los operadores
ejecutar de forma remota las operaciones básicas de cámara y del videograbador, como REC/STOP,
cambiar la frecuencia de captura y el ángulo de obturación.

La aplicación basada en plataforma Windows llamada CVP File Editor, que es utilizada para la
creación y ajustes de gammas, también está soportada por este sistema de cámara, que se encuentra
disponible desde el primer trimestre de 2007.

3.4 - Estándares Avanzados de Televisión Digital ATSC:

De hecho, hay 18 diversos estándares de la televisión que pueden ser transmitidos bajo el nombre de
"televisión avanzada" ATSC. El video HDTV es una familia de formatos que incluye 24p (“p” significa
exploración progresiva; 24 cuadros por segundo, 24 fps). La resolución se refiere al número de las
"muestras individuales" que están disponibles en un medio de grabación. En este caso, no se refiere
a la "fidelidad" o la cantidad de información almacenada en cada muestra, solamente refiere al
número de muestras.

El vídeo digital almacena la imagen en pasos discretos llamados "píxeles." En sus primeros pasos, el
estándar de Televisión usado en USA, NTSC para la captura de video, fue de 640 píxeles de ancho por
480 píxeles de alto. El estándar D1-NTSC (máxima calidad de video estándar) de 720 x 486 píxeles. El
estándar Europeo D1-PAL tiene una mayor resolución: 720 x 512 píxeles. Hay nuevos formatos que
capturan en tamaños más grandes, pero éste es el estándar inicial actual.
Cuando el video HDTV tiene una resolución de 1920 x 1080, nos da un formato amplio de la pantalla
(cociente 1.85 parecido al formato 16:9 con cociente 1.77), y una presentación de 60i (una resolución

8
FPS: Frames per second; sigla en inglés, equivalente a cuadros por segundo.
49
Hugo E. Álvarez

más baja de 60 cuadros por segundo entrelazados, "interlaced"). Los formatos de HDTV son los
primeros que logran hacer películas para TV lo suficientemente buenas, ya que aún el formato de
Betacam Digital o Digibeta tiene solamente una resolución de 720 x 525 píxeles (NTSC) o de 720 x
625 píxeles (PAL), que no es mucho mejor que una buena TV analógica. El impacto más grande de
HDTV es su resolución mejorada. Una señal estándar de televisión Digital TV (DTV) es de 640 x 480
píxeles, para una cuenta total de 307.200 píxeles.

Refresh Rates
Resolución
Aspecto (Interlaced = i;
Horizontal x Vertical
Progressive = p)

1920 x 1080 (HDTV) 16:9 60i, 30p, 24p

1280 x 720 (HDTV) 16:9 60p, 30p, 24p

704 x 480 (SDTV) 16:9 60i, 60p, 30p, 24p

704 x 480 (SDTV) 4:3 60i, 60p, 30p, 24p

640 x 480 (SDTV) 4:3 60i, 60p, 30p, 24p

La televisión analógica tradicional no ofrece una cuenta verdadera de píxeles por ser, precisamente,
un formato análogo; pero el número más alto de líneas horizontales teóricamente posibles es de 525
para NTSC y de 625 para PAL. Sin embargo, ningún televisor análogo es capaz de exhibir la resolución
teórica: el número máximo de líneas horizontales es de 480 y se logra con el DVD. Aunque existen
DVDs clasificados justo sobre las 500 líneas, en la práctica sólo dan un máximo de 480.

En resumen, los 640 x 480 píxeles usados en televisión digital DTV alcanzan esencialmente la misma
resolución que la televisión NTSC análoga estándar; comparado con el formato más alto de la
resolución de HDTV, de 1.920 por 1.080 píxeles que da un total de 2.073.600 píxeles, nos da cuenta
que el HDTV tiene seis veces más puntos de información que la televisión digital. Los píxeles son
elementos de imagen individuales y la resolución está determinada por el número de ellos.

Dentro de un espacio dado, mientras más píxeles puedan ser exhibidos, más alta es la resolución.

Una resolución más alta, entrega imágenes más claras y limpias. Los dos estándares de televisión
digital de alta definición HDTV nos ofrecen 1.920 por 1.080 píxeles (ancho x alto) en un caso y 1.280
por 720 píxeles (ancho x alto) ambos en formato widescreen de 16:9. Estos dos estándares de HDTV
nos dan un total de 2.073.600 y 921.600 píxeles respectivamente.

50
Fotografía Profesional

Fig. 25 - Cámara Panasonic AJ-SDX900 2/3" 3-CCD 16:9/4:3 24P/30P/60i DVCPRO Cinema. Cámara con
CineSwitch Technology y Software CineGamma.

El formato más alto de resolución HDTV (1.920 x 1.080) es transmitido usando la exploración
entrelazada (60i) mientras que el formato de 1.280 x 720 usa la exploración progresiva de cada
cuadro (30p y 24p).

Fig. 26 - Cámara de Cine Digital Canon a 30p Frame Mode con óptica de cine ARRI PL.- 3-CCD 1/3" 30P/60i DV
Cinema Camera IEEE 1394 Interface. Fuente: Canon

3.5 - Seis cámaras que marcaron referencias históricas en el cine digital:


1) Sony HDW-F900

Mencionada ya en este texto, la F900 es, sin dudas, el primer hito importante en el devenir
tecnológico del cine digital de alta definición. En 1999, George Lucas filmó Star Wars Episode I: The
Phantom Menace en emulsión analógica de 35 milímetros; sin embargo, tiempo atrás ya existía la
idea de realizar una película entera en un formato totalmente digital.

51
Hugo E. Álvarez

Fig. 27 – Sony HDW-F900 - Fuente: Sony

El propósito no era trabajar con las imágenes de baja calidad que se podían disfrutar en
computadoras y dispositivos personales, sino de vivir una verdadera experiencia de cine.
Por eso Lucas y su productor Rick McCallum, encomendaron a Sony la tarea de desarrollar una
cámara que permitiera registrar 24 fotogramas por segundo, para la nueva entrega de la saga.
Tras cuatro meses de prueba por parte del equipo de Lucasfilm Ltd. e Industrial Light & Magic (ILM),
con su respectiva transferencia a cinta de cine -y una exhibición privada en el teatro Stag del
Skywalker Ranch-, la productora del director estadounidense decidió que Attack of the
Clones inauguraría una etapa en la industria cinematográfica.
Con imágenes en alta definición de 1920 x 1080, se accedió a un resultado que ameritaba seguir
experimentando.

2) Panavision Genesis

El gigante del cine en celuloide no podía quedar excluido en este camino. Desde el año 2005, tuvo a
disposición de los cineastas su modelo Genesis, que rápidamente fue incorporado en diversas
producciones como Superman Returns o Apocalypto.

Fig. 28 – Panavision Genesis - Fuente: Panavision

Con un chip de 12.4 megapixel CCD, y un formato especial que facilitaba la adaptación a cualquier
lente Panavision, sin duda, hacía más fácil la transición para el equipo técnico.
No obstante, algunos de sus detractores señalaban que su primera versión era excesivamente grande
y pesada.

52
Fotografía Profesional

Además del cine, Genesis conquistó la televisión. Series como Scrubs, Californication, o United States
of Tara se filmaron aprovechando todo su potencial.

3) Silicon Imaging 2K

Silicon Imaging 2K está basada en sus pares analógicas de 16 milímetros. Tiene la capacidad
de grabar directamente a un disco o una laptop con el software apropiado, en un formato CineForm
RAW.

Fig. 29 - Fuente: Silicon Imaging 2K – Fuente: Silicon Imaging

Alcanzó celebridad en 2009 cuando Anthony Dod Mantle, el director de fotografía de Slumdog
Millionaire, de Danny Boyle, ganó uno de los ocho Premios Oscar que obtuvo la película.
Boyle necesitaba capturar el colorido y el esplendor de los rodajes de Bollywood para contar su
historia de supervivencia en un entorno hostil. Con esta cámara, logró un extraordinario uso de la luz
y la perspectiva.
Y justamente, la Silicon Imaging 2K, considerada como una de las opciones más económicas del
mercado, le dio todo lo que requería para registrar la riqueza de matices de los paisajes de la India.

4) Viper

Technicolor, otra gran empresa de la tecnología analógica en el cine, a través de su división Grass
Valley, creó estos equipos que no realizaban ninguna compresión ni reducción de color o espacio, su
principal ventaja. De ahí que era el sueño hecho realidad para los directores de fotografía.
El director Michael Mann, se inclinó por estas cámaras. Con Viper comenzó a rodar su
película Collateral (2004), que transcurría totalmente en la noche, en la ciudad de Los Ángeles.
También la utilizó para su serie televisiva Miami Vice (2006).

Tras la crisis financiera de 2008, Technicolor se vio obligado a vender su área de cámaras. Sin
embargo, Grass Valley continúa con su desarrollo bajo otros nombres. Más allá de todos estos
cambios, Viper será siempre sinónimo del comienzo de la nueva historia del cine.

53
Hugo E. Álvarez

5) Red One

En apenas unos pocos años, esta compañía no sólo ha concebido unas cámaras que perfeccionan el
formato digital, sino que ha acaparado la atención de creadores del mundo entero para la realización
de proyectos.

Fig. 30 - Fuente: Red One

Desde los prototipos usados por Peter Jackson para Crossing the Lines, su corto sobre la Primera
Guerra Mundial, hasta la elección por parte de Steven Soderbergh, a la hora de hacer Che, la película
biográfica sobre Ernesto Guevara, Red One ha puesto una herramienta de alta precisión a un precio
razonable. Además de Jackson y Soderbergh, David Fincher utilizó el modelo Red One MX para
producir su multipremiado film The Social Network, que reconstruye toda la creación de Facebook.
De esta forma, Fincher fue uno de los cineastas pioneros al lograr con Red One, la primera
película distribuida directamente a las salas de cine en un formato 4K.
Juan José Campanella utilizó la Red para El secreto de sus ojos, que ganara el Oscar a la mejor película
extranjera.

Fig. 31 - Fuente: Red One

6) Arri Alexa
El secreto fundamental de la Alexa, así como en el caso de la Red, es haber optado por sensores
CMOS de gran tamaño, denominados “Full frame 35 mm” por su similitud con el formato de 35 mm
del cine analógico. Arri por su parte, introdujo otra novedad importante respecto de la vigencia
temporal de sus equipos. Y es que, tanto el procesador electrónico de imagen, como el sistema de

54
Fotografía Profesional

grabación y la actualización de software, son unidades desmontables, posibles de ser reemplazadas


por módulos que aparezcan en el futuro.
Tanto la Red One como la Alexa, calzan los objetivos mediante montura PL, lo que posibilita el uso
directo de excelentes ópticas cinematográficas devenidas del cine analógico.

Fig. 32 - Arri Alexa Full frame 35. Fuente: Arri

Fig. 33 - Arri Alexa 65. Fuente: Arri

Arri, al igual que Red, han agregado a sus desarrollos técnicos iniciales sensores de mayor tamaño,
imitando los originales analógicos de 65 mm e introduciendo también complejos avances, tales como
los de imágenes 3D. Martin Scorcese utilizó una Alexa en el rodaje de su película Hugo, que ofreció
imágenes en este sistema.

55
Hugo E. Álvarez

El sensor de la Alexa ilustrada arriba, logra registrar 14 pasos de diafragma, lo que iguala en términos
de resolución de imagen y de registro del rango de brillos, las posibilidades de formatos medios
fotográficos analógicos (6x6, 6x7, 6x9 cm) o de los grandes formatos cinematográficos (65 mm).9
Finalmente, cabe mencionar que tanto la Red como la Alexa, además de otros modelos de cámaras
equiparables, originan archivos RAW para sus imágenes, lo que posibilita la utilización de una extensa
gama de recursos a la hora de la posproducción.

9
Se denomina Rango de brillos a la escala tonal sobre la cual, una emulsión fotográfica o un sensor digital
registra el contraste (intervalo de luminosidades) original de un sujeto. Esta escala tonal parte del negro total al
blanco puro, creando entre estos extremos, 12 calidades de gris creciente, que reproducen detalle y textura.
56
Fotografía Profesional

CAPÍTULO 4

Óptica fotográfica
4.1 – La luz: La luz visible es una parte de la energía electromagnética ubicada entre los 400 y 700
NM (Nanómetros), y aquella luz que identificamos como blanca o acromática, resulta de la sumatoria
de radiaciones de color; entre tales colores, pueden identificarse tres fuentes energéticas “puras”:
azul, verde y rojo. Estas tres radiaciones son formadoras de todos los colores conocidos, y se los
denomina Primarios Aditivos, ya que sumados en igual proporción dan como resultado,
precisamente, luz acromática. De hecho, son generadores de nuestra percepción visual y de todos los
registros fotosensibles de imagen.
Dentro del espectro electromagnético, la luz visible tiene como vecinos inmediatos a la radiación
ultravioleta (que se genera por encima de los 700 NM) y al infrarrojo (por debajo de los 400 NM).
Ninguna de las dos puede ser percibida por nuestra visión, pero pueden registrarse
fotográficamente. Por ejemplo, la radiación ultravioleta que proviene del cielo forma, en una
fotografía de paisaje, imágenes; exacerba el color azul y puede crear dominantes en el equilibrio
cromático de la imagen resultante. No resulta casual que uno de los filtros permanentemente usados
por los profesionales en exteriores sea el skylight, que se opone al paso de los rayos U.V., evitando la
formación de densidades indeseadas.
En el otro extremo, la radiación infrarroja; cercana a las ondas calóricas, ha podido registrar
imágenes fotográficas sobre emulsiones analógicas especiales diseñadas para tales fines. Este tipo de
fotografías ha sido, y es, una aplicación directa en actividades científicas desarrolladas con cámaras
instaladas en satélites; sirven para prever cosechas, actividades propias de los mares, pronósticos de
clima, avance de procesos de desertificación, etc.

Fig. 34 – El reflejo de una lámpara LED sobre una pantalla LCD permite observar los colores formadores de la luz
blanca. Las celdas actúan como microprismas y descomponen la energía por componentes.

57
Hugo E. Álvarez

4.2 – La luz y la fotografía: Para captar la imagen de un sujeto, se puede hacer un pequeño
agujero (llamado estenopeico) en una de las caras de una caja cuyo interior esté pintado de negro,
colocando en el lado opuesto al orificio, un trozo de papel translúcido. El fenómeno óptico, que da
así origen a la formación de una imagen invertida, se explica por la trayectoria rectilínea de los rayos
luminosos que atraviesan el pequeño agujero, donde se cruzan y se proyectan en la pared posterior,
en puntos opuestos a los de origen. Se utiliza una caja pintada interiormente de negro (cámara
oscura) a efectos de evitar la incidencia sobre el papel, de los rayos de luz que no pertenezcan al
sujeto. Esta imagen así formada no será muy nítida, ya que a cada punto del sujeto corresponderá en
la imagen, no un punto, sino una pequeña mancha luminosa circular determinada por la forma y
tamaño del orificio. Para mejorar la calidad de la imagen obtenida y tratar que corresponda a cada
punto del sujeto, un punto también de la imagen, se debe ocupar el lugar de un simple agujero por
un objetivo, o sea un sistema óptico convergente formado por una serie de lentes de distintas formas
y tipos de vidrio, y que concentra la energía luminosa hacia el eje óptico.
Una lupa, por caso, es una lente convergente o positiva simple; por lo tanto, es más gruesa
en el centro que en los bordes. Si se interpone en el trayecto de los rayos de luz procedentes
de un objeto puntual luminoso, éstos, desviados por las superficies refractantes, se reúnen
otra vez en un punto. Si estos rayos provienen del infinito –por ejemplo del sol- y son, por tanto,
paralelos al eje óptico de la lente convergente, el punto en que coinciden todos los rayos se llama
foco posterior. Análogamente, del lado de la cara anterior de la lente, existe un punto tal en su eje
óptico que, al situar en él una fuente luminosa puntual, los rayos luminosos que atraviesen la lente
emergerán de ella en forma de un “haz” paralelo al eje óptico. El punto que cumple tal condición en
una lente se llama foco anterior.
Si, por el contrario, se interpone en el haz de rayos paralelos una lente divergente –negativa- más
gruesa en los bordes que en el centro, los rayos refractados se separan como si procedieran de un
punto situado en el mismo lado de la lente en el que se originan; este punto recibe también el
nombre de foco anterior de dicha lente.
El comportamiento de un objetivo más o menos complejo, es equivalente al de una simple lentilla
convergente, pero se necesita el uso conjunto de varios elementos ópticos para mejorar la calidad de
la imagen, degradada por las distintas aberraciones presentes.

Fig. 35 - Lentes positivas (convergentes) y negativas (divergentes)


4.3 – Refracción de la luz: Es el cambio de dirección que experimenta una onda al pasar de un
medio material a otro. Solo se produce si la onda incide oblicuamente sobre la superficie de
separación de los dos medios y si estos tienen índices de refracción distintos. La refracción se origina
en el cambio de velocidad de propagación de la onda señalada.

58
Fotografía Profesional

Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz parece
quebrado. También se produce refracción cuando la luz atraviesa capas de aire a
distinta temperatura, de la que depende el índice de refracción.

Fig. 36 - Lápiz “quebrado” por la refracción.

La refracción Se produce cuando la luz pasa de un medio de propagación a otro que tiene
una densidad óptica diferente, sufriendo un cambio de rapidez y dirección, si no incide
perpendicularmente en la superficie. Esta desviación en la dirección de propagación se explica por
medio de la ley de Snell. Esta ley, así como la refracción en medios no homogéneos, son
consecuencia del principio de Fermat, que indica que la luz se propaga entre dos puntos siguiendo la
trayectoria de recorrido óptico de menor tiempo.
Por otro lado, la velocidad de la penetración de la luz en un medio distinto del vacío, está relacionada
con la longitud de onda y, cuando un haz de luz blanca pasa de un medio a otro, cada color sufre una
ligera desviación. Este fenómeno es conocido como dispersión de la luz. Al llegar a un medio más
denso, las ondas más cortas pierden velocidad sobre las largas (por ejemplo, cuando la luz blanca
atraviesa un prisma). Las longitudes de onda corta son hasta 4 veces más dispersadas que las largas,
lo cual explica que el cielo se vea azulado, ya que para esa gama de colores el índice de refracción es
mayor y se dispersa más. En la refracción se cumplen las leyes deducidas por Huygens que rigen todo
el movimiento ondulatorio:

 El rayo incidente, el reflejado y el refractado se encuentran en el mismo plano.


 Los ángulos de incidencia y reflexión son iguales, entendiendo por tales los que forman
respectivamente el rayo incidente y el reflejado con la perpendicular (llamada Normal) a la
superficie de separación trazada en el punto de incidencia.
La velocidad de la luz depende del medio por el que viaje; es más lenta cuanto más denso sea el
material y viceversa. Por ello, cuando la luz pasa de un medio menos denso (aire) a otro más denso
(cristal), el rayo de luz es refractado acercándose a la normal y por tanto, el ángulo de refracción será
más pequeño que el ángulo de incidencia. Del mismo modo, si el rayo de luz pasa de un medio más
denso a uno menos denso, será refractado alejándose de la normal y, por tanto, el ángulo de
incidencia será menor que el de refracción. Así podemos decir, a modo de resumen, que la refracción
es el cambio de dirección de la propagación que experimenta la luz al pasar de un medio a otro.

4.3.1 – Índice de refracción: Es la relación entre la velocidad de propagación de la onda en un


medio de referencia (por ejemplo el vacío para las ondas electromagnéticas) y su velocidad en el
medio particular del que se trate.

59
Hugo E. Álvarez

Fig. 37 - Ángulo crítico: cualquier rayo que incida con un ángulo θ 1 mayor al ángulo crítico θc correspondiente a
ese par de sustancias, se reflejará en la interfase en lugar de refractarse.

4.3.1.1 – Ley de refracción (Ley de Snell): La relación entre el seno del ángulo de incidencia y el
seno del ángulo de refracción es igual a la razón entre la velocidad de la onda en el primer medio y la
velocidad de la onda en el segundo medio, o bien puede entenderse como el producto del índice de
refracción del primer medio por el seno del ángulo de incidencia que es igual al producto del índice de
refracción del segundo medio por el seno del ángulo de refracción, esto es:

 : índice de refracción del primer medio


 : ángulo de incidencia
 : índice de refracción del segundo medio
 : ángulo de refracción.

4.4 – Distancia focal: En un objetivo cualquiera compuesto de varias lentes, un haz de luz que
proceda del infinito convergerá sobre el foco posterior, el cual determina la posición del plano focal
posterior – plano perpendicular al eje del objetivo en el foco posterior – llamado corrientemente
plano focal, plano imagen o plano de la película o sensor, por ser justamente allí donde se sitúa la
película (cámaras analógicas) o el sensor de imagen (cámaras digitales).

Fig. 38 - Esquema de la relación entre ángulo de incidencia, ángulo de reflexión y ángulo de refracción: A =
ángulo de incidencia. B =ángulo de reflexión. C = ángulo de refracción

60
Fotografía Profesional

Los rayos de luz que penetran en el objetivo, forman con el eje óptico un ángulo de incidencia
diferente al de emergencia. En el caso particular en que ambos ángulos fuesen iguales, es porque el
rayo incidente se dirigía hacia un determinado punto del eje óptico, llamado punto nodal (o nodo) de
incidencia; emergiendo a su vez como si procediera de otro punto similar al primero, el punto nodal
de emergencia. Los planos perpendiculares al eje que pasan por cada uno de estos puntos, se llaman
planos principales y gozan de ciertas propiedades ópticas imprescindibles para el cálculo matemático
de los objetivos.
La distancia entre el foco anterior y el punto nodal de incidencia es la misma que existe entre el foco
posterior y el punto nodal de emergencia. Esta medida es la auténtica distancia focal del objetivo.
Para comprender mejor este concepto se puede considerar el ejemplo más simplificado de la lupa,
en donde la distancia del centro de la lente al foco, coincide también con la anteriormente descrita,
tomándose a todos los efectos prácticos como su focal.

En la inquietud de encontrar una mejor comprensión de las características del llamado punto nodal
de un objetivo, decimos: el nodal de un objetivo determinado es el punto que origina el conjunto de
lentes que lo componen, donde se produce el cruzamiento de los trenes de ondas para generar, en
el plano focal, la imagen invertida del sujeto real. La distancia expresada en milímetros entre este
punto nodal y el plano focal, determina la distancia focal de tal objetivo.

Fig. 39 - El esquema muestra la estructura de un objetivo “normal” para el formato de 24 x 36 mm. La distancia
que existe entre el punto nodal y la placa de enfoque, determina la distancia focal: 50 mm.

4.5 – Lentes y formación de la imagen: Ya hemos visto como los rayos luminosos forman una
imagen pasando por el agujero estenopeico de la cámara oscura; veamos ahora como funciona una
lente, o un objetivo, y cómo se forma dicha imagen óptica.
El recorrido de los trenes de ondas luminosas es siempre rectilíneo, mientras atraviesan un medio
homogéneo y de densidad constante, como el aire. Pero cuando pasan del aire a un medio más
denso, como el agua o el vidrio (o viceversa), se desvían de su dirección original, esto es, sufren una
refracción.
Toda la óptica fotográfica se basa en las leyes de refracción.
Un rayo luminoso, que incide con una cierta inclinación sobre la superficie de un vidrio, cambia de
dirección en el interior del vidrio. Y si el vidrio está constituido por una placa de caras planas y
61
Hugo E. Álvarez

paralelas, el rayo que sale de la segunda cara vuelve a tomar su dirección primitiva; encontrándose,
sin embargo, ligeramente desplazado con respecto a ésta. Los rayos perpendiculares, no se desvían.
Si un rayo luminoso penetra en un vidrio con forma de prisma, sufre una primera refracción al entrar
en el mismo, como en el caso precedente; pero, al salir de la segunda cara del prisma, en lugar de
recobrar la dirección primitiva, sufre una segunda refracción que se suma a la primera y que lo desvía
hacia la base del prisma.

Fig. 40 - La propiedad fundamental de los rayos luminosos es que, al penetrar en otro medio de diferente
densidad, cambian de dirección.

Imaginemos ahora tener dos prismas iguales, unidos entre sí por la base.
Si de un punto luminoso de un objetivo, “O”, salen dos rayos con la misma inclinación, uno de los
cuales incide sobre la superficie del prisma superior y el otro sobre la del prisma inferior, ambos
rayos sufrirán la misma refracción y, saliendo de la segunda cara de los prismas, serán desviados
hacia sus bases. Continuando en su dirección, los rayos acabarán encontrándose en un punto “F”
que constituye el punto de convergencia, llamado foco, de todos los rayos que proceden de “O”. Los
rayos que pasan por la base de los prismas – línea de puntos – no sufren desviación.

Fig. 41 - Representación gráfica que muestra como el comportamiento óptico de una lente convergente se
puede asimilar al de dos prismas unidos por su base.

62
Fotografía Profesional

Observando la figura, vemos que los dos prismas unidos por la base se pueden asimilar a una lente
convergente biconvexa – línea curva de puntos -. Por eso, una lente d este tipo se comportará de
modo análogo y hará converger los rayos luminosos procedentes de los distintos puntos de un objeto
en otros tantos puntos focales situados sobre una superficie plana (plano focal de la lente), en la cual
se formará una imagen invertida de dicho objeto, como en el caso de la cámara oscura con agujero
estenopeico. Los rayos que pasan por el centro óptico de la lente siguen rectos, sin sufrir la
refracción. La línea horizontal de puntos que pasa por el centro de la lente, es el eje óptico.
Ahora pondremos el ejemplo de dos prismas de vidrio unidos por el vértice y examinaremos el
recorrido de los rayos luminosos, procedentes siempre de un punto “O” del objeto.
También en este caso los rayos sufren la refracción en el interior del vidrio; y saliendo,
experimentarán una segunda refracción que les hará orientarse hacia las bases de los respectivos
prismas. Pero, puesto que éstos se encuentran ahora opuestos uno de otro, el resultado será que los
rayos salientes, en lugar de converger en un punto, divergirán y se alejarán entre sí. Por tanto, no
podrá formarse, en la parte posterior de la lente, una imagen correspondiente al punto “O”. Los dos
prismas unidos por el vértice se pueden comparar a una lente divergente bicóncava. Sin embargo,
también en este caso existe un foco de la lente que se llama foco virtual, para distinguirlo del real
producido por la lente convergente; está formado por la prolongación en sentido opuesto (líneas de
puntos) de los rayos divergentes; y su punto de encuentro “F” está situado en el mismo lado del cual
provienen los rayos incidentes. Es decir, del mismo lado del objeto.

Fig. 42 - Aquí vemos como el comportamiento óptico de las lentes divergentes encuentra su equivalente
simplificado, en la unión por los vértices de dos prismas triangulares.

Diremos entonces, que una lente divergente sólo puede dar una imagen virtual y derecha (o imagen
aérea), que el ojo (según el recorrido inverso de los rayos divergentes) ve proyectar del mismo lado
en que está situado el objeto, pero que no puede ser captada y registrada por el soporte fotosensible
de imagen.
De ello se deduce que, para producir una imagen sobre película o sensor digital, debemos en
principio utilizar (pensando en un objetivo sencillo) lentes convergentes; o en un objetivo complejo

63
Hugo E. Álvarez

que, aun estando compuesto por lentes convergentes y divergentes, tenga en definitiva un poder
convergente respecto del plano focal.

4.6 – Materia prima - el vidrio: Los modernos objetivos fotográficos y cinematográficos son una
combinación complejísima de piezas mecánicas de gran precisión, que soportan los delicados
movimientos de numerosas lentes de vidrio óptico de admirable pureza y perfección.
El vidrio fue, probablemente, la primera sustancia artificial producida por el hombre y se lo conoce
desde hace unos cuatro mil años; es un material que se comporta con cualidades propias de los
sólidos y de los líquidos, puesto que puede ser considerado como un sólido extremadamente fluido,
o como un líquido considerablemente viscoso.
Consiste en una mezcla de dióxido de silicio (cuarzo), álcalis, óxidos metálicos y otros productos
químicos que modifican su comportamiento ante el paso de la luz, propiedad ésta, de gran
importancia en el cálculo de las lentes de objetivos, ya que permiten el uso del tipo adecuado en
cada caso, pudiendo escoger entre varias soluciones para un mismo problema de cálculo.
De todos modos, los vidrios ópticos se acaban clasificando en dos grandes grupos: Flint y Crown,
según posean un mayor o menor poder de dispersión de los rayos luminosos que los atraviesan.
La fabricación de vidrio óptico de alta calidad, es un proceso lento y costoso, en el que es necesario
desechar las porciones de material que presenten el más mínimo defecto o impureza.

Los objetivos fotográficos se componen de varias lentes positivas (convergentes) y negativas


(divergentes), calculadas de forma que el poder total resultante sea positivo (convergente), pudiendo
ir montadas independientemente o en grupos. De modo que una de las características que
distinguen a los objetivos es, precisamente, su número de lentes y grupos de lentes; así, podemos
decir que la fórmula de un determinado objetivo es, por ejemplo, 7/5, queriendo significar con ello
que se trata de un objetivo formado por siete elementos ópticos en cinco grupos. O sea que tiene
dos grupos compuestos por parejas de lentes que se hallan en contacto, pegadas cara con cara.

Para calcular objetivos de luminosidad y focales medias, se suele recurrir al diseño Tessar, inventado
en 1902 por el Dr. Paul Rudolph de la firma Carl Zeiss, cuya calidad óptica está perfectamente
comprobada. Se trata de un diseño 4/3 (cuatro elementos en tres grupos) que presenta un
comportamiento óptico muy notable, a condición de no pasar de una abertura de diafragma superior
a f:2,8 o f:3,5. Cuando es imprescindible una mayor luminosidad, se modifica el diseño aumentando
el número de lentes hasta cinco o siete. El propio Rudolph diseñó en 1896 el objetivo tipo Gauss – un
simétrico 6/4 – capaz de rendir resultados óptimos con una abertura máxima de f: 2.10

4.6.1 – Las lentes “flotantes”: Para mejorar el rendimiento óptico de los objetivos en corta
distancia, se pensó en la posibilidad de mover durante el enfoque sólo ciertas lentes en relación a las
restantes que permanecen fijas. En realidad la idea no es nueva, puesto que es la solución presente

10
El cine produjo una revolución con la incorporación de los objetivos ultra luminosos. Stanley Kubrick, notable
director estadounidense que inició su carrera como fotógrafo de prensa, modificó la estructura de una antigua
cámara cinematográfica Mitchell acoplándole objetivos Carl Zeizz que la NASA utilizaba en las cámaras
Hasselblad de fotografía fija y formato medio (6 x 6 cm) que equipaban sus naves espaciales. De este modo,
filmó escenas completas iluminadas esencialmente con velas en su película Barry Lyndon, que ganó 4 Oscars en
1975; por cierto, uno de estos premios fue a la mejor dirección de fotografía, la que fue realizada por John
Alcott.
Los ultra luminosos cinematográficos, desde ese momento, pueden alcanzar aberturas máximas de f:1 y f:0,7.
64
Fotografía Profesional

en la mayoría de las cámaras compactas analógicas (hoy, prácticamente desaparecidas)11 y digitales


de óptica no intercambiable, cuyos objetivos realizan el enfoque alejando del plano focal únicamente
el elemento óptico frontal, en lugar de mover todo el conjunto de lentes. Es ésta una solución que
simplifica la fabricación del mecanismo de enfoque, constituyendo un ejemplo de lo que se
denomina como lentes o lentillas flotantes. Un caso paradigmático de lentes flotantes (y de esta
época) son los objetivos de focal variable, conocidos como “zoom”.12 En ellos, la variación continua
de focal se lleva a cabo por medio de desplazamientos combinados de hasta tres grupos de lentes.

Las lentillas o lentes flotantes han disminuido a límites espectaculares los defectos de astigmatismo y
curvatura de campo, pero toda lentilla “esférica” lleva inherentes en su forma, las aberraciones de
esfericidad y coma, que más adelante describiremos. Estas aberraciones son imposibles de eliminar,
salvo que se utilicen lentes “asféricas”, que son aquellas cuya sección no corresponde a segmentos
de una circunferencia, sino a otro tipo de curva como puede ser una parábola o una hipérbola.

Fig. 43 - Diseño óptico donde ha sido necesario recurrir al empleo de una lente asférica para construir un gran
angular “ojo de pez” de 10 mm.

4.7 – Encuadre, formato y distancia focal: La longitud focal de un objetivo está relacionada con
otro dato importante: el formato del fotograma que dicho objetivo está destinado a cubrir.
Longitud (o distancia) focal y dimensiones del fotograma están en estrecha relación y determinan
el encuadre abarcado por el objetivo y el tamaño de la imagen del sujeto, reproducida en el

11
La fabricación de cámaras analógicas compactas se descontinuó a principios del siglo actual.
12
Las primeras lentes zoom surgieron para aplicar a telescopios en el año 1834. El primer objetivo zoom real,
que mantenía el enfoque al variar la distancia focal, fue patentado en 1902 por Clile C. Allen. Pero fue el Bell &
Howell Cooke "Vario" 40/120 mm para cámaras de cine de 35mm introducido en 1932, el primer objetivo de
este tipo producido industrialmente.

El primer objetivo zoom para cámara fotográfica SLR de 35mm, fue diseñado por Frank G. Back, el ZOOMAR
f:2,8/36-82 mm que la marca alemana Voigtländer presentó en mayo de 1959, siendo un objetivo muy
luminoso y versátil. Back no sólo inventó este objetivo, sino también el término "zoom". En el mismo año Nikon
también presentó un zoom f:4,0-4,5 /85-250 mm para su SLR Nikon F.El ingeniero y óptico francés Pierre
Angénieux (1907 —1998), fue uno de los inventores que desarrolló los zoom modernos (esencialmente para
cine, video y televisión), e introdujo el sistema Angénieux retrofocus. Recibió un Oscar al desarrollo científico y
técnico en 1964 y fue proveedor constante de firmas como Bell & Howell y de la NASA en sus proyectos
espaciales.

65
Hugo E. Álvarez

negativo analógico o en el sensor digital. Según las leyes de la óptica geométrica, a igualdad de
formato del soporte de imagen, un objetivo de longitud focal más corta (gran angular) abarcará un
encuadre más amplio, y por lo tanto, las imágenes de cada uno de los sujetos reproducidos en el
fotograma, resultarán más pequeños; si utilizamos un objetivo de focal larga (teleobjetivo), el
campo de toma se restringirá y, de manera proporcional, las imágenes de cada uno de los sujetos
resultarán más grandes en la captura obtenida.

Básicamente, lo que ocurre es lo siguiente: si utilizamos el formato base de 24 x 36 mm y


montamos en la cámara un objetivo de 50 mm de focal, abarcaremos un campo de 45°
aproximadamente; si sustituimos el objetivo de 50 mm por uno de 100 mm, permaneciendo
siempre a la misma distancia del sujeto, el encuadre se reducirá a la mitad; pero en compensación,
las imágenes reproducidas tendrán una dimensión lineal doble (cuatro veces más grandes en
términos de superficie).

En el primer caso, habremos usado un objetivo considerado “normal” para el formato referido; en
el segundo caso, habremos utilizado un “teleobjetivo”. Si por el contrario hubiéramos utilizado un
objetivo de 35 mm de focal, podríamos decir que hemos usado un “gran angular”.

Estas calificaciones de normal, gran angular y teleobjetivo, surgen de considerar la medida en


milímetros de la diagonal de la imagen que se obtiene con cada formato. En el formato de 24 x 36
mm esa diagonal mide 43,27 mm, por lo que se considera la focal de 50 mm como la medida de su
objetivo normal. (Véase Formatos del sensor de imagen, páginas 15, 16 y 17, Capítulo 1 del
presente texto).

Fig. 44 - La elección de objetivos de distinta focal determina el tamaño de la imagen, aunque la distancia
cámara – sujeto se mantenga invariable.

66
Fotografía Profesional

Comparación entre diferentes focales para formato 24 x 36 mm (full frame).


Proporción de la imagen, Distancia aparente,
Distancia focal comparada con el objetivo comparada con el sujeto a 15 m
de 50 mm y el objetivo de 50 mm
21 mm 0,42 x 35,714 m
25 mm 0,50 x 30 m
28 mm 0,56 x 26,78 m
35 mm 0,70 x 21,43 m
50 mm 1x 15 m
85 mm 1,7 x 8,82 m
105 mm 2,1 x 7,14 m
135 mm 2,7 x 5,55 m
180 mm 3,6 x 4,16 m
250 mm 5,00 x 3m
350 mm 7,00 x 2,14 m
500 mm 10,00 x 1,5 m
1000 mm 20,00 x 0,75 m

4.8 – Haciendo foco: El problema del enfoque es principalmente de tipo mecánico, y reside en el
gran recorrido que debe hacer un objetivo – o al menos su lente frontal – para enfocar, sobre todo,
objetos cercanos; ello obliga a disponer de una montura delantera móvil, construida con una
precisión fuera de lo común.

Sin embargo en los últimos tiempos (gracias a la ayuda de computadoras y robots en el momento
del diseño y la construcción), se han logrado perfeccionamientos impresionantes que incluyen
sistemas de enfoque automático de altísima precisión y que incluyen, en algunos objetivos fijos y
zoom la función macro, que se logra mediante el desplazamiento hacia atrás del elemento (lente)
posterior del objetivo.
De todos modos, y siendo el enfoque un elemento mecánico que depende de la conservación y
cuidado que se le brinde, resulta recomendable protegerlo de toda suciedad o material abrasivo
para evitar daños irreparables.

4.9 – El ángulo cubierto: Cada objetivo –a causa de la forma esférica de las lentes- obtiene una
imagen circular de cierto diámetro, que será de mayor o menor tamaño en función de la focal
utilizada.

Dicho en otros términos, un objetivo cubre un determinado círculo de imagen. Debido a las
aberraciones, esta imagen será muy nítida en las zonas centrales y se irá degradando (perdiendo
nitidez) a medida que nos acercamos a los bordes del círculo.

Puesto que los formatos de los fotogramas no son circulares sino cuadrados o rectangulares,
consideraremos como medida útil la del formato que pueda ser cubierto, en su relación de aspecto
y superficie, por los límites del círculo de imagen proporcionado por el objetivo.

Teniendo en cuenta, por cierto, de que se debe aprovechar la parte central de la proyección del
objetivo que es la que ofrece mayor nitidez.

67
Hugo E. Álvarez

Es evidente que las dimensiones del círculo de imagen cubierto, condicionan las dimensiones del
fotograma utilizable. Por lo tanto, un objetivo construido para servir a un formato pequeño no
podrá ser utilizado para trabajar sobre formatos más grandes.

Para tener una idea de la cobertura del círculo de imagen respecto del tamaño del fotograma a
producir, podemos decir que cuando se utiliza un objetivo en toma muy cercana como la de
encuadrar un objeto a tamaño natural (relación 1:1) el diámetro del círculo cubierto es el doble de
cuando se enfoca con el mismo objetivo a infinito.

Lo importante, es que sepamos distinguir claramente el hecho de que el ángulo de campo


abarcado por el objetivo cubre una zona circular, de la cual la ventana de la cámara delimita una
zona rectangular denominada ángulo de visión.

El ángulo de campo no cambia al variar el diámetro del diafragma; ni tampoco depende de la


distancia focal del objetivo, sino que se determina en el momento de diseñar el objetivo en función
del formato de imagen que deberá cubrir.
Únicamente aumenta, como ya mencionamos, al alejar la proyección del objetivo respecto del
plano focal, esto es, cuando se enfoca a un sujeto más cercano del infinito.

Fig. 45 - Los objetivos cubren un campo circular del cual, por motivos técnicos y estéticos, utilizamos sólo una
zona central rectangular. Ese campo determina el tamaño del formato utilizable.

4.10 – Aberraciones ópticas: Las aberraciones son defectos en la transmisión de imágenes que
presentan, irremediablemente, todos los objetivos y elementos ópticos, en mayor o menor grado.
Las aberraciones se reducen y equilibran fundamentalmente, mediante lentes que compensan o
equilibran a otras de efectos contrarios. Combinando lente de distintos grosores, curvaturas e
índices de refracción, se pueden corregir las aberraciones hasta límites razonables.

68
Fotografía Profesional

Evidentemente, el poder de resolución de un objetivo depende de cómo y en qué medida se hayan


solucionado las aberraciones debidas a la difracción y dispersión13 de los rayos luminosos al
atravesar cada una de las lentes que lo componen.

Describiremos estas aberraciones, clasificándolas en cinco categorías:


a) Aberración esférica.
b) Coma.
c) Astigmatismo y curvatura de campo.
d) Distorsión.
e) Aberraciones cromáticas.

a) Aberración esférica: Se supone que cualquier objetivo debe dar, en el centro del plano focal,
una imagen nítida cuando está correctamente enfocado. Pero ocurre que los rayos paralelos
de luz que pueden provenir desde el sujeto, chocan contra la superficie de las lentes y
convergen de modo desordenado, debido a que la superficie curva de la lente, origina
diferentes ángulos de incidencia. Esta aberración se corrige combinando una lente
convergente con otra divergente de menor potencia, de manera que la combinación resulte
positiva (convergente) y controlada.
b) Coma: Así como en la parte central de la imagen producida por un objetivo la única
aberración que cuenta es la esférica, cuando nos alejamos del centro entran en juego otras y
entre ellas el coma. Aun cuando existe un diafragma para limitar el diámetro del haz de rayos
paralelos, la zona utilizada del objetivo es siempre la misma y es independiente de la
posición del diafragma. Pero si los rayos provienen oblicuamente, de puntos alejados del eje,
la ubicación física del diafragma sí determina la zona del objetivo que se utiliza. Las
aberraciones que se producen en este caso varían según que el diafragma esté más o menos
alejado de la lente y según esté colocado delante o atrás.
Si empleamos un objetivo para formar la imagen de un punto no muy alejado del eje y con
un valor de diafragma muy cerrado, f:64 por ejemplo, se comportará como un objetivo casi
perfecto. Pero si aumentamos la abertura del diafragma, vemos que la luz que llega a la
pantalla de enfoque forma una mancha luminosa originada en los límites de una lente o
grupo de lentes, que tiene forma de cola de cometa. Este defecto es producido por el coma.
Los comas sencillos o de primer orden pueden ser exteriores o interiores (según sea que la
“cabeza” del supuesto cometa apunte hacia el centro o hacia el borde de la imagen) y los
comas complejos son combinaciones de aberraciones interiores y exteriores.
c) Astigmatismo y curvatura de campo: El astigmatismo es una aberración que afecta a la
reproducción de las líneas. Consiste en que, cuando una serie de líneas aparecen
perfectamente enfocadas sobre el plano focal, otra serie de líneas situadas en el mismo
plano (pero que cortan en ángulo recto a las anteriores) aparecen desenfocadas. Un objetivo
astigmático, enfocará las líneas radiales en un plano y las tangenciales en otro diferente. Un
objetivo está “corregido” respecto al astigmatismo cuando estos errores sean virtualmente
nulos en un punto lo suficientemente alejado del eje, aunque seguramente quedarán
residuos de astigmatismo en otros puntos cercanos a los bordes (de las lentes y del
fotograma producido). Mientras tanto, la curvatura de campo ocurre cuando un objetivo es
incapaz de formar la imagen de un objeto plano sobre el plano focal, que es realmente plano.
Un objetivo con este defecto sólo puede enfocarse correctamente, o bien en el centro, o

13
Los fenómenos de difracción y dispersión serán tratados en el Capítulo 4 del presente texto.
69
Hugo E. Álvarez

bien en los bordes. Tanto el astigmatismo como la curvatura de campo puede corregirse, en
la práctica, si diafragmamos, pues de esta manera aumenta la profundidad de foco.
d) Distorsión: Al colocar (físicamente) el diafragma junto a una lente, impedimos que los rayos
luminosos oblicuos –procedentes de objetos alejados del eje- pasen por la zona central.
Estos rayos formarán la imagen demasiado cerca o demasiado lejos del eje de la lente, según
se coloque el diafragma delante o detrás. Es decir que el “aumento” de la imagen no será el
mismo en todo el cuadro. La distorsión curvilínea es la incapacidad de un objetivo para
mantener el mismo grado de aumento en todo el campo. Si reproducimos una cuadrícula,
esta adoptará la forma de un barril (con el diafragma adelante) o de un almohadón (con el
diafragma detrás). La distorsión afecta a la forma, pero no a la nitidez. Por tanto, no se
corrige diafragmando. La única manera de hacerlo es colocar el diafragma en una posición
más conveniente; en el caso de objetivos compuestos de construcción simétrica, esta
posición sería el centro exacto, en medio del mismo número de lentes que se ubican por
delante y detrás.
e) Aberraciones cromáticas: Los cristales tiene diferentes índices de refracción para cada
longitud de onda de la luz visible; es decir, para uno de los colores primarios que la
componen. La aberración cromática es la incapacidad de un objetivo para hacer que las
distintas radiaciones de color (que componen la luz blanca) converjan en un mismo punto
focal. A nivel de diseño se corrige combinando una lente positiva (convergente) con una
negativa (divergente) construidas en dos tipos distintos de vidrio óptico y que la divergente
tenga un poder de dispersión igual, pero contrario al elemento positivo, además de un índice
de refracción menor. Así, el conjunto sigue siendo convergente, pero la aberración está
corregida. Cuando un objetivo está corregido para dos colores (generalmente azul y verde) se
denomina acromático; los que están corregidos para los tres colores (azul, verde y rojo)
reciben el nombre de apocromáticos.
La aberración cromática lateral refiere a la imposibilidad para mantener un mismo tamaño
de imagen para todos los colores. Por ejemplo, si fotografiamos un rectángulo totalmente
blanco, veremos que se puede formar una franja de color en los bordes. Esto es debido a que
el contenido de azul del rectángulo forma una imagen menor que el verde, que a su vez,
formará una imagen menor que el rojo. Cuanto más oblicuos sean los trenes de onda, mayor
será la dispersión del color.

El control práctico que se puede realizar para conocer si un determinado objetivo sufre de
una o más aberraciones, es el siguiente:
Existen retículas o cartillas de control donde han sido impresas líneas verticales negras, cuyo
espesor es igual al área blanca (del papel) que separa una de otra. Una de estas retículas
tiene 1.000 líneas negras (separadas por otras 1.000 blancas) y otra presenta 2.000 líneas
negras alternadas en otras tantas blancas.
Al fotografiarlas, se tiene un acabado conocimiento del poder de resolución del objetivo, que
se mide por la cantidad de líneas que el soporte de imagen ha podido reproducir por mm. Y
se conoce si posee una adecuada respuesta de contraste, si es proclive a aberraciones como
distorsión, aberración cromática, astigmatismo y/o curvatura de campo. Estos ensayos son
absolutamente comunes en el cine; el rodaje de una película no comienza hasta haber
agotado ésta y otras comprobaciones sobre los objetivos, las cámaras y el sistema de registro
que se utilizará en la producción.

70
Fotografía Profesional

4.11 – Profundidad de foco: La profundidad de foco se refiere al rango sobre el cual el plano de
imagen se puede mover manteniendo una cantidad aceptable de nitidez.
Se trata de una estrecha zona dentro de la cual puede desplazarse hacia adelante y hacia atrás la
película o sensor, sin diferencia apreciable en la resolución precisa de la imagen.
Como en el caso de la profundidad de campo, aumenta al reducir la abertura del diafragma, mientras
que los efectos de la distancia al motivo y la longitud focal son lo contrario: la profundidad de foco es
tanto mayor cuanto más cerca del sujeto está el objetivo y cuanto mayor es la longitud focal de éste.
Además, se prolonga en la misma medida por delante que por detrás del punto exacto de foco. De su
valor depende el grado de exactitud con que la película o sensor debe colocarse en el interior de la
cámara, por lo que esta variable afecta al diseñador y al constructor de la misma manera que al
fotógrafo.
La profundidad de foco es importante en la microfotografía ya que la emulsión de la película o el
sensor de la cámara, debe ser expuesto en un plano que caiga dentro de la región de foco.
Depende de tres factores:
a) La profundidad de foco es tanto mayor, mientras más pequeña sea la abertura
del diafragma (al igual que la profundidad de campo).
b) La profundidad de foco es tanto mayor, cuanto mayor es la distancia focal del objetivo (al
contrario de lo que ocurre con la profundidad de campo). Esto se explica porque un objetivo
de distancia focal corta, da lugar a un cono luminoso de ángulo más abierto que uno de focal
larga.
c) La profundidad de foco es tanto mayor, cuanto menor sea la distancia de enfoque (lo
contrario de lo que ocurre con la profundidad de campo). Esto ocurre porque el enfoque
exige una separación entre lente y película, para producir el aumento de la zona crítica de
nitidez.

Fig. 46

71
Hugo E. Álvarez

72
Fotografía Profesional

CAPITULO 5

Matemática y Fotografía.
Si tuviéramos que buscar alguna clase de “tutoría” de los sistemas fotográficos tradicionales, nos
remitiríamos indudablemente a dos ciencias: Física y Química.
Si consideráramos al video o a la televisión, una de estas disciplinas, la Química, cedería su lugar a la
Electrónica y a toda la tecnología digital.

Y sabemos que cualquiera de estas ciencias reconoce a otra que las rige plenamente: la Matemática.

Podemos inferir entonces que la matemática es obviamente rectora de los procesos fotográficos,
sean estos físico-químicos o físico-electrónicos.

A partir de esta realidad, los sistemas fotográficos manejan cifras que se relacionan entre sí y que
posibilitan el uso de un “idioma” o código comprensible, que resume los parámetros de operatividad
de la técnica fotográfica.

Cuando consideramos relaciones matemáticas de iluminación, diafragmas, tiempos de obturación,


sensibilidad de las emulsiones, no estamos frente a datos individuales, desconectados, sino a partes
de un todo de origen matemático, relacionado, “emparentado” en sus términos, y manifiesto como
un lenguaje. Un profesional de la fotografía maneja esta “lengua” y la utiliza constantemente como
forma de comunicación inequívoca dentro de un equipo de filmación, que no puede bajo ningún
concepto, subordinar su trabajo a enunciados ambiguos o poco precisos.

Vamos a explicar entonces de modo sintético, de donde surgen los números que gobiernan los
sistemas fotográficos, para luego saber cómo se establecen las relaciones entre ellos.

Consideraremos entonces:

 Códigos de sensibilidad de las emulsiones y su traslado a los sistemas digitales.


 Valores de diafragma: números f y números T.
 Tiempos de obturación.
 Magnitudes de iluminación.
 Expresión del contraste de iluminación: Ratios y Radios.
 La Exposición fotográfica: Consecuencia matemática.

5.1 - Sensibilidad de las emulsiones.

La sensibilidad o “rapidez” de una emulsión fotográfica, indica su capacidad de reaccionar ante una
exposición a la luz.
Cuanto mayor es la sensibilidad de una emulsión, menor es la exposición necesaria para impresionarla,
en iguales condiciones de iluminación del sujeto.
A este respecto, y en función de la respuesta particular, podemos clasificar a las películas en lentas,
(baja sensibilidad) medias, (sensibilidad media) y rápidas (alta sensibilidad.)

73
Hugo E. Álvarez

Para la medida de esta sensibilidad se desarrollaron sistemas diversos (Scheiner, DIN, Hurter y Drifield,
Weston, General Electric, Gost, ASA) que complicaban la comprensión general, aún cuando
compartían en términos reales parámetros similares de evaluación, tales como tomar el mínimo
depósito de plata negra como valor de umbral, concepto que posteriormente cambia, denominando
como valor de umbral a la densidad más baja posible de ser reproducida, cuando se positiva un
negativo.

Punto Umbral

E = Log. Exp.

Fig. 47 - Curva Característica de una emulsión negativa. El punto umbral indica la mínima densidad posible de
transferir a una copia positiva.

De todas maneras, y luego de una depuración necesaria, comenzaron a coexistir dos escalas para
mensurar la sensibilidad: DIN (Deutsche Industrie Norm) y ANSI. (American National Standard
Institute) A este último, con envidiable persistencia, sigue aplicándosele su antigua denominación
ASA, a punto tal que las películas tipificadas con esta norma han llevado en sus envases el término
ASA mientras duró la dualidad DIN/ASA, suplantada hace años por la norma única ISO y que, en
esencia, es la simple reunión de los índices alemán y estadounidense en una información única.
Recordando lo ya expresado, respecto del punto umbral como frontera admisible del registro
fotográfico en lo concerniente al área de sombras del sujeto, vamos a comparar los índices DIN y
ASA, para saber cómo esquematizan su funcionamiento y cuál es la conclusión que nos brindan para
esta primera mirada a la matemática como sustentadora de la fotografía.

La escala DIN tiene una progresión logarítmica; la sensibilidad de la película dobla o reduce su valor a
la mitad, cada 3 (tres) grados en más o en menos. Por ejemplo, una sensibilidad de 21º DIN indica
una rapidez doble que la de 18º DIN, y la mitad de la indicada por 24º DIN que a su vez, es el
cuádruple más sensible que la de 18º.
En términos más concretos, una emulsión de 18º DIN deberá recibir una exposición doble respecto a
una de 21º DIN y cuatro veces mayor que una de 24º DIN, para registrar a un sujeto que mantiene el
mismo nivel de iluminación.

74
Fotografía Profesional

La escala ASA funciona como progresión aritmética: la sensibilidad dobla o reduce su valor a la mitad,
al duplicar o disminuir a la mitad el número índice. Una película de 200 ASA es el doble de sensible
que una 100 ASA, y la mitad que una de 400 ASA.

Pero ambas escalas de sensibilidad en definitiva, coinciden en términos de rendimiento real, por lo
que simplemente se deben buscar las equivalencias entre las dos normas: por ejemplo, 21º DIN
indica la misma sensibilidad que 100 ASA; y la norma ISO, reuniendo ambos códigos, denota esta
sensibilidad como ISO 100/21º.

Para una mejor comprensión, veamos la tabla que sigue, donde se han fijado valores al crecimiento
de la sensibilidad relativa, partiendo de la unidad, que es asignada a la que se considera primera
sensibilidad útil para la fotografía.

Grados DIN 6 9 12 15 18 21 24 27 30 33 36

Grados ASA 3 6 12 25 50 100 200 400 800 1600 3200

Sensibilidad
Relativa 1 2 4 8 16 32 64 128 256 512 1024

Aunque más adelante se profundizará, marcamos aquí un primer “parentesco” numérico de la


fotografía: las cifras que indican la sensibilidad relativa en el cuadro, sirven para identificar los
valores de Ratio y Radio en el desarrollo de un planteo de iluminación.

Por otra parte, las cifras 128 y 256 que aparecen en el mismo renglón, fueron citadas como la
amplitud posible de lecturas de brillos para las emulsiones de películas negativas de media y alta
sensibilidad. 14

Ahora bien, en términos de valores de sensibilidad, las cifras expresadas en el cuadro anterior
reflejan índices que muestran variaciones de doble o mitad de velocidad entre números contiguos, lo
cual es un buen comienzo en cuanto a entendimiento; pero estos valores no son únicos, dado que
entre estos índices “enteros” existen magnitudes intermedias de sensibilidad.

Concretamente: entre dos números (índices) sucesivos de la escala, (100/21º ISO – 200/24º ISO)
existen dos puntos intermedios, dos “tercios” que no son una simple especulación teórica, sino
sensibilidades reales que se exhiben como alternativa de trabajo.
Así, entre la duplicación que va de 100 a 200 ISO, aparecen los tercios de este espacio de
crecimiento: 125/22º y 160/23º ISO.

El primero es 1/3 más sensible que 100 ISO y el índice 160/23º ISO expresa ser 2/3 más rápido que
100 ISO.

14
Véase Capítulo 1, página 26.
75
Hugo E. Álvarez

Esta noción de tercios tiene una importancia fundamental en la resolución del problema técnico de la
fotografía.
La siguiente Tabla, muestra la escala de sensibilidades que normalmente pueden ser utilizadas, y que
responden a crecimientos de 1/3 de valor entre índices sucesivos.

Tabla de valores de sensibilidad.

Grados ISO Grados ASA Grados DIN


3/6 3 6
4/7 4 7
5/8 5 8
6/9 6 9
8/10 8 10
10/11 10 11
12/12 12 12
16/13 16 13
20/14 20 14
25/15 25 15
32/16 32 16
40/17 40 17
50/18 50 18
64/19 64 19
80/20 80 20
100/21 100 21
125/22 125 22
160/23 160 23
200/24 200 24
250/25 250 25
320/26 320 26
400/27 400 27
500/28 500 28
640/29 640 29
800/30 800 30
1000/31 1000 31
1250/32 1250 32
1600/33 1600 33
2000/34 2000 34
2500/35 2500 35
3200/36 3200 36

Resulta evidente que esta tabla no se agota aquí, dado que puede crecer en función del desarrollo
extraordinario de la tecnología digital. En función de tal extensión, puede resultar dificultosa la
intención de memorizarla; pero no se trata de un ejercicio de memoria, sino de una sencilla
observación seguida de un apropiado razonamiento.

Si nos detenemos en el índice ASA o su equivalente en el primer término de la norma ISO, veremos
que la escala es una simple repetición de cifras que, en orden creciente de sensibilidad desplazan
decimales a la derecha: 10, 100, 1000 ISO; o en otro caso: 3, 32, 320, 3200 ISO.

 Sabiendo esto y recordando sólo una secuencia, podemos deducir cualquier valor en orden
creciente o decreciente de la escala, ya que también conocemos que cada cuatro números
(índices) se producen en sentido progresivo, una duplicación matemática y de respuesta sensible.

Por ejemplo, si memorizamos la secuencia: 25-32-40-50 ISO y queremos conocer los valores de la
secuencia que sigue, duplicamos estas cifras: el resultado será 50-64-80-100 ISO, que tendrán el

76
Fotografía Profesional

doble de sensibilidad que sus índices originarios y mantendrán la relación de tercios con sus vecinos
inmediatos.
De este modo, el cálculo es sencillo, claro y sin límites.

5.2 - El diafragma y la luminosidad.

El término luminosidad de un objetivo hace referencia a la máxima cantidad de luz que accede a
través de él y llega al plano focal, lugar de alojamiento de la película o del sensor de imagen, pasando
por un diafragma de diámetro variable situado generalmente entre dos grupos casi simétricos de
lentes. Su posición debe ser ta,l que su efecto regule la cantidad de luz que proviene del sujeto, pero
que no obstruya el paso de los trenes de ondas que forman la imagen del mismo.

Sin embargo, la acción de aumentar o disminuir la abertura del diafragma de un objetivo no solo
aumenta o restringe la intensidad luminosa, sino que al mismo tiempo reduce o incrementa la
profundidad de campo. (Áreas de la escena que se registran nítidamente – Ver capítulo 2, página 36)

Además, cuando se deciden aberturas grandes del diafragma, se incrementan las aberraciones y se
disminuye el efecto de difracción.

 De modo muy general, buscando solo una comprensión básica o una actualización de
conocimientos adquiridos, diremos que las aberraciones que se producen sobre imágenes ópticas,
son efectos indeseados de la lente o conjunto de lentes que componen un objetivo.

Entre las más comunes, podemos citar a las aberraciones cromáticas, producidas por
variación de la longitud de onda, y a las geométricas, entre las que tienen mayor importancia
las conocidas como esféricas, curvatura de campo, distorsión, coma y astigmatismo.

 La Difracción en tanto, es el fenómeno que ocurre cuando la energía lumínica rodea un obstáculo,
como por ejemplo, el borde de la abertura en el anillo de diafragma.

Ordinariamente, los efectos de difracción son muy pequeños, dado que la mayor parte de las
fuentes luminosas tienen una gran superficie; de modo que el patrón de difracción producido
por un punto de la fuente se acumula sobre el que genera otro punto, y el fenómeno
desaparece. Además, las fuentes usuales de luz no son monocromáticas. Los patrones de las
diversas longitudes de onda se superponen, dando resultados (defectos) poco perceptibles.

Todo objetivo tiene su diafragma óptimo. Este punto está más cerca de la máxima abertura cuanto
más corregido esté el objetivo de posibles distorsiones. El punto óptimo que referimos es el que
produce el mínimo de aberraciones y el menor efecto de difracción.

El resultado del empleo de este punto o abertura de diafragma, es una imagen de máxima resolución
para ese objetivo en particular. (Véase figura 48)

77
Hugo E. Álvarez

Número de Aumento de la resolución por disminución


Número de abertura de las aberraciones
trazos por óptimo
mm.

140

120
Pérdida de resolución por
100 difracción

80

60

40
Fig. 48 - Esquema de influencia de las aberraciones y la difracción.
20

0 numérico del diafragma: Para otorgar un código numérico a las distintas aberturas de
5.2.1 - Valor
diafragma, se podría recurrir al simple expediente de indicar el valor en milímetros del diámetro que
tiene el agujero circular que deja pasar la luz, por ejemplo:
1 mm., 5 mm., 10 mm., etc.

El inconveniente de este sistema es que, a igual abertura, (supongamos una ventana circular de 10
mm) un objetivo de 28 mm de distancia focal, deja pasar mucha más luz que uno de 150 mm.

Es por ello que se optó por un ingenioso procedimiento donde se tiene en cuenta la distancia focal,
además de la abertura propiamente dicha. Al resultado de este sistema se lo denomina número f, y
nace del cociente entre la distancia focal del objetivo y el diámetro del diafragma en cada una de sus
aberturas.

Distancia focal
Número f = -------------------------------
Diámetro de la abertura

Esta expresión indica, cuántas veces está contenido el diámetro de la abertura en la distancia focal
del objetivo, todo expresado en milímetros.

La cifra resultante de la división planteada en la fórmula citada, es el número f. La ventaja de este


sistema de medida sobre el verdadero diámetro de la abertura, es que garantiza que con cualquier
objetivo, la cantidad de luz que ingresa al cuerpo de la cámara es la misma para el mismo número f,
aunque las distancias focales sean muy diferentes.

Esto no ocurriría usando el diámetro como guía, porque como ya se ha dicho, los objetivos de menor
longitud focal, producen imágenes más luminosas para igual abertura; gracias a la metodología de los
números f, se pueden intercambiar los objetivos y seguir teniendo un control exacto de la exposición.
78
Fotografía Profesional

Plano
Distancia focal focal

Diámetro del
Diafragma
diafragma a f: 4

Fig. 49 - Transmisión del volumen de luz administrado por valor de diafragma.

Veamos ahora la importancia de la superficie del círculo que forma en sus distintas medidas el
diafragma, para dejar pasar luz hacia el plano focal.

Sepamos como principio que un círculo que tiene el doble de superficie que otro, deja pasar el doble
de luz. Recuérdese que los números f son expresión de una superficie, y no de valores lineales, por lo
tanto, debe quedar muy claro que si se dobla el valor del diámetro del círculo, no se duplica la
cantidad de luz que pasa a través de él, sino que se cuadruplica, en función del aumento (por cuatro)
en la superficie del orificio liberado.

Esto se demuestra de la siguiente manera; partamos de la base que la superficie de un círculo es:

𝑆 = 𝜋2 = 𝑟

Démosle al radio un valor unitario, por ejemplo, 1 mm.

𝑆 = 3,14. (1)2 = 3,14 𝑚𝑚2

Supongamos ahora, que la superficie aumentará al doble si doblamos el valor del radio:

𝑆 = 3,14. (2)2 = 12,56 𝑚𝑚2

Al ver la relación:
12,56 𝑚𝑚 2
3,14 𝑚𝑚 2
=4

Vemos que al duplicar el valor del radio, aumenta cuatro veces la superficie del círculo. Si bien este
análisis resulta demasiado obvio, nos parece provechoso pedagógicamente.

79
Hugo E. Álvarez

La pregunta es entonces: ¿cuánto tenemos que aumentar el radio (o el diámetro) de nuestro diafragma,
para duplicar la superficie?

Pongamos el radio en función de la superficie:

𝑆 𝑆
De 𝑆 = 𝜋 ∙ 𝑟 2 𝑟2 = 𝜋 𝑟= 𝜋

Cuando S = 3,14

3,14
𝑟= 3,14
= 1=1

Pero queremos duplicar el valor de S, de modo que tenga un valor de 2 S = 6,28.


¿Qué valor tendrá el radio?

𝑆 2𝑆 2∙3,14
𝑟= 𝑟′ = = = 2
𝜋 𝜋 3,14

Vemos entonces que al multiplicar el valor del radio por  2, se duplica la superficie del círculo.
Recordemos ahora la manera de determinar los números f:

Distancia focal
Número f = ----------------------------------
Diámetro de la abertura

Si tenemos un objetivo de 50 mm. de distancia focal, cuya abertura máxima nos da un diámetro de 50
mm. :

50 𝑚𝑚
𝑓= = 1 - Siendo este nuestro primer número f.
50 𝑚𝑚

Ahora queremos que el siguiente número f, represente la mitad de la luz admitida. Como vimos,
debemos afectar el radio o el diámetro de la abertura efectiva, por 2.

Si queremos aumentar al doble la superficie, multiplicamos el diámetro de la abertura efectiva por 2. Si


queremos disminuirla a la mitad, dividiremos su radio por 2.

La raíz cuadrada de 2 es un número irracional, ya que no tiene un resultado exacto; pero a los fines de su
aplicación en el cálculo fotográfico, resulta útil:
2 = 1,4142135 …… Del que usaremos solamente: 1,4

De este modo, para conocer el valor del diafragma que sigue a f: 1, el cual dejará pasar la mitad de la
luminosidad:

80
Fotografía Profesional

50 𝑚𝑚 50 𝑚𝑚 ∙ 2
𝑓= 50𝑚𝑚 = 50 𝑚𝑚
= 1 x 2 = 1,4
2

El valor f: 1,4 deja pasar exactamente la mitad de la luz que f: 1 por lo que podemos afirmar que:

Para conocer el valor de cada punto de diafragma, en orden matemáticamente creciente, se debe
multiplicar el número anterior por 1,4; pero sabiendo que ello implica una disminución de la luz
transmitida en términos de la mitad de la producida por el valor anterior.

Número f Multiplicado por: Número f resultante:


1 1,4 1,4
1,4 1,4 2
2 1,4 2,8
2,8 1,4 4
4 1,4 5,6
5,6 1,4 8
8 1,4 11
11 1,4 16
16 1,4 22
22 1,4 32

Los valores de diafragma son universales, y aparecen en objetivos de cámaras fotográficas, cinematográficas y de
video, sean éstas analógicas o digitales.

Veamos ahora en un objetivo de 50 mm de distancia focal, cuál es el diámetro de las aberturas que
corresponden a los valores f: 1 y f: 32.

Distancia focal
50 𝑚𝑚
Diámetro = -------------------- Entonces: 1
= 50 𝑚𝑚
Número f

En el otro extremo, para f: 32:

50 𝑚𝑚
32
= 1,56 mm

O sea que nuestro diafragma puede variar su diámetro desde un milímetro y medio hasta cincuenta
milímetros. Esto implica un incremento de:

50 𝑚𝑚
1,56 𝑚𝑚
= 32 veces
Lo que implica que la superficie de la abertura se ha incrementado:

322 = 1.024 veces

La cantidad de luz admitida, también ha variado 1.024 veces. Veamos las relaciones:

81
Hugo E. Álvarez

N° f Incremento de la luminosidad relativa


32 1
22 2
16 4
11 8
8 16
5,6 32
4 64
2,8 128
2 256
1,4 512
1 1024

Si comparamos las cifras de luminosidad relativa con las de sensibilidad relativa que aparecen en la
página 75, veremos que son idénticas.
Ahora bien, estos números f que hemos estado considerando, son los que llamamos genéricamente
puntos enteros de diafragma y cada uno de ellos representa el doble o la mitad de la luz admitida
respecto a sus vecinos directos.
Pero así como veíamos que la escala de sensibilidades se ordena en tercios, del mismo modo los espacios
entre puntos enteros de diafragma también están ocupados por valores intermedios. Las cifras de estos
tercios no aparecen marcadas en los objetivos por una simple razón de espacio, pero las cámaras con
procesadores electrónicos suelen mostrarlos a través de pantallas, o directamente en sus visores.
(Cámaras digitales fotográficas y de video)
El listado que sigue, enuncia los valores de los tercios de diafragma situados entre los que consideramos
como puntos “enteros”.
Estos puntos “enteros” han sido destacados en negrita, a modo de referencia.
Todos estos signos configuran el conjunto usual de números f, y aparecen en escalas de extensión
variable, según el tipo de objetivo que se considere.
Recuérdese que se han producido redondeos matemáticos para facilitar el uso y la memorización, dado
que las cifras completas incluyen muchos decimales.

Valores de Diafragma:

1 11
1,2 12,7
1,3 14
1,4 16
1,6 18
1,8 20
2 22
2,2 25,5
2,5 28,3
2,8 32
3,2 36
3,6 40
4 45
4,5 51
5,1 56,6
5,6 64
6,3 72,1
7 80
8 90,5
9 101,9
10 113,1

82
Fotografía Profesional

Llamamos la atención sobre otra “coincidencia”: si se observa la escala de números f, se aprecia que
vuelve a suceder un fenómeno repetitivo, donde los números como tales, se repiten al crecer
matemáticamente, desplazando dígitos a la derecha, cambiando ligeramente por la ya mencionada
cuestión de redondeo, pero manteniendo la tendencia observada al tratar el tema sensibilidad. Y en
ambos casos, los tercios entre magnitudes destacadas, tienen importancia.

5.2.2 - Números T: Cuando en un objetivo hay una pérdida significativa de luz, ya sea debido a la
reflexión en la superficie de las lentes o a la absorción del propio vidrio, el poder de recolección de
energía por parte del objetivo, puede expresarse en forma más ajustada a la realidad, manejando
diafragmas identificados por los números T.

La figura siguiente nos muestra que ocurre con una lente sin tratamiento anti reflejos.

Casi un 10 % de la luz es rechazada por las caras externa e interna del elemento.
Agrava esta situación, el hecho de que el reflejo de la segunda cara es devuelto nuevamente por la
primera, indicado en el dibujo como un reflejo interno de 0,25 %.
Esta luz parásita no es gobernable y produce un velo en la imagen, como si fuera una cortina
transparente puesta delante del conjunto óptico.
El problema se acentúa en objetivos construidos con una gran cantidad de lentes, ya que cada una de
éstas, produce su propia fuente de luces parásitas, con un comportamiento similar al descrito en la figura
que sigue.
Además de las mermas ocasionadas por reflexión, tenemos que considerar las pérdidas por absorción
dentro del cristal, aunque en general son de poca importancia para los rayos visibles.
En consecuencia, se consideran pérdidas de valor las que, por reflexión, se producen en las capas de
separación aire – vidrio.

100 %

95 %
5%

4,75 %

0,25 % 90 %

Fig. 50 - Corte de una lente, mitad superior.

Como guía, aportamos los datos de transmisión útil, para objetivos compuestos por 1, 2, 3 y 4 lentes de
cristal con un índice de refracción de 1.55:
83
Hugo E. Álvarez

Número de superficies aire – vidrio: 2 4 6 8


Transmisión: 90 % 80 % 72 % 65 %

Como se ve, las pérdidas son importantes al agrupar lentes para formar objetivos corregidos, o de
distancia focal variable (zoom).

En tiempos anteriores al recubrimiento de las lentes para hacerlas anti reflectantes, la pérdida de luz con
diez superficies aire – vidrio, llegaba al 50 %.
Esto significaba por ejemplo, que dos objetivos graduados con el mismo número f, transmitían diferentes
cantidades de luz hacia la emulsión sensible, si uno de ellos estaba construido con dos lentes (cuatro
superficies aire – vidrio) y el otro con un total de cinco lentes (diez superficies aire – vidrio).

Es por ello que se llega a dos escalas de diafragma:

 La escala aritmética de números f.


 La escala fotométrica de números T.

Para fijar la escala fotométrica, se compara la luz transmitida por el objetivo en estudio, un zoom por
ejemplo, con la transmitida por un objetivo de muy baja pérdida, que se toma como patrón.

Se ajusta el objetivo patrón por ejemplo en f: 5,6 y se mide la luz que transmite; luego se busca la
abertura del zoom que deja pasar la misma cantidad de luz. En ese punto, se graba sobre el anillo de
diafragma, “T: 5,6”.
Es evidente que la abertura efectiva en milímetros para T: 5,6 es mayor que en f: 5,6.
Esa mayor abertura compensa las pérdidas producidas en las lentes. No debemos olvidar que tales
pérdidas por reflexiones múltiples y por absorción, tienen el mismo porcentaje prácticamente, en todos
los puntos de diafragmas y distancias focales.

La escala aritmética (números f) y la escala fotométrica (números T) suelen ir grabados en el anillo que
regula la abertura efectiva de un objetivo, aproximadamente como se muestra a continuación:

Fig. 51 - Guías f y T en la escala de diafragmas.

Puede apreciarse en la figura, que la situación del índice T: 2,8 entre los valores 2 y 2,8 de la escala f:
implica una magnitud f más baja, lo que se traduce en una abertura mayor.

84
Fotografía Profesional

El sistema de números T aún se usa ocasionalmente, pero el tratamiento de las superficies de las lentes
que forman los objetivos, minimizó la importancia de la corrección que se buscaba, aunque algunos
zoom empleados en cine, pueden tener de 22 a 24 superficies aire – vidrio. En estos casos, deben
emplearse los números T y no los f.

Tengamos presente para finalizar, las coincidencias numéricas que hemos ido apuntando entre valores
de sensibilidad y diafragmas.

5.3 - Tiempos de obturación.

Manejados mecánica o electrónicamente, los tiempos de obturación (mal popularizados como


“velocidades” de obturación), son parte del sistema necesario para producir exposiciones fotográficas
controladas.
No resulta oportuno abundar sobre detalles de funcionamiento, ya que más adelante se verán las
particularidades de obturadores aplicados a cámaras de cinematografía, de modo que a los fines de este
capítulo, diremos simplemente que los obturadores controlan el tiempo en que se permitirá que la luz
llegue al plano focal, produciendo una reacción efectiva de la emulsión.

El control de la obturación administra desde fracciones de segundo hasta horas de exposición y, en las
cámaras fotográficas se visualiza claramente su escala:
Control de tiempos de obturación:

B
1 1/125
½ 1/250
¼ 1/500
1/8 1/1000
1/15 1/2000
1/30 1/4000
1/60 1/8000

Distinguimos el valor “B” que permite el manejo de tiempos determinados por el operador. Sigue luego
“1” que implica un segundo de tiempo de exposición y posteriormente se escalonan fracciones de
segundo donde, en orden numérico creciente, los tiempos disminuyen en razón de la mitad respecto de
su inmediato antecesor.
Cabe destacar que la incorporación de la electrónica ha permitido el manejo de tercios, ubicados entre
los citados números “enteros”, tal como ocurre con los valores de diafragma y los índices de sensibilidad.

En las cámaras de cine, los tiempos están relacionados a la apertura del ángulo de los obturadores
variables y a la cadencia de cuadros que se elija para rodar. Digamos solo como un dato básico, que la
obturación más utilizada es de 1/50 “, cuando la cadencia de arrastre es de 24 cuadros.

5.4 - Intensidad luminosa e Iluminación.

En la medida que la disciplina fotográfica fue progresando, también creció la complejidad y exactitud con
respecto a la valoración de sus distintos patrones mensurables.
La luz, principio indispensable de todo lo que sobreviene a partir de la exposición, debió ser entonces
analizada y “estandarizada” en unidades de medición que permitieran su evaluación y manejo.

85
Hugo E. Álvarez

Cabe entonces distinguir dos aspectos: la intensidad luminosa, que podríamos definir como el flujo
luminoso que emana de un foco emisor, y la iluminación, que se entiende como la cantidad de energía
que incide sobre un sujeto, y que permite su registro en términos de exposición fotográfica.

La unidad de intensidad luminosa adoptada como patrón es la Candela (del vocablo inglés Candle), y se
basa en la luminosidad emitida por un alambre de platino fundido, a su temperatura de solidificación.

Profundicemos el concepto: la intensidad luminosa de un manantial emisor de luz, se refiere a la


cantidad de radiación visible que libera. La medida de dicha radiación se hace comparando su intensidad
luminosa con la de otra fuente denominada patrón, establecido por el hombre. En calidad de patrón se
utiliza un cuerpo negro que al calentarse, teóricamente irradia energía de acuerdo a las leyes físicas que
ligan la energía, la frecuencia y la temperatura absoluta.

Si este cuerpo negro, calentado a la temperatura de fusión del platino, (1.768º Celsius ó lo que es igual,
2.041º Kelvin) permanece encerrado en una caja hermética que dispone de una abertura de 1/60 cm2, la
intensidad luminosa que se emite a través de esta abertura es de una Candela o Candle, cuyo símbolo es
Cd.: la unidad internacional de intensidad luminosa.

La intensidad luminosa, refiere a la potencia de la fuente de luz en sí misma, sin tener en cuenta su
irradiación o transmisión a través del espacio.

Cuerpo negro calentado


a

1.768º C = 2.041º K
1 Cd.

Superficie:

1/60 cm2 = 1,66 mm2

Fig. 52 - Esquema de la intensidad luminosa.


5.4.1 - Flujo luminoso: Para valorar la luz que un foco emisor emite en una cierta dirección, es necesario
medir el flujo luminoso.
El flujo luminoso, es la intensidad luminosa (en Candelas) por unidad de ángulo sólido (en
estereorradianes).

86
Fotografía Profesional

W r =1 cm. W

S = 1 cm2
W = 1 estereorradián

Fig. 53
La unidad del flujo luminoso es el Lumen. (Lm.)

5.4.2 - Ángulo Sólido: Un ángulo sólido es la fracción del espacio de una esfera en forma de cono –ver
figura de arriba- cuyo vértice parte del centro de la esfera. La unidad de medida del ángulo sólido es el
estereorradián.

Un estereorradián es el ángulo sólido subtendido en el centro de una esfera por un área de la superficie
de la misma, superficie igual al cuadrado del radio.
Si situamos en el centro de una esfera de radio unidad (por ejemplo 1 cm.) un manantial luminoso de una
candela de intensidad, y en la dirección A-B construimos un cono cuyo ángulo sólido valga 1
estereorradián, –para lo cual la superficie de la esfera interceptada por el cono debe medir 1 cm2- el flujo
luminoso en la dirección A-B será de 1 Lumen.
Es decir, el Lumen es el flujo que emite una candela a través de un ángulo sólido de un estereorradián.

1 cm
A S = 1 cm2 B

1 candela

Fig. 54 - Lumen: flujo emitido por 1 candela a través de un ángulo sólido de 1 estereorradián.

5.4.3 - Iluminación: La iluminación (o iluminancia) es la cantidad de luz que recibe una superficie situada
a una distancia –y a un ángulo de emisión- de un foco luminoso.
Se entiende por iluminación entonces, la cantidad de flujo luminoso (Lúmenes) que incide sobre una
superficie.
87
Hugo E. Álvarez

Si esta superficie está colocada a 1 metro de una fuente de luz, cuya intensidad fijamos en 1 Candela,
podemos inferir que dicha superficie está recibiendo 1 Lumen por metro cuadrado.
La unidad de medida que se origina en esta situación, se denomina Lux.

Otra unidad de medida que responde al mismo principio, pero que se expresa en otro sistema de
medición de distancia, es el Foot-Candle (Pié-Candela) que simplemente lleva el cálculo a la relación
candela / pié, en tanto el Lux resume la cuantificación de candela / metro.
La comparación entre estas unidades, es la que sigue:

1 Foot-Candle (Fc.) = 10,76 Lux.


1 Lux = 0,0929 Fc.

Hemos tratado de simplificar al máximo conceptos que sólo pueden ser explicados cabalmente por
desarrollos matemáticos de cierta complejidad. Lo que interesa por ahora, es que el lector tenga claro
que se habla de Candelas cuando queremos referir a potencia de la fuente de luz, Lúmenes cuando
deseamos referirnos al flujo luminoso y de Foot-Candles o Lux para conocer la cantidad de iluminación
que incide sobre un sujeto.
En el trabajo normal de un operador, la iluminación es la magnitud usualmente manejada.
Veamos ahora una escala comparativa entre las unidades de iluminación citadas:

Lux Fc.____
0,17 0,016
0,35 0,032
0,7 0.065
1,4 0,13
2,8 0,26
5,5 0,5
11 1
22 2
44 4
88 8
175 16
350 32
700 65
1.400 130
2.800 260
5.500 500
11.000 1.000
22.000 2.000
44.000 4.000
88.000 8.000
175.000 16.000
350.000 32.000
______________________________

La escala precedente es simplemente demostrativa, está aritméticamente redondeada para facilitar la


comprensión, y no incluye todos los valores existentes.
Las cifras enunciadas para ambas unidades, se duplican en sentido creciente y en términos prácticos
cada valor dobla la cantidad de iluminación respecto de su inmediato predecesor.

88
Fotografía Profesional

Entre estas cifras existen también tercios de potencia.

El parecido con otros valores ya tratados en este capítulo, resulta evidente; pero la similitud más
importante para el cómputo fotográfico es que las escalas de sensibilidad, los diafragmas
representados por números f, los tiempos de obturación y las unidades de iluminación, funcionan
exactamente con la misma rutina: cada número está seguido o precedido por tercios de la escala
considerada, y cada cuatro índices, se dobla o divide en dos al valor de referencia considerado.

5.5 - La exposición.

La exposición fotográfica se expresa por el producto de la intensidad luminosa (controlada por el


diafragma) y el tiempo durante el cual se permite que la luz llegue al plano focal. (Controlado por el
mando del obturador). Resumiendo:

E=I.t
Exposición = Intensidad x Tiempo

Esta fórmula, a la que ya hemos referido en la página 45 del Capítulo 2, en realidad está encerrando una
situación compleja: la intensidad que controla el diafragma está directamente influenciada por la
cantidad de luz que recibe el sujeto y de la cual refleja un cierto porcentaje, y de la sensibilidad del
sistema de registro que se elija, sin considerar la finalidad estética que se persiga. El tiempo de
obturación se incluye lógicamente en la problemática, en función de la Ley de Reciprocidad, que maneja
conjuntamente con el control de diafragmas; así que, teniendo en cuenta la ecuación que sintetiza el
concepto de exposición, podemos decir que:

 La Ley de Reciprocidad, o Ley de Bunsen-Roscoe, indica que el nivel de exposición de una


fotografía es proporcional a la cantidad de luz que incide sobre el sensor, cantidad que
se obtiene a partir del producto de la intensidad por el tiempo. Por lo tanto, si el valor de
diafragma se modifica, la obturación también deberá variar proporcionalmente para
compensar la exposición. Y si la elección de cambio pasa por el tiempo de obturación, el
valor de diafragma deberá variarse en los mismos términos proporcionales.

 La exposición fotográfica es el resultado de una combinación de variables tales como la


iluminación que recibe el sujeto, (intervalo de luminosidades o rango de brillos del
sujeto) la administración operativa del paso de la luz, (diafragma / obturación) y el
sistema de registro que recibe la carga energética resultante, produciendo una imagen
positiva directa, (video / televisión/cine digital) o negativa latente, de posterior proceso
químico. (fotografía / cine analógicos)

Todas estas variables manejan un sistema matemático común, lo que hace posible su comprensión y
análisis inmediato, liberando las posibilidades creativas del operador.
Veamos un ejemplo práctico, donde queden de manifiesto las relaciones numéricas que hacen posible el
razonamiento y la toma de decisiones:
Para una comprensión más sencilla, utilizaremos parámetros de imágenes analógicas.

Supongamos que se rueda una escena correspondiente a un film de ficción en 35 mm.

89
Hugo E. Álvarez

Escenografía: Interior – efecto noche.

El director de la película ensaya en otro ámbito con los actores, y el director de fotografía plantea la
iluminación, recomendando al fotógrafo de escena que registre en foto fija para tener imágenes que
sirvan a la continuidad.
El director de fotografía instrumenta el nivel de luz para trabajar en diafragma f: 5,6.

La clave “matemática” de la escena está dada entonces por los siguientes datos:

 Sensibilidad de la emulsión: 100/21º ISO.


 Valor de iluminación global de la escena: 400 Fc. (4.300 Lux)
 Diafragma a utilizar por la cámara: f: 5,6.
 Obturación: 1/50” 15
Pero el fotógrafo de escena está usando emulsión de 400/27º ISO. Como esta sensibilidad resulta dos
puntos más alta que la de rodaje, compensa esta situación cerrando dos puntos el valor del diafragma
que se asignara a la cámara de cine.

f: 5,6 f: 8 f: 11

Reingresa el director al set, y expresa que desea rodar con un diafragma más abierto para no tener
demasiados detalles en los fondos y así conseguir manchas difusas de color y brillos circulares (Círculos
de confusión).
El director de fotografía analiza el problema. La obturación no puede ser modificada y deberá abrir el
diafragma a f: 2,8 es decir, dos puntos desde el valor anterior, que era de f: 5,6.
Para compensar, reduce el valor cuantitativo de su iluminación a 100 Fc. (1.076 Lux): dos puntos menos
que el nivel antes planteado.
Pero el fotógrafo de escena debe también compensar dos puntos de reducción en el valor de la luz.
Como a los fines de la continuidad escenográfica resulta conveniente aprovechar la profundidad de
campo, abre su diafragma un solo punto (f: 8) y modifica el tiempo de obturación en otro punto; de
1/50” a 1/25”.

Resumiendo: Cámara de cine: 100 Fc. - 100/21º ISO - f: 2,8 - - Obt.: 1/50”
Cámara de fotos: 100 Fc. - 400/27º ISO - f: 8 - - Obt.: 1/25”

Estas dos exposiciones son absolutamente equivalentes para la escena planteada, y sólo se diferencian
en sus resultados estéticos; lo que equivale a decir que toda exposición fotográfica puede ser valorada
en números simples que se corresponden en los resultados.

Es dable anunciar entonces la Regla de oro de la exposición, que expresa lo siguiente: manteniendo
constante la obturación en 1/50”, para una iluminación de 100 Fc. y una sensibilidad de 100/21º ISO, el
diafragma que corresponde es f: 2,8.

100 Fc. - 100/21º ISO - f: 2,8

15
Obturación cámara de cine: 1/50”. Suponemos una obturación igual para la cámara de fotos de modo de facilitar
la comprensión del ejemplo.
90
Fotografía Profesional

A partir de conocer cómo funcionan todas y cada una de las escalas estudiadas, esta regla de oro permite
calcular cualquier exposición equivalente, sin ninguna necesidad de mediciones o consideraciones
complementarias.

5.6 - Ratios y Radios:

Como última consideración de este capítulo, observaremos como la matemática nos posibilita un código
común, un lenguaje que ayuda a una primera apreciación estética.

Cuando se dispone un esquema de iluminación, la mención de un ratio determinado ahorra una


interminable explicación sobre cualidades referidas al contraste del sujeto en una escena, y los radios
(relación figura / fondo) sirven al mismo propósito, con igual eficiencia.

El ratio es la relación de contraste sobre un personaje o sujeto principal (Figura).


El radio es la relación de contraste entre figura y fondo.

La cuantificación de estas relaciones está ligada sin duda a la escala de números f, ya que a partir de la
zonificación que los brillos de un sujeto producen sobre una emulsión sensible o en los sensores de
imagen de una cámara digital de fotografía o video, podemos leer e interpretar diferencias de densidad,
como una escala de pasos de diafragma.
Siendo la progresión de números f la expresión 2, y considerando que los ratios deben ser expresados
en forma creciente y no decreciente en sentido real, (diafragmas) cabe suponer que la constante que
indique ratios y radios será la potenciación de la base 2. El índice de potenciación indica el número de
pasos de diafragma, y la potencia relacionada de las luces, entre las zonas más y menos iluminadas del
sujeto. (Ver ilustración de página 93)
La iluminación plana, sin sombras visibles que impliquen diferencias de densidad importantes, se
identifica como Rt. 1 : 1

Intentemos reflejar en una escala:

Rt. 2:1 𝟐𝟏 Pasos de diafragma y/o Lux/Fc.: 1

Rt. 4:1 𝟐𝟐 Pasos de diafragma y/o Lux/Fc.: 2

Rt. 8:1 𝟐𝟑 Pasos de diafragma y/o Lux/Fc.: 3

Rt. 16 : 1 𝟐𝟒 Pasos de diafragma y/o Lux/Fc.: 4

Rt. 32 : 1 𝟐𝟓 Pasos de diafragma y/o Lux/Fc.: 5

Rt. 64 : 1 𝟐𝟔 Pasos de diafragma y/o Lux/Fc.: 6

Rt. 128 : 1 𝟐𝟕 Pasos de diafragma y/o Lux/Fc.: 7

Rt. 256 : 1 𝟐𝟖 Pasos de diafragma y/o Lux/Fc.: 8

Rt. 512 : 1 𝟐𝟗 Pasos de diafragma y/o Lux/Fc.: 9

Rt. 1.024 : 1 𝟐𝟏𝟎 Pasos de diafragma y/o Lux/Fc.: 10


91
Hugo E. Álvarez

Podemos comparar los valores de esta tabla con los índices de sensibilidad relativa que aparecen en la
página 75, o en la relación entre números f y cantidad de luz admitida, en la página 82. La mecánica
sigue siendo la misma.

Luz de relleno:
Luz principal:
100 Fc.
400 Fc.
Medición: f:2,8
Medición: f:5,6

Ratio: 4 : 1

Fig. 55 - Esquema de iluminación con dos luces y determinación del Ratio.

El manejo técnico y fluido de los conceptos Ratio y Radio, facilitan los acuerdos y decisiones que deben
tomarse, por ejemplo, en el rodaje de un film de ficción.

La pregunta de qué tipo de luz conviene a los personajes y a su entorno escenográfico, no puede ni debe
contestarse con apreciaciones subjetivas que resultarán confusas, según sean las apreciaciones de los
individuos que las sugieren o de aquellos que escuchan.

Los “códigos lingüísticos” de la fotografía ahorran esfuerzos de comunicación entre los integrantes de
equipos humanos numerosos, como son los que llevan adelante la filmación de una película o la
producción de un programa televisivo.

Más adelante en este texto, específicamente en los dos próximos capítulos, se verá que un manejo tan
exigente como es el de la técnica fotográfica, se vuelve comprensible y previsible para todos los que
manejan su terminología y aplicación práctica.

La apropiación del manejo técnico, sin dudas, no resulta sencilla para aquellos que profesan vocación por
el arte en distintas manifestaciones: música, plástica, teatro, cine, por ejemplo.

Pero algo resulta claro: en cualquiera de las disciplinas que me he permitido citar (como en tantas otras
que tienen o no que ver con la expresión artística), el manejo instrumental es lo que posibilita la
expresión y concreción de la obra.

De lo contrario, no superaremos la instancia de la imaginación.

92
Fotografía Profesional

Fig. 55 - Las relaciones de contraste entre las luces y sombras de una escena, destacan a las figuras sobre el fondo.
La imagen fue llevada a blanco y negro para destacar plenamente los matices creados por la iluminación.
Escena de “Saudades.com”, dirección de fotografía del autor.

93
Hugo E. Álvarez

94
Fotografía Profesional

CAPITULO 6

Exposímetros.
En éste y otros capítulos, los conceptos que se exponen están relacionados con las películas analógicas
fotográficas y cinematográficas, porque son la base esencial del razonamiento técnico de la fotografía; sus
preceptos y conclusiones siguen vigentes en el registro digital, fundamentalmente en los sensores con formatos
full frame o similares.

Los exposímetros son instrumentos diseñados para medir en términos cuantitativos la luz, y
proporcionar inmediata o posteriormente, 16 una serie o escala de combinaciones obturador /
diafragma, destinadas a facilitar la decisión del fotógrafo.
Como bagaje del pasado, los exposímetros suelen ser llamados también fotómetros, lo cual no es
muy correcto técnicamente hablando, ya que los fotómetros sólo realizan la medición de la energía,
pero no proporcionan ningún dato que se relacione con la exposición. No obstante, y en honor a una
costumbre muy instalada, nos referiremos alternativamente a los exposímetros llamándolos
fotómetros, ya que al fin y al cabo, también lo son.

No vamos a detallar aquí la estructura de los distintos tipos de exposímetros que han existido en la
historia de la fotografía, sino que nos dedicaremos a tratar de explicar la “lógica” de su
funcionamiento y los principios que posibilitan la comprensión de sus datos; citaremos solamente,
que los fotómetros actuales casi responden unánimemente a una tecnología de respuesta llamada
foto-resistente.

Básicamente el exposímetro de esta característica, utiliza una célula foto eléctrica por donde colecta
la luz reflejada por el sujeto a medir. A partir de la excitación de la célula, se produce una corriente
eléctrica de muy baja potencia, que es enviada al interior del instrumento; en un determinado punto
del circuito se produce el encuentro con otro flujo eléctrico generado por una batería alojada en la
estructura interna del medidor, lo que forma un campo de resistencia que mueve una aguja en los
aparatos analógicos, o envía cifras al display de un exposímetro digital.

Fig. 57 - Esquema de un exposímetro foto - resistente.

16
Según estén equipados con procesadores digitales o analógicos.
95
Hugo E. Álvarez

6.1 - Sistemas de medición de la luz.

Los exposímetros pueden medir la luz sobre la base de dos sistemas operativos, disponibles
conjuntamente en los instrumentos de mano, o con opción única, (a) en cámaras.

a) Medición de la luz reflejada.


b) Medición de la luz incidente.

Aunque resulte conocido, diremos que medir la luz refleja implica apuntar el aparato hacia el sujeto
iluminado, y efectuar una medición de los brillos producidos por el mismo. En este caso, aún cuando
se utilice un fotómetro de mano, la posición del instrumento debe coincidir con el eje cámara-sujeto,
y si es posible adoptar la posición misma de la cámara, ya que no resultarían de utilidad mediciones
de trenes de ondas que no se dirijan perpendicularmente hacia el objetivo; evidentemente la energía
que forma imagen es la que puede ser recolectada por la óptica de cámara y no la que se dispersa en
otras direcciones.

El sistema de luz incidente realiza la medición de la luz que llega sobre el sujeto, y en este caso, la
posición del fotómetro coincide con la del sujeto, apuntando la célula lectora que se encuentra
cubierta por una semiesfera translúcida, hacia la cámara.

Fig. 58 - Esquema de exposímetro para medición de luz incidente.

6.2 - Reflectancia del 18%.

Tanto en uno como en otro sistema, los exposímetros trabajan en función de comparar todo lo que
miden con un patrón de brillo equivalente a una superficie gris que refleja el 18 % de la luz que
recibe. La apreciación visual de este concepto está dada por la carta gris popularizada por la empresa
Kodak (Figura 58 de la página siguiente) que normalmente exhibe en su reverso, una superficie
blanca que refleja el 90 % de la luz que le incide.

El tono de 18 % es el que se ubica al centro de la escala tonal reproducible por la fotografía, y parte
de la justificación de este porcentaje, expresa que es el promedio radical entre el máximo y mínimo
brillo que el sistema fotográfico puede captar, en términos del positivo final.

Tal teoría expresa que el nivel de brillo fotográfico más alto que puede registrarse es del 81 %, y el
mínimo reproducible se ubica en el 4 %; multiplicando los extremos: 4 x 81 = 324
96
Fotografía Profesional

Luego:

324 = 18%

Fig. 59 - Carta gris de 18 % de reflexión.

Habiendo explicitado la teoría de la radicalización del producto de los extremos de brillo, vemos
necesario citar otra hipótesis respecto del 18 %, para lo cual anticiparemos un concepto sobre
logaritmos decimales, que cumplen repetidas e importantes funciones en la interpretación de la
información fotográfica.

6.3 – Logaritmos decimales.

- El logaritmo decimal de un número, es el que resulta de elevar la base 10 a un exponente que


es igual a la expresión logarítmica buscada, o dicho de otro modo, el logaritmo es igual al
exponente o la potencia de 10 que se requiere para obtener dicho número:
-
Número Logaritmo

𝐿𝑜𝑔10 1 = 100 = 0

“ 10 = 101 = 1

“ 100 = 102 = 2

“ 1.000 = 103 = 3

“ 10.000 = 104 = 4

“ 100.000 = 105 = 5

Como dato adicional, veamos como los logaritmos se relacionan con temas ya tratados, tales como
los valores de diafragma; recordamos que estos puntos están basados en el número 2, ya que
trabajan sobre una idea de doble o mitad de exposición:

𝐿𝑜𝑔10 2 = 0,3 = 1 punto de diafragma.

Por lo que:
97
Hugo E. Álvarez

El valor logarítmico 0,1 representa 1/3 de diafragma.


El valor logarítmico 0,2 representa 2/3 de diafragma.

O sea que, multiplicando los puntos de exposición por 0,3, una gama de puntos se convierten en una
gama logarítmica y, recíprocamente, una gama de exposición expresada en logaritmos, dividida por
0,3 se convierte en una gama de puntos.

Fig. 60 - Escala tonal de una emulsión negativa; el incremento de la exposición está expresado
en valores logarítmicos. Se consideran densidades con detalles y texturas a las comprendidas
desde log. E 0.60 hasta 2.40 inclusive.

La figura 59 de arriba, muestra el comportamiento general de una película negativa en cuanto a la


aprehensión de una escala tonal. La escala logarítmica debajo de los cuadros, muestra el crecimiento
de la exposición, en relación con un supuesto sujeto cuyo intervalo de luminancias va del negro al
blanco y de izquierda a derecha; en consecuencia, la imagen negativa presenta un primer grado de la
escala reproducida en el papel como blanco, (translúcido en la realidad) que corresponde al negro
total del original, observándose luego un crecimiento de densidad del negativo hasta llegar al negro
absoluto, representativo del blanco real, sin detalles del sujeto.
El rango textural y pleno de detalles es registrado por un negativo, entre las zonas identificadas por
los logaritmos 0,60 a 2,40. Si queremos conocer el rango posible de registro textural, asignemos al
valor 0,30 (límite inferior del registro aludido) el término 1 de sensibilidad relativa; luego:

Log. Exp. Sensibilidad relativa

0,30 1
0,60 2
0,90 4
1,20 8
1,50 16
1,80 32
2,10 64
2,40 128

O sea, siete escalones de brillos crecientes y sucesivos, equivalentes matemáticamente a siete


puntos de diafragma.
Si cada punto de diafragma es representado por el logaritmo 0,30:

7 x 0,30 = 2,10 que sería el valor logarítmico representativo del registro útil.

98
Fotografía Profesional

Se llega a la misma conclusión, si se tiene en cuenta que el valor de exposición 2,40 es el máximo
alcanzado; si se observa mientras tanto que 0,30 es un punto de exposición excluido del registro útil
al comienzo de la escala, tenemos:

2,40 – 0,30 = 2,10

6.4 - La carta gris del 18 %.

Digamos a esta altura, que el origen de la norma del 18 % de la carta gris no está claro, pero parece
probable que su origen se deba a las artes gráficas, donde la gama de luminancias de los sujetos
habituales para reproducción es de 1,5 en datos logarítmicos. Para los sujetos de esta gama, la carta
gris es, en efecto, un gris medio, puesto que su reflectancia del 18 % es aproximadamente igual a un
valor logarítmico de 0,75.
Sin embargo, la gama normal de un sujeto fotográfico ordinario se considera que es de siete puntos,
o 2,1 en términos logarítmicos. El gris medio de esta gama es de 1,05 lo que se traduce a una
reflectancia de aproximadamente un 9 %. En otras palabras, si el centro geométrico de la gama
normal se considera que es el gris medio, (lo cual en todo caso resulta discutible) la carta gris que
representa el 18 %, sería un punto f completo demasiado clara.

Esto puede resultar más serio de lo que realmente es, puesto que la gama de cualquier sujeto resulta
cortada en la práctica por los efectos de la luz parásita que incide en la cámara y en el objetivo, y la
gama efectiva de un sujeto normal es, probablemente, más bien de 6 puntos y no de siete, en lo que
se refiere a la película. Esto sugeriría un gris medio del 12 %; un gris todavía algo más oscuro que el
gris del 18 % de las cartas normales.

Tanto si el gris del 18 % es correcto como si no, la carta normalizada nos proporciona un sujeto
constante para la medición fotométrica, y con un poco de cálculo y experiencia, podemos aprender a
compensar sus posibles errores de reflectancia, aplicando un factor de corrección normalizado para
los ajustes de exposición. (Un incremento de ½ punto de diafragma como norma inicial y general,
puede ser un punto de partida)
De hecho, una reflectancia precisa del gris medio es importante fundamentalmente cuando
pensamos basar los ajustes de la cámara en una sola medición de luz; cuando realizamos más de una
medición, tal como hacemos a menudo al evaluar el contraste de iluminación entre las áreas de luces
y sombras, la diferencia entre las lecturas es al menos tan importante como sus valores reales.

A pesar de que la carta gris presenta un gris “equivocado”, resulta muy útil para medir diferencias de
iluminación, porque nos proporciona un sujeto práctico, repetible, de una reflexión conocida.
Aunque las lecturas de una carta gris tomadas a pleno sol son relativamente seguras para usarse con
películas reversibles, no suelen resultar adecuadas para utilizarse con películas negativas, tanto en
color como en blanco y negro. Ello es debido, de nuevo, a que el exposímetro asume que el 18 % de
la carta debe ser un gris real, y recomienda una cierta sub exposición (de ½ a 1 punto, dependiendo
de la calibración del medidor) para desplazar el valor hacia abajo.
Esto, como dijimos, no representa usualmente un problema serio para emulsiones reversibles,
debido a que su gama de exposición es relativamente corta, y su gris medio es más próximo a la carta
gris de control; además, estas películas toleran la sub exposición mejor que las películas negativas,
debido a que una sub exposición moderada tiende a incrementar la separación y detalle en las altas
luces, produciendo en emulsiones cromáticas, una mayor saturación de color. Por supuesto que
99
Hugo E. Álvarez

también se incrementa la densidad de las sombras, pero, salvo que resulten sub expuestas de forma
severa, las sombras por lo general, retienen detalles y calidad de color satisfactorios.

Las películas negativas, por el contrario, perderán densidad y contraste en las sombras, y
seguramente detalle, si la sub exposición llega a ser importante. Además, es probable que en el
positivo resultante, los grises correspondientes a las altas luces aparezcan más oscuros de lo
deseado, al igual que los tonos medios, que podrían acercarse a las zonas más densas de la imagen,
dando una impresión general de aspecto penumbroso.

El acercamiento a la solución, respecto de la exposición racional y efectiva de los materiales


negativos, se verá en el capítulo que sigue, donde trataremos el punto de vista que ofrece el Sistema
Zonal, de amplia utilización en los planteos de iluminación y fotometría, tanto en la fotografía fija
como en el rodaje cinematográfico.

Tengamos en cuenta por el momento, algunos aspectos de importancia:

 Un exposímetro correctamente calibrado, debe responder al patrón de 18 % de reflexión,


es decir, al gris medio normalizado. Si no fuera así, debería corregirse la desviación en el
instrumento, o tener en cuenta de manera permanente la diferencia porcentual, a fin de
modificar el valor de exposición.

 Más allá de la efectividad discutible del gris normalizado de 18 %, sepamos que es una
referencia concreta y confiable, y que la industria fotográfica lo ha tomado como valor
referencial, alrededor del cual se aglutinan sistemas de comprobación y rutinas de
procesos de laboratorio de indudable influencia en los resultados concretos de la imagen
final.

 Los fotómetros, sean incorporados a las cámaras o instrumentos de mano, deben ser
permanentemente interpretados respecto de las informaciones que nos brindan a partir
de la lectura de la luz, y esa interpretación es absolutamente racional y solo adecuada a
la necesidad estética; sepamos que nunca una decisión de exposición puede pasar por
“presentimientos” o actitudes intuitivas: rodar un film es una de las tareas más onerosas
del mundo, y no puede el fotógrafo a cargo arriesgarse a malograr el registro de una
puesta por decisiones que pasen lejos del conocimiento y el aprovechamiento de los
materiales que manipula.

6.5 - Luz incidente y luz refleja.

El acercamiento del fotógrafo novel a las técnicas de fotometría, suele incluir una especie de
antinomia con relación a los sistemas de luz reflejada y luz incidente. Esto conlleva sensaciones de
seguridad y confianza respecto a usar un método u otro, y parece instalar un debate respecto de cuál
de ellos es superior.
Ahora bien; ¿Es realmente un sistema mejor que otro, como para ponernos a cubierto de errores en
la exposición? Absolutamente no. La información relevada por luz refleja o luz incidente es de
perfecta utilidad y puede ser complementada a punto tal, que la confrontación de datos entre una y
otra tiene, precisamente, la virtud de alertarnos cuando cometemos algún error de interpretación;

100
Fotografía Profesional

en estos términos, decimos que no sólo no existe competencia sino complementación, y trataremos
seguidamente de explicitar el rol destinado a cada uno, y sus incumbencias dentro de la evaluación
de una escena iluminada.
Recordemos, como instancia fundamental, que todo exposímetro correctamente calibrado, trabaja
sobre el principio de comparar sus lecturas con el valor de gris normalizado, de 18 % de reflexión.

6.5.1 - Luz incidente: Habíamos dicho antes, que el fotómetro capaz de medir luz incidente es un
instrumento de mano, y por razones obvias, nunca incluido en el cuerpo de una cámara, sea esta de
fotografía fija, cine o video.

La condición estructural fundamental, es que el medidor posea una semiesfera translúcida de tono
opalino perfectamente graduado, que tiene la misión de posicionarse delante de la célula
fotoeléctrica colectora de luz, para proporcionar dos condiciones esenciales: en primer lugar proveer
una medición tridimensional, del orden de 180º de cobertura respecto de la iluminación dispuesta, y
segundo, disminuir la magnitud de la energía colectada, para que el fotómetro trabaje sus datos
sobre un ideal de que, del 100 % de la luz que llega sobre el sujeto, el 82 % será absorbida, y sólo el
18 % será reflejado hacia la cámara para formar la imagen.

Vamos a redundar sobre el concepto, para agregar toda la claridad posible.


Recordemos que, al utilizar el modo de medición incidente, el exposímetro se encuentra físicamente,
ocupando el lugar del sujeto; supongamos que es un actor dentro de una escenografía dada. Para
realizar la medición, el fotógrafo posiciona su medidor en la ubicación del protagonista, con la
semiesfera colectando la iluminación, y apuntada hacia el objetivo de la cámara; realiza la medición y
si asignáramos al fotómetro capacidad de razonamiento, el instrumento deduciría lo siguiente:

 La cantidad de luz que llega sobre este sujeto es de 400 Fc. (o 4.300 Lux)
 La película cargada en la cámara tiene una sensibilidad de 100/21º ISO.
 Para estos niveles de iluminación y sensibilidad, con un tiempo de obturación de 1/60”, el
valor de diafragma es f: 5,6 por ser esta la abertura que corresponde en este caso, para
registrar el gris medio de 18% de reflexión.

Esta medición no toma en cuenta los valores de brillo. El tipo de piel, vestimenta o de elementos
escenográficos que se encuentran fuera de la posición y de la función asumida por el medidor no son
tenidas en cuenta, ya que el método de luz incidente trabaja resumiendo la potencia de iluminación
respecto de un solo brillo: 18 %; y los resultados de la exposición que decide, estarán sujetos a la
cercanía o lejanía de los distintos brillos del sujeto, respecto del valor de reflectancia ideal (18 %) del
diafragma elegido, y de la capacidad de la película o del sensor(amplitud) para registrarlos dentro de
su gama tonal útil.

Para que la idea sea absolutamente gráfica, permítasenos una licencia académica:
Si en la situación escénica descrita, reemplazamos al actor por un cilindro de acero inoxidable, la
medición de un exposímetro por sistema de luz incidente no variaría en lo más mínimo, y sin
embargo, el sujeto sería tan distinto como la distancia que existe entre el brillo de la piel humana,
(sea cual fuere su etnia) y el emitido por un objeto de superficie espejada.
¿Tiene entonces este sistema, virtudes para destacar? Sí; para empezar, la determinación del ratio de
iluminación puede ser realizada rápida y eficientemente: si se miden las potencias de las luces que
obran sobre el sujeto de manera independiente, el sistema de luz incidente puede determinar en

101
Hugo E. Álvarez

valores de iluminación o de diafragmas las diferencias entre luces y sombras, en suma, el contraste.
Tal información se logra con el fotómetro siempre en el lugar del sujeto, apuntando la semiesfera
hacia cada emisor de luz que se desee evaluar. Ponderar los efectos de despegue también es tarea
de este sistema, ya que suele resultar dificultoso juzgar el brillo de contorno en el cabello o la
vestimenta de un actor, si utilizamos el sistema de luz reflejada.

Digamos en suma, que la dificultad mayor de la aplicación de la luz incidente parece encontrarse en
la medición integradora, cuando se debe definir el valor de abertura que utilizará la cámara, de
acuerdo a lo apuntado más arriba; pero no es menos cierto que la medición integrada hacia cámara
de luz incidente nos proporciona un “borrador”, una aproximación a un número f posible, alrededor
del cual casi seguramente rondará el valor definitivo de exposición, una referencia útil al momento
de confrontar datos, y evitar errores.

6.5.2 - Luz refleja: Abundaremos en la utilización del sistema de luz refleja al abordar el Sistema
Zonal; por el momento diremos que el fotómetro que equipa a las cámaras y los medidores de mano,
entre los que se encuentra el muy particular spotmeter, leen los trenes de ondas reflejados por el
sujeto, comparándolos como se ha dicho, con el valor normalizado del 18 % de reflexión.

Esto significa que cualquier área del sujeto medida por luz refleja, será confrontada por el procesador
del exposímetro con su propio registro de memoria; (el gris normalizado) y los valores de exposición
que calcule para cada uno de ellos, intentarán llevar todas las áreas evaluadas a un registro de
densidades de 18 %, lo que produciría una imagen sin diferencias de densidad, o dicho de otra forma,
con una única referencia de densidad.
Veamos un ejemplo que resulte gráfico y claro:

Supongamos el intento de fotografiar un objeto como el mostrado en la Figura 61, donde existen
zonas negras, blancas, grises equivalentes al gris medio, y un gris algo más claro. La medición por
área con un fotómetro de luz refleja, da los siguientes valores, a partir de mantener fijo el tiempo de
exposición en 1/60”: negro f: 1,4; para el gris medio f : 5,6; el gris más claro f: 8 y para el blanco f: 22.

Fig. 61 - Sujeto teórico a fotografiar; posee densidades en dos tonos de gris, además de negro y blanco, con la
lectura de sus mediciones fotométricas.

Si pudiéramos exponer este sujeto sobre una película, seleccionando para la exposición de cada área
la medición que el exposímetro leyó sobre cada una de ellas (en una serie de impresiones progresivas
y fragmentadas), el resultado sería una figura de tono uniforme, equivalente en términos de
densidad, al gris de 18 % de reflexión. (Figura 62 de la página siguiente)

Esto se debe a que ningún fotómetro puede “razonar” respecto de la realidad; todo elemento
constitutivo de una imagen, resulta para el aparato una simplificación de este calibre: todas y cada
una de las superficies analizadas son grises medios, escasa, conveniente, o exageradamente

102
Fotografía Profesional

iluminados; o sea que la medición por luz refleja analiza brillos, reflectancias, nunca superficies,
texturas, ni clase alguna de “realidad”.

Fig. 62 - Resultado de la exposición teórica por áreas del dibujo ilustrado en la Figura anterior; la medición por
luz refleja en cada parte del sujeto siempre produce densidades únicas, compatibles con el gris del 18 %; un
exposímetro no tiene noción alguna de diversidad tonal, y este concepto debe ser administrado por el operador.

Tal como sucedía con el sistema de luz incidente, parece ser que el método de luz refleja también
nos encamina a un cierto grado de desilusión; pero al igual que en el punto anterior, dejamos claro
que esta manera de funcionar resulta ser su mejor virtud.

El fotógrafo inexperto no nota la condición de integración al gris medio de los fotómetros de luz
refleja, porque al fotografiar sujetos complejos con generosos intervalos de luminosidades, el
exposímetro promedia la diversidad de brillos con su referente gris y termina, dicho esto con muchas
reservas, “respetando” la gama tonal del sujeto real, siempre y cuando este promedio coincida con
ciertas áreas centrales de la escala de reproducción.

De todos modos a los fotógrafos de escaso conocimiento, las fotografías les “salen” bien o mal, en un
juego de azar que el profesional no puede tener en sus planes.

Los exposímetros de mano que trabajan con luz refleja, lo hacen en función de un ángulo de
medición. El ángulo “normal” abarca unos 30º, lo que daría un tipo de evaluación similar al medidor
de una cámara con focal normal. Este ángulo puede reducirse por funciones propias del fotómetro, o
por la adición de instrumentos ópticos reductores de ángulo, que llevan la cobertura a 15º ó 7,5º por
ejemplo. En este aspecto, los medidores más especiales son los spotmeters que leen en un ángulo de
solo 1º.

Podemos citar marcas tales como Gossen, Profisix, Minolta, Sekonic, entre los fotómetros de mano
para luz refleja e incidente, y a Minolta, Sekonic y Pentax entre los medidores puntuales de 1 grado
de cobertura.

6.6 - Valor de exposición y valor de iluminación.

6.6.1 - Valor de exposición: La relación de valores de exposición, identificada con la sigla EV


(exposure value), es una escala en la que cada número representa a todo el conjunto de posibles
combinaciones entre los tiempos de obturación y los números f representativos de las distintas
aberturas de diafragma, y que mantienen como resultado, una exposición constante.

Por ejemplo, un valor (EV) de exposición 10, relacionado a una sensibilidad de 100/21° ISO, cubre las
siguientes combinaciones de exposiciones constantes:

103
Hugo E. Álvarez

EV = 10
1/1000” f:1
1/500” f : 1,4
1/250” f:2
1/125” f : 2,8
1/60” f:4
1/30” f : 5,6
1/15” f:8
1/8” f : 11
¼” f : 16
½” f : 22
1 segundo f : 32
2 segundos f : 45

Los valores de exposición suelen extenderse desde –1 hasta 15, aunque estos límites pueden ser
ampliados. Cada número representa una cantidad de exposición regulada a través de los controles de
la cámara; un incremento de un número dentro de la escala, significa un grado de exposición que es
la mitad del anterior, y al contrario, a medida que disminuye el valor EV, el grado de exposición se
duplica. Dicho de otra manera: si la iluminación crece, el valor EV aumenta, y por lo tanto la
exposición es menor; si la iluminación disminuye, el valor EV disminuye, y la exposición es mayor.

Trabajar con la escala de valores de exposición presenta la ventaja operativa de simplificar en un


solo número la exposición fotográfica, y, por ser una escala logarítmica, permite cubrir intervalos
de exposiciones muy grandes, con una pequeña serie de cifras: en un intervalo de 16 números,
se cubre un intervalo de exposición de 1: 60.000.

Cuando realizamos la lectura de la luz de una escena, el exposímetro nos indica todas las
posibilidades concretas para combinar obturación y diafragmas en búsqueda de una exposición
correcta. Estas combinaciones, resumidas en un valor de exposición (EV), son determinadas en
función de la cantidad de iluminación que incide sobre la escena.
De manera que, y redundamos en el concepto, si el nivel de iluminación se reduce a la mitad, el valor
de exposición (EV) – para compensar esta reducción – disminuirá en una unidad, y viceversa: si el
nivel de iluminación aumenta al doble, el valor EV crecerá en una unidad.
En suma, el estudiante debe comprender lo que aparece como un contrasentido numérico, pero que
responde a una realidad casi obvia:
Cuando la iluminación aumenta, el número EV crece, pero la exposición del material disminuye,
aunque esta exposición esté representada por un número f cuantitativamente mayor:

Si partimos de: 1400 Lux EV 9 100/21º ISO 1/60” f : 2,8

Y duplicamos la iluminación: 2800 Lux EV 10 100/21° ISO 1/60” f:4

La relación entre iluminación y exposición suele confundirse, y debe tenerse en claro que son dos
conceptos distintos.

6.6.2 - Valor de iluminación: El valor de iluminación, representado por la sigla LV (Light value), es
un número que representa a la cantidad de iluminación real de la escena, necesaria para que,
104
Fotografía Profesional

considerando la sensibilidad de la película, obtengamos una exposición correcta al aplicar el valor de


exposición (EV) equivalente.

Al igual que los índices EV, la escala de valores de iluminación (LV) es logarítmica, lo que significa que
el incremento de un número se corresponde con un nivel de iluminación doble, mientras que el
decrecimiento en una unidad representa que la cantidad de luz se ha reducido a la mitad.
Tengamos en cuenta que si la iluminación se duplica, la exposición disminuye a la mitad, y viceversa.

TABLA DE EXPOSICIONES EQUIVALENTES.


EV f:1,4 f:2 f:2,8 f:4 f:5,6 f:8 f:11 f:16 f:22
-1 4 8 ¼ min. ½ min.
0 2 4 8 ¼ min. ½ min.
1 1 2 4 8 ¼ min. ½ min.
2 ½ 1 2 4 8 ¼ min. ½ min.
3 ¼ ½ 1 2 4 8 ¼ min. ½ min.
4 1/8 ¼ ½ 1 2 4 8 ¼ min. ½ min.
5 1/15 1/8 ¼ ½ 1 2 4 8 ¼ min
6 1/30 1/15 1/8 ¼ ½ 1 2 4 8
7 1/60 1/30 1/15 1/8 ¼ ½ 1 2 4
8 1/125 1/60 1/30 1/15 1/8 ¼ ½ 1 2
9 1/250 1/125 1/60 1/30 1/15 1/8 ¼ ½ 1
10 1/500 1/250 1/125 1/60 1/30 1/15 1/8 ¼ ½
11 1/500 1/250 1/125 1/60 1/30 1/15 1/8 ¼
12 1/500 1/250 1/125 1/60 1/30 1/15 1/8
13 1/500 1/250 1/125 1/60 1/30 1/15
14 1/500 1/250 1/125 1/60 1/30
15 1/500 1/250 1/125 1/60
16 1/500 1/250 1/125

Los tiempos de esta tabla están expresados en segundos, salvo aquellos que se mencionan como minutos.

TABLA DE NIVELES DE ILUMINACIÓN.

EV / LV Nivel de iluminación de la escena en Lux. (aprox.)


50/18º ISO 100/21º ISO 200/24º ISO 400/27º ISO
-1 2,8 1,4 0,7 0,35
0 5,5 2,8 1,4 0,7
1 11 5,5 2,8 1,4
2 22 11 5,5 2,8
3 44 22 11 5,5
4 88 44 22 11
5 175 88 44 22
6 350 175 88 44
7 700 350 175 88
8 1.400 700 350 175
9 2.800 1.400 700 350
10 5.500 2.800 1.400 700
11 11.000 5.500 2.800 1.400
12 22.000 11.000 5.500 2.800
13 44.000 22.000 11.000 5.500
14 88.000 44.000 22.000 11.000
15 175.000 88.000 44.000 22.000

La operatoria de este sistema o código, es muy sencilla. Medida la iluminación de una escena, el
fotómetro indicará un valor LV ó EV, o ambos a la vez.

105
Hugo E. Álvarez

Como ya se ha dicho que ambos valores son equivalentes, al número LV 10 le corresponderá el valor
EV 10 por ejemplo, y encontraremos todas las posibilidades de exposición para tal situación de
iluminación, relacionada a la sensibilidad de la emulsión que se está utilizando.

Cabe consignar por último, que ambas tablas son representativas de segmentos posibles de utilizar
en fotografía, y que estas escalas pueden continuarse en orden creciente y decreciente.

106
Fotografía Profesional

CAPITULO 7

El Sistema Zonal.

“La visualización es un proceso consciente que consiste en proyectar en la mente la imagen


fotográfica final, antes de dar los primeros pasos para fotografiar finalmente al sujeto. No sólo nos
referimos al sujeto en sí, sino que tomamos conciencia de su potencial como imagen expresiva. Estoy
convencido que los mejores fotógrafos de todas las tendencias estéticas, ‘ven’ de alguna manera su
fotografía final antes de que esté completa, bien a través de una visualización consciente, bien a
través de una experiencia intuitiva comparable.”

Ansel Adams. (1902 – 1984)

7.1 - Visualización de la imagen.

Hemos querido comenzar este capítulo con palabras de Ansel Adams, verdadero “padre” del desarrollo
teórico del Sistema Zonal, que ha basado su discurso en la realización paralela de una obra fotográfica
de características muy respetables.

Y siguiendo su obra y su opinión crítica, deseamos establecer aquí la importancia de la visualización


previa de la imagen que se desea obtener de un sujeto real sabiendo, porque ya hemos adelantado el
concepto, que no existe registro alguno de imagen en el mundo, que pueda salvar y capturar el intervalo
de luminancias, ni la brillantez de cada parte de la gama tonal que nos brinda la realidad. Volvemos a
citar a Adams, cuando expresa: “Las fotografías son, en cierta medida, interpretaciones de la realidad”.

De tal modo, visualizar, o pre-visualizar el potencial de una imagen fotográfica o cinematográfica a


realizar, pasa por una atenta observación del sujeto, de advertir cuáles de sus características resultan
posibles para el sistema y aún, cuáles de sus atributos podrían mostrarse con un punto de vista potente y
descriptivo y con un tratamiento, desde la exposición del negativo hasta la copia final, que transmita la
interpretación del autor y resulte atractiva, racional y emocionalmente, para el espectador.

Poder anticipar de qué manera vamos a administrar los controles de una cámara de fotos, cine o video
para lograr el rescate pleno de los detalles que nos interesan del sujeto, es una tarea que no puede
dejarse de lado; ensayando encuadres, puntos de vista y ángulos posibles. Mantener la apreciación de
cómo la luz modela, provoca o aplana texturas, es un ejercicio ineludible en cada uno de los cambios de
posición que se ensayen.

El problema fundamental del fotógrafo principiante, consiste en tomar conciencia de la luz y de los
valores tonales en términos de valores de copia fotográfica, pero esta precisión de la percepción se logra
con el estudio y la práctica, y se debe saber que es un persistente trabajo aprender a visualizar, por
ejemplo, algo tan abstracto como una imagen en blanco y negro. Y no es menos arduo lograr que esta
imagen final esté imbuida de la subjetividad que hemos deseado transmitir, “el equivalente de lo que vi y
sentí”, como afirmaba Alfred Stieglitz, notable fotógrafo de principios del Siglo XX y uno de los maestros
a quien acudió Ansel Adams.

107
Hugo E. Álvarez

Cualquier decisión técnica debe subordinarse a la observación estética, ya que la técnica tiene la misión
de servir al discurso narrativo y no puede ni debe nunca seguirse el camino inverso, aquel de condicionar
el acto comunicativo por supuestas o reales dificultades instrumentales.

Así que lo primero que haremos, es llevar a cabo el emplazamiento de la cámara, aquel que resulte más
atractivo, más ajustado, más necesario a las condiciones del sujeto, en conexión directa con nuestras
propias sensaciones.

Acostumbrarse a la rutina de la visualización implica una decisión respecto de someterse uno mismo a
cierta clase de entrenamiento personal; una primera etapa en ese sentido puede partir de la observación
reflexiva de la realidad visual que nos rodea. Sabemos, en términos teóricos y prácticos, que la
reproducción fotográfica tiene tres escalones tonales de identificación aparentemente sencilla: negro,
gris medio y blanco, pensando en todos ellos como manifestaciones puras de brillos generados por un
sujeto iluminado.
Sin embargo, la realidad no es tan simple en cuanto al comportamiento de las superficies reflectantes; si
observamos una tela negra con detenimiento, veremos que en realidad, refleja parte de la luz que recibe
en ciertas áreas normalmente determinadas por pliegues y en esos lugares, la tela se aleja bastante de lo
que consideramos un negro absoluto y anula en términos prácticos nuestra idea conceptual de tono.
No es gratuito a esta altura, decir que casi todo lo que consideramos intelectualmente negro, en realidad
posee brillos que el registro de una emulsión clasifica como grises más o menos oscuros. Ocurre lo
mismo con el blanco, que la decodificación fotográfica suele situar en grises claros y no en el extremo
absoluto y falto de detalles de la idea previa.
Pongamos en marcha una idea práctica; situemos en una habitación iluminada por una ventana, cuatro
atriles con la siguiente ubicación: el primero, muy cerca de la ventana; el segundo, un metro por detrás
del primero; el tercero, un metro por detrás del segundo y el cuarto, un metro más allá del tercero,
todos ellos enfrentados a la fuente de luz. Pongamos en cada uno de los atriles cartulinas blancas, y
observemos desde la ventana; veremos que la primera cartulina nos parece francamente blanca, pero las
restantes en comparación, nos provocarán una sensación menos pura de blanco, acentuada en términos
de la distancia de las cartulinas 3 y 4 (ver ejemplo en página 156). Sin duda, el ojo resume el concepto de
brillos mayores o menores, de acuerdo a la proximidad del objeto con relación a la fuente de luz; ahora
bien, adelantémonos para sacar de nuestro campo visual a la primera cartulina; la idea de “blanco” será
ocupada ahora por la segunda cartulina, y la tercera y cuarta nos parecerán dos tonos de gris claro.
Este ejemplo trata de formar el concepto de la adaptación del ojo humano a las condiciones de
iluminación y reflexión; pero las películas no funcionan así, porque para empezar no tienen
reconocimiento intelectual sobre lo que es blanco o negro, y tal ordenamiento sólo se consigue por la
decisión que toma el operador respecto de la exposición relativa de cada área del sujeto; si tomáramos
una fotografía de las cuatro cartulinas, desde nuestro primer punto de observación y deseáramos una
representación figurativa, obtendríamos una imagen con blanco para la primera y grises crecientes para
las otras tres, pero si quisiéramos, podríamos representar grises a las cuatro, o blancas o negras. La
ubicación en la escala de registro de una película o sensor de video, es la que determina el tono de una
superficie y no la realidad objetiva o subjetiva de nuestra percepción; la fotografía no es ni está atada
en forma alguna a la realidad. Es más, posee todos los elementos necesarios para conducir a la
abstracción.
Dejando sentado entonces que por los reflejos que genera un sujeto nada es tan blanco ni tan negro a la
hora de exponer, detengámonos un momento en el gris medio, es decir, el tono central de la escala de
reproducción, que coincide con la carta gris normalizada de 18 % de reflexión. El tercer ejercicio que nos
imponemos, es el de poder identificar este tono en una escena dada y no es una mala idea tener a mano

108
Fotografía Profesional

precisamente una carta de 18 % para comparar, en las mismas condiciones de iluminación, la densidad
de la carta y la del área que suponemos idéntica. Más adelante, la idea certera de esta densidad se
formará en nuestra memoria, y la carta podrá descansar. Por ahora nos resulta útil, y sepamos que, si el
brillo que consideramos “gris medio” es trasladado como valor de diafragma para nuestra exposición,
esta parte del sujeto se representará precisamente como un gris normal de 18 %.
En pocas palabras: el entrenamiento del fotógrafo que se acerca a la práctica del Sistema Zonal, pasa por
la identificación visual de las áreas del sujeto que podrían ser negras o blancas en la imagen final, de
aquellas que darán grises oscuros cercanos al negro, de aquellas que se representarán como grises claros
próximos al blanco, y de cuál podría ocupar el lugar del gris medio, sabiendo que el valor de brillo de
este último sería referencial en la elección del diafragma de exposición.

Nótese que no hemos hablado nunca asociando brillos con colores y no es que los ignoremos;
simplemente ocurre que la imagen fotográfica está basada en la captación de energía, y resulta
recomendable que el operador se abstraiga del color, que “piense” en blanco y negro para juzgar con el
fotómetro una escena, y que ayude a su visualización mirando a través de un filtro de contraste. Después
se ocupará del color, como información estética adicional de la imagen a conseguir.

En términos de un necesario ordenamiento temático, hemos tratado en los capítulos anteriores de


exponer sobre temas que, en muchos sentidos, son preparatorios para acceder a la mecánica de trabajo
que propone el Sistema Zonal, y habiendo hecho en el inicio de este capítulo un breve reconocimiento a
los aspectos estéticos y narrativos de la fotografía aplicada como una prioridad ineludible, entraremos de
lleno en la explicación del sistema.

7.2 - Escala de reproducción fotográfica.

Hemos expuesto ya, cuanto de la gama tonal de un sujeto logra salvar una película negativa, y hemos
citado como ejemplo general, que una emulsión negativa de media sensibilidad, logra separar 128 tonos
con textura y detalles, a partir del intervalo de luminancias de una escena iluminada.

Para poder formular un esquema corto, que permitiera una actitud racional sencilla, desprovista de
extensos ejercicios de memoria, -considérese la tarea de memorizar 128 tonos de gris- Ansel Adams
propuso una escala de once áreas: desde el negro total hasta el blanco puro, pasando por nueve tonos
de gris, fijando la gradación para el cambio de una densidad a otra, en un punto de luminancia. O sea
que, por ejemplo, el paso de un gris medio a su vecino más claro, podría medirse en un punto de la
escala LV, estudiada en el capítulo anterior.

Para facilitar la identificación por parte del fotógrafo, denominó a las zonas valiéndose de números
romanos, colocando el cero en el extremo negro y el diez en su opuesto blanco.

Fijó los valores tonales de estos extremos: el negro corresponde al tono del papel fotográfico velado y
sometido al proceso químico usual de revelado, y el blanco equivale al aspecto de la base del papel, que
se obtiene sumergiendo el papel fotográfico directamente en el baño fijador.

El aceptado como tono medio fotográfico, el gris de 18 % de reflectancia, ocupa la zona V (cinco) y se
constituye en el pilar del funcionamiento del sistema, dado que todas las decisiones se toman a partir de
conocer, como hemos dicho antes, que los exposímetros trabajan en función de igualar cualquier
superficie medida, con este tono.

109
Hugo E. Álvarez

Si bien resulta temerario intentar una lista de las áreas de posibles sujetos que podrían inscribirse en
cada valor de la escala, intentaremos más adelante, brindar algunas referencias que faciliten en algo la
tarea de acercarse y comprender la mecánica de aplicación del Sistema Zonal.

Fig. 63 - Esquema del Sistema Zonal. La zona V corresponde al gris normalizado de 18 % de reflectancia.

Si se observa la figura de arriba, se verá que resulta el positivo de la escala negativa que aparece en
la figura 60 de la página 98.

Esto es así, porque el Sistema Zonal está formulado precisamente para pensar en la imagen final; el
negativo es un paso intermedio valiosísimo, pero no es la imagen que el espectador contempla, de modo
que lo válido es razonar en función del positivo que representa la escena, la imagen exhibida.

Ahora supongamos que la escala representada en la figura 63, es un sujeto real que vamos a fotografiar.

Para ello, recurriremos a una escala de números EV/LV, cifras que sabemos equivalentes, para asignar
valores de brillo a cada una de las zonas; es decir, para representar el intervalo de luminancias del sujeto
propuesto.

Fig. 64 - Áreas del sistema con valores asignados de números EV / LV, representativos del Intervalo de
Luminosidades.

Si pensamos en una representación “literal” del sujeto, fijaríamos nuestra atención en la zona V, y
conociendo que para una sensibilidad de 100/21º ISO, el número EV 11 indica entre otras
equivalentes, una exposición de 1/60” – f: 5,6, el resultado de tal exposición daría un negativo como
el mostrado en la figura de la página 98, y un positivo como el de las figuras de la presente página.

Ahora bien; ¿Qué nos están indicando los números EV / LV de las otras zonas, en la figura 64?

Sencillamente, los valores de iluminación de cada área en particular. Pero si cada zona fuera expuesta
con una combinación tiempo / diafragma que corresponda a su número EV, el resultado tendría la
densidad correspondiente a la zona V, sin importar su tono real.
110
Fotografía Profesional

Y este modo de trabajar de los exposímetros, (relacionar cualquier superficie con la zona V) termina
resultando una situación ventajosa para ubicar cada área del sujeto donde el operador decida.

Supongamos entonces que deseamos ubicar el área correspondiente a la zona V de la figura 64, en una
zona dos puntos más oscura. Simplemente cerraríamos el diafragma a f: 11, es decir, dos puntos menos
de exposición; se produciría entonces un corrimiento en la reproducción tonal, del modo que sigue: la
anterior zona II pasaría a 0, la III a I, la IV a II, la V a III, y así sucesivamente.

En un sujeto real, esto significa que las zonas con registro de detalles cambiarían su información primera
por la de otras áreas que aparecían muy claras en la primera reproducción y que ahora se representarían
más densas.

Para que quede totalmente claro, hagamos todo el razonamiento sobre un dibujo más parecido a un
sujeto usual; volvamos a nuestro conocido paisaje:

Figura 65

Otra vez frente a nuestro lago, cargando emulsión negativa de 100/21º ISO, realizamos una acotada
evaluación fotométrica. El punto 1 (cielo) indica LV 14 (f: 16); el Nº 2 (nieve) LV 15 (f: 22); el 3, (zona clara
del agua) indica LV 13 (f: 11); el Nº 4, (zona oscura del agua) y el 5, (follaje) LV 11 (f: 5,6); el 6, (sombra en
la tierra) LV 10 (f: 4) y el 7, (sombra densa de la tierra) LV 8. (f: 2)

Pensamos entonces que el reflejo más oscuro del agua, junto a las sombras medias del follaje, son
adecuadas para representarlas en el gris medio equivalente al cartón de 18% de reflectancia, así que
diafragmamos la cámara a f: 5,6. (LV 11)

Los resultados obtenidos, al aplicar tal exposición, se esquematizan en la figura que sigue:

111
Hugo E. Álvarez

1 - Cielo 2 - Nieve
7 - Suelo oscuro 4/5 - Reflejo oscuro f:16 f:22
f:2 del agua y sombra
media del follaje 3 - Reflejo claro del agua
6 - Suelo de tono f: 5,6 f:11
medio f:4

Figura 66

Nos parece conveniente consignar lo siguiente: se puede observar claramente como los valores LV
crecen matemáticamente a medida que el nivel de brillo considerado aumenta; y esto resulta lógico
y comprensible para el principiante.

Pero a veces existe una confusión respecto a la ponderación paralela de los números f, porque el
estudiante suele conceptualizar en el mismo plano, (brillos evaluados) cuantías de iluminación con
valores de apertura de diafragma, que parecen seguir un camino inverso a los índices LV, denotando
aberturas mayores en las zonas menos iluminadas.

Y esto es correcto y es así, porque los valores de diafragma medidos en cada zona, son los que
corresponden para representar a cada una de esas zonas como zona V, ya que como venimos
remarcando, esta es la única analogía formulada por un exposímetro.

O sea que cuando medimos sólo en términos de valores de diafragma, el fotómetro indicará aberturas
mayores para las sombras, y menores para las altas luces.

Finalmente, comprobemos lo siguiente: los 128 tonos de reproducción que asignábamos a una emulsión
de 100/21º ISO: ¿Cómo están contemplados en la escala del Sistema Zonal?

Veamos. Las zonas 0 y X se descartan por representar negro y blanco absolutos, sin detalle.

Las zonas contiguas a cada extremo, I y IX, son tonos de gris tan similares al negro y al blanco
respectivamente, que también se descartan como archivo de detalles visibles.

Quedan entonces siete zonas, que son II, III, IV, V, VI, VII y VIII, para retener sustancia y textura; como
sabemos que la fotografía es un sistema de pasos dobles, elevamos la base 2 al exponente 7.

27 = 128

112
Fotografía Profesional

Veamos ahora que ocurre si modificamos la exposición de nuestro hipotético paisaje; tomamos entonces
la decisión de exponer con f: 11, que sería representativo (para la zona V) del área de reflejo más claro
del agua.

El desplazamiento de tonos producirá una reproducción más densa de las altas luces, y un hundimiento
de los tonos bajos en grises muy oscuros y negros sin detalles. La imagen se torna penumbrosa, y como
dato de utilidad, digamos que suele ser la estrategia de tomas cinematográficas “nocturnas” realizadas
en pleno día.
Y fundamentalmente, se demuestra que la inscripción tonal de datos del sujeto está supeditada a la
decisión del fotógrafo, y no necesariamente atada a los aspectos de realidad pura de la escena.
Analicemos ahora nuestra nueva decisión de exponer con f: 11, comparando las figuras de páginas 111 y
113. De este modo, el brillo de valor LV 13 que determina un f: 11 pasa a ocupar la zona V.

Fig. 67 - Exposición a f:11

Si tomáramos la decisión inversa, esto es abrir el diafragma por ejemplo a f: 2,8, el aspecto general
de la imagen cambiaría sustancialmente; las sombras ganarían en claridad y detalles y las altas luces
se confundirían en blancos puros, o tonos de gris muy cercanos al blanco.

7.3 - Rangos de Registro.

Por todo lo expuesto hasta aquí, podemos ahora referir el concepto de Rangos de registro del Sistema
Zonal.
Cuando hablamos de la totalidad de la inscripción tonal posible, esto es desde el negro total hasta el
blanco absoluto, pasando por toda la gama de grises, estamos en presencia del denominado Rango
Total.
Cuando consideramos el trayecto desde la zona I a la IX, (gris de máxima oscuridad, adyacente al negro, y
gris de extrema claridad, vecino directo del blanco) nos estamos refiriendo al Rango Dinámico.
Tengamos en cuenta que, como hemos dicho antes, estas zonas (I y IX) no se consideran generalmente
como viables para generar inscripción de detalles; pero esto va relacionado al tamaño del soporte de
imagen en que se trabaja.

113
Hugo E. Álvarez

En fotografía fija, un negativo de gran formato (4” x 5”, 5” x 7” o 7” x 9”) equivalente a un sensor digital
de 65 mm, se pueden llegar a aprovechar estas zonas registrando algo de sustancia y textura, lo que
para un formato fotográfico o cinematográfico de 35 mm (o full frame) resulta poco probable.

Finalmente, toda la gama tonal comprendida entre las zonas II y VIII, que se aceptan como áreas
adecuadas para el registro de valores bajos, medios y altos con plenitud de detalles, se conoce como
Rango Textural.

0 I II III IV V VI VII VIII IX X

Rango Textural

Rango Dinámico

Rango Total

Figura 68

7.4 - Fotometría del Sistema Zonal.

Fig. 69 - Exposímetros. De izquierda a derecha: Gossen Profisix para medición de luz refleja e incidente; Sekonic
Flashmate para luz incidente, refleja y medición de flashes; Minolta Spotmeter II, medidor puntual que cubre un
ángulo de 1º para evaluaciones de luz refleja.
114
Fotografía Profesional

Por ser una evaluación comparativa de magnitudes de brillo, la fotometría aplicada al Sistema Zonal
es por luz refleja.
Resultan adecuados en principio, todos los exposímetros que miden en esta condición, aunque resulta
necesario aclarar las condiciones de maniobra que se necesitan, para orientar respecto de los
instrumentos que se adaptan a tales funciones.
En principio, son de difícil aplicación los fotómetros que no brindan información exacta del área que se
mide; en este sentido los medidores útiles, son aquellos que por medio de un visor, muestran el
“encuadre” de la parte del sujeto que se quiere evaluar.

Por otra parte, una medición particular de las luminancias componentes de un sujeto, sólo puede
realizarse en la medida en que el instrumento pueda trabajar en ángulos estrechos de lectura. En pocas
palabras, un exposímetro clásico, que no puede ser eficientemente manejado en el encuadre de su
medición, y que además sostiene permanentemente un ángulo de 30º ó más, no tiene mayor utilidad de
aplicación.

Algunos exposímetros de este tipo como el Profisix de la firma Gossen, cuentan con instrumentos
adicionales que se montan o agregan al cuerpo, para dotar de visión al operador sobre el campo medido,
y además reducir el ángulo de lectura a 15º, 7,5º, 5º y 1º alternativamente.
Esta multifunción está ingeniosamente “compactada” en los modelos actuales de Sekonic, ofreciendo en
un solo aparato fotometría de luz incidente, medidor de flash electrónico, luz refleja y reducción gradual
de ángulo hasta 1º.

Pero sin duda los más precisos exposímetros aplicables al Sistema Zonal son los puntuales, identificados
usualmente por la expresión inglesa “spotmeters”. Estos medidores trabajan generalmente en un ángulo
fijo de 1º (un grado); están dotados de un visor que delimita el campo considerado y que señala con un
círculo centrado, el área exacta donde está produciendo la medición.
Hasta el momento, los spotmeters más utilizados y recomendados por los profesionales de la fotografía,
son el Pentax y el Minolta, ambos desarrollados por la industria japonesa.

 Un spotmeter es básicamente un medidor de luz reflejada, muy parecido en su


comportamiento a los exposímetros incorporados en las cámaras. La ventaja de un
spotmeter es su habilidad para medir un área precisa y extremadamente pequeña de una
escena, sin la influencia de las luminancias de otras áreas en la lectura.
 Como todos los medidores de luz refleja, un spotmeter está calibrado para dar una lectura
que, trasladada a la exposición, cae sobre el punto medio de la curva característica de una
película, 17 y será reproducida como una densidad media de la imagen. En otras palabras, el
medidor dará una lectura que resultará en una exposición “normal” para un sujeto “medio”.
 Un sujeto medio se define como aquel que refleja el 18 % de la luz que le incide.

Por la inclusión de la tecnología electrónica, los spotmeters realizan una serie de funciones adicionales,
como por ejemplo, calcular promedios entre varias lecturas realizadas y memorizadas, determinar
exposiciones para zonas de sombras o altas luces, etc. Pero su mejor virtud sigue siendo aquella de medir
17
La Curva Característica de una película es un gráfico generado por estudios sensitométricos, que muestra el
comportamiento de las densidades resultantes en una emulsión expuesta y procesada.

115
Hugo E. Álvarez

con exactitud cada parte de la escena y proporcionarnos la información adecuada para construir el
“mapa” de luminancias del sujeto, y decidir la exposición que convenga a los aspectos narrativos de un
film.

7.5 - Luz Incidente.


En ciertos aspectos del trabajo del fotógrafo, el sistema de luz incidente también sirve para ser
aplicado a la distribución de luminancias del sujeto, siempre y cuando se tengan en permanente
consideración las virtudes y limitaciones de este método.
Veamos un ejemplo simple de cómo servirnos de la medición incidente, pensando en la colocación del
sujeto, según el Sistema Zonal.
Supongamos una escena exterior día a pleno sol, donde un actor de frente a cámara, recibe la luz solar
en su espalda y como en todo contraluz neto, ofrece la parte frontal de su rostro y cuerpo en sombras.
Con medición incidente y ocupándonos por el momento sólo del actor, evaluamos el ratio de
iluminación; la parte posterior de la cabeza y su espalda acusan un valor LV 14, mientras que el valor de
su rostro en sombras, nos indica LV 11; de hecho, la relación luz – sombra es de 3 puntos de iluminación
o, si se quiere expresarlo de otro modo, 3 puntos de diafragma.
Sabemos que un despegue muy alto puede no ser adecuado para ciertas necesidades narrativas, y que
además el fotógrafo debe observar la postura estética de respetar la percepción del efecto “sombra” en
una iluminación tan obvia para el espectador como es un contraluz.
Pero también sabemos que un fotómetro en posición incidente tomaría el nivel de iluminación que
recibe el área en sombras como una iluminación “normal”, y promediaría dicha magnitud en función del
18 % de reflectancia. Al realizar esta ponderación, y siendo éste un sistema que no considera brillos, sino
que simplemente maneja una hipotética exposición del cartón gris normalizado en una cierta condición
de iluminación, la piel del actor aparecería, de optar por la exposición recomendada por el exposímetro,
con una densidad equivalente a un rostro iluminado de manera franca y directa.
Conociendo esta situación, el operador reducirá la exposición en una o dos zonas, según convenga al
desarrollo del film, y por cierto, deberá luego relevar las luminancias (por método de luz refleja) del
vestuario del actor y de la escenografía natural encuadrada por la cámara, para decidir el diafragma de
exposición.
Para tomar una decisión con luz incidente como la indicada, se deben tener en cuenta algunas
consideraciones que se detallan a continuación:

 El tono piel promedio de la raza blanca, se registra normalmente en zona VI.

 Esto significa que al medir con luz incidente y al promediar el fotómetro una exposición
adecuada a la carta gris de 18 %, “respetará” la inscripción del tono piel blanca como
una luminancia un punto más brillante, que la hará “caer” en la zona VI.

 Por lo tanto, si se reduce la exposición en un punto, el tono piel se ubicará en la zona V, y


si la reducción fuera de dos puntos, se inscribirá en la zona IV.

 Consecuentemente, el brillo de contorno creado por la luz solar directa sobre las espaldas
del actor, se reducirá proporcionalmente al cierre operado sobre el diafragma, al igual
que el brillo general del fondo encuadrado.

116
Fotografía Profesional

Este sería el modo de razonar si se aplica el sistema de luz incidente con relación al sistema zonal,
teniendo siempre presente que la exposición que indica el instrumento es recomendable para la
inscripción en zona V de un sujeto medio que recibe una iluminación frontal de 180º de cobertura, con
prescindencia total de las luces situadas fuera de este ángulo de medición.

7.6 - Valores de copia.

Hemos dicho anteriormente que la exposición de un negativo debe hacerse pensando en la imagen final
positiva que el mismo origina.
Habiéndonos aproximado a la idea de que un negativo resulta expuesto en los términos de luces y
sombras que determina el fotógrafo y no por las condiciones reales de iluminación del sujeto, es dable
pensar en los valores de copia como una traslación llana de las densidades obtenidas en el negativo:

Zonas del negativo 0 I II III IV V VI VII VIII IX X


Copiado
Zonas del positivo 0 I II III IV V VI VII VIII IX X

No obstante, la copia positiva no siempre resulta tan literal, y esto se debe de manera fundamental, a
decisiones tomadas durante la exposición, o a necesidades estéticas y / o narrativas de la imagen
buscada.
En primer lugar, los materiales negativos presentan una probada dificultad para inscribir detalles en las
sombras; o lo logran con densidades débiles, con escasa probabilidad de poder ser trasladadas al
positivo.
Es por ello que la antigua recomendación de “exponer para las sombras y revelar para las altas luces”
está presente en la memoria del operador como una alarma que lo previene de no subexponer
excesivamente las áreas oscuras del sujeto en el material, ya que si pierde la inscripción de sombras en la
exposición, las mismas no podrán ser recuperadas por ninguna fase del proceso de revelado o del
positivado, generando además la aparición del efecto de grano, típica de las densidades negativas
escasas que no pueden recibir luego una adecuada luz de copiado.
En cambio, sí pueden reducirse efectos de cierta sobre-exposición de las altas luces, ya sea por
modificaciones del revelado del negativo, o por técnicas de copiado que aproximan el exceso a la
comprensión de ojo y cerebro.
En términos estéticos – narrativos, también se realizan correcciones de zonas en el positivo, respecto del
original negativo; el ejemplo más simple ya mencionado antes, es el de escenas nocturnas rodadas
normalmente a campo abierto y con luz diurna, y que son copiadas con una larga exposición a la luz de
copia, originando un fuerte incremento de densidad (respecto de lo que sería la copia estándar del
negativo) para generar la ilusión de oscuridad de la noche real.

No haremos un desarrollo de los procesos de revelado, pero si lo hiciéramos, se vería claramente como
los valores negativos y de copia pueden modificarse; pero tengamos presente por el momento, que
podemos y debemos exponer un negativo fotográfico o cinematográfico pensando en los valores de la
copia positiva, y que tales valores pueden cambiar o no, en función de la imagen que se quiera lograr.

Sepamos también que para la fotografía fija existen aún papeles positivos en blanco y negro tipificados
en grados de contraste fijos o variables (papeles multi-grado), y que los negativos de cine pueden ser
copiados sobre películas positivas de contraste normal o alto, tanto en color como en blanco y negro.

117
Hugo E. Álvarez

7.7 - Sujetos de Escala Completa.

Cuando fotografiamos, nuestro sujeto no es una superficie de luminancia única registrada a distintas
exposiciones, sino que es en realidad, una gama o escala de luminancias comprendidas en una única
escena. Un área clara implica mayor exposición en la porción de emulsión que la registra y un área
oscura produce una exposición mínima en la sección negativa correspondiente.
Midiendo los brillos o luminancias de cada parte del sujeto, y comparando las lecturas con la escala de
zonas y los valores de copia “normales”, podemos evaluar a un sujeto en función de su traslación al
resultado de la copia final.

Un problema no tratado hasta aquí, suele presentarse en función del calibrado de los exposímetros,
puesto que a veces los fabricantes intentan corregir en ellos, fallas de utilización que prevén por parte de
los fotógrafos, desviando la calibración desde el 18 % aceptado como tono medio, hacia porcentajes
menores que “salven” fundamentalmente, el registro de la piel blanca cuando se utilizan mediciones
generales del encuadre.

Este tipo de calibración “corregida” es muy común en los exposímetros incorporados a cámaras de video
o de fotografía fija y también, lamentablemente, en fotómetros de mano que parecen “razonar” sobre
cuestiones que debieran formar parte de la decisión del operador.

La aplicación del sistema de zonas, la base de su proceso intelectual y práctico, descansa en la puesta a
punto del exposímetro para que mida sobre el 18 % de reflexión, para lo cual, cualquier desviación de
calibrado debe ser detectada y corregida.

Asegurado este procedimiento, lo que requerimos de un exposímetro es que lea los reflejos individuales
de un sujeto, para relacionar estas luminancias en intervalos de exposición de un punto. Si el fotómetro
indica por ejemplo, que un área del motivo tiene el doble de luminancia que otra, sabremos que esta
superficie se ubicará una zona más arriba en la escala de exposición y deberá aparecer con un valor más
claro en la copia final. Si por el contrario, el área considerada tuviera la mitad de luminancia respecto de
la referente, producirá una densidad equivalente a una zona más baja en la exposición, y se representará
con un valor más oscuro en la copia positiva.

Podemos relacionar entonces, las luminancias del sujeto, la escala de exposición y los valores de copia:

Luminancias del sujeto


(Unidades de exposición) ½ 1 2 4 8 16 32 64 128 256 512
Zonas de exposición 0 I II III IV V VI VII VIII IX X
Valores negativos que dan:
Valores de copia 0 I II III IV V VI VII VIII IX X

En esta tabla, las luminancias del sujeto se dan en términos de “unidades de exposición”, que no tienen
un valor absoluto, pero expresan la relación de doble o mitad entre una zona de exposición y sus
contiguas.

Además, asignamos la unidad a la zona I para facilitar por ejemplo, el cálculo del ratio entre dos zonas
separadas; así, el ratio entre la zona VII (64) y la II (2) será:

64 ÷ 2 = 32 o sea Rt. 32:1

118
Fotografía Profesional

Recuérdese que manejar cada concepto en su correspondiente marco, facilita la comprensión de


cualquier sistema; por lo tanto, recomendamos al estudiante acostumbrarse a pensar las luminancias
como unidades de iluminación (LV), dejando los valores de diafragma para lo que fueron creados:
números representativos de una de las variables de la exposición.

7.8 - Colocar y caer.

Un concepto ya manejado en este capítulo, pero de indudable valor a la hora de decidir y fijar
procedimientos, es el de colocar y caer.
Cuando elegimos una alternativa de exposición a partir de seleccionar una combinación de tiempo de
exposición y abertura de diafragma, estamos “colocando” un área particular del sujeto en la zona V de la
escala de exposición, atendiendo a un valor de copia de la misma magnitud.

Por consecuencia, el resto de las luminancias “caen” en zonas más claras o más oscuras del registro
negativo, produciendo por contrapartida valores más oscuros y más claros respectivamente, en la copia
final.
La aceptación del sistema de zonas por parte del fotógrafo, implica la evaluación de todas las
luminancias, para determinar precisamente, cuál de los valores medidos ocupará la zona media (V),
cuáles serán sus vecinos directos en el rango textural, cuáles brillos ocuparán los extremos en el rango
dinámico, y cuáles áreas perderán sus detalles, hundidos en los extremos blancos y negros de la escala.
El operador determina toda la operación y decide el registro de una luminancia del sujeto en zona V:
coloca.
Y la caída del resto de los brillos que componen la escena no es casual, sino que forma parte de la
cuidadosa planificación racional de la fotografía.

7.9 - Emplazamiento inicial.

Hemos anticipado ya, que el error más grueso que puede cometerse al momento de exponer una
escena, consiste en otorgar un bajo nivel de registro a las zonas más oscuras del sujeto, puesto que tal
error no podrá subsanarse con ningún procedimiento posterior. De modo que el procedimiento o la
decisión primera del fotógrafo pasa necesariamente por determinar las áreas en sombras de las cuales
quiere preservar detalle y colocarlas mediante la exposición, en zonas que aseguren el valor de la copia
final y por lo tanto, su percepción por el espectador.
Para que el concepto quede claro, ejemplificamos: si el operador determina que un área del sujeto debe
inscribirse en la zona III, medirá directamente el objeto en cuestión, y sabiendo que el fotómetro realiza
una lectura para situarlo en la zona V, cerrará el diafragma en dos puntos, para desplazar la tonalidad a
la zona elegida. Obviamente, que tal decisión deberá ser confrontada con el registro general de toda la
escena, pero básicamente, ese sería el modo de trabajo a aplicar.

Se debe tener plena conciencia de los valores que van a sacrificarse por debajo de la zona II o por encima
de la zona VIII, ya que en los procesos químicos de revelado cinematográfico, variar las rutinas normales
de trabajo conllevan un costo económico importante, y para el caso de las emulsiones negativas en
color, no son recomendables técnicamente, (esto es válido también para la fotografía fija) dado que las
variaciones de procesos cromáticos traen aparejados problemas en el equilibrio y dosificación de colores.

De todos modos, siempre se cuenta con la posibilidad, por ejemplo en exteriores, de levantar el nivel de
luminancia de las sombras con la ayuda de iluminación artificial, acortando prudentemente el valor de
contraste general, posibilitando de este modo un buen registro de áreas oscuras y claras.
119
Hugo E. Álvarez

La fotografía fija en blanco y negro tiene a su alcance un control de revelado muy amplio, pero
considérese que las superficies de emulsión a tratar, son casi siempre acotadas y manejables
permitiendo en el caso de los grandes formatos, un tratamiento individual de las imágenes expuestas.
En la siguiente tabla, procuramos ofrecer una orientación sobre la colocación de elementos de posibles
escenas, dejando absolutamente claro que se trata sólo de sugerencias generales, dado que nunca
podemos ubicar a una disciplina con objetivos artísticos, dentro de un compendio de “recetas” fijas.
DESCRIPCIÓN POR ZONAS.18

Gama de Valores Zona Descripción


Valores bajos Zona 0 Negro total en la copia. Ninguna densidad útil en el negativo que esté
por encima de la densidad base + velo de la película.
Zona I Punto umbral efectivo. Primer paso por encima del negro total en la
copia, con ligera tonalidad, pero sin textura o detalle.
Zona II Primera apariencia de textura. Tonalidades profundas que representan
las partes más oscuras de la imagen, cuya reproducción requiere algo
de detalle.
Zona III Materiales que presentan un tono oscuro medio, y valores bajos con
adecuada inscripción de textura. Tono piel promedio de raza negra.
Valores medios Zona IV Follaje de un oscuro medio, piedras oscuras, brillos menores de la piel
de raza negra, valor de sombra normal para sujetos de piel blanca
registrados a pleno sol.
Zona V Gris medio (18 % de reflectancia), piel oscura (árabe, latinoamericana);
brillos importantes de la piel negra, piedras grises, tono medio de la
madera seca.
Zona VI Valor promedio de la piel blanca a la luz del sol, luz día difusa o luz
artificial, brillos altos de las pieles oscuras, piedras claras, sombra de la
nieve en paisajes soleados, cielo despejado (al sur en nuestra latitud).
Valores altos Zona VII Piel muy clara iluminada por el sol, brillos altos de la piel blanca
promedio, objetos de tono gris claro, promedio de la nieve con luz
rasante.
Zona VIII Blancos con textura y valores delicados. Nieve con textura, valores muy
altos de la piel nórdica.
Zona IX Blanco sin textura que se aproxima al blanco puro, comparable a la
zona I en su ligera tonalidad sin textura auténtica. Nieve a pleno sol.
Con negativos de pequeño formato, puede generar blancos puros al
copiarse por sistema de condensadores.
Zona X Blanco puro equivalente a la base del papel fotográfico. Brillo especular,
fuentes de luz que aparecen en la imagen.

7.10 - Contraste del motivo.

De acuerdo al relevamiento fotométrico, el contraste de una escena puede clasificarse de la manera


siguiente:
 Sujetos de escala normal.
 Sujetos de escala corta.
 Sujetos de escala larga.

18
Fuente: “El Negativo” – Ansel Adams – Trilogía fotográfica de Ansel Adams – Libro 2 - OMNICON - Madrid –
España.
120
Fotografía Profesional

7.10.1 - Escala normal: Se consideran sujetos de escala normal a aquellos cuyo rango de exposición
consta de cinco luminancias que el fotógrafo desea inscribir con detalles y textura; un registro de esta
naturaleza ocupa la zona III para la sombra más oscura que deseamos rescatar con detalles, registra
tonos medios en las zonas IV, V y VI, y expone el área más clara en la zona VII. En este tipo de escena,
existen pequeñas porciones de imagen que caen fuera del registro, (brillos y reflejos especulares, siempre
más importantes que las reflectancias difusas) pero precisamente por ocupar muy poca superficie en el
encuadre no son importantes como defectos, y por el contrario, suelen agregar brillantez y luminosidad a
la gama tonal registrada. Así, la exposición adecuada para este emplazamiento, dará un negativo con
gama completa y todo el detalle importante se conservará, dado que la columna vertebral del registro
cae en pleno rango textural, desde la zona III a la VII.

7.10.2 - Escala corta: Un sujeto de escala corta es aquel que entre la sombra más importante y su
luminosidad más alta no supera cuatro valores de luminancia. Si por ejemplo, evaluamos un sujeto,
pensando en una colocación de sombra relevante en la zona III, y comprobamos que su brillo más alto
cae en la zona V, sin duda estamos en presencia de un sujeto de contraste plano, bajo, y podemos
entonces decidir un registro más adecuado, ocupando las zonas IV, V y VI y aún más alto, en zonas V, VI y
VII. En ambos casos, se ocupa plenamente el rango textural con gran captación de detalles y amplias
posibilidades de corrección en la copia positiva. El motivo de escala corta es el menos comprometido
respecto de la exposición, ya que admite manipulaciones en el momento de la toma o en el posterior
proceso de revelado; aún cuando las sombras se registren en una zona relativamente alta, el resto de los
valores casi siempre se inscriben dentro del rango textural. Esta posibilidad es la que genera un
malentendido concepto de Latitud de exposición.

 Latitud de Exposición: La película tiene una escala suficientemente larga como para tolerar
varias exposiciones diferentes de una escena plana, sin sacrificar el detalle ni la separación tonal
y tiene por lo tanto, una cierta “latitud” para la modificación de la exposición planeada. Téngase
en cuenta, que cuando la escala de contraste del sujeto es más amplia, (sujetos de escala normal
o larga) la latitud de exposición disminuye, ya que un cambio de un punto en la exposición podría
ocasionar pérdida de detalle en un área que nos interesa. Por lo tanto, la latitud de exposición
está en relación directa con el intervalo de luminosidades del sujeto y el rendimiento tonal
particular de cada emulsión, y no debe tomarse como la “conciencia” de un margen de error
incorporado de un modo misterioso a los atributos de la película o del sensor de imagen.

7.10.3 - Escala larga: Un sujeto de escala larga es aquel que extiende su intervalo de luminosidades por
encima de cinco valores.

Supongamos una escena donde las áreas que deseamos inscribir con detalles abarcan ocho valores LV. Si
mantenemos nuestra intención de registrar la zona más baja en la zona III, los brillos más altos caerán en
las zonas IX y X, con su consecuente pérdida de sustancia y textura. Las alternativas pasan por: evaluar
nuevamente la visualización, sopesar la mayor o menor importancia del área más densa, y tal vez decidir
el cierre de un punto de diafragma para registrarla en zona II, de modo que el brillo más alto caiga al
menos en la discutible zona IX; o mantener la exposición utilizando luz artificial para elevar el registro de
las sombras comprometidas en dos zonas, cuidando de no alterar estéticamente su condición narrativa.
De este modo, el diafragma se ajustaría en dos puntos más cerrado, las sombras se inscribirían en zona
III, y las altas luces más importantes se situarían en la zona VIII.

121
Hugo E. Álvarez

En foto fija, podríamos ignorar la corrección de iluminación, y “traer” las porciones fuera de control de
los brillos altos mediante un revelado reducido, pero ya hemos dicho que estos procedimientos no son
muy sencillos de aplicar en cinematografía, donde el costo básico de laboratorio se aplica sobre el
principio de revelar cantidades grandes de películas negativas con procesos estandarizados, lo que
permite una asignación de insumos y tiempos de trabajos proporcionales y adecuados.

Remarcamos que en estos casos de contraste alto, la latitud de exposición prácticamente no existe,
tornando más comprometida la decisión de exponer con precisión.

Fig. 70 - En esta fotografía de escena de “Los días de la vida”, (2000 - Francisco D’Intino) la latitud de exposición no
es muy amplia, ya que si bien una buena parte de la imagen se resuelve en tonos medios de la escala de
reproducción, los brillos puntuales originados por la luz solar se inscriben como áreas muy altas, acotando la latitud
a no más de un punto de diafragma. El contraste de reproducción abarca las Zonas II, III, IV, V, VI, VII y VIII, con
algunas superficies ubicadas en Zona IX. Por causa de la tormenta que se aproximaba, el fondo de nubes y el lago
configuran una perfecta Zona V.

122
Fotografía Profesional

CAPÍTULO 8

Imágenes en color
8.1 - Percepción del color: Por conceptos explicados en el Capítulo 1 de esta obra, sabemos que
las sensibilidades espectrales de nuestro sistema visual nos producen sensaciones o impresiones de
color correspondientes al azul, verde y rojo; las longitudes de ondas portadoras de estos colores (que
se perciben por separado a través de la especificidad de los conos) pueden identificarse como cortas
(azul), medias (verde) y largas (rojo).

Estas sensibilidades al color pueden ser estimuladas en una intensidad mayor o menor, o combinarse
entre sí de infinitas formas; gracias a ello, un ser humano dotado de visión normal, puede apreciar
hasta nueve millones de distintos matices de color. A las sensibilidades a los colores azul, verde y
rojo, podemos denominarlas primarias; y cuando dos de los colores primarios se combinan (en la luz
o en un objeto) surgen los llamados colores secundarios o complementarios19: amarillo, magenta y
cian.20 Tanto los primarios como los complementarios se combinan en innumerables mezclas que
resultan en todas las sensaciones cromáticas que podemos experimentar.

Cuando las tres sensaciones de los colores primarios se ven estimuladas en igual proporción, lo que
percibimos como sensación es luz blanca. En cambio, cuando los complementarios se combinan en
los mismos términos de igualdad, nuestra sensación será la de neutralidad visual: ausencia de luz,
distintos valores de gris y, teóricamente, negro.21

8.2 – Contraste: Podemos definir el contraste de una imagen en términos generales, como la
combinación de cualidades opuestas. Implica una diferencia esencial de luminosidad en el campo de
la percepción que hace posible la visión, lo que sería imposible ante un campo homogéneo. Los
valores de contraste pueden manifestarse en valores tonales22 o en factores formales.23

Las diferencias en la percepción visual se originan en dos factores: las cualidades de las fuentes de luz
y el reflejo de la luz sobre las superficies de los objetos que capta el campo visual.

8.2.1 – Contraste de color: Apoyándonos en las afirmaciones del punto anterior, podemos decir
que el color es un componente absolutamente importante para generar oposiciones, escalas medias
de brillos, altas luces y sombras densas. Y que precisamente, sus niveles de brillo y luminosidad están
ligados de manera absoluta al nivel de iluminación que incide sobre un sujeto determinado y al poder
de reflexión que las distintas partes de ese sujeto sean capaces de generar. En pocas palabras, el
color “naranja” es una idea abstracta. La calidad de ese “naranja” estará signado por la cantidad y
calidad de la luz que recibe y por la naturaleza misma del objeto que lo porta, que podrá ser más o
menos reflectante.

19
Los conceptos de colores primarios y complementarios serán desarrollados, posteriormente, en el Capítulo 8.
20
El amarillo surge de la mezcla de verde y rojo; magenta, por la sumatoria de azul y rojo y el cian resulta de la
combinación de azul y verde.
21
Veremos más adelante que los colores complementarios son llamados también primarios sustractivos,
porque restan componentes a la luz blanca, cada uno de ellos, selectivamente, hasta llegar a neutralizarla.
22
Los valores tonales refieren a factores como el tinte, valor y saturación o intensidad que, en conjunto,
integran el tono de un determinado color.
23
Refieren a conceptos psicológicos propios de los investigadores del movimiento “Gestalt”
123
Hugo E. Álvarez

Fig. 71 - La importancia del contraste, (sea en términos de densidad y/o color) resulta esencial para la
percepción visual. La señal de tránsito reproducida arriba resulta muy clara en color, pero es prácticamente
irrelevante en su versión en blanco y negro. El problema se soluciona utilizando un filtro de contraste (azul o
rojo) en la toma monocromática.

Identificamos además a los colores en dos grandes familias: cálidos y fríos. Si volvemos a nuestros
seis colores nombrados, podemos decir que existen un primario frío (azul), otro que participa de
ambas ‘familias’, según su brillo y saturación (verde), y uno cálido: rojo. En contraposición, existe un
complementario cálido (amarillo), un ambiguo (magenta), y uno frío (cian).

 Color cálido: Refiere a las radiaciones del espectro luminoso que presentan las máximas longitudes de
onda (rojo, naranja, amarillo) que producen una reacción subjetiva, percibida como temperatura.
Arnheim esboza una teoría sobre el efecto cromático de “cálido” y “frío” diciendo que no son los tintes
‘puros’ los que producen la sensación de temperatura, sino el color que se desvía ligeramente de
aquellos. Así, un azul rojizo parecerá ‘cálido’ y un rojo azulado, ‘frío’. “La mezcla de esos colores
perfectamente equilibrados, no manifestaría claramente el efecto”.
 Color frío: A diferencia de los llamados cálidos, los colores fríos se sitúan en el sector del espectro
correspondiente a las longitudes de onda mínimas, próximas al ultravioleta (violeta, índigo, azul),
identificándose en la percepción visual con sensaciones de temperatura cercanas al efecto físico del
frío.

 Longitud de onda: Es la medida de las ondas a través de las cuales la luz se mueve en el espacio.
Distintas medidas de longitud se ven como colores diferentes; así, la mayor longitud de onda
corresponde al rojo y la menor al violeta. Entre ambas y con longitudes proporcionales de onda, se
encuentran los otros colores del espectro, es decir anaranjado, amarillo, verde y azul. La percepción
simultánea de todos los colores de la descomposición de la luz blanca, se debe a la frecuencia o
velocidad de las ondas. Las ondas de mayor longitud tienen menor frecuencia o velocidad y viceversa.
Sólo una pequeña proporción de las ondas de luz producen sensación de color. Las longitudes mayores
que las del rojo se llaman infrarrojas y las menores que las del violeta, ultravioletas. Ambas son
invisibles.

De hecho, pensar en una imagen donde un color frío y uno cálido resultan adyacentes, nos da una
idea de contraste notable. Precisamente, este juego de frío – cálido está presente en cualquier
imagen de color medianamente reflexionada. Lo que no significa que no se pueda trabajar en claves
frías o cálidas, cuando se buscan determinados efectos que impacten al espectador.

8.2.2 – Contraste simultáneo: El contraste simultáneo puede darse en imágenes cromáticas o


monocromáticas; se define como el cambio del aspecto visual de un determinado color, dado por la
influencia de otro color que lo rodea. Si deseáramos una apreciación objetiva de colores, éstos
124
Fotografía Profesional

deberían estar situados sobre una superficie neutra, es decir, un valor gris medio entre el blanco y el
negro; esta forma de apreciación queda justificada porque el ojo valora la saturación y el brillo de los
colores, según como aparecen respecto a su entorno cercano. El contraste simultáneo se evidencia
cuando a un mismo tono gris, lo rodeamos por un blanco puro y un negro absoluto. La influencia
producida por la zona blanca tiene un gran brillo y la mancha gris parece relativamente menos
brillante.

La zona negra no tiene brillo; por lo tanto, al estar contenido por un tono más oscuro que el suyo, el
gris parecerá más radiante. Cabe mencionar que en la ilustración, se ha utilizado exactamente el
mismo gris para ambos rectángulos.

Fig. 72 - La zona gris parece ser más o menos oscura, siendo realmente el mismo tono.

Y en términos cromáticos, ocurre aproximadamente lo mismo: obsérvese el efecto de un color


primario (azul) en franca competencia con su complementario (amarillo).

Fig. 73 - El rectángulo interior amarillo de la izquierda parece ser más grande que el correspondiente azul de la
derecha; sin embargo, son iguales. Reflexión a tener en cuenta a la hora de componer una imagen: los colores
cálidos se ven más grandes y más próximos. Los fríos, nos dan la impresión de más pequeños y distantes.

Para sustentar estas afirmaciones, veamos a continuación lo que ocurre cuando dos figuras
(complementario y su primario) que mantienen la misma proporción y superficie, son colocadas en
dos campos neutros (en este caso un gris de valor 25 %, tomado de las artes gráficas)

125
Hugo E. Álvarez

Fig. 74 - En estailustración, la pureza de los respectivos tonos aparece con mayor énfasis. Pero continúa la
impresión visual de más grande / más pequeño y la de más próximo / más lejano.

Definiremos a continuación, cuatro conceptos relevantes en la noción genérica de color.

 Tinte: Término que se utiliza para aludir al color. Es sinónimo de color.

 Matiz: Variante de claridad u oscuridad de un color, producida por el agregado de acromáticos


(blanco, negro) o grises al color, lo que provoca diferencias de valor y saturación sin que se pierda su
origen de color (rosado, celeste, amarillo, etc.)

 Saturación: Es una de las tres dimensiones del tono. Se refiere a la pureza de color que una superficie
puede reflejar. Cuando el tono es completo, es decir no mezclado, presenta máxima saturación, o lo
que es lo mismo, se halla en toda su pureza. Si contiene algún acromático, se reduce su saturación
pues el color se manifiesta con menor potencial cromático; en consecuencia, se encuentra
neutralizado. Si el color se mezcla con su complementario también sufre neutralización o pérdida de
saturación, pues la mezcla de complementarios es sustractiva del color y la resultante es la absorción
del mismo, alcanzando el neutro.

 Tono: Color integrado en todas sus dimensiones. Se denomina también tono a la escala resultante de
un color mezclado con blanco, negro o gris, es decir, al matiz, o bien con su color complementario.

En el siguiente capítulo, veremos cómo se forman las imágenes fotográficas en color.

126
Fotografía Profesional

CAPITULO 9

La Fotografía en color.

9.1 - Fundamentos de los sistemas fotográficos en color.


A lo largo de este capítulo, explicitaremos cada una de las bases y elementos que hacen posible las
imágenes cromáticas en el cine y la fotografía, tanto analógica como digital.
Pero siendo todos ellos parte de un esquema de indudable complejidad tecnológica, vamos a
empezar tratando de mencionar los conceptos fundamentales que sostienen el sistema como tal.

9.1.1 - La luz: Consideramos luz blanca (acromática) fundamentalmente a la emitida por el sol. Aun
conociendo que la luz solar se invade de tonalidades según la hora del día en que la consideremos, es
evidente que se toma como un patrón sobre el cual podemos realizar evaluaciones y comparaciones.
Sin embargo, esta luz blanca está compuesta por radiaciones de color; basta la simple y antigua
experiencia de contemplar el arco iris que suele formarse, cuando el cielo se despeja luego de una
lluvia. Las gotas de agua suspendidas en el aire, actuando como pequeños prismas, descomponen la
luz en sus colores formadores, en un abanico que abarca desde el violeta profundo hasta un rojo
oscuro.
Dentro de esta gama de colores, existen tres bandas de energía que están formadas por flujos
únicos, monocromáticos: azul, verde y rojo. Estas radiaciones no son resultado de mezcla de otros
colores, sino que son en sí mismos puros, únicos. Y poseen otra condición: sumados ellos en igual
proporción, proveen luz blanca. Por eso se les llama Primarios Aditivos.

9.1.2 - Colores: Aún conociendo que solamente necesitamos tres colores para obtener luz blanca,
esto no resulta por sí un sistema de reproducción cromática. Se necesitan otros colores que
completen un sistema de oposición y gradación para posibilitar una buena reproducción de los tonos
medios y aún de los tonos acromáticos tales como el blanco, negro y el neutro gris.

Un sistema de este tipo se denomina de “colores complementarios”, y las parejas de tonos se


forman mezclando dos componentes primarios aditivos para lograr el color complementario del
primario que no interviene en la mezcla. Así:

Verde + rojo = amarillo – que es el complementario del azul.

Azul + rojo = magenta 24 – que es el complementario del verde.

Azul + verde = cian 25 – que es el complementario del rojo.

Un color es complementario de otro cuando se le opone, lo gradúa y aún en extremo, lo anula.

Amarillo, magenta y cian utilizados en conjunto, sustraen radiación de la luz blanca a punto tal de
crear el acromático opuesto: negro. Se llaman por tal motivo Primarios Sustractivos.

24
El color magenta debe su nombre a la localidad homónima de Italia. El tono del magenta puede definirse
como un rojo – azul – violáceo.
25
El color cian es un azul verdoso, como la radiación propia de algunas lámparas fluorescentes hogareñas.
127
Hugo E. Álvarez

Estos seis tonos constituyen la base sobre la cual funcionan la fotografía, el cine, la televisión en
colores, la informática y los sistemas de impresión gráfica; tres parejas de colores “enfrentados” que
administrándose mutuamente, son formadores de todos los colores que podemos reproducir.

Fig. 75 - Representación de los colores utilizados en la reproducción de la fotografía cromática;


los colores opuestos por el vértice son complementarios entre sí, y cada sustractivo está formado
por los primarios aditivos adyacentes.

9.1.3 - Sistema de registro analógico: La estructura de una película en color está basada en
múltiples capas de emulsiones en blanco y negro. Basándose en los colores formadores de la luz
blanca, las capas de emulsiones son dispuestas para que formen imagen en función del tercio
espectral para el que han sido sensibilizadas: azul, verde o rojo; de este modo, las capas sensibles a la
luz azul, ignorarán los tonos del sujeto en donde aparezcan los otros dos colores en forma directa o
formando tonos intermedios. La imagen total es entonces dividida de acuerdo a la longitud de onda
de cada color, y compuesta en distintas capas de archivo... pero en forma de plata revelada, sin
atisbo alguno de color.

9.1.4 - El color fotográfico: Dentro de las emulsiones, además de haluros de plata están los
copulantes o copuladores de color: estas sustancias químicas reaccionan a la acción de un revelador
cromógeno, y se acoplan a la imagen de plata revelada, tiñendo cada capa sensible con el color
complementario a su sensibilidad. Así, las capas que son sensibles al azul aparecen de color amarillo
una vez terminado el proceso químico, las sensibles al verde serán de color magenta y las que
responden al rojo darán cian. Es decir que todo el sistema de registro resulta sustractivo.
La plata revelada es un metal, obviamente opaco, que no deja pasar luz. Como la transparencia es
absolutamente necesaria para que la luz de una copiadora o de un proyector “combine” la
información cromática de las capas superpuestas y reveladas, el metal formador de imagen,
perfectamente protegido y fijado en los procesos blanco y negro, debe ser eliminado de las imágenes
en color con un baño de blanqueo que transforma la plata revelada en una sal inestable que será
absorbida por un baño de fijado.
Seguidamente, los componentes que han sido planteados serán desarrollados de la forma más clara
y exhaustiva posible, para una mejor comprensión del lector de cada uno de los factores que
128
Fotografía Profesional

intervienen en la imagen cromática de la fotografía fija y el cine, sistema análogos en su


funcionamiento y que son el basamento de técnicas más jóvenes, como la televisión o la imagen
digital.
El color no constituye una propiedad absoluta de los objetos, sino una sensación humana. Las
excitaciones de color registradas por la retina del ojo provienen de la repartición de energía y de las
propiedades espectrales de la porción de luz visible dejada pasar o reflejada por un objeto. La
impresión sensorial “color”, se produce sólo mediante un procedimiento complejo de interpretación
de información de los impulsos recibidos por el cerebro.
Los foto receptores de la retina (conos) transforman la luz en impulsos nerviosos, clasificando colores
de acuerdo a las longitudes de onda que reflejan los objetos, en un espectacular proceso de
recepción, (ojos) decodificación por componentes espectrales, (retina) e interpretación de la
información global (cerebro).

Para la televisión en color, tres tipos de receptores, con diferentes sensibilidades a distintas
longitudes de onda de la luz visible, se encargan de transformar una imagen óptica en una señal
eléctrica posteriormente amplificada por el equipo procesador de la cámara. En cierto modo, la
capacidad de generar color para la televisión, no depende tanto de la luminosidad del objeto o
sujeto, sino de su propia estructura de funcionamiento.

En sistemas sensibles a la radiación tales como el ojo, las emulsiones fotográficas y cinematográficas
de cámara y materiales de copiado, no se habla de “sensibilidad al color”, sino de sensibilidad
espectral.

9.2 - Temperatura de color.

Básicamente, la temperatura de color es la relación directa entre la temperatura adquirida por un


elemento metálico (radiador negro de Planck) sometido a un determinado calentamiento, respecto
de la luz visible que emite en función de la elevación de su temperatura.

Se puede decir entonces, y siguiendo las teorías físicas sobre el particular, que cuando un cuerpo
negro teórico es sometido a un calentamiento progresivo, irradiará para cada punto de temperatura
luz coloreada, la que será clasificada en los mismos términos numéricos de la temperatura del cuerpo
radiante. La unidad de medida de la temperatura de color es el Kelvin.

George Kelvin creó en principio una escala para medir temperatura, situando el cero grado de la
misma en los –273º de la escala Celsius, por ser éste el punto conocido como cero absoluto, donde
no existe actividad molecular ni radiación de origen calórico o visible comprobable. Unir luego esta
escala con las percepciones de color que aparecen por elevación de la temperatura no resultó difícil,
convirtiendo este método de medición en uno de los pilares de los sistemas de registro fotográfico
en color.

 El término Temperatura de color sólo vale para radiadores térmicos como lámparas con filamentos
metálicos, para lámparas fluorescentes de espectro continuo y LED’s, pero no para radiadores de
fluorescencia de espectro discontinuo, tales como muchos tubos fluorescentes de uso doméstico,
luminarias urbanas, etc.

Para dar una idea respecto de la asociación “temperatura – color”, diremos que con temperaturas de
recocido altas, por ejemplo 5500° K, predomina la radiación de onda corta de alcance espectral azul,

129
Hugo E. Álvarez

mientras que con temperaturas de recocido bajas como 3200° K, se destacarán las radiaciones de
onda larga, con porciones espectrales que abarcan desde el rojo hasta el amarillo.
Las películas en color son sensibilizadas entonces, para un determinado tipo de iluminación de la
escena, una cierta temperatura de color que, para tal iluminación, es considerada y fijada como
punto no coloreado, o dicho con mayor propiedad, punto acromático.
Las películas para luz artificial (Tungsten light), son ajustadas para la luz incandescente de lámparas
de uso fotográfico balanceadas para 3200° K, mientras que las películas de luz día (Daylight) son
acondicionadas a la repartición espectral de la luz mixta de cielo y sol. (Aproximadamente 5500° K)

La luz media diurna contiene notablemente más porciones espectrales azules y mucho menos rojas
que la luz de lámparas incandescentes; por esta razón, las películas reversibles o negativas para luz
día tienen menor respuesta en las capas de emulsión sensibles al azul, en comparación con las capas
sensibles al verde, mientras que las capas sensibles al rojo proveen mayor reacción que las
correspondientes a una película balanceada para luz de tungsteno.
Si la sensibilización espectral de la película no coincide con el tipo de luz utilizado en la toma de
imagen, entonces se produce un viso o dominante de color, esto es, un color que se impone sobre la
totalidad de la imagen, y no permite observar con claridad el resto de los colores componentes de la
escena. En este sentido, las emulsiones en color registran las desviaciones del tipo de luz de toma de
manera más precisa que el ojo humano, el cual al observar motivos iluminados, compara los colores
percibidos con informaciones previas disponibles en el cerebro, consiguiendo sin darse cuenta, un
ajuste de colores.
Para evitar dominantes de color en caso de desviaciones de la temperatura de color cuando se
utilizan emulsiones que no corresponden a la escala cromática de las fuentes de luz, deben utilizarse
filtros de conversión de color azul (serie 80 de Kodak) o ámbar, (serie 85 de Kodak) según
corresponda.
Para comenzar a introducirnos de modo general en el concepto de color, digamos que en el año
1666, Isaac Newton demostró que la luz blanca está formada por radiaciones de color, haciendo
pasar luz a través de un prisma de cristal y observando la descomposición de la misma en sus colores
constituyentes.
Veremos más adelante como la fotografía se sirve de la estructura física de la luz para registrar
colores. Antes, nos detendremos en algunos conceptos básicos.

9.3 - Colores complementarios.


El término “complementario” es empleado en un sentido común, y quiere significar color contrario,
ya que se trata de los colores que aparecen enfrentados en el círculo de colores.
De manera más exacta, son complementarias las parejas de colores que en la mezcla aditiva,
producen blanco.
Del mismo modo, tales parejas de colores en mezcla sustractiva, dan como resultado el negro.
Son colores complementarios:

Este grupo de seis colores es el fundamento de los sistemas


Azul – Amarillo cromáticos fotográficos, cinematográficos y televisivos. Incluye a los
Verde – Magenta tres primarios y a sus complementarios, creando un conjunto de
Rojo – Cian matices que se oponen, para formar todo el espectro.

130
Fotografía Profesional

Los colores azul, verde y rojo (llamados colores primarios) están formados por una sola radiación
energética, mientras que amarillo, magenta y cian, son colores resultantes de la mezcla de dos
primarios:

Verde + Rojo = Amarillo


Azul + Rojo = Magenta
Azul + Verde = Cian

En suma, el complementario de un color primario, está formado por la mezcla de los primarios
restantes.
Para enfatizar el concepto, decimos:
Son complementarias las parejas de colores que se completan hacia blanco (mezcla de color aditiva)
o hacia negro (mezcla de color sustractiva).

La mezcla aditiva se genera con haces separados de cada componente de color.


Color básico Color complementario (originados por componente).

Azul + verde + rojo (amarillo) = blanco


Verde + azul + rojo (magenta) = blanco
Rojo + azul + verde (cian) = blanco

La mezcla sustractiva resulta de filtrar simultáneamente una fuente de luz.


Color básico Color complementario (originados por filtros de color).

Amarillo + azul = negro


Magenta + verde = negro
Cian + rojo = negro

9.4 - Mezcla de color Aditiva.

El sistema de color aditivo, consta de la mezcla óptica de luces monocromáticas (unicolores) en los
básicos azul, verde y rojo. Si estos colores son proyectados en partes iguales, uno encima de otro,
resulta el blanco.

Al combinar cada vez dos colores básicos aditivos, se obtienen los colores compuestos amarillo,
magenta y cian, los cuales al mismo tiempo, son complementarios del tercer color básico no
participante.
Los primeros procedimientos fotográficos en color se basaban en el principio de la mezcla aditiva de
colores.
Hoy en día, la mezcla aditiva está aplicada en la tecnología de la televisión cromática, para el tiraje de
copias positivas de cine, y en mucho menor grado, para obtener copias positivas en fotografía fija.

La mezcla de color aditiva se realiza mediante la suma de dos o más luces de color. El métrico de
color habla de una combinación de valencias de color individuales y distintas – sistema CIE
(Comission Internationale de l’ Eclairage) - hacia una sensación de color nueva que se diferencia de

131
Hugo E. Álvarez

las valencias de color utilizadas para producirla; la nueva sensación de color resulta de la proyección
simultánea de luz azul, verde y roja, o por medio de un efecto aparentemente simultáneo de
elementos de color con superficies muy pequeñas, los cuales no pueden ser distinguidos por el ojo
como elementos individuales por su reducido tamaño.

Mediante la adición de estos pequeños elementos en una relación adecuada, se provoca una
impresión de color determinada, tal como ocurre en la impresión de tramas de color, o por la
excitación de puntos luminosos de color mediante un haz electrónico, en la televisión.

Fig. 76 - Mezcla Aditiva de color.

En los procedimientos fotográficos aditivos se producen los colores iniciales azul, verde y rojo a partir
de luz blanca transmitida a través de filtros de tales colores (filtraje aditivo en máquinas copiadoras).

El original a copiar es expuesto correlativamente (tres exposiciones sucesivas de luz filtrada en azul,
verde y rojo) sobre papel fotográfico o película positiva cinematográfica.
Debido a la densidad única de los filtros y la estabilidad de la potencia de la lámpara emisora de luz,
el balance de color se obtiene mediante el manejo de los tiempos de exposición para cada uno de los
filtros.

Resumiendo, el copiado a positivo de una imagen negativa de color por mezcla aditiva se realiza por
luz filtrada en azul, verde y rojo, en tres exposiciones separadas que se suceden en ese orden a
través del negativo, incidiendo sobre la emulsión positiva, sumando en ella la información propia de
cada color, produciendo o restableciendo el aspecto del sujeto original.

En la ilustración siguiente, puede verse un ejemplo de los resultados de cada una de las exposiciones
por sistema aditivo, y la sumatoria de todas ellas, constituyendo la imagen final.

132
Fotografía Profesional

9.4.1 - Exposición por mezcla aditiva:

Acción individual de cada filtro Acción acumulada de los tres filtros

Azul Azul

Verde Azul + Verde

Rojo Azul + Verde + Rojo

Fig. 77 - Síntesis Aditiva de color.

9.5 - Mezcla de color Sustractiva.

Los colores sustractivos amarillo, magenta y cian, son colores mixtos. Aparecen cuando la luz blanca
pasa a través de filtros amarillo, magenta y cian, o cuando la luz blanca es reflejada en la superficie
opaca de objetos amarillos, magentas y cianes.
Un filtro amarillo absorbe las porciones azules de la luz blanca y deja pasar sólo las porciones
espectrales verdes y rojas; los rayos verdes y rojos juntos, producen el color mixto que conocemos
como amarillo. Análogo a este procedimiento, un filtro magenta absorbe la radiación verde y deja
pasar azul y rojo (magenta). Del mismo modo, un filtro cian absorbe el rojo y permite el paso de luz
azul y verde (cian).

133
Hugo E. Álvarez

Esto significa que los filtros de color y / o los objetos coloreados, dejan pasar o reflejan los rayos de
luz que corresponden a su propio color.
Para lograr copias positivas de un original negativo, el filtraje de corrección en el procedimiento
sustractivo se efectúa mediante el empleo de filtros de colores amarillo, magenta y cian, actuando
entre la luz blanca de la copiadora y el negativo a positivar, para incidir luego en la emulsión positiva.
La exposición, a diferencia del método aditivo, se realiza de modo simultáneo, operando sobre
distintas densidades de cada filtro, y con un tiempo único de exposición que corresponde a cada
original (fotograma) que se desea copiar.
Si los filtros no se utilizan, el color de la luz resulta blanco, si los filtros están presentes en su máxima
densidad, el color resultante es gris, ya que los colorantes técnicos de los filtros, (análogos a los
colorantes de capas reveladas de las películas en color) no absorben en su totalidad la luz que los
atraviesa; si la absorción fuera total, el resultado sería negro. Por esta razón, para el filtraje
sustractivo de color, se utiliza una combinación de dos filtros, (normalmente amarillo y magenta) ya
que si se combinan los tres colores, el valor gris producido por sumatoria del tercer filtro, (cian)
prolongaría innecesariamente el tiempo de exposición.

El principio de la mezcla sustractiva de color también es aplicado en las emulsiones negativas,


reversibles y positivas de color, en cuyas capas, después de la exposición y el revelado, quedan
superpuestas las nubes de colorantes amarillos, magentas y cianes. Sólo mediante la combinación de
los tres colores sustractivos, con distintas densidades para cada situación de toma, es posible
reproducir todos los colores del alcance espectral visual.
Desde luego, no se produce un negro total en los lugares donde se superponen los colores amarillo,
magenta y cian, por la absorción incompleta de la luz antes mencionada. De todos modos, “negro” es
una impresión relativa, ya que estos sectores de la imagen, que dejan pasar una intensidad débil de
luz, pueden aparecer negros en comparación con otras partes o áreas más claras. Esta relatividad del
proceso visual hace posible el empleo de materiales cromáticos sustentados en capas de colores
sustractivos.
El método sustractivo de copiado se utiliza en fotografía analógica fija y en impresiones gráficas.

Fig. 78 - Mezcla de color sustractiva.

134
Fotografía Profesional

9.6 - La fotografía analógica en color:

9.6.1 - Estructura general de una película en color.

Los materiales en color analógicos contienen sobre un soporte, tres grupos de capas de emulsión
sensibilizadas de diferentes modos, (las cuales por su parte, están compuestas de varias capas
parciales) y un número de capas auxiliares, tales como capas protectoras, separadoras, de adhesión,
capa filtro y capa antihalo (Véase figura de la página 136).

Junto a los haluros de plata, las emulsiones en color incluyen copulantes amarillos en las capas
superiores sensibles a la luz azul, copuladores magentas en las capas medias sensibles al verde, y
copulantes cian en las capas inferiores sensibles a la porción espectral del rojo.

De gran importancia son también la capa filtro amarillo y la de protección antihalo.

La capa filtro amarillo está posicionada debajo de la capa sensible al azul, ya que debe evitar la
exposición de las capas medias e inferiores en el margen de sensibilidad propia de estas, ya que las
emulsiones de yoduro – bromuro de plata de muy apreciable respuesta, independientemente de su
sensibilización especial para porciones determinadas de la luz visible, siempre exhiben una gran
capacidad para formar imagen en el tercio espectral del azul.

Podemos decir entonces, que el número de capas de las películas actuales de color ha aumentado
considerablemente respecto de las emulsiones anteriores, siendo hoy la regla y no la excepción, el
disponer de películas con doce ó más capas; no obstante, y sobre la base de nuevas tecnologías de
emulsionado como la aplicación en cascada, se ha logrado reducir el espesor total de las películas.

Hasta el último desarrollo conocido, las empresas fabricantes coinciden en la disposición de capas
dobles sensibles al azul, (colorante amarillo) con una capa parcial superior de alta sensibilidad y una
capa parcial inferior de baja prestación sensible.

La respuesta en tanto, de las secciones verdes (colorante magenta) y rojas (colorante cian) del
espectro, se estructuran con capas triples, de alta, (capa superior) media, (capa intermedia) y baja
sensibilidad (capa inferior).

En emulsiones negativas aplicadas a la cinematografía, aparecieron a fines del año 2001, las
denominadas películas de cuarta capa, que agregan a su estructura una delgada sección ocupada por
haluros de plata en emulsión que responden al cian, ubicándose entre las capas sensibles a la luz
verde y las correspondientes al tercio espectral rojo, con la finalidad de controlar el efecto
interimagen26 y tratar de lograr registros de bandas de energías con frecuencias de ondas negativas,
que son apreciadas por la percepción visual humana. 27

26
Como un modo de explicación sencilla, podemos decir que el efecto interimagen se produce cuando la
exposición y el revelado afectan (contagian) a dos o más capas de emulsiones sensibilizadas para distintas
longitudes de onda. Por ejemplo, cuando las capas amarillas invaden parcialmente a las capas magenta.
27
Esta tecnología fue aplicada inicialmente por Fuji en su emulsión Reala 500 D, que produjo en principio como
material cinematográfico y posteriormente como emulsión fotográfica. Sus resultados, en términos de calidad
de reproducción cromática, no fueron relevantes.
135
Hugo E. Álvarez

Fig. 79 - Estructura de una película negativa color destinada a la fotografía fija.

9.6.2 - Composición de las capas.

La fotografía en blanco y negro produce imágenes a partir de la incidencia de una imagen luminosa
sobre una emulsión constituida por haluros de plata (en forma de cloruros, bromuros o yoduros) que
se encuentran en suspensión de gelatina animal. 28

La imagen luminosa, colectada de manera óptica por un objetivo, produce sobre la emulsión una
imagen latente, fenómeno que consiste en una reacción atómica en donde, por cesión de un
electrón, el haluro disgrega su estructura en iones plata y átomos residuales de cloro, bromo o yodo.
Se da entonces una migración de los iones plata hacia los llamados centros de sensibilidad: la imagen
latente ha quedado definida, pero aún no resulta visible. El posterior proceso químico de reducción o
revelado, permitirá que la imagen fotográfica resulte visible (revelada) y permanente (fijada).
La fotografía en color basa su funcionamiento en los mismos principios del sistema en blanco y
negro, pero su estructura es más compleja y de un avance tecnológico tal, que influye actualmente
en la fabricación de emulsiones para blanco y negro, donde se aplican conceptos desarrollados en la
producción de materiales en color.

28
Ver Capítulo 1, página 12 de este texto.
136
Fotografía Profesional

Para conocer la composición interna de las emulsiones en color, tendremos en cuenta los siguientes
conceptos:
 Tecnología de los cristales. (Haluros de plata)
 Copulantes, copuladores o acopladores de color.
 Inhibidores de revelado.
 Enmascaramiento de materiales negativos.
 Capas de protección antihalo.

9.6.3 - Tecnología de los cristales.

Tradicionalmente, las industrias productoras de emulsiones fotosensibles no podían controlar la


forma ni el tamaño de los haluros de plata, limitándose a separarlos, una vez terminada la “cocción”
de la plata fundida y las sustancias halógenas, en función de los tamaños resultantes, para
destinarlos a la fabricación de emulsiones de menor o mayor sensibilidad a la luz.
Actualmente, los cristales de generación más reciente, (ver Capítulo 1, página 11) con un tamaño de
0,2 a 0,3 milésimas de milímetro, constituyen los elementos de memoria más pequeños que se
conocen para almacenar información óptica.
Los cristales, planos y delgados, se dejan “empaquetar” más densamente, haciendo posibles capas
de emulsión más delgadas, sin pérdida de sensibilidad, ya que al ser fabricados como plaquitas
planas conformando un cuerpo compacto, se aumenta el ennegrecimiento de la plata revelable por
unidad de luz incidente, expresada físicamente como una eficiencia de cuantos elevada.
Procedimientos especiales de producción, reducen la formación de cristales demasiado pequeños,
los cuales mermarían la nitidez por difusión de la luz, (un grano fino no necesariamente equivale a
mayor nitidez) y de cristales demasiado grandes que producirían un efecto de granularidad
indeseable.
Los cristales gemelos estructurados son conocidos comercialmente como Cristales Core – Shell,
(AGFA) T-Grains (Kodak) y SIGMA. (Fuji)

Fig. 80 - Cristal Sigma de Fuji, con placas de construcción hexagonal.

137
Hugo E. Álvarez

9.6.4 - Sensibilización.

En principio, todas las emulsiones fotográficas tienen sensibilidad propia para la luz azul y la energía
ultravioleta. Un aumento de la sensibilidad propia o de la respuesta a otras bandas del espectro,
merecen procedimientos especiales. La sensibilidad general, aumenta por la adición de sales de oro o
de combinaciones de azufre, denominándose a tales manejos como sensibilización química.

9.6.5 - Sensibilización para el resto del espectro: (verde y rojo)

Las emulsiones ortocromáticas son sensibilizadas adicionalmente para captar la luz verde, y las
pancromáticas para registrar todos los primarios: azul, verde y rojo.
Esto se consigue por el cuidadoso agregado de aditivos apropiados, (colorantes sensibilizadores) y tal
hecho se denomina sensibilización óptica, procedimiento descubierto por H. W. Vogel en el año
1873, que creaba en ese momento, una de las bases de la fotografía en color.
Las emulsiones fotográficas no tratadas con sensibilización óptica, tienen la propiedad de formar
imágenes sólo con una parte de la luz visible, hasta aproximadamente 510 nanómetros; (NM) su
sensibilidad propia queda en el margen de onda corta del espectro, de manera que sólo responden a
la luz azul y a la violeta, (emulsiones de bromuro de plata) o para la radiación ultravioleta y luz violeta
(emulsiones de cloruro de plata).
Mediante colorantes orgánicos especiales, llamados sensibilizadores espectrales, absorbidos en la
superficie de los cristales de haluros de plata, estos son sensibilizados a la luz verde y roja, lo cual
constituye una predisposición importante para la reproducción de tonos correctos de todos los
colores en blanco y negro, y para la fotografía en color.

Se diferencia la sensibilización óptica de materiales fotográficos, de acuerdo a la siguiente


nomenclatura:

No sensibilizado:
La capa de emulsión es sensible para radiación ultravioleta y luces violeta y azul.

Ortocromático:
Sensible para radiación de luces azules y verdes.

Pancromático:
Sensible para radiaciones de luces azules, verdes y rojas, es decir, para toda la luz visible.

Hiperpancromático:
Sensibilización pancromática, con respuesta sumamente ampliada para la radiación de luz
roja.

Falsa pancromática:
Mantiene su sensibilidad primaria al azul, es enriquecida con sensibilización al rojo, pero no
se la trata con sensibilizadores al verde, de manera tal que ignore tal radiación en el
momento del registro.

Infrarrojo:
Sensible para radiación infrarroja no visible.
138
Fotografía Profesional

En las películas en color, las capas sensibles a la luz azul son emulsiones no sensibilizadas; las capas
destinadas al verde están conformadas por emulsiones ortocromáticas, y las capas sensibles a la
luz roja son falsas pancromáticas que responden al azul y al rojo, pero no a la radiación verde.
De este modo, una película en color “desglosa” la información cromática de un sujeto en virtud de la
respuesta particular de cada una de sus capas a las longitudes de ondas que intervienen en la
formación de los colores captados.

Supongamos por ejemplo, que fotografiamos una flor azul, con su tallo verde inserto en una maceta
roja, en registro negativo:

1° Capa:

Sensible al azul.
Colorante amarillo.

2° Capa:

Sensible al verde.

Colorante magenta

3° Capa:

Sensible al rojo.

Colorante cian

Fig. 81 - Clasificación de un sujeto compuesto por colores primarios, registrado en un negativo color dotado de
su típico enmascarado.

 La flor genera imagen en la capa sensible al azul.


 El tallo forma imagen en la capa sensible al verde.
 La maceta aparece reproducida en la capa sensible al rojo.

Cada capa será ciega a las radiaciones extrañas a su sensibilidad espectral particular. Luego la imagen
global se constituirá por superposición de la información de las tres capas, integración llevada a cabo
por la luz de una copiadora que combina los matices de colorantes orgánicos transparentes.

 Las fotografías analógicas en color se logran registrando en primer lugar exposiciones fotográficas
puras (acromáticas), convirtiéndolas después, por el proceso de revelado, en imágenes en color.

Los puntos mencionados como acopladores de color, inhibidores de revelado, enmascaramiento de


materiales negativos y capas de protección antihalo no se desarrollan, entendiendo que corresponden
exclusivamente a la estructura de las películas, cuya tecnología está a punto de ser superada.
139
Hugo E. Álvarez

9.7 - La fotografía digital en color:

9.7.1 - Mosaico filtro de color: En fotografía digital, un mosaico de filtros de color o matriz de
filtros de color (CFA, por la sigla en inglés color filter array), es un mosaico de minúsculos filtros
de color colocados sobre los pixeles de los sensores de imagen para capturar la información del
color.
Los filtros de color son necesarios porque los fotosensores típicos detectan la intensidad de la luz con
poca o ninguna especificidad de la longitud de onda, y por lo tanto no pueden separar la información
del color. Puesto que los sensores son hechos de semiconductores, obedecen a la física del estado
sólido.
Los filtros de color filtran la luz de acuerdo al rango de la longitud de onda, de tal manera que las
intensidades filtradas separadas, incluyen información sobre el color de la luz.
Por ejemplo, el filtro Bayer (Figura 81), da información sobre la intensidad de la luz en las regiones
rojas, verdes, y azules (RGB) de la longitud de onda.
Los datos crudos (RAW) de la imagen, capturados por el sensor, son entonces convertidos a una
imagen a todo color (con intensidades de los tres colores primarios representados en cada pixel) por
un algoritmo de interpolación cromática, hecho a la medida para cada tipo de filtro de color.
La transmitancia espectral de los elementos del mosaico de filtro de color junto con el algoritmo de
interpolación cromática, determina la interpretación del color.
La eficacia cuántica del paso de banda del sensor y el ancho de las respuestas espectrales del
mosaico de filtros de color son típicamente más anchos que el espectro visible, para que puedan ser
distinguidos todos los colores visibles.
Las respuestas de los filtros no corresponden generalmente a las funciones de acoplamiento de color
CIE29 (Comission Internationale de l’ Eclairage), así que es requerida una interpretación de color para
convertir los valores tri estímulos en un común espacio de color absoluto.
El sensor Foveon X3 usa una estructura diferente; un pixel utiliza las propiedades de multi-empalme
para apilar los sensores azules, verdes y rojos, uno encima del otro.
Este tipo de sensor no requiere un algoritmo de interpolación cromática, porque cada pixel tiene la
información completa sobre cada color.
Los fabricantes distinguen este acercamiento como un "filtro de color vertical" para el Foveon X3,
versus un "filtro de color lateral" para el caso de filtros de color RGB.

29
“El Sistema CIE dice que la mezcla de color aditiva se realiza mediante la suma de dos o más luces de color.
El métrico de color habla de una combinación de valencias de color individuales y distintas hacia una sensación
de color nueva que se diferencia de las valencias de color utilizadas para producirla; la nueva sensación de
color resulta de la proyección simultánea de luz azul, verde y roja, o por medio de un efecto aparentemente
simultáneo de elementos de color con superficies muy pequeñas, los cuales no pueden ser distinguidos por el
ojo como elementos individuales por su reducido tamaño.
Mediante la adición de estos pequeños elementos en una relación adecuada, se provoca una impresión de
color determinada, tal como ocurre en la impresión de tramas de color, o por la excitación de puntos luminosos
de color mediante un haz electrónico, en la televisión”. Ver página 131 de este texto.

140
Fotografía Profesional

Estructura y disposición de mosaicos o filtros de color:

Tamaño del patrón


Imagen Nombre Descripción
(en píxeles)

Filtro Modelo de color RGB. Con un azul, un rojo, y dos


2×2
Bayer verdes.

Filtro Similar al Bayer con uno de los filtros verdes


2×2
RGBE modificado a cian; usado en algunas cámaras Sony.

Filtro Un cian, dos amarillos y uno magenta; usado en


2×2
CYYM algunas cámaras Kodak.

Filtro Uno cian, uno amarillo, uno verde y uno magenta;


2×2
CYGM usado en algunas cámaras.

RGBW
RGBW tradicional, similar a los patrones Bayer y RGBE. 2×2
Bayer

RGBW #1
4×4
Tres ejemplos de filtros RGBW de Kodak, con 50%
RGBW #2
blanco.

RGBW #3 2×4

9.7.2 - Mosaico de Bayer: El filtro, máscara o mosaico de Bayer, es un tipo de matriz de filtros
rojos verdes y azules, que se sitúa sobre un sensor digital de imagen (CCD o APS) para hacer llegar a
cada fotodiodo la información de luminosidad correspondiente a una sección de los distintos colores
primarios.
Interpolando las muestras de cuatro fotodiodos vecinos, se obtiene un pixel de color. El mosaico de
Bayer se llama así por su creador, Bryce Bayer, investigador de la empresa Eastman Kodak.
El mosaico de Bayer está formado por un 50% de filtros verdes, un 25% de rojos y un 25% de azules.
Interpolando dos muestras verdes, una roja, y una azul, se obtiene un pixel de color. En la patente de
Bryce Bayer, se llaman elementos sensores de luminosidad a los verdes, y elementos sensores del
color a los rojos y azules. La razón de que se use una mayor cantidad de puntos verdes, es porque
además de generar la impresión cromática “verde” en el ojo humano, debe portar la señal de
luminancia, es decir, las densidades propias de la imagen en blanco y negro. La disposición de los
colores suele ser rojo-verde-rojo-verde en una fila, y verde-azul-verde-azul en la siguiente hilera
paralela.

En los archivos RAW de las cámaras de fotos digitales, se guarda la información del patrón de Bayer
de forma directa, sin interpolaciones, lo cual puede ser aprovechado posteriormente por los
141
Hugo E. Álvarez

programas de pos producción digital, para una decodificación de mayor calidad que la que permiten
los algoritmos internos presentes en los dispositivos de captura.

Fig. 82 - Mosaico Bayer.

Alternativas:
Aunque en fotografía digital está generalizado el uso del mosaico de Bayer, existen otras opciones
como el sensor de imagen Foveon X3 empleado por Sigma en sus modelos SD9, SD10, SD14, SD15,
SD1 y SD1 Merrill, y las cámaras compactas DP1 y DP2; y algunas cámaras especiales para fotografías
estáticas que realizan 3 disparos o uno en forma de escaneado.
30
En el campo de las cámaras de vídeo se emplea a veces un prisma dicroico que reparte la luz a
varios sensores monocromáticos CCD o CMOS. El costo se eleva debido a que son necesarios más
sensores (uno por cada canal de color) y se necesita un proceso de calibración para que los
elementos de cada sensor reciban el mismo sector de la imagen.

9.7.3 - Filtro CYGM: El filtro CYGM es un mosaico de filtro de color alternativo al filtro Bayer (GRGB
–green –red / green - blue). Al igual que el filtro Bayer, utiliza un mosaico de filtros de pixeles, pero

30
La etimología de la palabra dicroico proviene del griego dikhroos que traducido viene a significar "dos
colores", haciendo de esta forma referencia a cualquier dispositivo óptico capaz de dividir un haz luminoso en
dos o más haces con diferentes longitudes de onda (o lo que es lo mismo, en "dos o más colores"). Entre tales
dispositivos se incluyen los espejos y los filtros dicroicos, tratados generalmente con recubrimientos ópticos
diseñados para reflejar la luz con un determinado intervalo de longitudes de onda y transmitir a través de ellos
la luz que no pertenezca a dicho intervalo; esta operación separa la luz en dos colores.
Un ejemplo de este tipo de materiales, es el prisma dicroico empleado en algunas videocámaras equipadas con
3 sensores de imagen, que suelen emplear tres tipos diferentes de recubrimiento para separar los rayos
luminosos en colores específicos: generalmente los componentes rojo, azul y verde para poder así almacenar
cada uno en su respectivo sensor CCD - charge-coupled device (dispositivo de carga acoplada) o CMOS -
complementary metal-oxide-semiconductor (semiconductor complementario de óxido metálico)

142
Fotografía Profesional

con los colores cian, amarillo, verde y magenta, y así, también requiere de demosaicing31 para
producir una imagen a todo color.

El CYGM da una información de luminancia más exacta que el filtro de Bayer, por lo tanto, tiene
un rango dinámico más ancho, pero a expensas de la exactitud del color.
El filtro CYGM es mucho menos común que el filtro Bayer. Los CCDs que lo utilizan, incluyen
el Sony ICX252AK y el ICS252AKF de 3 megapíxeles (que aparecieron en octubre de 1999).
Las cámaras que lo usan incluyen varios modelos de Canon del período 1999-2000, tales como la
Canon PowerShot S10, la original Canon Digital IXUS presentada en junio de 2000, (aunque los
modelos subsecuentes de IXUS usaron el filtro Bayer), la Canon G1; las DSLRs Kodak DCS 620x y la DCS
720x, y varios modelos de Nikon Coolpix.

Fig. 83 - Mosaico CYGM.

9.7.4 - Filtro RGBE: E l filtro RGBE es un arreglo de filtro de color alternativo al filtro Bayer (GRGB).
Al igual que el filtro Bayer, éste utiliza un mosaico de filtros de pixeles, pero con los colores rojo,
verde, azul, y "esmeralda" ("como cian" de acuerdo a Sony), y así, también requiere interpolación
cromática para producir una imagen a todo color. Fue desarrollado por Sony y hasta ahora solamente
es usado en el CCD de 8 megapíxeles ICX456-8 y en la cámara Sony Cyber Shot DSC-F828.
Sony indica que la razón de agregar el filtro del cuarto color es "para reducir los errores de la
reproducción del color y registrar imágenes naturales más cercanas a la normal percepción de la
visión del ojo humano".

31
Un algoritmo de interpolación cromática, expresión conocida en inglés como demosaicing o demosaicking,
es un proceso digital de imagen utilizado para reconstruir una imagen en color mediante las muestras
cromáticas incompletas adquiridas desde un sensor de imagen al cual se le antepone un mosaico de filtro de
color.

143
Hugo E. Álvarez

Fig. 84 - Mosaico RGBE

El mosaico RGBE utiliza un cuarto color, cian, así como el rojo, verde y azul. Comparemos con el
anterior filtro Bayer, que tiene dos veces el número de celdas verdes

Mosaico RGBE Fig. 85 Mosaico Bayer

Foveon X3: El Foveon X3 es un sensor CMOS de imagen, formado por tres capas apiladas de modo
vertical: cada elemento de la matriz del sensor está formado por tres capas, cada una de las cuales es
sensible a uno de los colores primarios (RGB).

Principio de funcionamiento: Cada una de las diferentes longitudes de onda de los colores
primarios es absorbida en distintas capas, pues las ondas más largas (rojas) tienen una mayor
profundidad de penetración en el silicio que las más cortas (azules). Mediante el uso de un filtro que
bloquea la luz infrarroja, pero sin filtro de paso bajo (lo cual aumenta la extrema nitidez de que hace
gala el fabricante), se consigue en las capas del sensor, una sensibilidad al color similar a la de
los conos del ojo humano. En la película fotográfica de color se emplea el mismo principio, que
también utiliza distintas capas sensibles al color, unas sobre otras.

Comparación con otros sensores: Habitualmente se utilizan sensores CMOS o CCD con
una máscara de Bayer, de modo que un píxel de color se forma con 4 elementos sensibles
adyacentes que reciben distintos tonos y que luego se interpolan. Por el contrario, en el sensor
Foveon X3, cada elemento sensor recibe la información completa del color. Por ello la resolución es
mayor que en los sensores convencionales, a igual número de pixeles.

144
Fotografía Profesional

El sensor Foveon X3 es distinto en la forma de ordenar los sensores rojo, verde y azul, pues lo hace
uno sobre otro, en lugar de colocarlos lado a lado como es el caso del filtro de Bayer. Esto quiere
decir que, en lugar de limitarse a una componente de color, cada elemento del sensor puede resolver
todo un color, suprimiendo la interpolación de los datos.
Una propiedad interesante del Foveon X3 es que, un mayor porcentaje de los fotones que entran en
la cámara, serán detectados por el fotosensor; en principio lo serán casi todos, frente al tercio
aprovechado por otros sensores.
Resulta también interesante el hecho teórico de que mientras los sensores CCD y CMOS del filtro
Bayer tienen una mayor resolución de luminancia que de color (captan mejor los matices de
iluminación que de color), en el chip Foveon X3 las dos resoluciones son teóricamente iguales. Así por
ejemplo, la Sigma SD10, que produce archivos RAW de 3.4 Millones de pixeles RGB (2268 × 1512), es
anunciada como una cámara equivalente a 10.2 Mpx (2268×1512×3), algunas veces con la aclaración
3.4 Mpx Rojo + 3.4 Mpx Verde + 3.4 Mpx Azul; sin embargo una cámara de mosaico Bayer de 8 Mpx
podría del mismo modo aclarar: 2 Mpx Rojo + 4 Mpx Verde + 2 Mpx Azul. Es por esto que existe una
cierta controversia con respecto a la cuantificación de la mejora que supone este sistema realmente.
Otras ventajas del sensor Foveon X3 son la reducción de instrumentos, la obtención de un color más
real y un detalle de textura más ajustado. Según algunos, como desventaja, tiene una alta producción
de ruido en fotografías de exposiciones largas, pero otros análisis parecen concluir que tanto su
rango dinámico, su riqueza cromática y la producción de ruido, son mejores que en otro tipo de
sensor.

Aplicaciones: A principios del año 2010, las únicas cámaras fotográficas equipadas con sensor
Foveon X3, fueron las Sigma SD14 réflex y las cámaras compactas Sigma DP1 y DP2. Luego, Sigma
anunció el desarrollo del modelo SD15 que sucedió al SD14, y que también fue suministrada con el
sensor Foveon X3.

145
Hugo E. Álvarez

146
Fotografía Profesional

CAPÍTULO 10

Tecnología de la iluminación

10.1 – Nociones básicas sobre electricidad: Este punto inicial refiere a algunos principios que
permitan manejar, al menos de modo primario, los fundamentos de la energía eléctrica en cuanto a
su conducción, carga admisible y normas elementales de seguridad.

Comencemos diciendo que, en Argentina, la energía eléctrica funciona sobre los siguientes
parámetros: es corriente alterna, con 220 voltios (V) de potencia y 50 Hertz (Hz) de frecuencia.32

10.1.1 – Corriente alterna: Luego de generar energía en usinas (térmicas, hidroeléctricas, atómicas
y no convencionales), las empresas transportan la misma en alta tensión, que transforman luego a
media y baja para llegar así a alimentar, por ejemplo, la demanda domiciliaria.

Esta entrega se realiza mediante tres conductores (cables) eléctricos que llegan al tablero general de
una casa, configurando así un sistema monofásico.33 Uno de los conductores, de color marrón,
recibirá el nombre de fase, y transporta 220v en forma de corriente alterna. Es decir que en un
instante es cero, luego positivo, luego negativo, con una frecuencia entre 50 y 60 ciclos (Hertz) por
segundo, según el país; el segundo, de color celeste, se denominará neutro, y es por donde regresan
los electrones (corriente) luego de pasar por la "carga" que haya sido conectada; por ejemplo, luego

32
El voltio, o volt, (símbolo V), es la unidad derivada del Sistema Internacional para el potencial eléctrico,
la fuerza electromotriz y la tensión eléctrica. Recibe su nombre en honor a Alessandro Volta, quien en 1800
inventó la pila voltaica, la primera batería química. La tensión eléctrica o diferencia de potencial, también
llamada voltaje, es una magnitud física que cuantifica la diferencia de potencial eléctrico entre dos puntos. Se
puede definir como el trabajo por unidad de carga ejercido por el campo eléctrico sobre una partícula cargada,
para moverla entre dos posiciones determinadas. Se puede medir con un voltímetro. Su unidad de medida es
el voltio.
El hertz, hercio, hertzio (símbolo Hz), es una unidad de frecuencia del Sistema Internacional de Unidades. Su
nombre se acordó en honor al físico alemán Heinrich Rudolf Hertz (1857-1894), que descubrió la propagación
de las ondas electromagnéticas. El término "ciclo por segundo" fue completamente reemplazado por hercio en
la década de 1970.
Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la repetición de un suceso. Por
ejemplo, el hercio se aplica en física para medir la cantidad de veces por segundo que se repite una onda (ya
sea sonora o electromagnética) o puede aplicarse también, entre otros usos, a las olas de mar que llegan a la
playa por segundo o a las vibraciones de un sólido. La magnitud que mide el hercio se denomina frecuencia y
es, en este sentido, la inversa del período. Un hertz o hercio, es la frecuencia de oscilación que sufre una
partícula en un período de un segundo.

33
En ingeniería eléctrica, un sistema monofásico es un sistema de producción, distribución y consumo
de energía eléctrica formado por una única corriente alterna o fase y por lo tanto, todo el voltaje varía de la
misma forma. La distribución monofásica de la electricidad se suele usar cuando las cargas son principalmente
de iluminación y de calefacción, y para pequeños motores eléctricos. Un suministro monofásico conectado a un
motor eléctrico de corriente alterna no producirá un campo magnético giratorio, por lo que los motores
monofásicos necesitan circuitos adicionales para su arranque, y son poco usuales para potencias por encima de
los 10 kW. La potencia y la frecuencia de esta corriente dependen del país o región, siendo 220 a 230 y 110 a
115 Voltios los valores más extendidos para el voltaje y 50 o 60 Hertz o Hercios para la frecuencia.

147
Hugo E. Álvarez

de alimentar una lámpara, no hay tensión pero sí corriente. Para que la lámpara funcione, fase y
neutro no deben interrumpirse. La tercera línea, se llama puesta a tierra y es un conductor verde o
verde y amarillo según las normas de cada país, que se encarga de que las carcasas que contienen los
equipos queden conectadas a "tierra", es decir, un lugar sin potencial eléctrico respecto a personas
que puedan estar tocándolo. En caso de cualquier desperfecto, la corriente se derivará a tierra y no a
la persona. Actualmente, esta derivación de corriente produce que actúe un disyuntor diferencial,
que interrumpirá la energía de manera total, para evitar accidentes.

Esta denominación y funcionalidad de los conductores, debe mantenerse en todo el circuito o


circuitos de distribución interna que alimentan los requerimientos hogareños.

Fig. 86 - Gráfico de corriente alterna. El voltaje varía entre valores positivos y negativos.

En el gráfico que sigue, se muestra el modo de conectar una llave monofásica hogareña de un punto
y toma.

Fig. 87 - El conductor de fase (marrón) se conecta al borne derecho (visto de frente) del tomacorriente. Desde
allí, se coloca un “puente” al terminal del interruptor. Desde el otro terminal del mismo, se conecta un “retorno”
(marrón, rojo) a la lámpara. El neutro (celeste) se conecta al borne izquierdo de la toma, mientras otra
extensión del mismo va directamente ensamblada al portalámpara. El tercer conductor (verde / amarillo) se
conecta a tierra.

10.1.2 - Sistema trifásico: En ingeniería eléctrica, un sistema trifásico es un sistema de producción,


distribución y consumo de energía eléctrica formado por tres corrientes alternas monofásicas de
igual frecuencia y amplitud (y por consiguiente, valor eficaz) que presentan una cierta diferencia de

148
Fotografía Profesional

fase entre ellas, en torno a 120°, y están dadas en un orden determinado. Cada una de las corrientes
monofásicas que forman el sistema se designa con el nombre de fase.

Fig. 88 - Voltaje de las fases de un sistema trifásico equilibrado. Entre cada una de las fases hay un desfase de
120º.

Se dice que un sistema trifásico de tensiones es equilibrado o balanceado, cuando sus corrientes son
iguales y están desfasados simétricamente.
Cuando alguna de las condiciones anteriores no se cumple (corrientes diferentes o distintos desfases
entre ellas), el sistema de tensiones es un sistema desbalanceado. Recibe el nombre de sistema de
cargas desequilibradas o desbalanceadas, el conjunto de impedancias distintas que dan lugar a que
por el receptor, circulen corrientes de amplitudes diferentes o con diferencias de fase entre ellas,
distintas a 120°, aunque las tensiones del sistema o de la línea sean equilibradas o balanceadas.
El sistema trifásico presenta una serie de ventajas, como son: la economía de sus líneas de transporte
de energía (los hilos que componen los cables son más finos que en una línea monofásica equivalente)
y de los transformadores utilizados, así como un elevado rendimiento de los receptores,
especialmente motores, a los que la línea trifásica alimenta con potencia constante y no pulsada,
como en el caso de la línea monofásica.
Los generadores utilizados en centrales eléctricas son trifásicos, dado que la conexión a la red
eléctrica debe ser trifásica (salvo para centrales de poca potencia). La trifásica se usa mucho en
industrias, donde las máquinas funcionan con motores para esta tensión y, caso particular que nos
interesa, en la alimentación de parques de iluminación para el rodaje de películas.
Existen dos tipos de conexión; en triángulo y en estrella. En estrella, el neutro es el punto de unión
de las fases.

Cuando se aborde una conexión eléctrica compleja, monofásica o trifásica, por ejemplo para un
rodaje, se aconseja requerir los servicios de un electricista profesional. Errores en la conexión o en
la manipulación, pueden ocasionar accidentes de gravísimas consecuencias.

10.1.2 – Corriente continua: La corriente continua (CC en español, DC en inglés, de Direct Current)
se refiere al flujo continuo de carga eléctrica a través de un conductor, entre dos puntos de
distinto potencial, que no cambia de sentido con el tiempo.

149
Hugo E. Álvarez

A diferencia de la ya descripta corriente alterna (CA en español, AC en inglés, de Alternating Current),


en la corriente continua las cargas eléctricas circulan siempre en la misma dirección. Aunque
comúnmente se identifica la corriente continua con una corriente constante, es continua toda
corriente que mantenga siempre la misma polaridad, así disminuya su intensidad conforme se va
consumiendo la carga (por ejemplo, cuando se descarga una batería eléctrica).
También se habla de corriente continua, cuando los electrones se mueven siempre en el mismo
sentido; el flujo se denomina corriente continua y va del polo positivo al negativo.

10.1.2.1 – Polaridad: Generalmente los aparatos de corriente continua no suelen incorporar


protecciones frente a un eventual cambio de polaridad, lo que puede acarrear daños irreversibles en
el aparato. Para evitarlo, y dado que una de las causas del problema es la colocación inadecuada de
las baterías, es común que los aparatos incorporen un diagrama que muestre cómo deben colocarse;
así mismo, los contactos se distinguen empleándose convencionalmente un muelle metálico para el
polo negativo y una placa para el polo positivo. En los aparatos con baterías recargables, el
transformador - rectificador tiene una salida tal, que la conexión con el aparato sólo puede hacerse
de una manera, impidiendo así la inversión de la polaridad.
En la norma sistemática europea, el color negro corresponde al negativo y el rojo al positivo.
En los casos de instalaciones de gran envergadura, tipo centrales telefónicas y otros equipos de
telecomunicación, donde existe una distribución centralizada de corriente continua para toda la sala
de equipos, se emplean elementos de conexión y protección adecuados para evitar un vínculo
erróneo de polaridad.

Fig. 89 - Representación de la tensión en la corriente continua.

10.1.2.2 - Conversión de corriente alterna en continua: Muchos equipos necesitan corriente


continua para funcionar, sobre todos los que están construidos con componentes electrónicos
(equipos fotográficos, audiovisuales, ordenadores, etc). Para ello se utilizan fuentes de alimentación
que rectifican y convierten la tensión alterna en corriente continua.
Este proceso de rectificación, se realiza mediante dispositivos llamados rectificadores; antiguamente
basados en el empleo de tubos de vacío y actualmente, de forma casi general incluso en usos de alta
potencia, mediante diodos semiconductores o tiristores.
El ejemplo contrario son los automóviles, que convierten la corriente continua entregada por la
batería, en alterna, precisamente mediante la tarea del alternador.

150
Fotografía Profesional

10.1.3 - Cargas admisibles: La carga total de energía que un circuito puede sostener, está dada por
la medida de las secciones de los conductores que la conducen, por el consumo máximo de los
artefactos conectados y por la capacidad del propio circuito para soportar la carga total sin
sobrecalentarse.
Cabe introducir aquí la noción de otra medida, el ampere, para tener un panorama más completo de
lo que se deberá enfrentar a la hora de diseñar un esquema de iluminación artificial.

10.1.4 – Ampere: El amperio o ampere (símbolo A), es la unidad de intensidad de corriente


eléctrica. Forma parte de las unidades básicas en el Sistema Internacional de Unidades y fue
nombrado en honor al matemático y físico francés André-Marie Ampere.

El amperio es la intensidad de una corriente constante que, manteniéndose en dos conductores


paralelos, rectilíneos, de longitud infinita, de sección circular despreciable y situados a una distancia
de un metro uno de otro en el vacío, produciría una fuerza igual a 2×10-7 newton por metro de
longitud.

Las intensidades (expresadas en ampere) que soporta un artefacto, ficha eléctrica, tomacorriente,
etc., son dadas por el fabricante en el cuerpo y envase del producto.

10.1.5 – Potencia de un equipo: La potencia de un equipo está expresada en Vatios o Watts


(símbolo W). El término “vatio” es la palabra castellana equivalente a watt, unidad que recibe su
nombre de James Watt por sus contribuciones al desarrollo de la máquina de vapor, y fue adoptado
por el Segundo Congreso de la Asociación Británica por el Avance de la Ciencia en 1889 y por la
undécima Conferencia General de Pesos y Medidas en 1960, como la unidad de potencia incorporada
en el Sistema Internacional de Unidades.

Es el equivalente a 1 Joule por segundo (1 J/s) y es una de las unidades derivadas. Expresado en
unidades utilizadas en electricidad, un vatio es la potencia eléctrica producida por una diferencia de
potencial de 1 voltio y una corriente eléctrica de 1 amperio (1 voltiamperio).
La potencia eléctrica de los aparatos eléctricos se expresa en vatios si son de poca potencia, pero si
son de mediana o gran potencia se expresa en kilovatios (kW), que equivale a 1000 vatios. Un kW
equivale a 1,341022 caballos de fuerza, o 1,35984 caballos de vapor.
El megavatio (símbolo MW) es igual a un millón (106) de vatios.
Muchas cosas pueden tener la transferencia o consumo de energía en esta escala; algunos de esos
eventos incluyen: rayos, centrales eléctricas, grandes motores eléctricos, buques de guerra (como
los portaaviones y los submarinos) y alguno de los equipamientos científicos (como grandes láseres).
Cuando nos referimos a reflectores de uso fotográfico o cinematográfico, también expresamos su
potencia en vatios (W) o kilovatios (kW).
Por ejemplo, un proyector Fresnel de 1000 W, puede definirse también como un reflector dotado de
una potencia de 1 kW.

151
Hugo E. Álvarez

DATOS PRÁCTICOS SOBRE ELECTRICIDAD

WATTS (VATIOS) = VOLTIOS (V) x AMPERIOS (A)

TOTAL DE WATTS QUE PUEDEN CONECTARSE AL


MISMO TIEMPO A UNA INSTALACIÓN ELÉCTRICA.

Amperaje admitido
por el circuito Voltaje: 220 volts

5A 1.100 W
10 A 2.200 W
15 A 3.300 W
20 A 4.400 W

INTENSIDADES DE CORRIENTE ADMISIBLES POR UN CONDUCTOR DE COBRE.

Diámetro del Sección en 𝑚𝑚2 Amperaje máximo


Cable por conductor

0,7 mm 0,38 6,5 A


0,9 mm 0,64 7,5 A
1,2 mm 1,13 10 A
1,6 mm 2,01 14 A
2,0 mm 3,14 18,5 A
2,5 mm 4,91 25 A
3,0 mm 7,07 32,5 A
3,4 mm 9,08 39,5 A

10.2 – Fuentes emisoras de luz: Sabemos que la luz no es sino un caso particular dentro del
complejo mundo de las radiaciones electromagnéticas, y que se caracteriza por estimular nuestro
sistema de visión; la luz puede proceder de una fuente natural (el sol, un rayo, el fuego, sustancias
fosforescentes, etc.) o de una de tantas fuentes artificiales creadas por el hombre (flashes, lámparas
incandescentes o fluorescentes para diversos usos, LED’s, etc.)

Dejaremos de lado las precisiones sobre lámparas de destello (flashes), para centrarnos en aquellas
fuentes que proveen luz continua, que tienen aplicación concreta, tanto en tareas fotográficas como
cinematográficas, y porque en el ejercicio técnico y estético de la iluminación, permiten una
observación y reflexión más profunda sobre la problemática que plantea cualquier estrategia que nos
propongamos, relacionada al juego de luces y sombras sobre un sujeto determinado.

152
Fotografía Profesional

Antes de abordar los temas que tienen que ver con los emisores de luz, recordaremos algunos
conceptos explicitados en los puntos 5.4, 5.5 y 5.6 del Capítulo 5 de este texto (desde pág.85),
porque son de aplicación necesaria y constante en la tarea fotográfica cuando nos proponemos
iluminar, medir fotométricamente y exponer una imagen.
Valoremos entonces, los conceptos de candela, lumen, foot candle y lux.

Ya hemos dicho, en este mismo Capítulo, que la unidad de potencia (eléctrica, luminosa, etc.) es el
Watt o Vatio (W). Pero es difícil establecer una relación que indique directamente la cantidad de luz
que proporciona 1 vatio de energía, ya que su rendimiento luminoso está en función de las
características de las lámparas y reflectores que consideremos.
La candela es la unidad de medida de la intensidad luminosa de una fuente, en una dirección. Se ha
determinado su valor por medio de acuerdos internacionales, pero en términos prácticos, puede
decirse que es muy similar a la energía originada por una vela corriente. El flujo luminoso total
irradiado en todas direcciones por una fuente luminosa cuya intensidad sea de una candela, se
denomina lumen.
A medida que nos alejamos de la fuente de luz, la intensidad luminosa decrece, por lo que se hace
necesaria otra unidad de medida que defina el grado de “iluminación” recibido por un sujeto. Esta
unidad de medida es el lux, que se define como la iluminación producida por una fuente, con
intensidad de una candela, sobre una superficie distante un metro del foco emisor. La medida inglesa
equivalente al lux es el foot candle, que aplica el mismo razonamiento en función de considerar la
distancia en pies, en lugar de metros.
Recordamos por tanto, que 1 foot candle equivale a 10,76 lux, e inversamente, 1 lux es igual a 0,0929
foot candle. Según la procedencia de fabricación y el mercado al que se destinan, muchos
exposímetros tienen incorporadas en sus escalas, una de estas medidas.

Fig. 90 - Representación gráfica de los valores lumen y lux.

10.2.1 – Fuentes puntuales de luz: Las fuentes puntuales de luz, son aquellas que irradian energía
desde un único punto (el sol, lámparas incandescentes domésticas y fotográficas, velas, etc.),
configurando un manantial acotado por su propia estructura, irradiando sus rayos en línea recta y en
todas direcciones; por tanto, si consideramos un haz de rayos que sale de este punto, vemos que,

153
Hugo E. Álvarez

según el haz luminoso se aleja de la fuente que lo ha producido, los rayos se abren en abanico,
haciéndose cada vez más divergentes entre sí.
A medida que la distancia entre la fuente y el sujeto aumenta, la iluminación que éste recibe
disminuye; estudiando el problema y los factores en juego, se deduce que la iluminación que llega a
un sujeto desde una fuente luminosa puntual, disminuye en razón inversa al cuadrado de la distancia
que los separa. Así por ejemplo, si la fuente luminosa está situada a 2 m del sujeto, la iluminación
recibida por él es 22 ; cuatro veces menos que cuando está situada a un metro. Y si la distancia que
los separa es de 3 m, la iluminación que llega al sujeto será nueve veces menor: 32 .
De ello se deduce que el mismo cono de luz que a una distancia dada ilumina, supongamos, una
superficie de un metro cuadrado, a una distancia doble iluminará una superficie cuatro veces mayor,
y por lo tanto, cada punto de esta última superficie recibirá una intensidad lumínica cuatro veces
menor.34

Fig. 91 - Efecto de la Ley inversa del cuadrado de la distancia. El panel B, situado a 2 m, recibe una iluminación
que resulta cuatro veces menor a la que recibe el panel A, ubicado a 1 m.

10.2.2 – Fuentes extensas de luz: Cuando ocurre que la fuente luminosa es muy grande (por
ejemplo, los paneles de iluminación de los estadios deportivos) no se cumple la Ley inversa del
cuadrado de la distancia, aun cuando sus componentes (reflectores individuales) por separado, sean
por esencia, fuentes puntuales. Al estar agrupados, cada uno muy cerca de los otros, generan una
gran cantidad de energía en forma de rayos paralelos y un escaso porcentaje de energía divergente.

34
La única fuente puntual que no cumple la Ley inversa del cuadrado de la distancia, es el sol. Ocurre que la
distancia entre nuestra estrella y la tierra es tan grande (150.000.000 de Km) y su poder energético tan
enorme, que, considerar las distancias entre distintos puntos del planeta iluminado por el sol para medir
diferencias de iluminación, resulta un cálculo despreciable.
154
Fotografía Profesional

Por lo tanto, estas fuentes iluminarán sujetos colocados en distintos planos, con una pérdida de
potencia mucho menor. De este modo, la regla del cuadrado de la distancia pierde validez, y se aplica
la que expresa que, para una fuente de luz extensa, la iluminación disminuirá en función directa de la
distancia; es decir que, para una distancia doble (del segundo sujeto relacionado al primero), la
intensidad luminosa se reducirá a la mitad.35

Fig. 92 - Efecto producido por una fuente extensa de luz. La generación de rayos paralelos logra que el panel B
reciba la mitad de luz que el panel A.

Para finalizar con este punto, digamos que el ojo puede entrenarse en la apreciación de la
disminución de la iluminación, a medida que las posiciones de dos o más sujetos se alejan de la
fuente de iluminación; podemos poner en práctica el siguiente ejemplo, ya citado en el Capítulo 7,
página 108: utilizando una ventana, iluminada por la luz mezclada y difusa de sol (no directo) y cielo,
ubicaremos de manera frontal a la ventana, cuatro cartulinas blancas sostenidas por atriles. La
primera cartulina se situará a un metro de la ventana; la segunda, a dos metros, la tercera a tres
metros y la cuarta a cuatro metros de nuestra fuente de luz.
Seguidamente, nos ubicaremos a un costado de la ventana y observaremos, comparando, las cuatro
cartulinas; la primera nos resultará claramente blanca, pero la segunda, tercera y cuarta,
relacionándolas con la primera, se verán objetivamente como tres tonos de gris. Resumiendo,
estaremos apreciando los efectos de la iluminación, tal como los valora cualquier sistema de registro
fotográfico.

35
Un ejemplo doméstico (y también profesional) de fuentes extensas, son los tubos fluorescentes; la luz de
estos artefactos no se genera en la pequeña estructura de un filamento, sino en toda la superficie del tubo de
vacío que contiene al gas que se enciende. Por lo tanto, su eficiencia como generador de luz es mayor, con un
consumo eléctrico mucho menor al de las lámparas incandescentes.
155
Hugo E. Álvarez

Fig. 93 - El gráfico muestra el modo en que puede comprobarse la disminución de la iluminación, al aumentar la
distancia de los sujetos respecto de la fuente de luz.

10.3 – Lámparas: las lámparas de luz continua utilizadas en fotografía y cinematografía, pueden
resumirse en la siguiente clasificación:

a) Lámparas tungsteno - halógenas.


b) Lámparas metal - halógenas (HMI, CSI).
c) Lámparas fluorescentes balanceadas.
d) Diodos emisores de luz (LED’s)

10.3.1 – Lámparas tungsteno - halógenas: son aquellas que conservan una estructura y
funcionamiento similar al de las antiguas lámparas incandescentes hogareñas, pero con potencias y
consumos muy superiores a aquellas. Tienen envoltura de cuarzo (en lugar de vidrio) y dentro de la
ampolla que se rellena con un gas halógeno (generalmente yodo), se aloja el filamento de tungsteno
que encenderá por el paso de corriente eléctrica.
Las precursoras de estas lámparas tenían prácticamente la misma forma que las bombillas
domésticas, aunque con mayor tamaño, potencia y temperatura de color (generalmente 500 W y
3200°K) y su envoltura era de vidrio. La consecuencia de este tipo de construcción era que, al
desgastarse el filamento por el uso, los residuos carbonizados se depositaban en la parte interna del
vidrio contenedor. Por lo tanto, la lámpara iba perdiendo potencia y calidad de su luz, que se tornaba
rojiza progresivamente.
Precisamente, los artefactos que incorporan gas halógeno en sus envolturas, solucionan este
problema, ya que al desprenderse los restos de tungsteno, se combinan con el gas formando, por
ejemplo, yoduro de tungsteno. Esto que evita que los residuos se adhieran a la parte interna del
envoltorio; al enfriarse la lámpara, el tungsteno precipita de nuevo al cuerpo del filamento y
regenera su capacidad de encendido. La otra variante fundamental, es la utilización de cuarzo en
lugar de vidrio para fabricar la envoltura; esto permite una transmisión más eficiente del caudal de
luz y un pequeño aumento en la temperatura de color. Las potencias varían entre 1.000 a 10.000 W y
la temperatura de color alcanza los 3400°K.

156
Fotografía Profesional

Hay una buena cantidad de lámparas en esta categoría y podemos citar: lámparas verticales con un
único terminal, de 1.000, 2.000, 5.000 y 10.000 W destinadas a reflectores Fresnel; lámparas
horizontales de doble terminal, de 1.250, 2.000 y 2.500 W para reflectores abiertos. También
podemos citar las PAR 32 (650 W) y las PAR 64 (1.000 W) en sus variantes soft o flood, medium y very
narrow, y en sus versiones para 110 y 220V.

10.1.2 - Lámparas metal - halógenas: Son aquellas identificadas con las siglas HMI y CSI. Sus
filamentos están constituidos por aleaciones metálicas de alta resistencia y gran respuesta respecto
de la energía eléctrica recibida. Su temperatura color iguala a la estipulada para luz día, es decir,
5500°K, pero pueden adaptarse a la temperatura de los artefactos tungsteno halógenos, mediante el
uso de filtros de conversión CTO. Debido a sus ciclos de oscilación, deben incorporar un balasto
(similar al que equipan a los tubos fluorescentes) para regularizar y normalizar su entrega de energía;
además, la obturación de las cámaras de cine debe sincronizarse con los ciclos de estas lámparas,
para evitar parpadeos en la imagen final. Entregan, en lúmenes por vatio consumido, más del doble
que las lámparas tungsteno - halógenas.

10.1.3 - Lámparas fluorescentes balanceadas: Son tubos fluorescentes fabricados para la


utilización fotográfica, cinematográfica y televisiva de sus prestaciones. Su temperatura de color es
de 3200°K y la potencia individual de cada tubo no supera los 36 W, pero agrupados de paneles
reflectores, son muy eficientes; sobre todo para crear “bases” de iluminación suave y difusa. Son, por
ello, utilizados en estudios de televisión, porque evitan la proyección de sombras densas o notables.
Se las suele llamar “luces frías” y se confunde esta terminología respecto del color de la luz que
emanan, que es cálida. En realidad, esta identificación tiene que ver con el hecho de que no generan
altas temperaturas (calor) como sus parientes tungsteno - halógenas.

10.1.4 - Diodos emisores de luz (LED’s): Son la última palabra en tecnología lumínica, no sólo en
el ámbito estrictamente fotográfico, sino en iluminación urbana de calles, semáforos, luces para
ornamentación de edificios, aplicaciones hogareñas, etc. Se caracterizan por generar multitud de
colores (por lo tanto se adaptan a cualquier temperatura de color), su bajísimo consumo y su gran
durabilidad. En una palabra, son el presente y futuro en la generación de luz artificial.

10.2 – Reflectores: Toda superficie que sea capaz de reflejar parte de la luz que recibe, en esencia,
es un reflector. En el ámbito de la vida diaria, paredes, techos, arena, agua, etc., constituyen
superficies reflectoras usuales y normales. En el ámbito de la fotografía y el cine profesional, las
pantallas reflectoras de diversos tamaños (desde las manuales de un metro de diámetro a los
enormes butterfly de dimensiones muy considerables medidas en metros) son de uso corriente y
recomendable, con sus versiones metalizadas o de superficie mate. Se aplican en general, para
rebotar la luz solar y/o artificial y de tal manera, aclarar sombras densas del sujeto a registrar.
Pero además, pensando ya estrictamente en la iluminación artificial, el concepto de reflector se
aplica al artefacto que aloja las lámparas específicas de la tarea fotográfica.
Cada reflector está pensado, diseñado y construido pensando en la lámpara que portará. Tendremos
así, distintos tipos de reflectores abiertos y otros muy específicos que atienden al diseño de la
iluminación, tales como aquellos dotados de una lente Fresnel.
10.2.1 – Reflectores de ángulo abierto: Los reflectores abiertos, generalmente parabólicos o
cóncavos, expanden la luz permitiendo la dispersión de la energía producida por la lámpara; pueden
suavizar su efecto mediante el uso de filtros difusores, proveyendo entonces luces suaves y

157
Hugo E. Álvarez

envolventes. Algunos, según el objeto de su fabricación, tienen la posibilidad de controlar


medianamente el haz liberado por medio de un mecanismo que avanza o retrocede la posición de la
lámpara dentro del cuerpo del reflector, concentrando o agrandando el cono de luz proyectado. Son
ejemplos de este tipo de reflectores, los soft light, ultra light, paneles de tubos fluorescentes, PAR 32
y 6436 flood, etc.

Fig. 94 - La forma del reflector, generalmente parabólica, produce una mayor o menor concentración del haz
luminoso. El dibujo de la izquierda correspondería a un reflector de ángulo abierto. En el centro y derecha,
concentraciones posibles para un reflector con lente Fresnel. Para los tres casos, podríamos aplicar las
características de las lámparas PAR: soft o flood, medium y very narrow.

10.2.2 – Reflectores de ángulo controlable: El ejemplo clásico en este rango, son aquellos dotados
de una lente Fresnel,37 que condensa y dirige el haz luminoso con total precisión. La lámpara,
montada verticalmente sobre una plataforma, puede cambiar su posición acercándose o alejándose
del espejo parabólico ubicado en el interior del reflector; esto da la posibilidad de generar un cono
de luz más amplio o más concentrado, de acuerdo a los requerimientos propios de una puesta en
escena.

Fig. 95 - A la izquierda, una lente Fresnel; al centro, un spot Fresnel de 1.000 W. A la derecha, estructura de un
spot.

36
Las lámparas PAR pertenecen a la categoría tungsteno halógenas, pero tienen incorporada a su estructura un
espejo interno que las convierte en una especie de conjunto de lámpara/reflector en sí mismas. De todos
modos, van colocadas en un alojamiento de aluminio en forma de cilindro, que tiene instalado un
portalámparas E-27.
37
Una lente Fresnel es, básicamente, una lente convergente particular; su superficie está tallada en escalones,
con círculos concéntricos que inciden fuertemente en la direccionalidad del haz luminoso. Los reflectores
dotados de esta lente, son esenciales para el diseño de iluminación, tanto en fotografía como en cine y teatro.
158
Fotografía Profesional

Fig. 96 - 1-Spots Fresnel con lámparas y balastos HMI. 2-Reflector de ángulo abierto, con difusor. 3-Panel con
LED’s para iluminación difusa. 4-Ultra Light de 2000 W. 5-Panel de fluorescentes. 6-Lámpara para spot, 650 W.

159
Hugo E. Álvarez

160
Fotografía Profesional

CAPÍTULO 11

Filtros para luces y cámaras

11.1 - Filtros.

Los filtros para cine y fotografía, están destinados a modificar técnica y estéticamente la imagen
final.
La mayoría de los filtros de cámara usados en la fotografía y la cinematografía en blanco y negro, no
son adecuados para las imágenes en color. Como excepción, podemos citar a los filtros polarizadores,
a los neutros y algunos otros destinados a crear efectos en la imagen, y que son compatibles para
ambas clases de emulsiones analógicas y para los sensores digitales.

11.1.1 - Factor de un filtro.

Dado que un filtro absorbe parte de la luz que incide sobre él, resulta necesario aumentar la
exposición con respecto a la que se usaría para exponer al sujeto sin el filtro en cuestión.
El número de veces que debe aumentarse la exposición para un filtro y un material determinados,
constituye una cifra a la que se denomina factor de filtro.
Este factor depende de las características de absorción de cada filtro, de la sensibilidad general y
cromática del material cinematográfico utilizado (analógico o digital) y de la composición espectral
de la luz que ilumina al sujeto. Los factores de filtro publicados por los fabricantes, deben ser
tomados como guías aproximadas y no como valores definitivos, ya que los valores indicados se
aplican estrictamente a las condiciones específicas de ensayo bajo las cuales se realizaron las
mediciones fotométricas. Es, por lo tanto aconsejable, obtener el factor de filtro bajo las condiciones
concretas de cada trabajo.

Para determinar el factor de un filtro, se toma una carta gris de 18 %, preferiblemente acompañada
de una escala de grises, y se la fotografía sin filtro. Después, utilizando el filtro, se hace una serie de
exposiciones a intervalos de 1/3 de diafragma, hasta totalizar la cantidad de puntos enteros que
sugiere la naturaleza del filtro o las indicaciones del fabricante del mismo.
Revelado el material o juzgando el histograma digital, por comparación visual o usando un
densitómetro, se busca el fotograma (dentro de la serie efectuada con filtro) cuya densidad coincida
con el material expuesto sin filtro. El factor de filtro es el cociente de las dos exposiciones que
produjeron iguales densidades.

𝑬𝒙𝒑𝒐𝒔𝒊𝒄𝒊ó𝒏 𝒄𝒐𝒏 𝒇𝒊𝒍𝒕𝒓𝒐


Factor de filtro = 𝑬𝒙𝒑𝒐𝒔𝒊𝒄𝒊ó𝒏 𝐬𝐢𝐧 𝒇𝒊𝒍𝒕𝒓𝒐

El factor de filtro viene como dijimos, indicado por el fabricante y es el número por el que debe
multiplicarse la exposición al utilizar el filtro.
Por ejemplo, un factor 2 implica el doble de la exposición; o sea que si la exposición sin filtrar
necesita para una determinada iluminación un f: 5,6, al colocar el filtro deberemos abrir el diafragma
a f: 4.

161
Hugo E. Álvarez

11.1.2 - Filtros para fotografía y cinematografía en blanco y negro.

Los filtros adecuados para la obtención de imágenes en blanco y negro, son aquellos de masas
coloreadas que están destinados a producir correcciones en el contraste total de la imagen o entre
sectores componentes de la misma, cuyas representaciones en la escala de grises producen tonos
muy similares, confundiendo la lectura de elementos adyacentes. Así, un objeto de color azul medio
y otro de un rojo oscuro, suelen brindar tonos casi idénticos de gris cuando se los reproduce en
blanco y negro. Ver figura 70, de la página 124.

Fig. 97 - 1. Portafiltros y parasol. A: parasol. B: Portafiltros deslizante. C: Portafiltros giratorio.


D: Marco para polarizador redondo. E: Punto de fijación a la cámara.
2. A: Parasol circular. B: Anillo para filtro. C: Objetivo Angenieux.
3. A: Parasol Panavision. B: Cach parasol. C: Caches para distintos objetivos.
4. A: Matte Box: Parasol de fuelle extensible. B: Blimp para Arriflex.

11.1.3 - Filtros para corrección de contraste:

La mayoría de las emulsiones pancromáticas en blanco y negro, así como los sensores de imagen,
tienen una muy alta sensibilidad tanto a la radiación azul como a la ultravioleta. Por ser ésta una
respuesta distinta de la sensibilidad espectral del ojo, las áreas azules o violetas del sujeto que se
fotografía resultan con una densidad exagerada en el negativo, y por lo tanto aparecen muy claros en
la copia positiva. En el registro de paisajes por ejemplo, los filtros de corrección se usan para superar
la falta aparente de contraste entre el azul del cielo y el blanco de las nubes. Igualmente, en el otro
extremo del espectro ciertas emulsiones pancromáticas muy rápidas tienden a distorsionar la

162
Fotografía Profesional

reproducción de objetos rojos, lo que merece también la utilización de filtros adecuados para
corregir la desviación.

Para entender rápidamente la acción de un filtro coloreado, recuérdese que un filtro deja pasar
(transmite) la radiación que coincide con su propio color, otorgándole un valor claro en la copia
blanco y negro, y se opone (absorbe) a los colores que no le son propios. Para hacer más oscuro un
color, debe usarse un filtro que absorba ese color. Por ejemplo, un objeto azul reproducirá más
oscuro en la impresión final si se lo expone a través de un filtro amarillo, y más claro si se usa un filtro
azul.

Recuérdese también, que los filtros casi nunca son perfectos en sus prestaciones de transmisión y
absorción; por lo tanto, el rendimiento real de un filtro coloreado debe comprobarse cuando se
desea tener un conocimiento concreto del resultado de su acción.

De este modo, los filtros de colores primarios aditivos (azul, verde, rojo) absorberán casi totalmente a
sus opuestos primarios y a los colores complementarios que ellos forman, y parcialmente a aquellos
complementarios donde el propio color del filtro forma parte de la mezcla (Véase el círculo de
colores, capítulo 9, página 128).

Un filtro rojo por ejemplo, se opondrá fuertemente a las radiaciones azules, verdes y a su mezcla
directa: cian; en cambio su absorción será parcial frente a magentas (azul + rojo) y amarillos (verde +
rojo).

Los filtros de corrección de contraste para blanco y negro, pueden entonces dividirse en “familias” de
colores primarios aditivos y primarios sustractivos, cada uno de ellos con opciones de mayores o
menores densidades y por lo tanto, de factores de filtros:

 Azules: Transmiten azul, ultravioleta y parcialmente, cian; se oponen al verde y al rojo y a sus
combinaciones: amarillo, anaranjado. Oscurecen ligeramente el tono de piel y aclaran todo lo que sea
azul, celeste, etc.
 Verdes: Transmiten verde y parcialmente cian; se oponen al azul y al rojo y a sus mezclas: magentas,
violetas. Oscurecen ligeramente el tono de piel, y aclaran el follaje en fotografía de paisajes, dando un
gran nivel de detalle en árboles, hierba, etc.
 Rojos: Transmiten rojo, infrarrojo, y parcialmente amarillo, naranja; se oponen al azul y al verde y a su
combinación: cian. Tiene un efecto altamente dramático en el registro de cielos y nubes. Aclara
exageradamente el tono de piel; en viejas películas, se lo usó para crear efectos nocturnos rodando en
pleno día.
 Amarillos: Transmiten amarillo y parcialmente rojo, naranja y verde; se oponen al azul. Se lo considera
un filtro “normal” para registrar paisajes donde el cielo aparezca con una densidad de copia creíble,
identificable con la percepción visual humana. Tonos de piel ligeramente más claros.
 Anaranjados: Transmiten amarillo y rojo en proporciones similares; se oponen a azules y verdes.
Acentúan los efectos descritos para los filtros amarillos, creando fuertes efectos de contraste entre
cielos y nubes, oscureciendo notablemente los follajes y produciendo tonos de piel muy claros.

11.1.4 - Filtros para fotografía y cinematografía en color.

Cuando se exponen películas en color y se hacen copias positivas y duplicados en color, se presentan
situaciones en las que sólo mediante el uso de filtros se pueden obtener buenos rendimientos
163
Hugo E. Álvarez

cromáticos. Como hemos visto antes en este texto, la luz del día y la artificial difieren en su calidad
espectral, estando cada una de ellas sujetas a variaciones considerables que tiene que ver con la hora
en que se rueda y los aspectos climáticos, (luz diurna) y el rendimiento de las lámparas y reflectores
que se utilizan en una escena iluminada artificialmente.
Dado que la solución práctica no es proporcionar películas en color balanceadas para cada tipo de
fuente de luz, lo que rondaría el imposible, se han seleccionado ciertos tipos de iluminación como
normas, 38 y las películas se diseñan en función de ellas.39

Cuando las condiciones de iluminación son diferentes a las especificadas para la emulsión que se
vaya a emplear, es necesario usar filtros que conviertan o corrijan la calidad de la energía iluminante.
La calidad de color de las fuentes de luz, o al menos de algunas de ellas, puede ser expresada en
función de la Temperatura de color. Como ya hemos visto, esta es una medida que define el color de
la luz emitida por una determinada fuente, respecto de un radiador ideal; esto es, un cuerpo negro
calentado hasta la incandescencia.
Cuando el color visual de la fuente seleccionada se iguala al del radiador ideal, a una temperatura x,
se dice que el color del iluminante tiene la misma temperatura de color, expresada en grados Kelvin
(º K).

La temperatura de color se refiere solo a la apariencia visual de la luz emitida por una fuente de luz y
no describe necesariamente, sus efectos fotográficos.
Por caso, algunas fuentes de luz tienen una emisión intensa en la región ultravioleta del espectro; la
temperatura de color de dicha luz no toma en cuenta este factor porque el ojo humano no es
sensible a radiaciones menores de 400 nanómetros. Pero si consideramos que una película en color
es generalmente sensible al ultravioleta, una escena puede resultar más azul de lo que en realidad
es, a menos que se elimine la banda U.V. mediante un filtro. De modo general y por ser los filtros
más comunes que se conocen, citaremos los U.V. para blanco y negro y los Skylight para imágenes en
color, como los filtros típicos que sirven para controlar la radiación ultravioleta.

La temperatura de color tampoco toma en cuenta la distribución espectral de la fuente de luz; a


menos que esta tenga una repartición similar a la de un radiador de cuerpo negro, como algunos
tipos de lámparas con filamento de tungsteno, su temperatura de color efectiva, por sí sola, no es
confiable como medio para seleccionar el filtro que adapte la luz de la fuente a la condición
necesaria. Como ejemplo, las lámparas de emisión fluorescente no tienen una distribución espectral
continua y su temperatura de color no es una guía de certeza efectiva; en cambio, la radiación de
espectro continuo es una característica de aquellas con filamento de tungsteno o metal halógeno y
por lo tanto, la medición de su temperatura de color resulta un dato confiable.

En situaciones como ésta, aunque dos fuentes de luz diferentes tengan la misma temperatura de
color, los resultados fotográficos que se obtienen con cada una de ellas pueden ser muy diferentes.

38
Luz día fijada sobre la base de la mezcla de luz solar directa con luz de cielo, en primavera, sobre la ciudad de
Washington a las 10 de la mañana: 5500º K.
Luz artificial sobre la base de fuentes de iluminación incandescente: 3200º K.
39
Recuérdese que, si bien las cámaras digitales tienen la ventaja de adecuar su balance de blanco (White
Balance), a muchas categorías de luces, su mejor rendimiento se logra en las temperaturas de color de 3200° y
5500° K.
164
Fotografía Profesional

11.1.5 - Filtros para conversión y balance de luz.

Las películas fotográficas y cinematográficas en color son fabricadas para ser usadas con fuentes de
luz de tungsteno de 3200º K o para luz de día en el promedio de 5500º K.
Los filtros para conversión o para balance de luz se usan frente al objetivo de la cámara para que el
fotógrafo pueda realizar ajustes de mayor o menor importancia sobre la luz que formará imagen en
la emulsión.
Este ajuste puede lograrse también mediante paños de filtros de gelatina ubicados en las fuentes de
luz, evitando así el uso de filtros sobre las lentes.
Los filtros que se utilizan delante del objetivo, son conocidos con las denominaciones establecidas
por la empresa Kodak, fundamentada por la combinación de números y letras que los identifican,
tales como 80 A, 85 B, etc.; mientras tanto, los filtros de gelatina que actúan directamente sobre las
luces, se identifican por siglas tales como CTB (Color temperature blue) o CTO (Color temperature
orange) que aluden al color destinado a corregir la desviación cromática de la fuente de iluminación
respecto de la película.
Los filtros de conversión producen modificaciones drásticas de la temperatura de color, en tanto los
de balance de color operan correcciones suaves de la misma.

11.1.5.1 - Filtros de conversión:

Denominación de Aumento de Denominación de Conversión en


Color del filtro Filtro de cámara puntos de Filtros para Grados Kelvin
exposición fuentes de luz (*)
Azul 80 A 2 CTB Full 3200 a 5500
Azul 80 B 1 2/3 3400 a 5500
Azul 80 C 1 CTB ½ 3800 a 5500
Azul 80 D 1/3 CTB ¼ 4200 a 5500

Ámbar 85 C 1/3 CTO ¼ 5500 a 3800


Ámbar 85 B 2/3 CTO ½ 5500 a 3400
Ámbar 85 B + ND 3 1 2/3 CTO ½ + ND3 5500 a 3400
Ámbar 85 B + ND 6 2 2/3 CTO ½ + ND6 5500 a 3400
Ámbar 85 2/3 CTO Full 5500 a 3200
Ámbar 85 + ND 3 1 2/3 CTO Full + ND3 5500 a 3200
Ámbar 85 + ND 6 2 2/3 CTO Full + ND3 5500 a 3200
Ámbar 85 + ND 9 3 2/3 CTO Full + ND6 5500 a 3200

(*) Cuando se utilizan filtros en las luces, no se realiza compensación de exposición en la cámara, dado que el
caudal total de la luz incidente es el que disminuye por acción del filtro. La medición y la exposición entonces, se
ajustan a la sensibilidad de la película. Las combinaciones con filtros de densidad neutra (ND) se expresan con
cifras que resumen valores logarítmicos: 3 equivale a 0,3; (1 punto de diafragma) 6 a 0,6 (2 puntos de
diafragma) y 9 a 0,9. (3 puntos de diafragma) Estas combinaciones son muy útiles cuando en una escena
interior / exterior día, debe filtrarse la luz diurna de una ventana y acomodar sus valores fotométricos a la
iluminación dispuesta en el interior. De este modo, se consigue con un solo paño de filtro, convertir el color de la
luz y al mismo tiempo bajar su intensidad.

En muchas oportunidades, existen pequeños desfasajes entre la temperatura de color de las fuentes
de luz y la correspondiente a la emulsión que se está utilizando. En casi todas las tomas realizadas en
exterior con luz día, sea por factores climáticos o por la posición relativa del sol a distintas horas, e
incluso por la latitud geográfica en que se ubican las locaciones, resulta bastante difícil la
coincidencia total entre la temperatura color de la luz y la fijada para la película.

165
Hugo E. Álvarez

Haciendo la salvedad de que estas desviaciones suelen ser aprovechadas para sugerir y reforzar
desde la imagen el discurso general, registrando sin filtros situaciones tales como un atardecer por
ejemplo, para aprovechar la dominante cálida que se crea en el color de la escena, digamos que
existen filtros de balance de color que pueden salvar la situación desde el punto de vista
eminentemente técnico, y acomodar la coloración de la luz al equilibrio cromático de la emulsión,
corrigiendo pequeñas diferencias.

11.1.5.2 - Filtros para balance de luz:

Color del filtro Denominación de Aumento de puntos de Para obtener 3200ºK


filtros de cámara exposición desde:
Azulado 82 C + 82 C 1 1/3 2490º K
Azulado 82 C + 82 B 1 1/3 2570º K
Azulado 82 C + 82 A 1 2650º K
Azulado 82 C + 82 1 2720º K
Azulado 82 C 2/3 2800º K
Azulado 82 B 2/3 2900º K
Azulado 82 A 1/3 3000º K
Azulado 82 1/3 3100º K
Sin filtro 3200º K
Ambarino 81 1/3 3300º K
Ambarino 81 A 1/3 3400º K
Ambarino 81 B 1/3 3500º K
Ambarino 81 C 1/3 3600º K
Ambarino 81 D 2/3 3700º K
Ambarino 81 E 2/3 3850º K

11.1.5.3 - Filtros para compensación del color.

Un filtro para compensación del color (CC) controla la luz atenuando uno o dos de los tres
componentes primarios aditivos del espectro: azul, verde y rojo.

Los filtros CC se pueden usar para hacer cambios generales en el balance cromático de la imagen
expuesta con película en color o para compensar deficiencias en la calidad espectral de la luz
existente en ciertas locaciones.

Por ejemplo, si se registrara una escena con su iluminación propia disponible, y tal iluminación está
basada en lámparas fluorescentes domésticas que tienen un alto déficit respecto de la componente
roja del espectro, o si se realizan tomas submarinas, donde la abundancia de azul impide la captación
de otros colores, resulta necesario adecuar el equilibrio cromático, utilizando filtros de
compensación de color.

La otra posibilidad de uso para estos filtros estriba en la compensación de la fuente de luz que
ilumina un original cuando este debe ser duplicado. La copia o reproducción de materiales negativos
o reversibles se realiza por medio de películas intermedias que están balanceadas para 3200º K, pero
la potencia y las características propias de la luz que ilumina el original, normalmente deben ser
ajustadas por un filtro compensador para no provocar desviaciones graves del color de la imagen
reproducida o copiada.
166
Fotografía Profesional

Los filtros de compensación de color están construidos en gelatina de una gran calidad óptica y
pueden por lo tanto, ubicarse en el frente de un objetivo; pero su naturaleza propia los hace muy
frágiles a la acción de arañazos o huellas digitales, por lo que deben ser empleados con el máximo
cuidado para no transferir los posibles daños a una calidad deficiente de imagen.

Filtros para Compensación de Color:

Densidad Amarillo Aumento de Magenta Aumento de Cian Aumento de


máxima (Absorbe exposición (absorbe exposición (absorbe exposición
azul) verde) rojo)
.025 CC025 Y --- CC025 M --- CC025 C ---
.05 CC05 Y --- CC05 M 1/3 CC05 C 1/3
.10 CC10 Y 1/3 CC10 M 1/3 CC10 C 1/3
.20 CC20 Y 1/3 CC20 M 1/3 CC20 C 1/3
.30 CC30 Y 1/3 CC30 M 2/3 CC30 C 2/3
.40 CC40 Y 1/3 CC40 M 2/3 CC40 C 2/3
.50 CC50 Y 2/3 CC50 M 2/3 CC50 C 1

Densidad Rojo Aumento de Verde Aumento de Azul Aumento de


máxima (Absorbe exposición (Absorbe exposición (Absorbe exposición
azul y verde) azul y rojo) rojo y verde)
.025 CC025 R --- --- --- --- ---
.05 CC05 R 1/3 CC05 G 1/3 CC05 B 1/3
.10 CC10 R 1/3 CC10 G 1/3 CC10 B 1/3
.20 CC20 R 1/3 CC20 G 1/3 CC20 B 2/3
.30 CC30 R 2/3 CC30 G 2/3 CC30 B 2/3
.40 CC40 R 2/3 CC40 G 2/3 CC40 B 1
.50 CC50 R 1 CC50 G 1 CC50 B 1 1/3

Las letras que integran las denominaciones de los filtros, corresponden a las iniciales de los colores en inglés. Y
por yellow (amarillo) M por magent (magenta) C por cyan (cian) R por red (rojo) G por green (verde) y B por
blue. (azul)

11.1.6 - Filtros de Densidad Neutra. (ND)

En fotografía y cinematografía, tanto en blanco y negro como en color, se utilizan filtros de densidad
neutra para reducir la intensidad de la luz que llega a la película o al sensor, sin afectar el
rendimiento tonal de los colores de la escena.
El uso de filtros de densidad neutra posibilita que se pueda fotografiar o filmar bajo la potente luz
solar, controlando la abertura del diafragma. Si se recuerda que las obturaciones normales de una
cámara cinematográfica (analógica o digital) oscilan entre 1/50” y 1/60”, se comprenderá que una
toma en exteriores sin filtro alguno y con la iluminación plena del sol, obligaría a usar diafragmas
muy cerrados con la consiguiente pérdida de calidad óptica, e imposibilitando el manejo de
profundidades de campo controladas.
En el caso de trabajar con películas en color, existen filtros de densidad neutra que se combinan con
filtros de conversión; así por ejemplo, una emulsión balanceada para luz de tungsteno puede ser
usada con luz diurna, filtrada por un solo cristal que suma las condiciones de un 85 de conversión,
más un filtro de densidad neutra.

167
Hugo E. Álvarez

Las condiciones de transmisión y absorción de la luz en los filtros ND están expresadas en términos
logarítmicos: recordamos entonces que las denominaciones 0.1 – 0.2 – 0.3 implican compensaciones
de 1/3, 2/3 y 1 punto de diafragma en la exposición.
En el lenguaje usual de un equipo fotográfico de cine, simplemente se los nombra con la parte más
significativa de las cifras: ND 1, 2, 3. En general, los más usados son el 3 (0.3), 6 (0.6) y 9 (0.9).
Los filtros neutros pueden aplicarse al objetivo de las cámaras o en paños de gelatina óptica, sobre
las fuentes de luz.
Filtros de Densidad Neutra:

Densidad Neutra Porcentaje de Factor de Filtro Aumento de la


transmisión exposición (en stops)
.0.1 80 1,25 1/3
0.2 63 1,5 2/3
0.3 50 2 1
0.4 40 2,5 1 1/3
0.5 32 3 1 2/3
0.6 25 4 2
0.7 20 5 2 1/3
0.8 16 6 2 2/3
0.9 13 8 3
1.0 10 10 3 1/3
2.0 1 100 6 2/3
3.0 0,1 1.000 10
4.0 0,01 10.000 13 1/3

11.1.7 - Filtros Polarizadores.

Por último nos referiremos a los filtros polarizadores, y no vamos a extendernos sobre filtros que
producen efectos visuales sobre la imagen, dado que por sus cantidades y aplicaciones darían como
resultado una larga lista que además seguramente resultaría incompleta, dada la creciente oferta de
los fabricantes.
Los polarizadores cierran la batería de filtros que resultan de imprescindible manejo para el
operador, y pueden definirse como aquellos destinados a eliminar reflejos que se producen sobre
superficies no metálicas, tales como vidrios, maderas, agua, etc.

Al producir este efecto de polarización sobre los trenes de ondas que llegan al objetivo, saturan los
colores, dado que en definitiva, están quitando de la composición de los mismos una determinada
porción del tono acromático blanco; en una palabra, un filtro polarizador absorbe partes iguales de
cada uno de los colores componentes del espectro. Por lo tanto lo modifica en la representación de
su densidad, pero no en su equilibrio cromático.
Por lo tanto, el uso de un polarizador para por ejemplo, saturar la densidad del cielo, ofrece ventajas
respecto de otros filtros de efectos, precisamente porque no distorsiona la naturaleza del color.
Por otra parte, su acción precisa se observa nítidamente en el visor réflex de la cámara, con lo que el
resultado final puede apreciarse perfectamente sin necesidad de esperar los resultados evidenciados
por la pos producción del material.
Un polarizador puede además sumarse a filtros de conversión de color al igual que los ND,
precisamente porque no modifican el tono o matiz cromáticos.

168
Fotografía Profesional

Lo que debe tenerse en cuenta, es que la polarización es uno de los fenómenos más particulares y
complejos dentro de las manifestaciones de las energías lumínicas. En este sentido, los coeficientes
de refracción y los ángulos de reflexión posibilitarán o no el logro de los efectos buscados; sirva el
ejemplo tal vez más sencillo de polarización del cielo: el máximo resultado se obtiene cuando el
encuadre se realiza manteniendo un ángulo de 90º entre la línea cámara – sujeto – posición del sol.
Esto implica además, que la cámara cinematográfica no puede realizar un movimiento panorámico,
porque el registro de la densidad del cielo cambiaría notablemente mientras transcurre la misma
toma. En una palabra, los encuadres en que se utiliza un polarizador sobre todo en exteriores, deben
ser fijos, o asumir solo un movimiento de traslación (travelling) longitudinal en el eje, donde se
mantenga la cobertura inicial del ángulo de encuadre en todo momento.

Ángulo de cobertura de la cámara.

Posición del sol.

90º

Cámara.

Fig. 98 - Esquema que muestra la posición relativa de la cámara con relación al sol, cuando se busca lograr una
polarización máxima sobre el sujeto fotografiado: el cielo.

169
Hugo E. Álvarez

Fig. 99 - Efecto de un filtro naranja (Orange 2) de contraste: Lago Los Molinos, Córdoba; cámara Minolta X-700,
objetivo de 50 mm, 1/250”, f:8; emulsión negativa cinematográfica Fuji FG 71112 de 80 ISO, revelada con Ilford
ID-11. Al oponerse a las radiaciones azules y ultravioletas, el filtro rescata la forma y textura de las nubes.
Medición fotométrica y exposición: la parte clara del agua, se ubicó en Zona V.
Fotografía: Hugo Álvarez.

170
Fotografía Profesional

Fig.100 - Un filtro polarizador lineal, satura los colores y destaca la presencia de las nubes. Paraje “El cóndor”,
Altas Cumbres, Pcia. de Córdoba. Cámara Minolta X-700, 28 mm, 1/1000”, f:8; emulsión negativa Kodak Ultra,
400 ISO.
Fotografía: Hugo Álvarez

171
Hugo E. Álvarez

172
Fotografía Profesional

CAPÍTULO 12

Seteo de Cámaras DSLR


por Juan Matías Sánchez

Fig. 101

Antecedentes analógicos: En el cine fotografiado sobre emulsiones fílmicas, el sistema funciona


sobre la base de un proceso físico – químico que incluye un negativo aplicado a la captura de cámara
y un positivo para generar las copias de proyección.

El negativo genera una imagen plana, de gamma40 menor a 1 y, por lo tanto, de bajo contraste. ¿Para
qué? Para salvar la mayor cantidad de tonos intermedios de la imagen lograda. El contraste se
recupera en la copia positiva, que es revelada químicamente a gamma alto, para generar una imagen
que equivale, en términos de contraste, a la percepción visual directa.

En pocas palabras, se necesita siempre un original de cámara plano, para llegar a una imagen final
que pueda ser posproducida en las mejores condiciones.

La imagen digital: Las cámaras digitales producen de manera directa imágenes positivas, que
además, son modificadas (en algún modo posproducidas) por los “estilos” contenidos en el software
de las mismas. Esto implica una dificultad para procesar posteriormente las imágenes en términos
estéticos y técnicos, pensando en continuidad fotográfica, correcciones de color y densidad, etc.
¿Cómo conseguimos entonces, un original de cámara plano, equivalente al negativo fílmico?

En el texto que sigue, planteamos algunas soluciones que nos permitirán, en un programa de edición,
conseguir una rica manipulación que responda plenamente a las necesidades narrativas de nuestra
película:

En la realización cinematográfica, generalmente evitamos usar las siguientes configuraciones y


automatismos de una cámara DSLR, con el fin de obtener mayor control sobre sus parámetros; lo
que se traduce en lograr mayor libertad en el diseño de imagen de nuestro proyecto audiovisual.

- Autofoco, autofoco continuo o de seguimiento (función que requiere objetivos compatibles STM
[Stepping Motor] o Dual Pixel CMOS AF en el cuerpo de la cámara). Setear Movie Servo AF en
DISABLE(función disponible, por ejemplo, en la Canon 70D)
40
Gamma es el grado de revelado al que es sometido un material fílmico negativo o positivo.
173
Hugo E. Álvarez

- Auto exposición, compensaciones (de exposición, luminosidad automática, prioridad de tonos, altas
luces)

- Balance de blancos automático (AWB y presets: nublado, tungsteno, etc.). Recurrir al balance de
blancos personalizado para cada puesta lumínica.

- Zoom digital de video

- Evitar la medición de exposición evaluativa. Setear la cámara en medición puntual o medición


promediada ponderada al centro preferentemente para resolver con mayor precisión los diseños de
radio y ratio deseados para la escena.

- Objetivos que presentan aberraciones o distorsiones pronunciadas y de poca definición de imagen


(Ej.: Canon Zoom EF-S 18-55mm f 3,5-5,6)

- Hay objetivos que cuentan con estabilizador de imagen incorporada, esta función puede llegar a ser
útil, pero se debe tener en cuenta que acorta la duración de la batería. Si esta función no es
necesaria y se cuenta con los grips y/o estabilizadores adecuados, conviene desactivarla.

- Ajustar el tiempo de desconexión automática y la luminosidad de la pantalla LCD para optimizar el


uso de la batería.

- Evitar los Estilos de imagen pre configurados (Auto, Normal, Retrato, etc.)

Podemos setear nuestro equipo para lograr el registro con una calidad de imagen “plana”,
obteniendo un archivo de video menos manipulado en términos de color y brillo por el procesador
de imagen de la cámara, acorde a la posterior corrección y diseño de color.

Seleccionar el estilo en NEUTRO y dentro de los parámetros de configuración de este estilo, bajamos
todo el contraste y la saturación.

Canon T3i
Fig. 102

También podemos instalar en la cámara el PERFIL CINESTYLE para cámaras CANON de la empresa
Technicolor que nos brinda aún, menor procesamiento en el rango de brillos y color que el perfil
NEUTRO de la cámara.

174
Fotografía Profesional

Fig. 103- Estilo NEUTRO

Fig. 104- Estilo NEUTRO Color Corregido

175
Hugo E. Álvarez

Fig. 105- Perfil CineStyle

Fig. 106- Perfil CineStyle Color Corregido

176
Fotografía Profesional

PERFIL CINESTYLE

http://www.technicolor.com/en/solutions-services/cinestyle

Para incluir el PERFIL CINESTYLE en la cámara, debemos instalar en una computadora el software
CANON EOS UTILITY. Consultar el manual de este software y la cámara.

https://www.usa.canon.com/internet/portal/us/home/support/details/
cameras/support-dslr/eos-rebel-t3i-body

Otra aplicación llamada MAGIC LANTERN, es un software gratuito que se ejecuta desde la tarjeta de
memoria SD en la cámara. Agrega más funciones y optimiza las incluidas en las cámaras de CANON.

http://www.magiclantern.fm

Esta aplicación produce muy buenos resultados, pero al tratarse de un desarrollador tercero a la
empresa CANON debe ser empleado con precaución ya que un uso inadecuado puede estropear el
equipo.

Aclaración: No es intención de la cátedra promover el uso de estas marcas, equipos y programas


específicos. La intención es brindar una guía básica sobre seteo de cámaras DSLR recurriendo a
algunos ejemplos concretos.

177
Hugo E. Álvarez

178
Fotografía Profesional

Bibliografía:
ADAMS, ANSEL, El Negativo – Trilogía fotográfica de Ansel Adams, Omnicon, 2001.
ALMENDROS, NÉSTOR, Días de una cámara, Seix Barral, 1996.
ÁLVAREZ, HUGO E., Fotografía cinematográfica – Fundamentos técnicos, edición del autor, 2013.
ARONOVICH, RICARDO, Exponer una historia, Gedisa, 2002.
CRESPI IRENE – FERRARIO JORGE, Léxico técnico de las artes plásticas, Eudeba, 1982.
EVANS, RALPH - HANSON W.T. JR. - LYLE BREWER W., Principios de fotografía en color, Omega, 1975.
GOLOVNIA ANATOLIJ, La iluminación cinematográfica, Ediciones Rialp, 1960.
GONZÁLEZ MANUEL, Física, óptica y pantallas de proyección, – Tesis para Licenciatura de Cine y T.V.,
1992.
REVAULT D’ALLONNES, FABRICE, La luz en el cine, Editions Cahiers du Cinèma / Ediciones Cátedra,
2003.
SAMUELSON DAVID, La cámara de cine y el equipo de iluminación, IORTV, 1980.
VILLAIN DOMINIQUE, El encuadre Cinematográfico, Paidós Comunicación, 1997.

Fórmulas y procedimientos técnicos:

 Catálogos técnicos de Eastman Kodak Company.


 Catálogos técnicos de Fuji Film.
 American Cinematographer.

179
Hugo E. Álvarez

180
Fotografía Profesional

Índice
Capítulo 1: Percepción visual y fotografía. ………………………………………………………………… 5
1.1 La visión humana ……………………………………………………………………………………………. 5
1.2 El registro fotográfico. ……………………………………………………………………………………. 8
1.2.1 Fundamentos de la imagen analógica. …………………………………………………………… 8
1.2.2 Materiales sensibles: Emulsiones fotográficas y cinematográficas negativas. …… 8
1.2.3 El proceso químico: Revelado de negativos. ………………………………………………….. 12
1.3 La fotografía digital. ……………………………………………………………………………………….. 14
1.3.1 La cámara réflex digital. …………………………………………………………………………………. 14
1.3.2 Formato del sensor de imagen. ……………………………………………………………………… 15
1.3.3 Formatos comunes de sensores de imágenes. ………………………………………………. 15
1.3.4 Formato DSLR medio. …………………………………………………………………………………….. 16
1.3.5 Formatos compactos de cámaras digitales. ……………………………………………………. 17
1.4 Poder resolutivo de la imagen. ………………………………………………………………………. 17
1.5 4K: ¿Qué significa la sigla 4K? …………………………………………………………………. 21
1.5.1 Resoluciones 4K. ……………………………………………………………………………………………. 21
1.6 Formatos del Cine digital. ……………………………………………………………………………… 21
1.7 Ultra alta definición. Especificaciones principales. ……………………………………….. 23
1.8 A modo de reflexión. ……………………………………………………………………………………. 24

Capítulo 2: La cámara fotográfica. …………………………………………………………………………….. 27


2.1 La cámara. …………………………………………………………………………………………………….. 28
2.2 El sistema réflex. ………………………………………………………………………………………….. 30
2.2.1 Partes de una cámara réflex. ……………………………………………………………………….. 31
2.3 Control de la exposición. ………………………………………………………………………………. 35
2.3.1 El Diafragma. …………………………………………………………………………………………………. 35
2.3.1.2 Profundidad de campo. ………………………………………………………………………………… 36
2.3.2 El Obturador. ………………………………………………………………………………………………… 43

Capítulo 3: El cine digital. ………………………………………………………………………………………….. 47


3.1 Cámara Sony HDW-F900 Cine Alta. ……………………………………………………………….. 47
3.2 Panasonic AJ- HDC27F Varicam. …………………………………………………………………….. 47
3.3 Cámara F23, Línea Cine Alta de Sony. ……………………………………………………………. 48
3.4 Estándares avanzados de televisión digital ATSC. …………………………………………. 49
3.5 6 cámaras que marcaron referencias históricas en el cine digital. ………………… 51

Capítulo 4: Óptica fotográfica. ………………………………………………………………………………….. 57


4.1 La luz. ……………………………………………………………………………………………………………. 57
4.2 La luz y la fotografía. …………………………………………………………………………………….. 57
4.3 Refracción de la luz. ……………………………………………………………………………………… 58
4.3.1 Índice de refracción. …………………………………………………………………………………….. 59
4.4 Distancia focal. ……………………………………………………………………………………………… 60
4.5 Lentes y formación de la imagen. ………………………………………………………………… 61
4.6 Materia prima - el vidrio. ……………………………………………………………………………… 64
4.6.1 Las lentes “flotantes”. ………………………………………………………………………………….. 65
4.7 Encuadre, formato y distancia focal. …………………………………………………………….. 66
4.8 Haciendo foco. ……………………………………………………………………………………………… 67
4.9 El ángulo cubierto. ………………………………………………………………………………………… 67
4.10 Aberraciones ópticas. …………………………………………………………………………………… 68
4.11 Profundidad de foco. ……………………………………………………………………………………. 70

181
Hugo E. Álvarez

Capítulo 5: Matemática y fotografía. …………………………………………………………………………. 73


5.1 Sensibilidad de las emulsiones. ……………………………………………………………………… 73
5.2 El diafragma y la luminosidad. ……………………………………………………………………….. 77
5.2.1 Valor numérico del diafragma. ………………………………………………………………………. 78
5.2.2 Números T. ……………………………………………………………………………………………………. 83
5.3 Tiempos de obturación. ………………………………………………………………………………… 85
5.4 Intensidad luminosa e Iluminación. …………………………………………………………….… 85
5.4.1 Flujo luminoso. ……………………………………………………………………………………………… 86
5.4.2 Ángulo Sólido. ……………………………………………………………………………………………….. 87
5.4.3 Iluminación. …………………………………………………………………………………………………… 87
5.5 La exposición. ………………………………………………………………………………………………… 89
5.6 Ratios y Radios. ……………………………………………………………………………………………… 91

Capítulo 6: Exposímetros. ………………………………………………………………………………………… 95


6.1 Sistemas de medición de la luz. ……………………………………………………………………… 96
6.2 Reflectancia del 18%. …………………………………………………………………………………….. 96
6.3 Logaritmos decimales. …………………………………………………………………………………… 97
6.4 La carta gris del 18 %. ……………………………………………………………………………………. 99
6.5 Luz incidente y luz refleja. …………………………………………………………………………….. 100
6.5.1 Luz incidente. ……………………………………………………………………………………………….. 101
6.5.2 Luz refleja. ……………………………………………………………………………………………………. 102
6.6 Valor de exposición y valor de iluminación. ………………………………………………….. 103
6.6.1 Valor de exposición. ……………………………………………………………………………………… 103
6.6.2 Valor de iluminación. …………………………………………………………………………………….. 105

Capítulo 7: El Sistema Zonal. …………………………………………………………………………………….. 107


7.1 Visualización de la imagen. ……………………………………………………………………………. 107
7.2 Escala de reproducción fotográfica. ………………………………………………………………. 109
7.3 Rangos de Registro. ……………………………………………………………………………………….. 113
7.4 Fotometría del Sistema Zonal. ……………………………………………………………………….. 114
7.5 Luz Incidente. ………………………………………………………………………………………………… 116
7.6 Valores de copia. …………………………………………………………………………………………… 117
7.7 Sujetos de Escala Completa. ………………………………………………………………………….. 117
7.8 Colocar y caer. ……………………………………………………………………………………………….. 119
7.9 Emplazamiento inicial. …………………………………………………………………………………… 119
7.10 Contraste del motivo. ……………………………………………………………………………………. 120

Capítulo 8: Imágenes en color. ………………………………………………………………………………….. 123


8.1 Percepción del color. …………………………………………………………………………………….. 123
8.2 Contraste. ……………………………………………………………………………………………………… 123
8.2.1 Contraste de color. ………………………………………………………………………………………… 123
8.2.2 Contraste simultáneo. ……………………………………………………………………………………. 125

Capítulo 9: La fotografía en color. …………………………………………………………………………….. 127


9.1 Fundamentos de los sistemas fotográficos en color. …………………………………… 127
9.1.1 La luz. ……………………………………………………………………………………………………………. 127
9.1.2 Colores. …………………………………………………………………………………………………………. 127
9.1.3 Sistema de registro analógico. ………………………………………………………………………. 128
9.1.4 El color fotográfico. ……………………………………………………………………………………….. 128
9.2 Temperatura de color. …………………………………………………………………………………… 129
9.3 Colores complementarios. …………………………………………………………………………….. 130
9.4 Mezcla de color Aditiva. …………………………………………………………………………………. 131

182
Fotografía Profesional

9.5 Mezcla de color Sustractiva. …………………………………………………………………………... 133


9.6 La fotografía analógica en color. …………………………………………………………………….. 135
9.7 La fotografía digital en color. ………………………………………………………………………….. 140
9.7.1 Mosaico filtro de color. …………………………………………………………………………………… 140
9.7.2 Mosaico de Bayer. ………………………………………………………………………………………….. 141
9.7.3 Filtro CYGM. ……………………………………………………………………………………………………. 142
9.7.4 Filtro RGBE. …………………………………………………………………………………………………….. 143

Capítulo 10: Tecnología de la iluminación. ………………………………………………………………….. 147


10.1 Nociones básicas sobre electricidad. ……………………………………………………………… 147
10.2 Fuentes emisoras de luz. ……………………………………………………………………………….. 152
10.3 Lámparas. ………………………………………………………………………………………………………. 156
10.2 Reflectores. ……………………………………………………………………………………………………. 157

Capítulo 11: Filtros para luces y cámaras. ……………………………………………………………………. 161


11.1 Filtros. ……………………………………………………………………………………………………………… 161
11.1.1 Factor de un filtro. …………………………………………………………………………………………… 161
11.1.2 Filtros para fotografía y cinematografía en blanco y negro. …………………………… 162
11.1.3 Filtros para corrección de contraste. ………………………………………………………………. 162
11.1.4 Filtros para fotografía y cinematografía en color. …………………………………………… 164
11.1.5 Filtros para conversión y balance de luz. ………………………………………………………… 165
11.1.6 Filtros de Densidad Neutra (ND). ……………………………………………………………………. 167
11.1.7 Filtros Polarizadores. ………………………………………………………………………………………. 168

Capítulo 12: Seteo de cámaras DSLR. – Juan Matías Sánchez. ......……………………………… 173

Bibliografía. …………………………………………………………………………………………………………………. 179

183
Hugo E. Álvarez

184