Você está na página 1de 274

...

Dolores de Fez Saiz y Valentín Viqueira Pérez

FUNDAMENTOS DE PERCEPCIÓN VISUAL

PUBLICACIONES DE LA UNIVERSIDAD DE ALICANTE


...

Este libro ha sido debidamente examinado y valorado por evaluadores ajenos a la Universidad de Alicante, con el fin de garantizar la calidad científica del mismo.

Publicaciones de la Universidad de Alicante


Campus de San Vicente s/n
03690 San Vicente del Raspeig
publicaciones@ua.es
http://publicaciones.ua.es
Teléfono: 965 903 480

© Dolores de Fez Saiz y Valentín Viqueira Pérez, 2014


© de la presente edición: Universidad de Alicante

ISBN: 978-84-9717-299-8

Diseño de cubiertas: candela ink


Composición: Marten Kwinkelenberg

Esta editorial es miembro de la UNE, lo que garantiza la difusión y comercialización de sus publicaciones a nivel nacional e internacional.

Reservados todos los derechos. Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra sólo puede ser realizada con la autorización
de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos, www.cedro.org) si necesita fotocopiar o escanear algún
fragmento de esta obra.
...

Prólogo

Este manual de Psicofísica y Percepción Visual constituye la recopilación de muchos años de docencia impartida a los
estudiantes de Óptica y Optometría en la Universidad de Alicante. Para nosotros se trata de un proyecto largamente meditado.
Sabemos desde hace mucho tiempo que la bibliografía disponible en idioma español sobre el tema es muy escasa. Además hay
bastantes libros que, o bien están descatalogados, o bien no se adaptan al nivel y las expectativas del estudiante de optometría.
Ante este panorama, decidimos dar un paso adelante y elaborar este libro. No hemos pretendido hacer un manual definitivo de la
materia, ni con un nivel demasiado elevado: nuestra intención como autores ha sido la de recopilar de una manera sencilla,
ordenada y completa una serie de conocimientos básicos acerca del proceso de la visión y su estudio mediante un enfoque
psicofísico. Esperamos habernos acercado a este objetivo y que este libro sea de utilidad a los estudiantes de Óptica y Optometría.
El proyecto se fraguó en gran medida desde el plan piloto de docencia semipresencial «b-learning» desarrollado en la
Universidad de Alicante. Este proyecto contemplaba la elaboración de materiales interactivos y el empleo de una plataforma web
que permitiera el intercambio de información, consultas, tutorías y otras herramientas que facilitaran el trabajo del alumno. Dentro
de este plan piloto elaboramos una colección de materiales docentes en formato html, disponibles para los estudiantes a través de
la intranet de la universidad. Después del arduo trabajo que supuso la elaboración de estos materiales, el paso lógico era
plasmarlos en un formato accesible a otros estudiantes y posibles investigadores en temas relacionados con la visión humana. Para
ello nos planteamos que no debíamos perder la ventaja que había supuesto el formato web, con las posibilidades de la
reproducción en color, interactividad, enlaces, animaciones, vídeos, etc. La popularización del uso de ordenadores y tablets, así
como del formato e-pub, nos hace pensar que éste es el momento y el formato adecuado para desarrollar este manual.
Queremos mostrar nuestro agradecimiento a todas las personas que de una forma u otra han hecho posible esta obra. De manera
muy especial a quienes han sido nuestros maestros y mentores en la Universidad de Valencia, los profesores José Mª Artigas Verde
y Pascual Capilla Perea. También queremos reconocer la inestimable colaboración de la profesora Mª José Luque Cobija, así como
la de muchos compañeros de nuestra propia universidad y de las universidades de Valencia, Granada, y Politécnica de Cataluña,
que de una u otra manera han contribuido a hacer posible que este libro vea la luz. Finalmente, tampoco queremos olvidar a todos
los autores que han contribuido con sus materiales publicados en internet, a los que siempre hemos intentado referenciar
adecuadamente.

Los autores
...

1. El soporte físico del proceso visual

1. SISTEMA VISUAL Y PROCESO VISUAL


El ser humano dispone de diferentes sistemas sensoriales para relacionarse con el mundo exterior y, entre todos ellos, la visión
constituye sin duda el más importante. La percepción visual proporciona una representación del medio exterior, y es el resultado
de la respuesta del sistema visual ante un estímulo luminoso. Siguiendo esta línea, podemos interpretar que el sistema visual recibe
una información de entrada –la luz procedente del medio externo– y elabora una respuesta: la percepción visual. Todos los
mecanismos englobados en esta tarea constituyen el llamado proceso visual.
Para estudiar el sistema visual podemos considerar que es como una caja negra de la que queremos extraer información, pero no
podemos medir directamente lo que pasa en el interior, no podemos abrir la caja. Únicamente podemos medir las características
del estímulo de entrada, y analizar la información de salida que nos proporciona el observador. A partir de la relación entre la
entrada y la salida es posible extraer información acerca de cómo funciona el sistema visual. Parece lógico pensar que las
características de la señal de entrada van a determinar qué mecanismos y que áreas del sistema entrarán en acción, de esa forma
podremos extraer información sobre los mecanismos específicos de procesado de la información visual.
El sistema visual es análogo a una cámara de vigilancia conectada a un ordenador. En este sistema de videovigilancia hay una
óptica, un sensor que capta diferencias en la intensidad de la luz, una Unidad de Procesamiento Central (el ordenador), y un
videomonitor; éste es el sistema físico, el llamado hardware. En el interior de este sistema ocurren una serie de procesos internos
destinados a mostrar una imagen sobre la pantalla. Estos procesos internos constituyen el programa informático o software. La
estructura del sistema visual es análoga: hay una óptica ocular con la retina como sensor, una «unidad de procesado» constituida
por el sistema neural, y una imagen final. En cuanto al procesado, el sistema visual también realiza una serie de operaciones
internas que constituyen el «software» del proceso visual. Así, podemos establecer una analogía entre estos dos sistemas: el
hardware equivale al sistema visual, mientras que el software corresponde al proceso visual.
El sistema visual está constituido por una serie de estructuras biológicas desde el ojo hasta el cerebro (córnea, cristalino, retina,
nervios ópticos, núcleos geniculados laterales, áreas de córtex visual,…), que sirven como soporte para realizar una serie de
operaciones cuyo resultado final es la percepción visual. Percibir una determinada escena es el resultado final de un proceso que
resulta complejo y en el que pueden distinguirse diferentes fases o etapas:

Fase óptica, en la que la luz proveniente de la escena es focalizada sobre la retina. El resultado final es la formación de
una imagen óptica sobre la retina conocida como la imagen retiniana.
Fase fotoquímica, Los fotorreceptores de la retina transforman la señal luminosa en una serie de respuestas neurales,
respuestas eléctricas. O dicho de otra manera, la imagen retiniana se codifica en señales eléctricas.
Fase de representación interna. La combinación de las respuestas de los fotorreceptores (entre ellos en cada ojo y entre
ambos ojos) da lugar a una serie de representaciones internas y a partir de ellas se construye la última fase.
Fase de interpretación. El sistema visual extrae una interpretación de la escena.

El resultado final de todo este proceso visual es la interpretación del mundo exterior.
Hasta mediados del siglo XX, se pensaba que de alguna manera existía en la corteza visual un mapa retiniano único de la
imagen realizado punto a punto y que la información correspondiente a cada punto (color, forma, movimiento, profundidad) se
transmitiría de manera conjunta por la misma vía. Sin embargo los estudios desarrollados durante la segunda mitad del siglo XX
mostraron que esto no sucede así. La información correspondiente a color, forma, movimiento, etc viaja y se procesa por caminos
diferentes. Al menos 32 áreas corticales están involucradas en el procesado de la información visual, 25 en funciones básicamente
visuales y el resto en otras funciones (como la integración polisensorial).
El hecho de que la retina no realice una representación punto a punto de la escena parece lógica, si tenemos en cuenta dos
hechos:
1. La enorme compresión que sufre la información contenida en la imagen retiniana. La imagen retiniana comprende mas de
130 millones de fotorreceptores (125 millones de bastones y 6,5 millones de conos) y el nervio óptico reduce a tan solo 1,2
millones de fibras. Esto supone un importante ahorro en cableado y supone una compresión media de 110 fotorreceptores por cada
fibra del nervio óptico.
2. Por otra parte, el análisis de la agudeza visual (AV) o del umbral de detección luminosa muestran una enorme heterogeneidad
en la retina. La mejor AV se concentra en una pequeña área de la retina, para caer bruscamente en zonas periféricas, mientras que
con el umbral de detección ocurre al contrario. La retina periférica tiene una gran sensibilidad a la luz, mucho más elevada que en
zonas centrales. Es como si en la retina existiesen áreas, específica para detectar distintas cualidades del estímulo: la zona central
se encarga de los detalles finos y la visión cromática, mientras que la periférica se encarga de la detección de pequeñas cantidades
de luz, y la detección de movimientos.
Al estudiar el proceso visual, realmente lo que intentamos establecer es la relación existente entre el estímulo y la respuesta (ver
fig 1.1). El estímulo será la distribución de luz en la escena (intensidad, cromaticidad,…) y la respuesta es la percepción visual.

Figura 1.1: El estudio del proceso visual se basa en la relación entre el estímulo físico y la respuesta del sujeto. La detección del jarrón es posible
gracias a la diferencia de luminancia entre el fondo y el objeto. Esta diferencia de luminancia se debe a su vez a que el jarrón refleja más luz que el
resto de la escena, por las características propias del material. Los fotorreceptores captan la luminancia de las distintas partes de la escena, y en la
misma retina se inician los procesos de detección de bordes, detección de color, velocidad de movimiento, etc.

Esta relación entre una variable física, la luz, y la correspondiente percepción, a pesar de ser algo evidente, no siempre resulta
sencilla de establecer, ya que generalmente la mayor o menor intensidad en la percepción de un estímulo depende de las
condiciones de contorno, o condiciones en las que tiene lugar el acto perceptivo. Por ejemplo, el sonido de nuestros pasos nos
resulta generalmente imperceptible, sin embargo, de noche en una calle desierta percibimos con intensidad ese mismo sonido. Otro
ejemplo, al entrar en una habitación a oscuras no somos capaces de ver nada, pero al cabo de poco tiempo podemos distinguir
algunos objetos, sin que haya cambiado la intensidad de la luz en la habitación. Así, un mismo estímulo físico produce sensaciones
de diferente nivel en función de las condiciones de contorno, por lo tanto, la relación entre la magnitud del estímulo y la
correspondiente sensación es algo variable.

2. VÍAS DE ESTUDIO DEL SISTEMA VISUAL


Para poder entender cómo funciona el proceso visual es necesario conocer el sistema visual y sus propiedades. Este estudio del
soporte físico puede acometerse por diferentes vías: la Anatómica, la Neurofisiológica y la Psicofísica.
La Anatomía estudia la estructura del sistema a partir de cortes histológicos a lo largo del camino visual, desde la retina,
pasando por el núcleo geniculado lateral (LGN) hasta la corteza visual. Estos cortes pueden ser reales o pueden obtenerse
mediante técnicas de escaneado. Se trata de conocer los diferentes tipos de células y sus características morfológicas, pero sin
especificar las propiedades fisiológicas de las mismas.
La Neurofisiología estudia directamente el funcionamiento electroquímico de las diferentes neuronas implicadas en la visión.
Los métodos de estudio son muy variados. Y pueden dividirse en intrusivos y no intrusivos.
Los métodos intrusivos son aquellos en los que para poder entender el comportamiento de las células es necesario destruir
tejidos biológicos, lo que muy a menudo implica la muerte del animal. Entre estos métodos destacan por su importancia las
técnicas de electrofisiología, como la aplicación directa de un microelectrodo a una célula visual para registrar los impulsos
eléctricos, lo que necesariamente conlleva la trepanación del cráneo de un animal (ver fig 1.2), o el marcaje radioactivo,
consistente en la inyección de una sustancia marcada radioactivamente, y la posterior localización en el córtex cerebral de la zona
en donde se acumula.

Figura 1.2: Métodos intrusivos en neurofisiología. Mediante un microelectrodo se estudia la respuesta eléctrica de una célula del sistema visual ante un
estímulo luminoso determinado. El cambio en la actividad eléctrica basal implica que existe respuesta ante el estímulo.

Hoy en día existen otros métodos no intrusivos como por ejemplo la tomografía por emisión de positrones (PET) y otras
técnicas de escaneado. En la figura 1.3 podemos ver un esquema típico de funcionamiento, donde apreciamos que tanto el emisor
del estímulo como el detector son externos al paciente. Mediante estas técnicas se determina qué áreas de la corteza visual
responden ante un determinado estímulo. En esta técnica se registra el aumento de flujo sanguíneo en una determinada zona de la
corteza cerebral como resultado de la exposición del individuo ante una determinada escena, por ejemplo, ante una escena en la
que predomina el color, se produce un aumento de actividad en determinadas estructuras y regiones del sistema visual (la zona V4
del área 17 y núcleos Parvocelulares del Núcleo Geniculado Lateral, este aumento de actividad no sucede para escenas en blanco y
negro).

Figura 1.3: Métodos no intrusivos en neurofisiología. Las técnicas de escaneado permiten registrar el aumento de actividad en un área ante un
determinado estímulo, pudiendo relacionarse el área con una función específica. En estas técnicas, tanto el emisor como el detector actúan externos al
paciente.

Finalmente, otra manera de estudiar el sistema visual es mediante la disciplina conocida como Psicofísica. La Psicofísica
consiste en el estudio del proceso visual a partir de la relación entre el estímulo y la respuesta que desencadena, pero siempre
mediante técnicas indirectas. Se plantea al paciente una tarea de manera que ante un determinado estímulo, se obtiene una
determinada respuesta. Ahora el sistema visual es una caja negra y no es posible acceder directamente lo que pasa en el interior, no
se trata de medir el nivel de actividad de un elemento. De la relación entre la entrada y la respuesta del paciente es posible deducir
muchas cosas acerca del funcionamiento del sistema visual. Por ejemplo, al proyectar una luz azul en el centro de la fóvea, el
sujeto responde que ve luz pero no percibe el color. A partir de este experimento se pudo deducir que, en la zona central de la
fóvea no existen conos tipo S. Este descubrimiento sería corroborado años más tarde por estudios anatómicos y fisiológicos.
A partir de un experimento de funcionamiento como el descrito anteriormente para la región central de la fóvea, se puede
establecer un modelo. Posteriormente, ese modelo teórico podrá ser confirmado, modificado o descartado mediante nuevos
experimentos psicofísicos. Las experiencias psicofísicas se pueden realizar encaminadas al estudio de sólo una parte de ese
proceso o de su conjunto.

3. EL SOPORTE FÍSICO: CÉLULAS VISUALES Y CAMPOS RECEPTIVOS


La retina constituye una auténtica red con células interconectadas entre sí a diferentes niveles. En el primer nivel se sitúan los
fotorreceptores (conos y bastones) que establecen conexiones con células bipolares, y estas a su vez con células ganglionares.
Tanto unas como otras se tratan de neuronas modificadas. Cuándo un estímulo luminoso alcanza la retina los fotorreceptores
responden enviando una señal eléctrica hacia las células bipolares con las que están conectados. La respuesta de un fotorreceptor
es simple, sólo tiene un signo (o está activado o no lo está), mientras que la respuesta del resto de células del sistema visual –como
veremos a lo largo de este libro– van a ser un poco más complejas.
En los años 60 las investigaciones de Kuffler, Barlow y Wiesel & Hubel entre otros, demostraron que la respuesta ante
estímulos luminosos de las células bipolares y ganglionares de la retina, las células del núcleo geniculado lateral y las células de la
capa IV del área 17 del córtex (cortex visual primario), se explica a partir del concepto de campo receptivo. El campo receptivo de
una neurona en cualquier punto de la vía visual se define como la región de la retina en donde un estímulo luminoso produce una
excitación o una inhibición más o menos intensa de esa neurona. Los campos receptivos pueden ser complejos, con áreas que
provocan una respuesta diferente en función de la posición o de la longitud de onda de la luz incidente. Esto es así porque a partir
de los fotorreceptores hay una verdadera red de conexiones entre neuronas, de manera que, a una neurona situada a un nivel
determinado de la vía visual le llega información de un área de la retina formada por numerosos fotorreceptores (ver fig 1.4).
Figura 1.4: Campos receptivos. La estimulación luminosa de la zona coloreada marcada en el centro activa la respuesta de la neurona C1, por lo que
esa zona de la retina es su campo receptivo. Para la neurona C2, el campo se extiende a todo el área representada (todos los fotodetectores).

Generalmente los campos receptivos son circulares, es decir, que una determinada célula responderá ante estímulos luminosos
proyectados sobre una región del espacio de forma circular. Todos los puntos de la misma intensidad que estén situados a la misma
distancia del centro del campo receptivo, producirán la misma respuesta. Pero también existen campos receptivos alargados, o
incluso con formas más complejas.
La luz que incide sobre un fotorreceptor provoca un cambio de su actividad, de manera que cuando se alcanza un valor mínimo
o umbral, se dispara el mecanismo nervioso y si no se alcanza dicho umbral no se dispara la respuesta de la célula. La señal
eléctrica generada pasa a la célula bipolar a la que esté conectada ese fotorreceptor y de ésta llega a una célula ganglionar en el
LGN y así hasta alcanzar la corteza visual (ver fig 1.5).
Figura 1.5: Conexiones entre células visuales. Los círculos representan los somas o cuerpos celulares de las células bipolares, ganglionares, y
corticales. Los rectángulos corresponden a los conos y bastones. Adaptada de Hubel, 1998.

Colocando un microelectrodo a una célula ganglionar y viendo su actividad eléctrica en cada momento, se puede medir la
respuesta de esta célula ante la luz que reciben los correspondientes fotorreceptores a los que se conecta. Lo más llamativo es que
la célula ganglionar en reposo (en ausencia de luz) no está «eléctricamente» inactiva, sino que presenta una actividad basal, de
manera que se produce un número de descargas (o picos de potencial) más o menos constante por unidad de tiempo. Todas las
neuronas de cualquier sistema sensorial o motor, presentan esta característica. La respuesta de una célula ganglionar a lo largo del
tiempo en ausencia de luz puede representarse como vemos en la figura 1.6. Cada segmento vertical corresponde a una descarga
eléctrica de la misma intensidad.

Figura 1.6: Respuesta basal de una célula en reposo. Se representa el potencial de las descargas V (en milivoltios) en cada instante de tiempo t (en
segundos).

En esta situación en la que sólo aparece la respuesta basal se dice que no hay respuesta o que la célula está en reposo. Puede
deberse tanto a que no incide ningún estímulo luminoso como a que la célula no da respuesta a ese estímulo luminoso en
particular.

––––––––––––––––––––––
Si una célula visual en reposo produce descargas eléctricas, ¿significa que está detectando luz?

Si en un instante t se proyecta una luz sobre el fotorreceptor que está conectado a dicha célula, se produce un patrón de
respuesta característico, que corresponderá un aumento en el ritmo de descargas (Excitación) o a una disminución de dicho ritmo
(Inhibición). En la figura 1.7 se recogen estos dos comportamientos opuestos.

––––––––––––––––––––––

Figura 1.7: Excitación e inhibición de una célula ante un estímulo luminoso. El segmento horizontal debajo del eje x representa el momento de
aparición y cese del estímulo. Como puede verse, al poco tiempo de desaparecer el estímulo, la célula recupera su actividad basal.

Para poder clasificar los campos receptivos de cualquier célula, es necesario llevar a cabo una exploración de la respuesta de
dichas células mediante diferentes configuraciones de estímulos luminosos. Por ejemplo, sobre un fondo uniforme se sitúa un
estímulo test en distintos puntos del campo (se puede variar el tamaño, el color y la forma: punto, barra etc…). También se puede
introducir como variable la presencia de un estímulo de fondo del color adecuado.
Podemos hablar de dos clasificaciones de los campos receptivos en función de cómo responden a la luz según el punto de
entrada del estímulo y según el color de ese estímulo.

3.1. Campos receptivos en función de la luminancia


Los campos receptivos se pueden clasificar respecto a la luminancia, como campos antagónicos y campos no antagónicos. Se
dice que una célula presenta un campo no antagónico cuando su respuesta ante un estímulo luminoso es siempre de tipo excitatorio
(células ON), o siempre de tipo inhibitorio (célula OFF), independientemente de la zona del campo iluminada (ver fig 1.8).
Figura 1.8: Campos receptivos no antagónicos. La respuesta de la célula, en caso de haberla es siempre del mismo signo.

En el campo receptivo no antagónico la respuesta es siempre uniforme y la intensidad dependerá del tamaño de área iluminada.
A mayor área iluminada, mayor respuesta. La figura 1.9 recoge una representación esquemática de la respuesta en función de la
distancia al centro, a lo largo de un corte longitudinal del campo receptivo. La curva de respuesta tiene una forma típica de
campana (o gaussiana):

Figura 1.9: Representación esquemática de la respuesta excitatoria e inhibitoria de un campo receptivo no antagónico, en función de la distancia al
centro del campo.
Los campos receptivos antagónicos corresponden a células que responden de una determinada manera (excitación) cuando el
estímulo luminoso se produce en una zona particular del campo visual, el centro del campo receptivo. Pero si ese mismo estímulo
luminoso se localiza en una zona periférica cercana, se produce la respuesta opuesta (inhibición). En este caso, en el que el centro
del campo receptivo es excitatorio y la periferia inhibitoria se habla de campos receptivos con centro ON. También existen células
con un funcionamiento contrario, en el que el centro es inhibitorio y la periferia excitatoria. Éstas son las células con campo
receptivo con centro OFF. Ambos casos se recogen en la figura 1.10.

Figura 1.10: Campos receptivos antagónicos. La respuesta de la célula será excitatoria o inhibitoria en función de la zona de incidencia de la luz.

Cualquiera de estas células tendrá un ritmo de descargas basal constante y cuando incide la luz este ritmo de descargas se altera;
para una célula de centro ON, cuando hay iluminación central aumenta el ritmo de descargas (excitatoria). Si se ilumina todo el
centro, la respuesta excitatoria es máxima, cuando hay iluminación periférica, disminuye el ritmo de descargas (inhibitoria),
cuando se ilumina toda la periferia la respuesta inhibitoria es mínima, y finalmente cuando se ilumina todo el campo receptivo de
la célula los efectos de ambas zonas se contrarrestan y la célula mantiene su ritmo de descargas basal, o lo que es lo mismo: no da
respuesta.
Es posible representar nuevamente la respuesta en función de la distancia al centro, como vemos en la figura 1.11.

Figura 1.11: Representación esquemática de la respuesta de un campo receptivo antagónico. Adaptada de D. Thomson.

Para entender esta representación, es necesario considerar la superposición de las curvas de campana tanto excitatoria como
inhibitoria de la figura 1.9, centradas en el origen de coordenadas de la célula y de diferentes extensiones según correspondan al
centro o a la periferia. La figura 1.12 muestra la respuesta final de la célula representada por la línea continua, que corresponde a
la suma punto a punto de las dos curvas punteadas.
Figura 1.12: Representación esquemática de la respuesta como suma de gaussianas de un campo receptivo antagónico. Adaptada de Valberg, 2005.

La explicación fisiológica del funcionamiento del campo receptivo antagónico se encuentra en los procesos de inhibición que
ocurren a nivel de las células horizontales de la retina. Una sola célula horizontal contactaría con las células del centro (on) y de la
periferia (off). Cuando la luz incide en la periferia, los conos periféricos se excitan, la célula horizontal recoge estas señales y a su
vez envía una señal inhibitoria a los conos centrales. Como resultado de ello disminuye la actividad en la célula ganglionar
(Inhibición). Este mecanismo de retroinhibición, es muy frecuente en los sistemas neuronales de todos los mamíferos y en el caso
del sistema visual humano contribuye a la detección de los bordes de diferentes objetos en una escena visual.
Si el estímulo luminoso cae dentro de la zona ON o de la zona OFF, la respuesta llevará el signo correspondiente a esa zona. Si
el estímulo es grande, más que el campo receptivo, nos planteamos cómo es la respuesta. Si las células son lineales habrá
sumación de las respuestas de varios campos receptivos, pero en caso contrario no podemos predecir qué ocurrirá.

––––––––––––––––––––––

La figura 1.13 representa el campo receptivo de una célula ON. ¿Cuál de los cuatro estímulos luminosos situados
concéntricamente sobre el campo receptivo de esa célula producirían una mayor respuesta excitatoria? El estímulo 4, ¿produciría
mayor respuesta que el 3?

––––––––––––––––––––––
Figura 1.13: ¿Cuál de estos cuatro estímulos produce mayor respuesta en una célula de campo receptivo como la de la figura?

––––––––––––––––––––––

Iluminamos una célula no antagónica con un estímulo que consiste en una barra luminosa rodeada de oscuridad (ver fig 1.14).
¿Qué ocurre al aumentar progresivamente la anchura de la barra? ¿Cuándo se producirá la respuesta máxima?

––––––––––––––––––––––

Figura 1.14: Barra luminosa sobre un campo receptivo no antagónico.

––––––––––––––––––––––
Supongamos ahora una célula que tiene antagonismo (centro ON) y el estímulo en forma de barra situado en el centro del
campo receptivo (ver fig 1.15). ¿Qué ocurre al aumentar progresivamente la anchura de la barra? ¿Cuándo se producirá la
respuesta máxima?

Figura 1.15: Barra luminosa sobre un campo receptivo antagónico.

Si el estímulo fuese una red blanco-negro en lugar de una única banda blanca, ¿qué relación hay en ambos casos entre el
tamaño del campo receptivo y la frecuencia de la red para la señal máxima?

––––––––––––––––––––––

Con los ejemplos anteriores nos hemos dado cuenta que muchas células ganglionares son capaces de interpretar la transición
entre luz y oscuridad, es decir, parece que antes de que la señal alcance la corteza visual ya se está empezando a detectar los
bordes del objeto.

3.2. Campos receptivos en función del espectro


Teniendo en cuenta la longitud de onda del estímulo, los campos receptivos se pueden clasificar como oponentes y no
oponentes (ver fig 1.16).

Se dice que la célula es no oponente cuando la respuesta es del mismo tipo –excitatoria o inhibitoria– para todas las
longitudes de onda.
Se dice que una célula es oponente cuando la respuesta es excitatoria para una parte del espectro e inhibitoria para el
resto. La longitud de onda en la que se produce la transición de un tipo a otro de respuesta se denomina punto neutro.
Iluminando un campo receptivo con la correspondiente luz del punto neutro, la célula no dará ninguna respuesta.
Figura 1.16: Cambio del signo de la respuesta en una célula oponente. En los campos no oponentes la respuesta es siempre del mismo tipo.

4. LA RETINA
La retina es en realidad un tejido nervioso, ya que las células ganglionares, bipolares, amacrinas y horizontales son neuronas. A
menudo se considera que la retina es una extensión cerebral y, dado que el ojo se mueve, se dice que «constituye una porción
móvil del cerebro».
Una característica importante de la retina es su falta de homogeneidad espacial. La concentración local de los conos y los
bastones es muy variable de unas zonas a otras. Anatómicamente se distinguen dos regiones muy marcadas: la mácula lútea, que
incluye a la fóvea, con una enorme concentración de conos, y la papila que corresponde a la salida del nervio óptico, constituido
por los axones de las células ganglionares. En la figura 1.17 se muestra el mapa espacial de la retina.
Figura 1.17: Mapa angular de la retina humana. El cruce de los dos ejes corresponde a la intersección con el eje óptico. Este punto se toma como
origen de coordenadas.

En la retina, las primeras células que reciben la señal luminosa son los fotorreceptores, que responden a dicha señal luminosa
enviando una señal eléctrica al resto de capas celulares.

4.1. Fotorreceptores
La capa de fotorreceptores en la retina está formada por dos tipos celulares, los conos y los bastones (ver fig 1.18), dispuestos a
modo de mosaico.
Figura 1.18: Fotorreceptores conos y bastones. Extraída de www.biol3medio.blogspot.com.es.

Conos y bastones no se distribuyen uniformemente a lo largo de la retina. En la periferia la densidad de conos es relativamente
baja (4.000 o 5.000 conos/mm2), mientras que en la zona central de la retina, concretamente en la fóvea, se alcanza una densidad
superior a 150.000 conos/mm2. La fóvea se sitúa en el centro de la llamada mácula lútea, región central de la retina caracterizada
por la presencia de un pigmento carotenoide de color amarillento. Esta área ocupa entre 5.5 y 8 mm. Dentro de la mácula lútea se
sitúa la fóvea con un diámetro angular de 5.2º, el centro de la fóvea o foveola (1.4º) es una pequeña zona donde se sitúan los conos
de perfil más fino.
En cuanto a la concentración de bastones sigue una distribución contraria: es mínima en la fóvea y máxima a unos 20º de
extrafovealidad (entre 150.000 y 300.000 bastones/mm2), decreciendo desde este punto en todas direcciones. La concentración en
la periferia de la retina se mantiene en torno a unos 30.000-40.000 bastones/mm2. En la gráfica de la figura 1.19 se muestra la
distribución de fotorreceptores.
Figura 1.19: Distribución de conos y bastones en retina, según datos de Osterberg, 1935. Entre 10 y 20 grados de excentricidad nasal, se observa una
discontinuidad que corresponde al disco óptico o papila.

Dentro de los conos, se distinguen tres tipos diferentes. Morfológicamente son similares, pero se diferencian por su diferente
curva de respuesta ante la longitud de onda. Se nombran de acuerdo a la zona del espectro donde tienen su máxima respuesta: los
conos L (long) son sensibles a longitudes de onda largas, los conos M (middle) son sensibles a longitudes de onda medias, y los
conos S (short) a longitudes de onda cortas.
Los conos L:M:S en la retina se encuentran en la proporción 10:5:1. Por otra parte, la distribución de conos L y M parece
bastante aleatoria mientras que los conos S parecen seguir una estructura más regular. Otro dato interesante es que en un área de
aproximadamente 20" en la fóvea, no hay conos S.
En la figura 1.20 vemos las curvas de sensibilidad según dos tipos de escalado: normalizando las curvas de cada sistema de
conos a 1 o teniendo en cuenta la proporción de cada uno en la retina.
a)
b)

Figura 1.20: Sensibilidad espectral relativa de los conos L, M y S, según datos de Stockman & Sharpe, 2000: a) picos normalizados a 1 (eje y
semilog), b) picos escalados según proporción en retina (eje y lineal). Extraída de www.handprint.com/HP/WCL/color1.html.

La retina sirve en realidad de soporte para dos sistemas de fotodetección más o menos independientes: el fotópico y el
escotópico (ver fig 1.21). En altos niveles de iluminación funciona el sistema de visión fotópica, actúan plenamente los conos y
podemos disfrutar de la visión de los colores. Por contra, con bajos niveles de luz, en visión escotópica, actúan solo los bastones,
no hay visión cromática y sólo distinguimos niveles de grises. El cambio de un sistema al otro constituye el nivel mesópico.
Figura 1.21: Tipos de visión según la cantidad de luz (cd/m2). Adaptada de Valberg, 2005.

4.2. Estructura y función del resto de capas retinianas


La estructura histológica de la retina consiste en una serie de capas superpuestas, donde se distinguen varios tipos celulares:
epitelio, fotorreceptores, células horizontales, células bipolares, células amacrinas y células ganglionares (ver fig 1.22).

Figura 1.22: Disposición de células en las diferentes capas de la retina. Extraída de retina.umh.es/webvision/spanish/indice.html.
Es característico el hecho de que las células estén orientadas en sentido inverso al de incidencia de la luz, que ha de atravesar
todas las capas de conexiones neurales hasta alcanzar a las células sensibles, los fotorreceptores, que además tienen la zona
sensible a la luz en el lado contrario al de incidencia. En la zona foveal la situación es algo diferente, ya que las conexiones que
debe atravesar la luz se encuentran desplazadas hacia fuera para impedir lo menos posible su paso (ver fig 1.23). Es por esto que
no percibimos ‘sombras’ debidas a las conexiones entre células.

Figura 1.23: La distribución de conexiones celulares en fóvea se encuentra desplazada hacia los laterales. Modificada de Kandel et al, 1991.

Los conos y los bastones establecen sinapsis (conexiones) con las células horizontales y bipolares. Mientras que las células
horizontales y las amacrinas establecen conexiones en un plano transversal, las bipolares y las ganglionares conectan en la vertical,
que es la dirección principal de transmisión.
Las células bipolares y las células ganglionares, son de diferente tipo en función de su morfología y su fisiología.
Se distinguen tres subtipos de células bipolares: en brocha, aplanadas y enanas.

células bipolares en brocha (están conectadas con muchos bastones),


células bipolares aplanadas (están conectadas con conos extrafoveales),
células bipolares enanas (están conectadas a un único cono foveal).

Las células bipolares establecen conexiones con las células ganglionares, de las que existen dos tipos celulares:

células ganglionares difusas, que están conectadas con muchas bipolares,


células ganglionares enanas, que conectan con una sola bipolar enana.

Además, de acuerdo a su tamaño, se pueden clasificar en tres tipos celulares que se mantienen a lo largo de la vía visual y van a
demostrar diferentes propiedades (ver fig 1.24): son las células Magno (de gran tamaño), las células Parvo (pequeñas) y las células
Konio, de tamaño variable.
Figura 1.24: Tipos de células ganglionares: Magno, Parvo y Konio, según Shapley y Perry 1986, Polyak 1941, Dacey y Lee, 1994.

Las células Magno (M) y Parvo (P) constituyen el 80% de las células ganglionares. El resto son células Konio (K), cuyas
propiedades no han sido puestas de manifiesto en igual medida que el resto.
Las células P son selectivas a la longitud de onda y a frecuencias espaciales altas, con respuesta sostenida (respuesta tónica).
Las células M no son selectivas a la longitud de onda, pero sí a las frecuencias espaciales bajas, tienen una respuesta transitoria
(respuesta fásica) y alta velocidad de conducción de la señal. Finalmente, las células K son selectivas a la longitud de onda.
Las propiedades de estas neuronas marcan las funciones de las áreas visuales a las que están conectadas y a las que por tanto va
a llegar la información que transportan.

5. LOS NÚCLEOS GENICULADOS LATERALES (LGN)


Las células ganglionares, presentan largos axones que abandonan la retina a través del nervio óptico y establece sinapsis en los
núcleos geniculados laterales izquierdo y derecho. El LGN está organizado en seis capas celulares (ver fig 1.25), que se numeran
de la 1 a la 6 desde dentro hacia fuera, cada una de las cuales recibe información desde un solo ojo.
Figura 1.25: Distribución en capas del LGN. Adaptada de Hubel, 1998.

Las dos capas más internas contienen neuronas de mayor tamaño, y constituyen el llamado Sistema Magnocelular, mientras que
las cuatro capas más externas, con células más pequeñas, pertenecen al Sistema Parvocelular. Entre estas capas se encuentra otro
grupo de células con características diferentes, las células Konio, que constituyen el Sistema Koniocelular. Dado que en el
quiasma óptico ha habido previamente un cruce de información de ambos ojos, las capas 2, 3 y 5 reciben información del ojo
correspondiente, mientras que las capas 1, 4 y 6 reciben información del ojo contralateral. Las conexiones se establecen de manera
que en cada capa existe una representación «punto a punto» de la retina, y las seis capas tienen una misma orientación, de modo
que a lo largo de un segmento perpendicular a la superficie del LGN los campos receptivos de las células de cada capa son
idénticos.
El LGN actúa como una estación intermedia en la ruta de la información hacia el córtex visual, pero no modifica esta
información.

5.1. Campos receptivos en el LGN


Dentro de este apartado también puede hacerse una clasificación según la organización espacial del campo receptivo, esto es,
según los conos que conectan con cada región (mapa de inputs). La primera clasificación relevante de las células del LGN de
acuerdo con su sensibilidad espectral es debida a De Valois, Abramov y Jacobs (1966) estudiando la respuesta ante un espectro de
energía constante con luz difusa. Estos autores establecieron la existencia de células no oponentes que responden bien con
excitación o bien con inhibición y de dos clases de células oponentes, a las que denominan células rojo-verde (punto neutro ≅ 560
nm) y células azul-amarillo (punto neutro menor). Ambas clases de células oponentes pueden a su vez ser de dos clases, según que
el máximo de excitación esté en las largas o en las cortas longitudes de onda. Lo que no puede deducirse es qué clase de conos
conectan con el campo receptivo de una célula.
También en 1966 Hubel y Wiesel realizaron una clasificación de células de retina y del LGN según la organización espacial del
campo receptivo, esto es, según los conos que conectan con cada región (ver fig 1.26). Esta clasificación es una combinación de
las dos anteriores, ya que las células pueden ser antagónicas o no y oponentes o no.
Figura 1.26: Clasificación de células de retina y del LGN, según datos de Hubel y Wiesel, 1966.

––––––––––––––––––––––

¿Cuáles son las características de cada tipo de célula en cuanto al antagonismo espacial y a la oponencia espectral?

––––––––––––––––––––––

Podemos representar también las curvas de respuesta de células oponentes. La clasificación de De Valois, Abramov y Jacobs
(1966) en función del punto neutro de cada célula puede verse en la figura 1.27:
Figura 1.27: Clasificación de células en función del punto neutro, según datos de De Valois, Abramov y Jacobs 1966.

6. LA CORTEZA VISUAL
De la misma forma que los axones de las células ganglionares proyectan una representación espacial precisa de la retina sobre
el LGN, éste proyecta una representación similar sobre la corteza visual, en el lóbulo opcipital. Anatómicamente toda la corteza
visual está estructurada en varias capas, en la figura 1.28 puede verse un esquema con las áreas V1 a V5. La región V1 se
denomina corteza visual primaria, también llamada corteza estriada, mientras que el resto de capas reciben el nombre de corteza
extraestriada.
Figura 1.28: Áreas visuales en el lóbulo occipital. Extraída de Valberg, 2005.

Los axones de las neuronas provenientes de los núcleos geniculados laterales hacen en sinapsis en distintos niveles dentro de la
región V1. Esta región está dividida en seis subcapas estratificadas (ver fig 1.29). Las células Parvo entran en V1 a nivel de la capa
4Cβ, desde allí se establecen sinapsis con las capas 2 y 3 y de aquí al área V2. Las células Magno conectan con 4Cα, que envía a
4B y de ahí a V2 y V5. Las células Konio van en su mayor parte a las capas 2 y 3 de V1, en las zonas llamadas blobs. Veremos
esta organización con mayor detalle un poco más adelante.
Figura 1.29: Conexiones entre LGN y la corteza visual primaria V1. Adaptada de Hubel, 1998.

Como esquema general, la información proveniente de LGN es recogida por V1, y desde allí pasará al resto de áreas visuales
superiores a través de V2 y también a otras áreas superiores del cerebro, donde será procesada obteniéndose una percepción visual
como resultado final.
Fisiológicamente, las células de la corteza visual se clasifican de la siguiente manera, en función de su respuesta (ver fig 1.30):

Células estrelladas: reciben entradas desde varias células del LGN y la información proviene de un sólo ojo. Sus
campos receptivos son circulares de tipo ON/OFF.
Células simples: reciben entradas de las células estrelladas y tienen campos receptivos centro-periferia más alargados
que en las anteriores. Responden con mayor intensidad a una línea recta con una orientación determinada. Responden
también a límites o bordes generados por contraste de colores aunque no codifican información del color.
Células complejas: reciben entradas de las células simples y desde ambos ojos, son las primeras células que reciben
información binocular. Tienen campos receptivos mayores y no diferencian demasiado el lugar donde aparece la línea,
a diferencia de las simples. Responden por tanto a una línea con orientación determinada y en movimiento con un
sentido determinado.
Células hipercomplejas: responden a estímulos más elaborados, como bordes y esquinas. Se distinguen varios tipos,
las hipercomplejas de primer orden que responden a estímulos en forma de barra con una longitud, orientación,
velocidad y un sentido de movimiento determinados (son las células tipo Reichardt que veremos en el capítulo 9), y
las hipercomplejas de segundo orden que responden a estímulos formados por dos barras colocadas a 90º, por lo que
representarían detectores de esquinas.

Esta organización fisiológica es la base para la hipótesis de que el proceso visual está jerarquizado de modo que cada nivel
celular responde a estímulos cada vez un poco más complejos que el anterior.
Figura 1.30: Tipos de campos receptivos y estímulos a los que dan respuesta células de corteza visual. Ver texto para las características particulares.

6.1 Corteza visual primaria o área V1


La corteza visual primaria, V1 tiene una organización modular al igual que otras áreas visuales, dividida en módulos o
supercolumnas que analizan una parte concreta del campo visual. La figura 1.31 muestra un esquema de esta organización.

Figura 1.31: Organización modular de V1. Adaptada de P. Gouras, webvision.med.utah.edu/book/part-vii-color-vision/color-vision.

En las capas superiores de V1 se puede diferenciar la existencia de una serie de columnas perpendiculares a la orientación de
las subcapas, son las llamadas columnas de orientación. Cada columna responde a una línea con una orientación diferente, pero
muy similar a la columna adyacente, de forma que se cubren todas las posibles orientaciones en cada parte del campo visual.
Perpendiculares a las columnas de orientación (y a las subcapas también) se organizan las columnas de dominancia ocular, ya que
cada una recibe la entrada de un solo ojo. Dentro de estas columnas se distinguen dos partes que procesan información
complementaria y que van a ser el origen de la separación en dos subsistemas del camino Parvocelular: una parte para el color
(blob) y otra para el detalle (interblob).

Blobs: formados por células no selectivas a la orientación pero sí al color y a la luminancia. Tienen campos receptivos
circulares, antagónicos y oponentes dobles (responden con excitación en una región del campo receptivo e inhibición
en otra). La entrada de células P, que llevan la señal del mecanismo oponente rojo-verde, constituye el subsistema que
se suele denominar P-B (de Blobs). Pero además, reciben la entrada de las células K, que llevan la señal del
mecanismo oponente azul-amarillo. Es la prueba de que existe un sistema separado para el procesado del color.
Interblobs: compuestos de células simples y complejas. Las simples son selectivas a la frecuencia espacial y la
orientación, además de a la textura. Las complejas son selectivas a la dirección y el movimiento. Responden a líneas o
barras pero no al color, además algunas neuronas son binoculares y muestran sensibilidad a la disparidad binocular.
Como los campos receptivos son más pequeños, se encargan de la percepción de detalles espaciales finos, es decir,
agudezas altas. Responden también al contraste de borde acromático, es decir detectan bordes. (Este subsistema se
suele denominar P-I, de Interblobs).

Parece claro que en el córtex visual existen células capaces de detectar ciertas características elementales. Ya en la capa 4B
(células magno), algunas células responden a líneas y barras, otras responden a redes de una frecuencia espacial determinada. O
incluso a la textura: ciertas células responden a ondas sinusoidales o cuadradas de determinada orientación y frecuencia, responden
a la ‘textura’ de un patrón. Como las superficies naturales tienen una textura rugosa, estas células pueden detectar la superficie y su
orientación, contribuyendo a la percepción de la profundidad (debido a los gradientes de textura).
Podemos decir que las células simples y complejas nos dan la percepción de formas independientemente de la localización de la
imagen en la retina, se comportan como detectores de contornos. Incluso algunas células son binoculares y selectivas a la
disparidad retiniana, aunque no interpretan la señal de profundidad estereoscópica (combinaciones de neuronas de V1 parece que
sí pueden hacerlo).

6.2. Área V2
La señal de V1 pasa principalmente a V2, que no presenta un patrón de blobs e interblobs, pero sí un patrón de barras, que se
denominan: Thick (gruesas), Thin (finas) y una región Interbarras. V2 ya no presenta un mapa completo de la retina, sino que
parece organizado en tres mapas visuales según este patrón.

Thick: reciben las proyecciones de las neuronas de 4B (magno), son selectivas a la orientación y movimiento, y
muchas también a la disparidad retiniana. Proporciona un mapa de orientaciones visuales (células M—4B—Tick).
Thin: reciben las proyecciones de los Blobs, no son selectivas a la orientación pero muchas lo son al color (son células
oponentes dobles). Proporciona un mapa de color (células M, P y K—Blobs—Thin).
Interbarras: reciben las proyecciones de las neuronas Interblobs, son selectivas a la orientación pero no a la dirección
ni al color. Es un mapa de disparidades (células P—Interblobs—Interbarras).

6.3. Área V4
Las dos proyecciones P (P-B y P-I) conectan con V4, pero siguen separadas. También recibe la conexión de las células K. De
aquí la señal continúa hacia el córtex inferotemporal posterior.
En esta área parece tener lugar la discriminación de tonos y la constancia del color. Pero hay pruebas de que esta zona no debe
dedicarse sólo al color. En la acromatopsia cerebral se ve perjudicada la discriminación de tonos pero no la discriminación de
formas, mientras que en los experimentos con primates, la pérdida de V4 afecta también a ésta última.

6.4. Áreas V3 y V5
La proyección M conecta con V3 y V5, desde la capa 4B de V1 y a través de las barras Thick de V2. Pero también parece que
debe haber contribución de P y K a través de los Blobs y las barras Thin. De aquí la señal continúa al cortex parietal, que se
encarga de integrar la información de movimiento y profundidad dentro de la representación del espacio.

V3 tiene células selectivas a la orientación y debe contribuir al procesado de la forma dinámica.


V5, también llamada MT (temporal media), procesa información de movimiento y profundidad estereoscópica. En
primates, lesiones en V5 causan déficits en los movimientos de seguimiento del ojo y en la discriminación de la
dirección del movimiento.

En resumen, hay cinco áreas principales de procesado en la corteza visual:

V1 Es el punto de entrada de la información, distingue el tipo de célula (M,P,K), pero no le hace nada a la señal de
entrada, sólo la transmite a V2. Sabemos que es capaz de distinguir la información de movimiento porque tiene
conexión directa con la región correspondiente al movimiento y le transmite cierta parte de la información a V5 sin
pasar por V2.
V2 Distribuye información a las otras áreas especializadas.
V3 Participa en la detección de formas y profundidad (además procesa cierta información de movimiento: giro o
cambio).
V4 Se encarga de la detección del color (además procesa la orientación de líneas)
V5 (también llamado MT) Se encarga de la detección de movimientos (velocidad y dirección del movimiento global,
independiente de color y forma) y de la profundidad estereoscópica.

La figura 1.32 nos muestra un esquema simplificado de estas áreas de procesado y sus conexiones.

Figura 1.32: Esquema del sistema visual. Modificada de Livingston y Hubel, 1988.

Para que tenga lugar la interpretación final, la información deberá juntarse en algún punto. Desde la corteza visual la
información continúa hacia otras áreas visuales (áreas corticales prefontrales) y recibe otro tipo de contribuciones. Además, parece
aceptado que la memoria debe actuar en algún momento del procesado final. Podemos hablar de dos grandes ‘vías’ o sistemas de
información, que incluyen un gran número de áreas del cerebro, y que responden a dos cuestiones básicas que dan sentido a la
visión: ¿Qué es? Y ¿Dónde está?

QUÉ: identificación del objeto, tiene lugar en el lóbulo temporal. Participa en el procesado del color, tamaño y forma.
Las lesiones en esta área permiten utilizar la visión pero no permiten distinguir entre objetos, por ejemplo:
Agnosia asociativa: lesión cerebral en la que no se reconocen los objetos, pero se es capaz de describirlos y
de dibujarlos copiando.
Prosopagnosia: no se reconocen las caras.
Agnosia del color: no se reconoce ni denomina los colores, a pesar de tener una percepción cromática
correcta.

DÓNDE: posición espacial relativa, tiene lugar en el lóbulo parietal. Participa en el procesado de información
espacial del objeto, el movimiento y la forma derivada del movimiento. Las lesiones en esta área producen problemas
en actividades con juicios de ubicación pero no en la identificación, por ejemplo:
Ataxia óptica: dificultad en movimientos de persecución de un objeto.
Apraxia óptica: se perciben los objetos, pero no se puede mantener la fijación en ellos; no se percibe la
localización en la escena.
Simultagnosia: sólo puede ver un objeto cada vez en una escena compleja.
Cinetoagnosia: incapacidad de ver los objetos en movimiento.

7. CAMINOS VISUALES PARALELOS: MAGNOCELULAR, PARVOCELULAR Y KONIOCELULAR


Si reflexionamos sobre las tareas que realizamos al contemplar una escena, vemos que somos capaces de detectar formas,
bordes, sombras, movimientos, colores, texturas… y todo esto se extrae a partir de la imagen retiniana, que no es otra cosa que una
imagen plana del mundo exterior.
La luz que incide sobre un fotorreceptor en la retina provoca una señal eléctrica que pasa a la correspondiente célula bipolar y
de ésta llega a la correspondiente célula ganglionar. Y desde aquí se inicia el camino hacia la corteza visual, donde debe ser
registrada toda la información recogida por la retina y analizada en función de sus características espaciales, temporales y
colorimétricas.
Podríamos pensar que en la corteza visual se analiza una «imagen» que se corresponde punto a punto con el objeto, pero eso
implicaría que cada fotorreceptor debería estar conectado a una neurona en el cerebro y que esa neurona debería ser capaz de
interpretar todas las características del objeto: forma, color, movimiento, etc.
Por otro lado, podríamos pensar que a lo mejor hay una forma de ahorrar, lo que se corresponde con el ‘principio universal del
mínimo esfuerzo’. Sabemos que nuestro sistema visual tiene muchas menos conexiones en el nervio óptico que fotorreceptores en
retina, es una evidencia de que ya ha empezado a ahorrar, pero esto implica que cada receptor en retina no está conectado con una
única neurona en ningún nivel del cerebro. Pero lo más llamativo es que la corteza visual se ha especializado funcionalmente: hay
zonas para el análisis específico de un tipo de información que no responden a otro tipo diferente de información. Disponemos de
células especializadas en detectar color, forma, orientación, dirección del movimiento, velocidad, profundidad… Esto es otra
evidencia del ahorro en el procesado de la información, pero que nos hace plantearnos algunas cuestiones, por ejemplo cómo
interpreta nuestro cerebro que la información de cierto color pertenece a cierto objeto, o que un objeto se mueve en la escena y
otro no.
Conforme nos movemos hacia áreas superiores en el sistema visual, las neuronas responden a estímulos cada vez más
complejos: desde líneas hasta caras, por ejemplo. Podríamos afirmar que nuestro sistema visual está jerarquizado (eso implica un
procesado en serie, cada nivel añade algo más al nivel anterior). Pero por otro lado, tenemos evidencias de que diferentes aspectos
del estímulo son analizados en caminos separados pero de forma simultánea, eso implica un procesado paralelo.
En la retina ya tenemos evidencias de la separación entre los caminos visuales. Posteriormente, en el córtex visual existen unas
áreas específicas para procesar una característica concreta de la información. Hemos visto que un área que procesa la forma,
mientras que otra procesa exclusivamente color y posteriormente estas informaciones se integran o asocian, se ponen en común, de
forma que reconocemos un objeto con su forma y color particular.

7.1. Características de los caminos visuales


Los primeros estudios fisiológicos sobre células ganglionares se llevaron a cabo con gatos, donde se distinguieron dos tipos de
células: X (lineales) e Y (no lineales). Las células lineales son capaces de sumar sus respuestas, mientras que las no lineales no lo
hacen. Los primeros estudios con primates fueron llevados a cabo por Wiesel & Hubel (1966) y Gouras (1968). En la retina del
mono, Kaplan y Shapley (1986) propusieron la clasificación de células P y M, que no se corresponde estrictamente con las X e Y
del gato. Las células P se comportan como las X (Tipo X o X-like) y las M se comportan como ambas (X-like, Y-like).
La tabla 1.1 resume algunas de las propiedades más relevantes de los caminos visuales: conexiones, organización espacial del
campo receptivo, velocidad de conducción, linealidad, input de bastones, etc. Como puede observarse, algunas de las
características del camino Koniocelular todavía no han sido correctamente caracterizadas.
Tabla 1.1: Resumen de las principales propiedades de los caminos visuales. P. Capilla.

La linealidad es una propiedad muy importante a la hora de estudiar visión, ya que permite tratar a la célula visual como
cualquier otro sistema lineal: la respuesta a una sinusoide de amplitud A es otra sinusoide de amplitud A’, donde A y A’ están
relacionadas mediante una función que describe el comportamiento del sistema, la MTF de la que hablaremos en el capítulo 8.
Como cualquier estímulo luminoso se puede descomponer en sinusoides (espectro de frecuencias), podremos entonces estudiar el
efecto que la célula va a producir sobre el objeto.
Sabemos que en las células lineales hay sumación, pero en las otras no lo sabemos. Por tanto hay sumación en los tres
mecanismos.
En cuanto al Input de bastones, sí que hay entrada de bastones en el Magno y no la hay en el Parvo. Los bastones van a sumar
la información con el fin de tener mayor sensibilidad, pero eso lleva también asociado peor resolución.
Algunas de estas características serán analizadas en los próximos capítulos, vamos a aplazar su interpretación hasta entonces.

7.2. Especialización de los caminos visuales


La pregunta sobre cuáles son las funciones que realiza cada camino no tiene una respuesta sencilla. Se pueden extraer alguna
conclusión del análisis de los resultados obtenidos en los experimentos psicofísicos que se realizan con primates antes y después
de practicarles pequeñas lesiones en el LGN que dejarían inactivo al camino Magno, Parvo o Konio. Si la capacidad para realizar
una función se ve afectada, esto quiere decir que el procesado de la información necesaria para la realización de la tarea tendría
que tener lugar en cualquier localización posterior al LGN, no necesariamente en el córtex primario, en la dirección del camino
correspondiente.
La estrategia para la realización de la mayor parte de estos experimentos con un primate, consiste en conseguir que mire a un
punto de fijación alrededor del cual se encuentra por ejemplo un círculo de muestras de las mismas características. En la figura
1.33 vemos un ejemplo de montaje, en el que en una posición aleatoria se produce un cambio de cierta magnitud.
Figura 1.33: Montaje típico para un experimento psicofísico con primates.

Si el mono detecta dónde se ha producido el cambio, realizara un movimiento sacádico en la dirección visual correspondiente y
dicho movimiento puede ser recogido mediante una cámara. Analizaremos a continuación los resultados de algunos de estos
experimentos, teniendo en cuenta que la inmensa mayoría fueron planteados antes de diferenciar el camino koniocelular.
(Resultados de P.H. Schiller, N.K. Logothetis y E.R. Charles [Schiller et al. (1990)]).
Una lesión en el Magno produce un serio deterioro en la realización de ciertas tareas por el mono. Estas tareas son la detección
de parpadeos de frecuencia relativamente alta y la detección y discriminación de movimientos, es decir, tareas de carácter
temporal. Por contra, una lesión en el Parvo deteriora de forma significativa la sensibilidad al contraste (cromático y acromático),
la capacidad de discriminación de colores, texturas, frecuencias espaciales, así como de ciertas formas elementales y, por último,
la estereopsis de altas frecuencias. Otras tareas, como la discriminación de luminosidades o la estereopsis de bajas frecuencias, no
dan resultados tan concluyentes. A la vista de estos resultados, parece razonable empezar a pensar que el camino Magno-V5
estaría especializado básicamente para el movimiento, en tanto que el camino Parvo-V4-IT lo estaría para el color y la forma. La
estereopsis es probable que esté asociada a ambos caminos.
Un esquema simplificado de este «circuito neural» se muestra en la figura 1.34.
Figura 1.34: Esquema general de procesado de información desde el estímulo físico hasta la percepción final. P. Capilla.

Quedan algunas preguntas interesantes que hacerse:

¿Contribuye la memoria? En cuanto a la última contribución del esquema de la figura 1.35, la memoria, debe actuar
en algún momento del procesado, seguramente en áreas superiores. Se ha comprobado mediante técnicas de
resonancia magnética que visualizar una escena mentalmente produce un patrón de actividades básicamente idéntico
que cuando se visualiza realmente.
Aunque no está perfectamente determinado de qué manera ni donde se realiza la integración final de la información,
es evidente que toda esta información debe integrarse posteriormente en una imagen final. Ya hemos visto que la
representación de la información en la corteza visual no se corresponde con un mapa retiniano único sino que es
transmitida a través de diferentes caminos. Parece que la información visual se «rompe» y se procesa en paralelo en
áreas especializadas. En cada zona de la corteza visual se analiza y procesa una parte de la información, que es
enviada a las áreas corticales vecinas y de aquí a otras áreas superiores, pero sin referencia a lo que está ocurriendo al
lado. Además de esta distribución de la información hacia adelante se debe producir un efecto de ‘retroalimentación’
de las áreas superiores a las inferiores. Las conexiones entre áreas deben tener lugar en tres direcciones: hacia adelante
(de áreas inferiores a superiores), hacia atrás (en sentido contrario) y también deben existir conexiones laterales entre
áreas de complejidad de procesado equivalentes.
La información se redistribuye y ahora si que va a haber una interacción entre esos diferentes aspectos que la
componen.
También parece que el orden de importancia entre las facetas de la información es relevante para el proceso de
interpretación. La primera tarea es la de localización y detección (sin reconocimiento) del objeto, y posteriormente se
analiza color, movimiento y orientación.
Parece que según progresamos en el sistema visual, las características del estímulo necesarias para activar una célula
son más precisas, esto supondría que el proceso visual está jerarquizado (cada nivel procesa información más
compleja que en el nivel anterior).

––––––––––––––––––––––

Si el procesado e interpretación es un proceso jerarquizado, ¿existe una célula sintonizada a algo tan específico como por
ejemplo la cara de mi abuela? (ver fig 1.35).

––––––––––––––––––––––

Figura 1.35: Proceso jerárquico ¿existe la célula abuela?

Lo que sabemos con certeza es que un objeto complejo activa áreas superiores e inferiores, por lo que la corteza visual primaria
(e incluso la propia retina) ya contribuye al conjunto de códigos que van a permitir la interpretación; no parece entonces probable
que exista una sola célula involucrada en el reconocimiento de la cara de mi abuela. Pero algunos experimentos parecen demostrar
esta teoría, ya que se han localizado algunas células que dan respuesta máxima a un rostro determinado y no a otros.
Pero esta pregunta nos lleva a plantearnos además otros problemas: al integrar la información de un objeto, ¿cómo se relacionan
los aspectos temporales y espaciales entre ellos? Y si son más objetos, ¿cómo se distingue la información que pertenece a cada
uno?
La percepción no es una simple representación de nuestro entorno, sino más bien una interpretación del mismo. Y nuestra
interpretación puede cambiar basándose en aspectos cognitivos o perceptuales, experiencias pasadas, etc.

CUESTIONES
1. Indica cual de estas características de la retina es cierta:

a. La densidad de conos en retina central es de unos 150.000 conos por milímetro cuadrado de superficie.
b. La zona central de la fóvea donde están los conos más finos ocupa 5 grados y se llama foveola.
c. La máxima concentración de bastones está a 40 grados de excentricidad.
d. En la zona central de la fóvea solamente hay conos S.

2. Los conos de la foveola:

a. Conectan con células del tipo Bipolar en brocha.


b. Conectan con células del tipo Bipolar enana.
c. Conectan con células del tipo Bipolar aplanada.
d. La conexión conos:bipolares es en la proporción 1:1.
e. La conexión conos:bipolares es en una proporción del orden 1:1000.
f. Los conos no conectan con bipolares, sino con ganglionares.

3. El Nucleo geniculado lateral (LGN):

a. Presenta una estructura con ocho capas celulares.


b. Las dos capas más superficiales son las de células magno.
c. Tiene forma piramidal.
d. Su función fundamental es la de modificar la información recibida.
e. Todas son falsas.

4. El orden correcto de las conexiones neurales en el sistema visual humano es:

a. Fotorreceptores, células amacrinas, células ganglionares.


b. Fotorreceptores, células ganglionares, células bipolares.
c. Fotorreceptores, células bipolares, células ganglionares.
d. Fotorreceptores, células horizontales, células amacrinas.

5. Señala si es verdadero o falso: La fase de interpretación de la información ocurre exclusivamente en el cortex visual.

a. Verdadero.
b. Falso.

6. Rellena los huecos:


Las células ganglionares de tipo [........] son de tamaño grande. Estas células establecen muchas sinapsis con numerosas células
[........]. Las células del tipo parvo son de tamaño [........]. La percepción del movimiento depende del sistema [........], mientras
que la visión del color depende del [........] y del [........].

7. Completa la definición: El campo receptivo de una neurona del sistema visual es la región de la [........] en donde un [........]
provoca una [........] o [........] más o menos intensa de esa célula.

8. ¿Cuál o cuáles son las formas mas frecuentes del campo receptivo?

a. Estrellada.
b. Circular.
c. Elíptica orientada en vertical.
d. Elíptica orientada en horizontal.
e. Elíptica orientada en cualquier dirección.
f. No hay una forma típica.

9. Rellena los huecos:


Se dice que una célula presenta un campo receptivo de tipo [........] cuando su respuesta ante un estímulo luminoso es siempre
de tipo [........] o siempre de tipo [........]. En este tipo de campo la respuesta es uniforme y la intensidad depende del mayor o
menor [........] de área iluminada.
10. Indica de qué tipo son las tres células marcadas en la figura.
3
2
1

a. 1. antagónica y oponente, 2. antagónica y oponente, 3. no antagónica y oponente.


b. 1. antagónica y oponente, 2. antagónica y no oponente, 3. no antagónica y no oponente.
c. 1. antagónica y no oponente, 2. antagónica y oponente, 3. no antagónica y oponente.
d. 1. antagónica y oponente, 2. antagónica y no oponente, 3. no antagónica y oponente.
e. 1. antagónica y no oponente, 2. antagónica y oponente, 3. no antagónica y no oponente.

11. Relaciona cada pareja letra-número:

a. Campo receptivo no oponente…


b. Campo receptivo oponente…
c. Respecto al punto neutro, el campo receptivo no oponente…
d. Respecto al punto neutro, el campo receptivo oponente…

a. Tiene punto neutro.


b. La respuesta es siempre de la misma clase para cualquier color del estímulo.
c. No tiene punto neutro.
d. La respuesta es excitatoria o inhibitoria, según el color del estímulo.

12. Rellena los huecos.


Las capas más internas numeradas como [........] corresponden al [........], y las más externas numeradas como [........]
corresponden al [........]. Entre estas capas se encuentra otro grupo de células que constituyen el [........].

13. Indica qué características son propias de las células estrelladas:

a. Son células de la retina.


b. Reciben entradas de varias células del LGN provenientes de un sólo ojo.
c. Reciben entradas de varias células del LGN provenientes de los dos ojos.
d. Tiene campos receptivos circulares ON/OFF.
e. Tiene campos receptivos alargados ON/OFF.
f. Responden a estímulos en forma de L o esquina.

14. Indica qué características son propias de las células complejas.

a. Reciben entradas de varias células del LGN provenientes de los dos ojos.
b. Reciben entradas de varias células simples provenientes de los dos ojos.
c. Responden a una línea en movimiento.
d. Tiene campos receptivos alargados ON/OFF.
e. Tiene campos receptivos circulares ON/OFF.
f. Responden a estímulos en forma de L o esquina.

15. Relaciona cada área visual con su función principal.

a. V2
b. V3
c. V4
d. V5 (MT)
e. Área Parietal
f. Área Temporal

a. Forma
b. Movimiento
c. ¿Qué es?
d. Distribución
e. ¿Dónde está?
f. Color

16. Señala la o las afirmaciones correctas respecto a las características fisiológicas y especialización funcional del camino
Magnocelular.

a. Está formado por células de tamaño pequeño.


b. Tienen antagonismo espacial.
c. Tienen oponencia espectral.
d. La oponencia espectral es de tipo R/G.
e. Está especializado en tareas temporales.
f. Está especializado en tareas de forma y color.

17. Señala la o las afirmaciones correctas respecto a las características fisiológicas y especialización funcional del camino
Parvocelular.

a. Está formado por células de tamaño pequeño.


b. Tienen antagonismo espacial.
c. Tienen oponencia espectral.
d. La oponencia espectral es de tipo R/G.
e. Está especializado en tareas temporales.
f. Está especializado en tareas de forma y color.

18. Señala la o las afirmaciones correctas correcta respecto a las características fisiológicas y especialización funcional del camino
Koniocelular.

a. Está formado por células de diferentes tamaños.


b. Tienen antagonismo espacial.
c. Tienen oponencia espectral.
d. La oponencia espectral es de tipo R/G.
e. Está especializado en tareas temporales.
f. Está especializado en tareas de color.
...

2. La Psicofísica como técnica de estudio del proceso visual

1. LA PSICOFÍSICA
En el capítulo anterior se ha definido la psicofísica como el estudio del proceso visual a partir de la relación entre la
especificación física del estímulo y la medida de la respuesta del sistema visual (percepción).
La finalidad de la psicofísica es deducir o plantear un modelo de respuesta sensorial que permita describir el funcionamiento del
sistema visual. Así será posible predecir el comportamiento ante un determinado estímulo sin necesidad de realizar una medida
experimental. El modelo teórico elaborado a partir de este estudio podrá ser confirmado, modificado o descartado mediante
nuevos experimentos psicofísicos.
También hemos adelantado que no todo el proceso visual es fácilmente modelizable mediante experiencias psicofísicas. Existe
una condición particular que sí lo es: cómo actúa el sistema visual en la zona cercana al umbral. Esto es así porque el ojo humano
es un excelente detector de este tipo de transiciones. Estudiaremos esa zona y estableceremos la hipótesis de que en cualquier otra
zona el comportamiento no debe ser muy diferente.

1.1 Hipótesis en la caracterización del sistema visual


El primer paso que debemos hacer es establecer algunas hipótesis en la caracterización de nuestro sistema visual, con las que
esperamos conseguir una buena aproximación a los resultados experimentales. Parte de los objetivos de la psicofísica será el
planteamiento de experiencias donde se ponga de manifiesto los posibles alejamientos del comportamiento esperado para ajustar,
en caso de que sea necesario, esas hipótesis iniciales.
En primer lugar admitiremos que el sistema visual es un sistema lineal, que transformará una señal de entrada S en una
respuesta S’. La relación entre ambas podrá expresarse de la forma: S’ = f(S), donde la función matemática f representa el
procesado que efectúa el sistema visual. Podemos tratar el sistema visual como una caja negra o plantear experiencias para
estudiar propiedades sólo de una parte.
En segundo lugar asumiremos que el sistema visual es separable, es decir, que sea cual sea el número de variables mediante el
que pueda especificar una señal, siempre es posible separar la contribución de cada una de ellas:

Para llevar a cabo esta caracterización disponemos de la información de entrada y de la respuesta, pero no tenemos acceso al
sistema. Analizando la relación entre ambas se pueden extraer conclusiones sobre el comportamiento del sistema, siempre y
cuando las respuestas cumplan una serie de condiciones ligadas a criterios estadísticos: han de ser repetibles y con desviaciones
estándar pequeñas.
Para simplificar el problema, centremos el problema en la parte espectral. Supongamos que conocemos S(λ) y obtenemos S’(λ)
como una función de la entrada: S’(λ)=f(S(λ))=kλ S(λ). Planteando la hipótesis de que el sistema es lineal, la respuesta general a
una entrada cualquiera será la suma de las respuestas espectrales. Para conocer kλ, hay dos posibles vías:

a) utilizar entradas de energía constante S(λ)=Eo y estudiar la variación de la respuesta con λ:

b) utilizar señales de salida S’(λ) constantes, por ejemplo la detección de un umbral o la igualación con una referencia, y
determinar la variación de las señales de entrada con λ:
donde A es el espectro de acción: inversa de la señal de entrada que produce salida o respuesta sensorial constante.
Generalmente se emplea esta segunda vía para obtener k, porque la primera vía presenta la dificultad de que la entrada es accesible
pero la respuesta no es medible de manera objetiva.

1.2 Análisis de resultados empíricos


El siguiente paso consiste en plantear experiencias reales y ver el comportamiento del sistema visual para poder extraer
conclusiones sobre sus propiedades. Veamos algunos ejemplos.

Ejemplo 1) En la curva de adaptación a la oscuridad (o curva del umbral absoluto en función del tiempo), se aprecia una
variación local importante. En la figura 2.1 se representa el umbral en función del tiempo que el sujeto permanece en oscuridad
total:

Figura 2.1. Curva de adaptación a la oscuridad. El cambio de tendencia a partir de unos 12 minutos implica la existencia de un cambio importante en
el sistema de detección. Extraída de Schwartz, 1999.

Este cambio de comportamiento sugiere la hipótesis de que en la retina hay realmente dos subsistemas o soportes fisiológicos
complementarios, con funcionamientos diferentes y más o menos independientes: el sistema fotópico, basado en los conos, y, el
sistema escotópico basado en los bastones. Pero deben darse más pruebas de que existen estos sistemas diferentes y además
relacionarlos con otras pruebas conocidas de la fisiología ocular para poder confirmar la hipótesis, y son varias las pruebas que
apuntan en esa dirección:

Las curvas de sensibilidad espectral del sistema visual en condiciones fotópicas V(λ) y en condiciones escotópicas
V’(λ) son diferentes, como se muestra en la figura 2.2.
Figura 2.2. Curvas normalizadas de sensibilidad espectral fotópica y escotópica. Estas curvas indican la respuesta del sistema visual ante luces de
diferente longitud de onda. El cambio en el máximo de sensibilidad, está relacionado con el efecto Purkinje.

La existencia de un nivel de iluminación mesópico Vm(λ) se puede interpretar como el cambio de un subsistema al otro. Para el
nivel de iluminación mesópico están actuando los conos y también los bastones. Al reducir el nivel de iluminación, unos
comienzan a funcionar (bastones), mientras que los otros están en el límite de funcionamiento (conos).

La aditividad de luminancias siempre se cumple en visión fotópica, pero no siempre ocurre para la visión escotópica
(efecto Helmholtz-Kohlrausch),
El efecto Purkinje indica la variación de la eficiencia luminosa relativa al pasar de visión fotópica a escotópica. Por
ejemplo: dos superficies roja y azul que parecen igual de luminosas durante el día, por la noche no lo son: el rojo se ve
negro y el azul se ve gris.

Ejemplo 2) El funcionamiento del sistema visual bajo diferentes condiciones del estímulo: adaptación, tiempo, tamaño, etc.,
también sugiere la existencia de sistemas independientes. Por ejemplo, si se mide la sensibilidad espectral utilizando un estímulo
monocromático sobre un fondo acromático, se obtienen las tres curvas punteadas de la figura 2.3, que corresponderían a los tramos
excitatorios de tres mecanismos: S+ (células S-(L+M)), M+ (células M-L) y L+ (células L-M). En línea continua fina se representa
la curva de sensibilidad espectral fotópica.
La línea continua gruesa (envolvente de las anteriores) presenta una depresión local en el entorno de 575 nm, el surco de Sloan,
donde la detección se hace sin color. En el resto de la curva el sujeto detecta el estímulo gracias al cambio de color respecto del
fondo. Para ver la influencia del estado de adaptación, se disminuye la intensidad del fondo hasta niveles bajos, obteniéndose que
estos tres picos de la curva desaparecen y la detección se hace sin color en casi todo el espectro.
Figura 2.3. Curva de sensibilidad espectral de umbral incremental, donde se ponen de manifiesto los tres sistemas de conos. Adaptada de Kalloniatis &
Harwerth, 1990.

Ejemplo 3) Si determinamos umbrales con estímulos de color o de luminancia se obtienen resultados diferentes. Este resultado
indica que los sistemas de procesado son diferentes según el tipo de información. Por ejemplo, si se mide el contraste umbral con
redes sólo de luminancia o sólo de color y se representa la sensibilidad, se obtienen tres tipos de curvas (ver fig 2.4). Con redes de
color las curvas son de tipo pasa-baja (máximo en las frecuencias bajas) y con redes de luminancia la curva es de tipo pasa-banda
(máximo en la banda de frecuencias intermedias). Podemos pensar únicamente en el caso de que la frecuencia espacial tienda a 0,
para centrarnos únicamente en las características espectrales del estímulo y no en las espaciales.
Figura 2.4: Curvas de sensibilidad al contraste acromático (Luminance) y cromático (Red-green y Blue-yellow). Extraída de Valberg, 2005.

Ejemplo 4) La experiencia de cancelación de tonos, conocida como la experiencia de Jameson y Hurvich, demuestra la
existencia de dos procesos oponentes cromáticos. Utilizando colores monocromáticos, demostraron que se podían obtener como
mezcla de dos componentes y que es posible cancelar cada una de ellas al añadir la correspondiente luz oponente. Esto nos indica
la existencia de procesos cromáticos oponentes, uno Rojo-Verde y otro Azul-Amarillo (ver fig 2.5).
Figura 2.5. Mecanismos oponentes (rojo-verde y azul-amarillo) como resultado de la experiencia de cancelación de tonos de Jameson y Hurvich, 1955.
Extraída de www.handprint.com/HP/WCL/color2.html).

En definitiva, hay un enorme número de evidencias que prueban la existencia de dos sistemas fisiológicos en la retina: fotópico
y escotópico y también hay muchas evidencias que prueban la existencia de los sistemas de procesado o canales posteriores.
Pero no se puede perder de vista que siempre surgen problemas en los razonamientos: hasta aquí sólo hemos razonado con la
parte espectral del estímulo visual, falta ver si la parte espacial o la temporal añaden algo nuevo. También hemos visto algunas de
las experiencias que se hacen con tareas umbral, lo que no nos asegura el mismo comportamiento cuando el sistema visual no
trabaje en estas condiciones. Asumimos que sí lo hará por simplicidad.

2. UMBRALES DE SENSACIÓN: LA FUNCIÓN PSICOMÉTRICA


El estudio de los umbrales, tratado en el punto anterior, constituye el origen de la Psicofísica. Para cualquiera de nuestros
sentidos siempre existe un nivel mínimo de energía por debajo del cual no se produce sensación, no hay respuesta. A este mínimo
nivel de energía se le conoce como umbral sensorial.
Pues bien, el umbral puede entenderse de esta manera –mínima cantidad de energía necesaria para detectar un estímulo– y
entonces hablamos de umbral absoluto, o también puede interpretarse como la mínima cantidad de energía necesaria para apreciar
un cambio en la intensidad del estímulo. Es decir, dado un estímulo físico con una determinada intensidad, cuál es la mínima
variación necesaria en la intensidad de ese estímulo para provocar una variación en la sensación. En estas condiciones se habla de
umbral diferencial o umbral incremental o umbral relativo.
La función psicométrica constituye una interpretación matemática del funcionamiento de un sistema sensorial en condiciones
cercanas al umbral. Supongamos una experiencia de umbral diferencial: se presenta a un observador dos luces, una de ellas con
una intensidad fija (luz A) y la otra con una intensidad variable (luz B1, B2, …Bn). El observador deberá indicar en cada caso si la
luz B es más intensa o menos intensa que la A. Se repite este experimento para todas las luces, presentándolas de manera aleatoria
y un número elevado de veces (por ejemplo 100 veces cada una de ellas); de este modo los resultados puedan tratarse
estadísticamente. Los datos obtenidos en esta experiencia se recogen en una tabla de resultados (ver tabla 2.1) en la que se indica
el número de veces que la respuesta del sujeto es que la luz B es vista más intensa que la luz A. Se calcula la probabilidad P(B>A)
como numero de respuestas positivas respecto al número de presentaciones (100):

Tabla 2.1. Función psicométrica: experimento de umbral diferencial y cálculo de la probabilidad asociada.

Si se representa la probabilidad de que la respuesta ante la luz B sea mayor que A, frente a la intensidad de A, se obtiene una
curva de tipo sigmoidea, a la que habitualmente se conoce como función psicométrica. El hecho de que la probabilidad adopte esta
forma, tiene su razón de ser. Cuando la intensidad es claramente menor, pocas veces el observador creerá verla más intensa que la
referencia, y por lo tanto P(B>A) será baja. Cuando son parecidas, en ocasiones creerá verla más intensa y en otras ocasiones
menos: es difícil discernir, hay imprecisión, la probabilidad se acerca a 0.5. Finalmente, para valores muy altos se aprecia
claramente B>A y la probabilidad por lo tanto es muy elevada.
El experimento que acabamos de plantear muestra cómo se comporta el sistema visual ante estímulos próximos a la zona del
umbral, en este caso el umbral de discriminación de intensidad luminosa. En muchas otras mediciones de características visuales
se obtienen funciones psicométricas como ésta, es decir, el comportamiento de un detector en la zona cercana al umbral sigue una
función con forma de sigma (ver fig 2.6). Por lo tanto, se define la función psicométrica como una función sigmoidea que describe
el comportamiento de un sistema sensorial en la zona cercana al umbral.
En el punto de inflexión de la curva, la probabilidad de detección corresponde al 50%, y éste es el punto de máxima
imprecisión en la detección: la respuesta es »ni sí, ni no». Es por esto que, generalmente, este punto se considera como el valor del
umbral, aunque en otros experimentos también es usual asignar el valor correspondiente el 75% de probabilidad.
Figura 2.6. Función psicométrica para el umbral absoluto de luminancia. El punto correspondiente a una probabilidad de detección del 50% se asume
como valor umbral (representa el valor límite entre detección y no detección). La curva se ajusta a una función del tipo y=a/(1+b.e-f(x)).

3. TÉCNICAS DE MEDIDA DE LA RESPUESTA VISUAL


Hasta ahora hemos hablado de determinación de umbrales, bien sean absolutos o diferenciales. Esta tarea es la más sencilla para
el observador, que sólo tiene que decir entre la presencia o no del estímulo o de un cambio en el estímulo. No es habitual
cuantificar numéricamente cómo varía la respuesta según varía la intensidad del estímulo en otras condiciones que no sean las de
la zona cercana al umbral. Podemos establecer un símil con el funcionamiento de una motocicleta, supongamos que queremos
estudiar su comportamiento (frenos, vibraciones del motor, agarre de los neumáticos, etc) estudiar un umbral absoluto, equivale a
estudiar cómo funciona esa moto circulando muy despacio, en el límite entre estar parada y estar en movimiento, pero el
comportamiento a alta velocidad, no tiene nada que ver con esa situación. Las conclusiones del estudio a baja velocidad no son
extrapolables a condiciones de alta velocidad.
Pero así únicamente se determina un nivel de percepción o de discriminación del estímulo. En el estudio de la percepción visual
también resulta interesante poder caracterizar numéricamente la percepción y una manera de conseguirlo es mediante el empleo de
las llamadas escalas de percepción o sensación.
Se entiende por escala una serie ordenada de números que representan una gradación de un atributo sensorial determinado. Las
escalas pueden ser de diferente tipo, pero en estudios de visión nos van a interesar sobre todo las llamadas escalas de ratio, en las
que se puede definir un cero y los intervalos son todos iguales. Estas escalas son las únicas que permiten establecer relaciones
porcentuales entre distintos elementos, es decir, por ejemplo es posible afirmar que tal cosa pesa un 34% más que tal otra.
En esta sección vamos a estudiar algunos de los métodos psicofísicos más frecuentemente utilizados en estudios de visión. Es
habitual que algunos de ellos se usen combinados dentro del mismo estudio.

3.1. Método psicofísico de equisección o de estímulos constantes


Vamos a ver dos ejemplos mediante esta metodología, uno para la medida de la función psicométrica y otro para elaborar una
escala de sensación. En ambos casos es necesario seleccionar una serie de estímulos a priori, que formarán una escala de la
magnitud física a medir. Es recomendable que el número de estímulos no sea ni demasiado grande, para no cansar al observador o
entorpecer la tarea, ni demasiado pequeña para resultar demasiado sencilla.

3.1.1 Determinación del umbral de luminancia basado en la función psicométrica. Supongamos un detector sensorial que
responde ante un determinado estímulo físico. El umbral absoluto de la sensación puede determinarse a partir de una serie de
estímulos cada uno de ellos de intensidad constante y que se encuentren situados dentro de un intervalo con extremos en un
estímulo prácticamente imperceptible y en otro estímulo que resulte casi siempre perceptible, aún cuando se trata de un estímulo
levemente supraumbral. Entre estos dos valores se eligen otros valores fijos con intensidades escalonadas entre ambos.
Los estímulos elegidos se presentan al observador por ejemplo 100 veces cada uno, en orden aleatorio. En cada presentación
debe indicarnos si lo percibe o no lo percibe y se anota las veces que percibe cada estímulo. Se calculan las correspondientes
frecuencias y se representa la probabilidad de detección frente a la intensidad del estímulo, como en la figura 2.7. Esto se ajustará
a una función psicométrica.
Los resultados obtenidos se ajustan matemáticamente y se considera como valor de umbral absoluto aquel que proporciona por
ejemplo una probabilidad de detección del 50 %.
Figura 2.7. Determinación del umbral de detección de luminancia mediante el método psicofísico de estímulos constantes. En la función psicométrica
se ha elegido el valor del umbral en el 50% de probabilidad de detección.

3.1.1. Método de equisección

En este método se trata de elaborar una escala de sensación en pasos constantes. Se le presentan al observador los dos estímulos
que marcan el intervalo de intensidad a considerar, uno de intensidad máxima y el otro de intensidad mínima, y se le pide que
busque un estímulo intermedio que divida el intervalo en dos mitades iguales. La experiencia se repite n veces, de manera que se
determinan n puntos intermedios entre el máximo y el mínimo.
Veamos como ejemplo la fabricación de escalas de grises. Presentamos dos grises (ver fig 2.8), a uno de ellos se le asigna un
valor 0, y al otro 10, se le pide al observador que elija una muestra de gris que esté a mitad de camino (en intensidad entre uno y
otro). Una vez elegido, ese gris tendrá un valor de sensación 5. Ahora se presentan los grises 0 y 5, y se repite la misma operación:
el observador deberá buscar otro gris con intensidad a mitad de camino entre el 0 y el 5, al que asignaremos el valor 2.5.
Seguidamente presentamos el gris 5 y el gris 10. El observador elige de nuevo uno con intensidad intermedia entre estos dos, al
que asignaremos un valor 7.5. etc. Así se podrá representar la relación entre estímulo y sensación.
Figura 2.8. Método de equisección para determinar una escala de claridad.

3.2. Método de estimación de la magnitud

En este método se trata de asignar una valoración perceptual a un estímulo definido por sus parámetros físicos. Se establecen
dos referencias a las que se le asigna como valor numérico los dos extremos de la escala sensorial con la que se quiere trabajar. Por
ejemplo, aplicado a una escala de claridad en función de la luminancia, se asigna a la luminancia mínima el valor de C=0 y a la
luminancia máxima el valor de C=10. Ambas referencias deben permanecer dentro del campo visual del sujeto (ver fig 2.9).
Posteriormente se le van presentando sucesivas muestras al observador y este deberá evaluar la intensidad de la sensación que le
produce cada estímulo y asignarle un valor numérico de acuerdo al valor de las referencias. Finalmente se representa, igual que
antes, la intensidad del estímulo frente a la intensidad de la sensación.
Figura 2.9. Montaje para la determinación del umbral diferencial de luminancia mediante el método de estimación de la magnitud.

3.3. Método de los límites para la medida de umbrales incrementales

En este método se trata de determinar el umbral incremental de sensación respecto a una referencia, midiendo dos veces tanto el
límite inferior como el superior, que marcarían la variación necesaria para apreciar cambios en el estímulo de referencia.
Sobre un campo bipartito (campo partido en dos mitades) se proyectan inicialmente dos estímulos iguales. Consideremos por
ejemplo la medida del umbral incremental de luminancia, para lo que utilizaremos dos campos acromáticos y sólo podremos variar
la luminancia entre ellos, dejando siempre fijo uno de ellos para que actúe de referencia (ver fig 2.10).
Figura 2.10. Montaje para la determinación del umbral diferencial de luminancia mediante el método psicofísico de los límites. Los dos semicampos
tienen inicialmente la misma luminancia y sólo variaremos uno de ellos, comparándolo con el de referencia.

La metodología a seguir en este método será la siguiente:

1. Se fija un valor de luminancia para el semicampo superior (L0).


2. Se fija una luminancia netamente más baja para el semicampo inferior.
3. Partiendo de ese valor se aumenta constante y lentamente la luminancia de ese semicampo hasta que llega a verse
igual de luminoso que el campo superior. Este valor de luminancia se denota como «luminancia no perceptible» (L1),
ya que el observador no percibe diferencias.
4. Continuamos aumentando lentamente la luminancia del semicampo inferior hasta que el observador llega a verlo
ligeramente más luminoso que el campo superior. A este valor de luminancia lo denotamos como «luminancia
perceptible» (L2), ya que percibimos diferencia de claridad entres ambos semicampos.
5. Ahora se parte de una luminancia netamente más alta que la del semicampo superior y se repiten las mismas
operaciones disminuyendo la luminancia (se determinan L3 y L4). En el esquema de la figura 2.11 se detallan las
cuatro medidas que se toman por cada determinación. El único eje representado corresponde a la luminancia (cd/m2).
Figura 2.11. Método psicofísico de los límites para obtener el umbral ΔL: esquema de la medida de los cuatro límites.

La media de las luminancias L1 y L3 corresponden a un extremo del intervalo de igualación, y la media de L2 y L4, corresponden
al otro extremo del intervalo. Hemos determinado por lo tanto un umbral superior y un umbral inferior medidos desde el valor de
referencia L0, y consideraremos el umbral diferencial como la media de los incrementos superior e inferior. Matemáticamente,
todo esto se expresa:

Se define el umbral incremental como la media de Δsup y Δinf:


3.4. Método de escalera

En este método se realiza un proceso de aproximación al umbral mediante una serie de saltos escalonados. Aplicando este
método por ejemplo a la medida del umbral de luminancia (ver fig 2.12), se parte de un valor claramente visible y se va
disminuyendo la magnitud luminancia en saltos constantes mientras el observador contesta positivamente (ve el estímulo). Cuando
la respuesta es negativa (no ve el estímulo), se aumenta el valor de la magnitud en saltos constantes también, pero de menor
tamaño. Se repite la operación hasta que se alcanza un determinado número de transiciones en el tipo de respuesta, o un escalón
mínimo.

Figura 2.12. Representación de una secuencia de escalones del estímulo en el método de escalera. Como puede apreciarse, las variaciones del estímulo
son cada vez menores y van acotándose sucesivamente alrededor del valor umbral.

Los valores de los saltos de bajada y subida pueden establecerse con diferentes criterios, lo que da lugar a modificaciones del
método de escalera. Por ejemplo, cada salto de bajada puede equivaler a disminuir la magnitud a la mitad y cada salto de subida
aumentar un valor √2.

3.5. Método de ajustes o de oscilaciones amortiguadas


En este método se determina el umbral de forma parecida al método de escalera, pero realizando las subidas y bajadas de forma
continua. Aplicamos por ejemplo a la determinación del umbral de contraste para una red de frecuencia espacial determinada. Se
parte de un valor superior de la magnitud (contraste) donde se aprecia la red y se va disminuyendo hasta que se ve un campo
uniforme. Se aumenta entonces hasta que se percibe de nuevo la red, pero con menor contraste que en la situación anterior. Se
repiten estas oscilaciones varias veces acortando la oscilación en función del contraste hasta determinar el valor límite en el que
comienza a detectarse la red (ver fig 2.13). Ese valor corresponde al contraste umbral.

Figura 2.13. Representación de la variación del estímulo en el método de ajuste. Al igual que sucede con el método de escalera, las variaciones del
estímulo son cada vez menores y van acotándose sucesivamente alrededor del valor umbral.

3.6. Método de elección forzosa

En este método se determina el umbral incremental seleccionando una muestra entre un conjunto finito que se presentan al
observador. La presentación es siempre de un estímulo uniforme, por debajo del umbral, y otro variable que irá cambiando de
magnitud (ver fig 2.14). El observador debe elegir entre ellos cuál es el que percibe porque esté por encima de su umbral, es por
esto el nombre de elección forzosa. La presentación debe ser aleatoria en cuanto al orden y en cuanto a la posición relativa entre
los dos estímulos, con el fin de que el sujeto no tenga pistas sobre dónde o cuándo va a aparecer el estímulo supraumbral.
Figura 2.14. Representación del método de elección forzosa. El sujeto debe elegir la posición en la que aparece el estímulo, sin tener pistas sobre con
qué valor de magnitud va a aparecer ni sobre la posición en la que lo hará.

4. LEYES BÁSICAS DE LA PSICOFÍSICA


A partir del estudio de umbrales y escalas de percepción se han derivado una serie de leyes generales, válidas para una amplia
relación de variables sensoriales. No son modelos fisiológicos de funcionamiento, sino que se trata de sencillas leyes matemáticas
que ajustan la relación entre el estímulo y la correspondiente respuesta sensorial.

4.1 Ley de Weber


El umbral diferencial del estímulo (Δx) es proporcional a la intensidad (x) que en ese instante posea el estímulo. La expresión
matemática correspondiente será:

donde la constante k recibe el nombre de constante de Weber. Esta expresión también se escribe así:

Esta ley indica que el cociente entre el umbral diferencial y la intensidad del estímulo permanece constante, o lo que es lo
mismo, cuanto mas pequeño es el valor del estímulo, mas pequeño es el umbral diferencial, y por lo tanto el sistema sensorial tiene
mas sensibilidad. La Ley de Weber se cumple con buena aproximación para un gran número de característica sensoriales tales
como la intensidad del sonido o la percepción de la intensidad de luz, aunque para niveles muy altos o muy bajos de intensidad del
estímulo suele fallar.
Posteriormente al enunciado de esta Ley de Weber, se han propuesto otras alternativas, que en realidad son pequeñas
correcciones a la ecuación:

Ley de Weber generalizada:

donde xo representa el umbral absoluto.

Ley de la raiz cuadrada de Fullerton y Catell (1892):

Ley potencial de Guilford (1932), donde el umbral diferencial es proporcional a una potencia de la intensidad del
estímulo:

4.2 Ley de Fechner


Establece que la relación entre el estímulo físico x y la sensación S que produce es proporcional al logaritmo del estímulo:

4.3 Ley de Stevens


Es una ley alternativa a la de Fechner. Los trabajos de Stevens llevaron a establecer una ecuación de tipo potencial entre
estímulo y sensación:

Una ventaja de la representación logarítmica de esta ley potencial, es que la sensación puede caracterizarse fácilmente por la
pendiente y la ordenada en el origen.

5. DIFICULTAD DE LAS MEDIDAS PSICOFÍSICAS


En la psicofísica visual las medidas siempre resultan difíciles por una serie de factores que vamos a comentar brevemente.
En primer lugar, el estímulo visual es multidimensional, presenta diferentes factores como la longitud de onda, intensidad,
frecuencia espacial, contraste, tamaño, excentricidad, etc. Admitiendo que nuestro sistema visual es separable, esto obliga a
estudiar la variación de un factor manteniendo todos los demás constantes. A pesar de esta separación, el hecho de que actúen
diferentes mecanismos de adaptación dificulta el estudio al añadir mayor número de variables.
Por otra parte, siempre hay una variabilidad de las medidas entre diferentes observadores. Esto se explica por las diferencias
individuales (anatómicas y fisiológicas del sistema visual, diferencias en los criterios de elección de cada observador, etc.),
Además también existe una variabilidad en las medidas de cada observador: variación del criterio de un día para otro, según el
ritmo circadiano, nivel de concentración etc.
Finalmente, también existe variabilidad en función de la técnica experimental de medida. Las instrucciones que el examinador
proporciona al observador de la medida pueden influenciar su respuesta, por lo que es necesario establecer el protocolo con
anterioridad y seguirlo de forma estricta.
Todos estos factores hacen que la psicofísica resulte una disciplina complicada de interpretar y que los datos obtenidos muchas
veces sean difíciles de generalizar. Sin embargo, son muchos los conocimientos acerca del funcionamiento del sistema visual que
se han derivado de la experimentación psicofísica.
Para superar estas dificultades es necesaria mucha paciencia y diseñar rigurosamente las sesiones experimentales, teniendo en
cuenta las condiciones del entorno, el cansancio del observador, y demás factores. Como norma se puede seguir una de estas dos
vías: o bien muchos observadores de manera que los datos puedan tratarse estadísticamente, o bien pocos observadores, pero
convenientemente entrenados, de manera que sus mediciones sean muy fiables.

CUESTIONES
1. ¿Cuál de todas estas gráficas se corresponde a una función psicométrica? (eje x= estímulo; eje y = respuesta)

2. Los resultados de acuerdo al método de los límites para la medida del umbral diferencial de luminancia con L0=11, son los
siguientes: serie ascendente (L1=10, L2=14) serie descendente (L3=12, L4=8). ¿Qué valor de umbral se obtiene?

a. 22 cd/m2
b. 2 cd/m2
c. 4 cd/m2
d. Faltan datos para hacer el cálculo.

3. ¿Cuál de las siguientes combinaciones de límites para la medida del umbral diferencial de luminancia no es correcta (L0=10
cd/m2, L1 y L2 serie ascendente, L3 y L4 serie descendente)?

a. L1=9, L2=9, L3=11, L4=11


b. L1=9, L2=11, L3=12, L4=8
c. L1=8, L2=12, L3=11, L4=9
d. L1=8, L2=11, L3=11, L4=8

4. Cuando se realiza una escala de sensación (claridad) a partir de una magnitud física (luminancia), cabe esperar:

a. que los resultados no se ajusten a ninguna ley matemática, porque no hay una relación directa entre una magnitud
física y una perceptual
b. que los resultados presenten una gran dispersión porque la tarea de crear una escala numérica de sensación no es
trivial para nuestro sistema visual
c. que los resultados se ajusten perfectamente a una ley de crecimiento lineal entre la magnitud física y la perceptual
d. ninguna de las anteriores

5. En el método de oscilaciones amortiguadas para la determinación de una variable, por ejemplo el umbral de discriminación de
contraste, varías el contraste de la imagen del máximo al mínimo en todas las subidas y bajadas, ¿es correcto?

a. No
b. Si
c. Sólo cuando el contraste es superior a la unidad
d. Sólo para frecuencias espaciales intermedias

6. Si queremos determinar la escala de claridad con el método de estimación de la magnitud, necesitamos:

a. crear una escala de colores monocromáticos


b. crear una escala de colores con diferente tono
c. un único estímulo gris
d. un único estímulo blanco

7. En el método de los límites, los intervalos superior e inferior obtenidos para cada límite:

a. son siempre valores simétricos


b. pueden resultar de diferente valor
c. no tienen en cuenta el valor del estímulo de referencia
d. se suman para obtener el valor del umbral

8. La función psicométrica corresponde al comportamiento del sistema visual:

a. para cualquier nivel de respuesta


b. frente a estímulos en los que varíe sólo el color
c. en condiciones umbrales
d. ninguna de las anteriores

9. En el método psicofísico de escalera:

a. los escalones deben alternarse uno de subida y otro de bajada


b. los escalones de subida han de ser siempre la mitad del valor del escalón de bajada
c. los escalones de bajada deben ser siempre la mitad del valor del escalón de subida
d. los escalones de bajada y subida deben ser de diferente magnitud, menor los de subida, para que el proceso
converja al valor del umbral

10. La dificultad de las medidas psicofísicas se debe a:

a. la variabilidad dentro de un mismo experimento, debida al paciente


b. la variabilidad dentro de un mismo experimento, debida a las instrucciones del examinador
c. la variabilidad entre diferentes experimentos
d. todas las anteriores
...

3. Mecanismos de adaptación

1. INTRODUCCIÓN: ENERGÍA RADIANTE


Los fotorreceptores de la retina captan la energía radiante asociada a la luz, pero no toda la luz provoca la misma respuesta. El
ojo humano es capaz de funcionar correctamente dentro de un amplio rango de iluminación, desde iluminación nocturna (10-2
cd/m2 para una superficie blanca en una noche de luna llena) hasta pleno sol (105 cd/m2 para una superficie blanca bajo un sol
radiante). Para operar correctamente dentro de estas diferentes condiciones, el sistema visual tiene varios mecanismos que se
denominan mecanismos de adaptación.
Cualquier onda llevará asociada una cierta cantidad de energía, que será mayor o menor en función de su frecuencia de
vibración (ciclos por segundo), y esa energía es susceptible de medida. Así, la radiometría consiste en la medición de la energía
radiante en general, es decir, la medición de cualquier tipo de energía asociada a una onda, tal y como puede ser las ondas de radio
(>104 micras), las microondas,(<102 micras), la luz visible (380 nm– 780 nm), la luz UV (<380 nm), o el IR (>780 nm). En la
figura 3.1 vemos representado todo el espectro electromagnético, con la parte correspondiente al espectro visible ampliada.

Figura 3.1: Espectro electromagnético y espectro visible (Tatoute & Phrood).

La medida de esa energía radiante puede expresarse de diferentes maneras, en función de cada caso particular, de manera que se
puede establecer diferentes magnitudes radiométricas. En primer lugar, conviene establecer una diferencia en función del tipo de
fuente emisora: las fuentes puntuales, son aquellas cuyo tamaño es pequeño en relación a la distancia de observación (una estrella
es el paradigma de fuente puntual, ya que su tamaño resulta despreciable frente a la enorme distancia a que se encuentra). Por el
contrario, en las fuentes extensas su tamaño no es despreciable frente a la distancia, éste es el caso del sol o de la luna observados
desde la tierra. El límite entre fuente puntual y fuente extensa se fija en un minuto de arco, es decir, una fuente extensa es aquella
que subtiende sobre el ojo un ángulo mayor o igual a un minuto de arco. Evidentemente, la definición de fuente puntual o extensa,
depende de la distancia. Una estrella vista a ojo desnudo es siempre una fuente puntual, pero esa misma estrella vista a través de
un telescopio, presenta mayor tamaño angular, y por lo tanto se trataría de una fuente extensa. Otro punto importante a considerar
es si se mide la energía que produce una fuente o si se mide la energía que recibe una superficie. En cada caso se definirá una
magnitud radiométrica diferente.
Partiendo de la energía radiante (Q), se definen las siguientes magnitudes y sus correspondientes unidades (ver tabla 3.1).
Tabla 3.1: Magnitudes radiométricas.

El ojo humano no es sensible a longitudes de onda extremas (UV ni IR) y no responde de la misma forma en las diferentes
zonas del espectro visible: la intensidad de la respuesta depende de la longitud de onda de la luz recibida. Esta dependencia
respecto a la λ se refleja en la llamada curva de sensibilidad espectral o curva de visibilidad del ojo (Vλ), que representamos en la
figura 3.2.

Figura 3.2: Curva de visibilidad espectral fotópica del sistema visual.

––––––––––––––––––––––
¿Qué significado tiene que seamos más sensibles a una longitud de onda? Si ponemos la misma cantidad de luz de 550 nm que
de 700 nm, ¿cuál produce mayor respuesta? Si tenemos la misma respuesta a dos luces, ¿dichas luces tendrán la misma energía?

––––––––––––––––––––––

1.1. Magnitudes fotométricas


Las magnitudes radiométricas no tienen en cuenta el funcionamiento del receptor, en nuestro caso, el ojo humano. Por eso
resulta práctico transformar dichas magnitudes de forma que se tenga en cuenta que la respuesta del sistema visual varía con la
longitud de onda: para cada magnitud radiométrica se define la correspondiente magnitud fotométrica, multiplicando por el
correspondiente valor de la función de sensibilidad del ojo Vλ, y por una constante de normalización (km). La Fotometría puede
considerarse como la rama de la radiometría que estudia la medida de la energía radiante, teniendo en cuenta la respuesta del ojo
humano; es decir, la medición de la energía radiante como activadora de la sensación visual. Dado que el ojo humano sólo
responde en el visible, la fotometría se ciñe al intervalo comprendido entre 380 y 780 nm.
Por ejemplo, si activas la pantalla de un teléfono móvil, ésta emite una cierta cantidad de luz (energía luminosa), una magnitud
radiométrica mide la cantidad de energía luminosa «bruta», mientras que una magnitud fotométrica determina la cantidad de
energía «neta» o energía aprovechable para la visión.
Evidentemente, hay una relación entre la luz que incide en la retina y la luz que aprovecha el ojo, así que existe una relación
entre las magnitudes fotométricas y las magnitudes radiométricas. Esta relación se establece a partir de la curva de sensibilidad
espectral Vλ, tal y como vemos en las tablas 3.2 a 3.4.

Tabla 3.2: Relación entre magnitudes radiométricas y fotométricas para fuentes puntuales.

Si la fuente es extensa, necesitamos introducir como parámetro esa extensión:

Tabla 3.3: Relación entre magnitudes radiométricas y fotométricas para fuentes extensas.
Figura 3.3: Medida experimental de radiancia/luminancia con una fuente extensa. Adaptado de D. Thomson.

Y por último, En ocasiones interesa determinar la cantidad de luz que recibe una superficie o un determinado objeto.

Tabla 3.4: Relación entre magnitudes radiométricas y fotométricas para una superficie receptora.

Figura 3.4: Medida experimental de irradiancia/iluminación sobre una superficie. Adaptado de D. Thomson.

1.2. Iluminación retiniana


Para estudiar los mecanismos de visión resulta necesario determinar de algún modo la energía luminosa que llega a los
fotorreceptores retinianos. Así, se calcula la iluminación en la retina (E), es decir, el flujo luminoso recibido por unidad de
superficie retiniana:

donde F representa el flujo luminoso que entra al ojo, dS’ es un pequeño elemento de la superficie retiniana y τλ representa las
pérdidas globales producidas por la transmisión a través de los medios oculares.
Supongamos una fuente extensa situada a una distancia x de la pupila de entrada del ojo y consideremos un punto M
perteneciente a un pequeño elemento de área dS de la fuente y situada sobre el eje óptico. Para calcular el flujo que alcanza el ojo,
partimos de la expresión matemática de la luminancia L y despejamos F:
donde Sp representa la superficie pupilar. Este flujo luminoso, reducido por el factor de trasmitancia de los medios oculares τλ es
el que forma la imagen de dS sobre la retina, que denotaremos como dS’.
La iluminación en la retiniana será:

y recordando la relación de aumento lateral:

se obtiene la siguiente expresión:

En conclusión, de esta ecuación se deriva que la iluminación en la retina es independiente de la distancia de la fuente luminosa
al ojo. Esto puede resultar paradójico, sin embargo, la explicación se encuentra en que tanto la luz que entra a través de la pupila
(F) como el tamaño de la imagen en la retina (dS’) varían proporcionalmente al cuadrado de la distancia, por lo cual ambos
factores se compensan mutuamente. Si acercamos la fuente al ojo hay mayor intensidad luminosa, pero la imagen retiniana se hace
mayor, con lo que la luz se distribuye en un área mayor, ambos factores se contrarrestan y no afectan a la iluminación en la retina.
Por ejemplo: al acercarnos a la pantalla del ordenador no tenemos la sensación de que la iluminación varíe.
Tomando como referencia un modelo de ojo estándar, se asumen valores de n’= 1.336, x’ H’Ret = 24.20-1.91 mm = 22.29
mm, y considerando también un valor de transmitancia ocular medio y constante, [τλ = cte], dado que estos tres factores son
constantes, se eliminan de la ecuación y se define una nueva magnitud fotométrica conocida como iluminación retiniana. La
iluminación retiniana es simplemente el producto de la luminancia por la superficie de la pupila de entrada del ojo. Su valor es
proporcional al valor real de iluminación en la retina:
La unidad de iluminación retiniana es el troland (td). Un troland es la iluminación retiniana producida por un campo de 1 cd/m2
observado con una pupila de 1 mm2

1.3. Efecto Stiles-Crawford


Stiles y Crawford descubrieron en 1933 que la efectividad en la estimulación de los conos por parte de la luz que entra en el ojo
por el borde pupilar es menor que la que lo hace por la zona central (ver fig 3.5).
Este efecto es muy marcado. Así, si un haz luminoso estrecho entra por el borde de una pupila de 8 mm y otro haz similar entra
por el centro, el primero de ellos precisa un flujo luminoso cinco veces mayor que el segundo para que ambos se perciban como
igual de luminosos.

Figura 3.5: Efecto Stiles Crawford: en visión fotópica la efectividad de la luz es mayor en el centro de la pupila. Adaptado de D. Thomson.

La explicación está en que los conos funcionan como guías de onda, sólo determinadas orientaciones de la luz incidente son
recogidas. En la figura 3.6 se representa un mismo cono, y su comportamiento frente a diferentes ángulos de incidencia de la luz
(una guía de onda es cualquier estructura física que canaliza ondas electromagnéticas):
Figura 3.6: Efecto Stiles-Crawford. Comportamiento de un cono como guía de onda. Adaptado de D. Thomson.

De este modo se define la eficiencia de un rayo luminoso en función del punto de incidencia en la retina:

donde L0 representa la luminancia en el punto central de la pupila y Lp en el punto que estemos considerando. La eficiencia,
siempre es mayor para el centro y disminuye según nos alejamos de él, de modo que el máximo valor que puede tomar es uno.
También se han propuesto distintas ecuaciones empíricas, como la propuesta por los propios Stiles y Crawford:

donde a es una constante con valor 0.05 en el nivel fotópico, y r el radio pupilar expresado en milímetros.

2. LUMINANCIA Y LUMINOSIDAD. LEY DE ADITIVIDAD


Se define la luminancia como la magnitud fotométrica correspondiente a la radiancia. Corresponde al flujo luminoso emitido
por unidad de área y de ángulo sólido. Se trata pues de la cantidad de luz que va a percibir el observador, porque ya incluye la
información sobre la respuesta del ojo según la longitud de onda de la luz. De esta manera, la misma radiancia de luz verde y de
luz infrarroja no produce la misma luminancia, porque la respuesta del ojo será prácticamente nula al infrarrojo, mientras que en el
verde es muy alta.
Si consideramos en lugar de una radiación monocromática una radiación de espectro continuo, la luminancia total será la suma
de luminancias para todas las longitudes de onda (en visión escotópica habría que considerar el desplazamiento de la curva de
visibilidad debido al efecto Purkinje, en lugar de se considerará V’λ):

Esta ecuación se conoce como la ley de Abney, constituye el postulado sobre el que descansa la fotometría y nos indica que las
luminancias son aditivas. Abney comprobó experimentalmente esta relación lineal entre la energía radiante y la energía luminosa.
En visión escotópica se cumple siempre, pero en fotópica existen situaciones en las que la ley de aditividad falla, como veremos
más adelante al hablar de efectos cromáticos (como norma general, un estímulo cromático siempre parece más luminoso que otro
acromático de la misma luminancia).
De acuerdo a la ley de Abney si proyectamos sobre un área tres luces diferentes: 300 cd/m2 de luz roja, 150 cd/m2 de luz verde,
y 20 cd/m2 de luz azul el resultado es 470 cd/m2 de luz de color X. Las luminancias se suman independientemente de las tres
longitudes de onda proyectadas.
El descriptor perceptual asociado a la percepción de la luminancia, es la luminosidad, definida como el atributo del color por el
cual un área parece emitir más o menos luz.

––––––––––––––––––––––
¿Para radiancias iguales de diferentes luces monocromáticas, tenemos la misma sensación de luminosidad?

––––––––––––––––––––––

Veamos un ejemplo con una serie de colores a lo largo del espectro visible. Todos los colores de la figura 3.7 tienen la misma
radiancia:

Figura 3.7: Los colores de igual radiancia no presentan la misma luminosidad (M.J. Luque y J. Malo).

––––––––––––––––––––––

¿Qué colores te parecen más luminosos? ¿Cómo habría que cambiar las radiancias para igualar ls luminosidades?

––––––––––––––––––––––

En la figura 3.8 representamos el cambio necesario en las radiancias hasta igualar la sensación:
Figura 3.8. Colores con la misma radiancia (izquierda), producen diferente percepción de luminosidad mientras que colores con diferente radiancia
(derecha) pueden producir la misma sensación de luminosidad (M.J. Luque y J. Malo).

3. SENSIBILIDAD ESPECTRAL
La retina es un sistema heterogéneo, ya que presenta dos tipos diferentes de receptores, los conos y los bastones. Ya hemos
visto que los conos son muy abundantes en la zona central, y muy escasos en la periferia, mientras que con los bastones ocurre lo
contrario, son muy abundantes en periferia y prácticamente inexistes en la retina central. También sabemos que con iluminación
elevada los bastones no funcionan y la visión se sustenta en los conos. Por el contrario, con iluminaciones bajas los conos dejan de
funcionar y entonces lo hacen los bastones. Cuando la iluminación es intermedia, funcionan tanto los conos como los bastones,
pero ni unos ni otros están en su zona de rendimiento óptimo. La retina es por tanto un detector doble, en el que conviven dos
sistemas diferentes: sistema fotópico, cuyos receptores son los conos y sistema escotópico, basado en los bastones. La diferencia
entre uno y otro sistema no se limita a los receptores, sino que son sistemas diferentes a otros niveles tanto en la retina como en el
resto de la vía visual. Además, cada sistema está especializado en unas determinadas tareas visuales.

3.1. Sensibilidad espectral fotópica


La respuesta del sistema visual a las diferentes longitudes de onda no es una constante, pero ¿cómo se puede determinar la
curva de visibilidad? Son muchos los métodos posibles. Uno de los más sencillos para determinar esta curva, aunque no el más
exacto, consiste en hacer una comparación con un color blanco de referencia (es el llamado método de comparación directa, ver
fig 3.9). El ojo humano es un magnífico detector por comparación y debido a esto, las medidas fotométricas suelen establecerse a
partir de la comparación directa de muestras luminosas en campo bipartito.

00:00 / 00:00
Figura 3.9: Comparación de colores con un blanco de referencia para la determinación de la curva de visibilidad por el método de comparación
directa.

1. Sobre un campo oscuro y homogéneo se colocan dos muestras cercanas, una siempre será un blanco de referencia con
luminancia Lw y la otra es un color monocromático que iremos variando según el caso. Partimos de un monocromático de 400 nm.

2. Se varía la radiancia del monocromático – no la longitud de onda– hasta igualar la sensación de luminosidad de ambas
muestras. Cuando esto ocurra, se cumple que:

3. Seguidamente se cambia el monocromático por otro (420 nm) y se varía nuevamente la radiancia del monocromático hasta
igualar nuevamente la sensación de luminosidad a ambos lados del campo bipartito. Cuando esto ocurra, se cumplirá que:

y por lo tanto, aplicando la transitividad:

Eliminando las constantes a ambos lados de la expresión:

Se obtiene una relación entre las Vλ de 400 y de 420 nm. Asignando un valor arbitrario a V400 (por ejemplo V400=1) y conocidas
las radiancias empleadas en la igualación, se obtiene el correspondiente valor para V420.

4. Se repite esta operación para otro monocromático, y así sucesivamente, hasta barrer todo el espectro visible.

Finalmente se representa el correspondiente valor de Vλ frente a λ (la curva de sensibilidad espectral que ya introdujimos en el
primer apartado, ver fig 3.2). Habitualmente se normaliza la curva asignando valor uno al máximo valor de Vλ y se representa en
escala logarítmica. Dependiendo del método psicofísico de medida empleado, los resultados pueden variar ligeramente. En la
figura 3.10 vemos algunos ejemplos.
Figura 3.10: Curva de visibilidad fotópica medida por diferentes métodos psicofísicos, según datos de Wyszecki & Stiles, 1982. Extraída de
www.handprint.com/HP/WCL/color1.html. Puede visionarse un ejemplo de medida en http://rua.ua.es/dspace/handle/10045/18655.

La curva de sensibilidad ha sido determinada por diferentes autores. Las primeras determinaciones datan de la década de 1920
y, como sucede con todas las características de la visión, existen notables variaciones entre observadores. Para salvar esta
complicación la CIE (Commission Internationale de l’Éclairage, organismo que se encarga de los estánderes en iluminación y
colorimetría) definió en 1924 lo que se llama el observador Patrón de Referencia calculando una curva de visibilidad media a
partir de las medidas efectuadas por diversos autores entre 1918 y 1923. Este observador patrón se calculó a partir de la media
ponderada de los resultados obtenidos por Hartman, Coblentz y Emerson, Hyde et al., y Gibson & Tyndall. Así, se entiende por
observador patrón un observador ficticio cuya curva de visibilidad espectral es la media ponderada de los resultados medidos por
estos autores. Este observador patrón se ha tomado como observador de referencia fotométrico y todas las unidades fotométricas
se han definido respecto a él. La curva patrón muestra un máximo de sensibilidad en 555 nm (luz verde) y la sensibilidad decrece
de forma progresiva tanto en la dirección del amarillo, naranja y rojo como en la del azul y el violeta (ver fig 3.11).
Figura 3.11: Curva de visibilidad fotópica (1924).

El observador patrón CIE1924 ha sido muy criticado por diversos motivos. En primer lugar, el campo utilizado en las medidas
fue de tan solo 2º (zona central de la fóvea). En segundo lugar, la iluminación empleada en su determinación es demasiado cercana
al nivel mesópico. Finalmente, se observan diferencias demasiado marcadas entre los distintos observadores que participaron en
estos estudios, por ejemplo, en los datos de Coblentz y Emerson el máximo en la curva por observadores varía desde 549 nm hasta
570 nm, o en los obtenidos por Gibson y Tyndall, los valores de sensibilidad para la Vλ correspondiente a 430 nm, varían entre
0.014 y 0.064.
Pero lo más significativo, es que distintas determinaciones experimentales posteriores al establecimiento del observador patrón
mostraron que la sensibilidad en la región del azul era bastante más alta de lo que se había medido en principio. En 1951, Judd
propuso una modificación a la función para las longitudes de onda por debajo de 460 nm (ver fig 3.12). A pesar de que se ha
demostrado que con las modificaciones propuestas por Judd se describe mucho mejor la respuesta espectral del observador, la CIE
decidió no modificar la curva original, por una cuestión puramente práctica, puesto que esto supondría volver a definir toda la
fotometría.

Figura 3.12: Corrección de Judd a la curva de visibilidad fotópica (1951).


3.2. Curva de sensibilidad espectral escotópica
En condiciones fotópicas, el punto de fijación se sitúa en el centro de la fóvea, donde solo hay conos, mientras que en
condiciones escotópicas el punto de fijación se desplaza fuera de la fóvea, donde predominan los bastones, cuya curva de
respuesta es prácticamente nula en la región de altas longitudes de onda, los rojos. Si en lugar de determinar la curva de visibilidad
en la región foveal se determina en una posición extrafoveal, por ejemplo a 10º de excentricidad, donde la población de bastones
es máxima, sucede que la curva cambia. El cambio más importante que se observa es el desplazamiento del máximo de
sensibilidad hacia longitudes de onda mas cortas.
Purkinje ya había constatado en 1825 que dos superficies, una roja y otra azul que presentaban la misma claridad durante el día,
cambiaban en la oscuridad y la azul parecía ser más luminosa. Como en condiciones de baja iluminación desaparece la sensación
del color, la roja parecía negra y la azul se percibía como gris claro. Este fenómeno descrito por Purkinje se debe en realidad al
cambio de sensibilidad al pasar de alta a baja iluminación. La variación de la sensibilidad luminosa del sistema visual al pasar de
fotópico a escotópico, se conoce como efecto Purkinje.
Basándose en los trabajos de Wald (1945) y Crawford (1949) la CIE definió en 1951 el observador patrón escotópico, cuya
curva de visibilidad se conoce como V’λ. Como puede verse en la figura 3.13, la curva no solamente está desplazada hacia
longitudes de onda más cortas, sino que además hay un cambio importante en la forma.

Figura 3.13: Curvas de visibilidad fotópica y escotópica.

En esta representación ambas curvas están normalizadas a la unidad. Sin normalizar, la curva de los bastones V’λ aparecerá
mucho más arriba, porque la sensibilidad de los bastones es mucho mayor que la de los conos (ver fig 3.14).
Figura 3.14: Curvas de sensibilidad escotópica y fotópica relativas (normalizadas al máximo de la curva fotópica), según datos de Kaiser & Boynton
(1996). Extraída de www.handprint.com/HP/WCL/color1.html.

El hecho de que la forma de las dos curvas sea diferente avala el hecho de que los mecanismos involucrados son diferentes. La
curva V’λ representa la respuesta de la retina en condiciones escotópicas y por lo tanto representa la respuesta de los bastones. El
único pigmento de los bastones es la rodopsina y su curva de sensibilidad coincide con la curva de V’λ, corregida para la absorción
del cristalino.

––––––––––––––––––––––

¿Qué información sobre los receptores nos indica este desplazamiento de la curva? ¿Qué pasará cuando el sujeto se haga
mayor? (no tengas en cuenta sólo la retina) ¿Qué pasará si el sujeto es afáquico?
––––––––––––––––––––––

Las medidas de Wald corresponden a 22 observadores con una media de edad de 20 años, y las de Crawford son de
observadores con edades menores de 30 años, es decir, en ambos casos los observadores son muy jóvenes. Dado que el cristalino
amarillea con la edad, la curva de visibilidad escotópica de un observador depende mucho de su edad. El envejecimiento provoca
amarilleamiento del cristalino, que a su vez lleva asociada una menor sensibilidad en la zona de bajas longitudes de onda. Como la
V’λ fue calculada para observadores muy jóvenes, no representa bien la sensibilidad de los sujetos de más de 30 años, sobre todo
para las longitudes de onda más bajas. Crawford propuso una ecuación empírica para compensar esta variación:

válida para longitudes de onda menores a 500 nm, donde A representa la edad expresada en años.
Por otra parte, al eliminar el cristalino en los afáquicos, aumenta la sensibilidad para bajas longitudes de onda (zona del azul, el
violeta y el ultravioleta). Se han llegado a medir valores de V’λ = 0.1 para 350 nm, cuando el valor en un ojo no afáquico de la
misma edad es de 0.0003.

4. MECANISMOS DE ADAPTACIÓN
La adaptación es el cambio de sensibilidad del sistema visual después de una exposición prolongada a un determinado estímulo
o fuente de luz. Existen diferentes mecanismos adaptativos, cuya finalidad última es conseguir que el sistema visual optimice su
rendimiento ante diferentes niveles de iluminación. A continuación se muestran los principales mecanismos de adaptación.

4.1. Blanqueo y regeneración de pigmentos


Cuando el pigmento de un fotorreceptor tiene todas sus moléculas excitadas, se dice que está saturado o blanqueado, no puede
dar respuesta aunque reciba más luz. En esas condiciones de gran cantidad de luz, hasta que las moléculas no se regeneren, el
fotorreceptor no es capaz de volver a dar señal, y habrá por lo tanto una pérdida de sensibilidad.

4.2. Contracción/dilatación pupilar


¿Puede el sistema visual mantener el nivel de iluminación retiniana constante cuando pasa de una habitación en penumbra a una
calle a pleno sol?
Como hemos visto anteriormente: Er = L · Sp, la iluminación retiniana varía con la luminancia y con la superficie pupilar, es
decir, con el diámetro pupilar.
Sabemos que la iluminación retiniana depende de dos variables –la luminancia y la superficie pupilar. Ante un aumento brusco
de luminancia, la primera respuesta del sistema visual para intentar mantener la iluminación retiniana constante consistirá en
reducir el tamaño de la pupila de entrada. Sin embargo, este mecanismo no resulta del todo eficaz, ya que la superficie pupilar (Sp)
puede variar únicamente con el radio al cuadrado entre 1 y 25 veces, mientras que la variación de luminancia puede representar
varios órdenes de magnitud.
Considerando una variación del radio pupilar entre 2 y 10 mm:

Φpe= 2 mm → Sp = π r2 = 12.56 mm2


Φpe = 10 mm → Sp = π r2 = 314 mm2

La superficie pupilar varía 25 veces (314 / 12.56 = 25). Sin embargo las variaciones de luminancia a lo largo del día son de más
de siete órdenes de magnitud:

10-6 cd/m2 Umbral absoluto de luminancia


10-2 cd/m2 Superficie blanca en una noche de luna llena
105 cd/m2 Superficie blanca bajo un sol radiante
107 cd/m2 Lámpara de filamento de tungsteno
108 cd/m2 Límite de deterioro de la retina

Además el mecanismo no es igual de rápido en un sentido u otro: la dilatación completa de la pupila al pasar de luz a oscuridad
tarda cerca de un minuto, mientras que en el caso contrario, de oscuridad a luz, el proceso es muchísimo más rápido y se reduce a
tan sólo tres o cuatro segundos. Vemos que la apertura pupilar se trata de un mecanismo muy lento en comparación con la
contracción pupilar. El hecho de que la contracción sea tan rápida, nos da a entender que se trata de un primer mecanismo de
defensa para la protección de la retina ante la luz. Pero no se trata del mecanismo principal de adaptación y deben producirse otros
cambios simultáneos que posibiliten la adaptación al nuevo nivel de iluminación.
Deben existir otros mecanismos para controlar estos cambios de luminancia tan grandes, las variaciones de L no pueden ser
compensadas sólo mediante la variación del diámetro pupilar.

4.3. Control de ganancia de los fotorreceptores


Otra cuestión que es interesante plantearse es por qué no se observan cambios en la claridad de un objeto visto en el exterior o
en el interior.
Al variar el nivel de iluminación de una escena, la retina se adapta progresivamente a esa nueva situación. El estado de
adaptación de un observador ante un estímulo luminoso puede variar con el período de tiempo que lleve dicha persona viendo el
estímulo, ya que los fotorreceptores ajustan su sensibilidad a la luz de forma tal que nos parecen igual de luminosos un objeto
observado en una habitación con luz artificial que cuando se ilumina con luz natural.
La sensibilidad de un fotorreceptor viene dada por su curva de respuesta espectral. Pero esta sensibilidad se ajusta en función de
las condiciones de observación, es decir, en los fotorreceptores existen mecanismos de autoajuste de la sensibilidad:

donde α es una constante, y Sfot y S’fot representan la sensibilidad de un fotorreceptor ante dos estados de adaptación fotópicos
diferentes. Este factor de cambio se conoce como control de ganancia, y el proceso como mecanismos tipo Von Kries. Este
mecanismo se muestra gráficamente en la figura 3.15.

Figura 3.15: Sensibilidad de un receptor a tres niveles diferentes de iluminación. Al aumentar la iluminación, disminuye la sensibilidad.
La explicación a los mecanismos de control de ganancia está en las neuronas retinianas, las cuales ajustan su sensibilidad en
función de la luminancia media de la escena. Cuando la iluminación media de la escena aumenta, disminuyen su sensibilidad, y
cuando disminuye, hacen lo contrario. De esta forma el sistema visual se ajusta o se adapta al entorno.
Las neuronas de la retina deben mantener su respuesta ante una imagen, independientemente del hecho de que la luz ambiente
pueda variar siete órdenes de magnitud (0,01 a 100000 cd/m2) desde una tarde oscura a un día soleado. Codificar la luz de la
imagen dentro de este rango de variación no resulta fácil, ya que las neuronas aisladas tienen un rango de funcionamiento mucho
más limitado: únicamente dos o tres órdenes de magnitud. Pero las neuronas periféricas del sistema visual solventan este
problema, en parte, porque codifican el contraste local de la imagen en lugar del estímulo absoluto (luminancia absoluta). Lo que
«calcula» cada una de estas neuronas no es la cantidad absoluta de luz, sino la diferencia entre un punto de la imagen y los puntos
cercanos que lo rodean. El rango de contraste, también llamado rango dinámico, permanece constante, a pesar de que el nivel de la
iluminación ambiente varíe y generalmente no varía más de dos órdenes de magnitud. Codificando el contraste en lugar de la
luminancia, las neuronas con poco rango dinámico de variación, pueden funcionar correctamente dentro de un intervalo de
variación luminosa muy grande.
Los mecanismos de control de ganancia son algo más complejos de lo que aquí se muestra, ya que además de variaciones al
nivel de intensidad luminosa, hay control de ganancia ante los cambios de color. Estamos hablando de mecanismos de adaptación
cromática, que se tratarán más adelante.
Estos mecanismos de adaptación existen también para los campos receptivos en el resto de neuronas de la vía visual.

5. ADAPTACIÓN A LA OSCURIDAD: EL UMBRAL ABSOLUTO


Cuando entramos en un lugar en penumbra, después de un paseo a pleno sol, en un primer momento no somos capaces de
percibir nada, simplemente no vemos, o como mucho apreciamos sombras. Transcurrido un cierto tiempo dentro de la estancia,
comenzaremos a distinguir detalles, cada vez con mayor claridad. ¿Qué ha ocurrido? ¿Cómo podemos explicar esta situación?
En un primer momento nuestra retina está adaptada a un alto nivel de iluminación (fotópico). Funcionan entonces los conos,
mientras que los bastones están desactivados ya que se encuentran saturados por el exceso de iluminación. Al entrar súbitamente
en la habitación donde la luminancia es muy baja (escotópico), los conos no tienen suficiente luz para responder y los bastones no
se encuentran preparados para hacerlo, se necesita un tiempo mínimo para cambiar la respuesta de la retina. Pasado ese tiempo, se
recupera la visión.
Cuando nos encontramos en completa oscuridad, el umbral absoluto es la mínima cantidad de luz que el sistema visual es capaz
de detectar o percibir. Este umbral se puede expresar en unidades radiométricas o fotométricas. El umbral absoluto no presenta un
valor constante sino que depende fuertemente de las condiciones de experimentación, en particular de una serie de parámetros
tales como el estado de adaptación, el tamaño del test, la localización del test sobre la retina, el tiempo de exposición y la
cromaticidad del estímulo.

5.1. El estado de adaptación


Es sin lugar a dudas el más importante de todos los parámetros que afectan al umbral absoluto. El valor del umbral absoluto es
muy variable en función del estado de adaptación. Para entender el significado del estado de adaptación vamos a ver el
experimento de Mathey (1945), que ya introdujimos en el capítulo anterior (ver fig 3.16 y 2.1):
Figura 3.16: Curva de adaptación a la oscuridad. El cambio de tendencia a partir de unos 12 minutos implica la existencia de un cambio importante en
el sistema de detección (extraída de Schwartz 1999).

En esta experiencia, Mathey determina el umbral absoluto de luminancia de la siguiente forma: en principio el observador está
adaptado inicialmente a condiciones fotópicas (campo blanco uniforme de luminancia alta (100 cd/m2), seguidamente pasa a
oscuridad total, y a partir de ese instante se determina el umbral de luminancia para un estímulo acromático minuto a minuto. El
umbral se determina por el método directo: partiendo de luminancia cero, el propio observador va aumentando la luminancia del
estímulo, hasta que es capaz de detectarlo. Esta operación se repite a cada minuto durante una hora. La medida se toma siempre a
10º de extrafovealidad, es decir, fuera de la fovea.
Al comienzo del experimento, al estar adaptado el ojo a una luz blanca intensa (100 cd/m2), los bastones están saturados y no
son capaces de funcionar a niveles tan elevados de luz. Al apagar repentinamente la luz y medir el umbral, están funcionando los
conos, pero están diseñados para trabajar con niveles elevados de luz y necesitan que el estímulo sea muy intenso para detectarlo,
por eso el umbral es alto. Con el paso del tiempo los conos necesitan cada vez menos luz porque sus pigmentos tienen cada vez
más moléculas activas y porque suman sus respuestas: se adaptan a la oscuridad y su umbral de sensación disminuye hasta
empezar a alcanzar una zona constante. Simultánea y progresivamente los bastones dejan de estar saturados y son capaces de
volver a dar respuesta. A partir de unos 10 minutos aproximadamente comienzan a funcionar correctamente y, como necesitan
menos cantidad de luz que los conos para responder, el umbral es ahora más pequeño. A partir de ese instante, el umbral
descenderá progresivamente, hasta que al cabo de unos 50 minutos los bastones están funcionando a pleno rendimiento y el
umbral se estabiliza y ya no disminuye más. Podemos ver este comportamiento en la figura 3.17.

00:00 / 00:00

Figura 3.17: Medida de la curva de adaptación a la oscuridad (modificada de Schwartz 1999).


5.2. Tamaño del test
Otro factor que modifica el umbral absoluto es el tamaño del test o, dicho de otra manera, el tamaño del área de retina
estimulada. Pensemos en una célula ganglionar que recibe inputs desde varios fotorreceptores. Cuando el estímulo es pequeño y
sólo activa un receptor la respuesta es débil, pero cuando el estímulo es más grande y activa varios receptores, las respuestas de
éstos se suman (ver fig 3.18).

Figura 3.18: El umbral absoluto disminuye al aumentar el área iluminada, pues se produce una sumación espacial de los estímulos provenientes de
varios fotorreceptores contiguos.

Suponiendo que la célula necesita siempre la misma cantidad de energía para dar respuesta, la pregunta es si la energía del
estímulo ha de ser la misma en ambos casos o varía con el tamaño del estímulo. Cuando se determina el umbral absoluto para
diferentes tamaños de test, desde un tamaño pequeño hasta un tamaño grande, se obtiene una variación como la que se muestra en
la figura 3.19. Se representa el valor del logaritmo del umbral en función del tamaño angular A del estímulo.
Figura 3.19: Variación del umbral absoluto de luminancia con el tamaño del test (modificada de Artigas).

Pueden distinguirse dos zonas. La primera zona en la que el umbral desciende progresivamente según aumenta el tamaño del
test: a mayor área, menor es el umbral. A medida que la imagen del test cubre un área mayor en la retina, disminuye el umbral, es
decir, mejora la detección. La explicación está en que los fotorreceptores implicados en la detección luminosa suman sus señales, a
este mecanismo lo conocemos como sumación espacial. Los fotorreceptores vecinos suman las señales que les llegan y como
consecuencia de ello mejora la detección disminuyendo el umbral. Esto ocurre para tamaños menores de unos 60’, es decir un área
circular correspondiente a un diámetro de 0.3 mm en la retina (y’(µm)=4,85*U(min)). Matemáticamente, esta zona corresponde a una
recta con pendiente negativa:

Esta expresión se conoce como Ley de Ricco o Ley de sumación total.


Por el contrario, para tamaños mayores de 60’, ya no se produce sumación y el umbral permanece constante. La expresión
matemática correspondiente a esta «zona de sumación nula» será:

Esta dependencia del umbral con el tamaño de área se ha demostrado para los bastones. Sin embargo, para los conos no parece
claro que exista sumación. En caso de haberla, se reduce a unos 6’ o 7’ en la zona central.

5.3. Extrafovealidad del test


Un tercer factor a considerar, será el punto de la retina sobre el que se proyecta el test, lo que denominamos como
extrafovealidad o excentricidad. La posición del test en la retina se denota por la extrafovealidad o distancia al centro de la fóvea.
Este valor puede expresarse en distancia métrica (mm) o en distancia angular (grados).

Figura 3.20: Variación del umbral absoluto de luminancia en función de la extrafovealidad, para un test de 5’ (según datos de Stiles-Crawford 1937).

Como puede observarse en la figura 3.20, el umbral desciende desde el centro de la fóvea hacia la periferia y únicamente
aparece una discontinuidad donde el umbral es extremadamente alto. Esta zona es el punto ciego o punto de salida del nervio
óptico, donde la sensibilidad es nula porque allí no hay conos ni bastones. La gráfica de la figura corresponde a un estímulo
blanco, sin embargo, si estudiamos el umbral para diferentes longitudes de onda, el comportamiento cambia, tal como se aprecia
en la figura 3.21.
Figura 3.21: Variación del umbral absoluto de luminancia con la extrafovealidad en función del color del test. Extraída de Wyszecki & Stiles, 1982.

La explicación a esta gráfica, la encontramos en las características propias de conos y bastones, y en su distribución
heterogénea dentro de la retina. Los conos L y M presentan muy baja sensibilidad a la luz azul y además en la zona central de la
fóvea no hay conos S, por eso la curva del azul presenta un pico muy pronunciado en los 2º centrales de fóvea.
Por otro lado, como los bastones son ciegos al extremo rojo del espectro y en la fóvea no hay prácticamente bastones, la curva
correspondiente al rojo presenta el máximo de sensibilidad (mínimo umbral) en el centro de la fóvea.
Antiguamente, los aviadores militares se adaptaban a luz roja antes de salir en vuelos nocturnos. En esas condiciones, durante
las horas de espera eran capaces de ver gracias a sus conos y, en el momento de iniciar el vuelo en oscuridad, ya tenían sus
bastones activos ya que no habían sido estimulados por la luz roja.
La medida del umbral absoluto, ha permitido poner de manifiesto propiedades muy importantes del funcionamiento de la retina,
así sabemos que,
1. La distribución de conos y bastones es heterogénea.
2. Existen importantes diferencias en el funcionamiento de conos y bastones (sumación espacial, respuesta a la luz azul,
intensidad necesaria para la estimulación, etc)
3. La adaptación de la retina determina su respuesta. La retina lleva integrado un sistema doble, el sistema fotópico y el
escotópico y, según el nivel de adaptación, predominará uno u otro.
6. ADAPTACIÓN A LA LUZ: EL UMBRAL RELATIVO
¿Qué ocurre cuando salimos de una habitación en penumbra a pleno sol? De nuevo, en un primer momento no somos capaces
de percibir nada, estamos deslumbrados. ¿Qué ha ocurrido? Nuestra retina está adaptada a un bajo nivel de iluminación
(escotópico), funcionan los bastones ya que los conos necesitan mucha mayor intensidad de luz para empezar a funcionar. Al salir
súbitamente a un ambiente de iluminación muy alta (fotópico), los bastones se saturan inmediatamente y no van a ser capaces de
cambiar su respuesta mientras se mantenga un nivel alto de iluminación. Los conos, que se encontraban inactivos, son los que van
a empezar a responder. Pero se necesita un tiempo mínimo para cambiar el estado de la retina, aunque la adaptación a la luz es
mucho más rápida que la adaptación a la oscuridad.
Cuando nos encontramos en un ambiente iluminado, el umbral diferencial o incremental es la mínima variación en la intensidad
luminosa que el sistema visual es capaz de apreciar. Por lo tanto, el umbral diferencial se define sobre un estímulo de referencia L.
El umbral diferencial de luminancia se denota como ∆L y el cociente ∆L/L es la llamada fracción de Weber, que es constante
dentro de un amplio rango de condiciones fotópicas:

Esta expresión se conoce como la Ley de Weber aplicada al umbral diferencial de luminancia. Cuanto mayor es L, el umbral
diferencial ∆L también va a ser mayor, es decir, que cuanto mayor es el nivel de luz, mayor es la variación que debe hacerse para
poder detectar un cambio en la iluminación (ver fig 3.22).

Figura 3.22: Fracción de Weber para un estímulo luminoso rodeado de un fondo o pedestal de luminancia L. La luminancia del estímulo corresponde a
la del fondo ±∆L. Adaptado de D. Thomson.

La fracción de Weber cambia de valor al modificar las condiciones de observación (ver fig 3.23). Entre los factores que
modifican la fracción de weber nos encontramos el nivel de iluminación, el tamaño de área del estímulo o la luminancia del fondo.
Figura 3.23: Variación de la fracción de Weber con las condiciones de iluminación. Extraída de www.handprint.com/HP/WCL/color2.html.

6.1. Nivel de iluminación del estímulo


Para niveles de iluminación bajos (escotópico) no se cumple la Ley de Weber, sino que se cumple la llamada Ley de DeVries-
Rose:

6.2. Fondo o campo circundante


La fracción de Weber, permanece constante para un campo circundante determinado, sin embargo, cuando se cambia la
luminancia del fondo, cambia el valor de la fracción de Weber. La fracción de Weber se hace mínima cuando el campo circundante
presenta una luminancia muy cercana a la del test (ver fig 3.24). Supongamos un experimento en el que determinamos el umbral
relativo por comparación entre dos áreas semicirculares en el que una hace de referencia, mientras que en la otra podemos variar la
luminancia en busca del umbral diferencial o mínima diferencia perceptible.
Figura 3.24: Variación del umbral relativo en función de la luminancia del fondo.

Al realizar esta experiencia en el laboratorio comprobaremos que el entorno influye en nuestra percepción. De los tres casos
representados en la figura 3.24, en el central es más fácil determinar las pequeñas variaciones de luminancia, el umbral diferencial
es menor. Esta influencia se debe a que el campo circundante es uno de los principales factores que determinan el estado de
adaptación de la retina y en el caso central el nivel de adaptación es óptimo para realizar el experimento. Cada fondo induce un
efecto diferente en el test: los entornos más alejados en luminancia producen el efecto contrario: el claro induce que se perciba
más oscuro y al revés, lo que hace que las pequeñas diferencias entre el test y el campo variable casi no se perciban. El entorno
que se parece al test no induce un cambio, por lo que es más fácil apreciar esas pequeñas diferencias. Un caso particular resulta el
más interesante: cuando el fondo es idéntico al test, ya que entonces la percepción del cambio entre los dos semicampos es
máxima.
Por ejemplo: este hecho se tiene en cuenta a la hora de determinar la iluminación que debe tener la pantalla de un radar en un
submarino, o en la torre de control del aeropuerto.

6.3. Tamaño del test


Para el umbral diferencial también se va a cumplir la Ley de Ricco:

donde A es el tamaño angular del test. Esta ley se cumple tanto en el nivel fotópico como en el escotópico. En fotópico se
cumple hasta un tamaño angular de 1’ y en el escotópico llega hasta unos 10’ de arco.
Estos factores resultan ser relevantes en el diseño de muchos tests optométricos. Por ejemplo, los campímetros están
construidos con luminancias de adaptación que permitan que se verifique la ley de Weber, ya que así una pérdida global de
transparencia de los medios oculares o una disminución del tamaño de la pupila afectará menos al resultado, y con tamaños en los
que la sumación sea máxima (área crítica).

CUESTIONES
1. Señala la respuesta correcta: los conos S están exclusivamente en el área central de la fóvea.

a. Verdadero.
b. Falso.

2. Señala la respuesta correcta: cuando entramos en un túnel, la curva de sensibilidad de los conos se multiplica por un factor
menor que uno.

a. Verdadero.
b. Falso.

3. Indica cuales de estas afirmaciones son correctas sobre la Irradiancia:

a. La Irradiancia representa la cantidad de energía recibida por cada uno de los fotorreceptores.
b. La unidad es el watio por metro cuadrado.
c. Su magnitud fotométrica correspondiente es la Iluminación.
d. La unidad es el lumen por metro cuadrado.
e. La Irradiancia representa la cantidad de energía recibida por unidad de área.
f. La unidad correspondiente es el Troland.

4. Para pasar de Flujo radiante a Flujo luminoso, ¿qué operación debemos realizar?

a. Dividir por el correspondiente valor de Vλ.


b. Multiplicar por el correspondiente valor de Vλ.
c. Sumarle el correspondiente valor de Vλ.
d. Restarle el correspondiente valor de Vλ.

5. Señala la respuesta correcta: colocando en un campo bipartito a un lado 700 lúmenes de verde y 300 lúmenes de azul, y al otro
lado 1000 lúmenes de blanco, los dos lados se verán con la misma luminosidad.

a. Verdadero.
b. Falso.

6. Señala la respuesta correcta: colocando en un campo bipartito a un lado 700 watios de verde y 300 watios de azul, y al otro lado
1000 watios de blanco, los dos lados se verán con la misma luminosidad.

a. Verdadero.
b. Falso.

7. ¿En qué consiste la modificación que hizo Judd a la curva de visibilidad fotópica?

a. La sensibilidad al azul estaba mal medida, y la nueva curva es más sensible en el azul.
b. La sensibilidad al azul estaba mal medida, y la nueva curva es menos sensible en el azul.
c. La sensibilidad al amarillo y al verde-anaranjado estaba mal medida, y la nueva curva es más sensible en el azul.

8. Al envejecer, el cristalino se vuelve más amarillo, esto supone que deja pasar menos luz y cambia la curva de sensibilidad
espectral del ojo:

a. Se pierde sensibilidad al rojo anaranjado.


b. Se pierde sensibilidad al amarillo.
c. Se pierde sensibilidad al azul.

9. Señala la o las afirmaciones correctas sobre el efecto Purkinje:

a. Es exclusivo de los dicrómatas y acrómatas.


b. Implica un cambio en la retina al pasar de funcionar con conos a funcionar con bastones.
c. Implica un cambio en la sensibilidad al color.

10. La curva de adaptación a la oscuridad, presenta dos fases bien diferenciadas. Se puede afirmar que el sistema de bastones:

a. Actúa exclusivamente en la primera parte de la curva


b. Actúa exclusivamente en la segunda parte de la curva
c. Actúa en ambas partes de la curva.
...

4. Trivariancia visual. Colorimetría triestímulo

Al observar cualquier escena, el sistema visual extrae una percepción visual de los distintos objetos, de manera que determina
una serie de características temporales (duración, persistencia, movimiento) y una serie de características espaciales (forma,
textura, profundidad, color,...). En los próximos temas vamos a estudiar de qué manera trabaja el sistema visual para determinar o
asignar colores a los objetos.

1. COLOR PERCIBIDO. METAMERISMO


Antes de nada, es necesario que el lector se familiarice con las definiciones de estímulo de color (o cromático), color percibido
acromático y color percibido cromático.
Se define el estímulo cromático como la radiación electromagnética procedente de fuentes y objetos que llega al sistema óptico
y desencadena el proceso visual. Algunos autores definen el estímulo cromático como la radiación electromagnética en el plano
imagen (la retina). Ambas definiciones son igual de válidas: por supuesto, la radiación ha de atravesar el sistema óptico y se puede
definir ya en la retina, pero parece lógico hablar del estímulo cromático como algo ajeno al sistema visual, de manera que es más
coherente definirlo como un estímulo totalmente externo al ojo.
Se define el color percibido como la sensación (en cada punto y en cada instante) producida por un estímulo cromático y que
permite diferenciarlo de otros estímulos de igual área, duración, forma y textura. El color percibido va a depender de
características propias de la luz incidente, del sistema óptico y del posterior procesado neural.
También es necesario definir qué es un iluminante. De forma genérica, un iluminante es cualquier fuente de luz que emita una
radiación en el espectro visible: una bombilla, una linterna, el sol. En colorimetría se utilizan normalmente fuentes de luz
estandarizadas por la CIE. En principio cualquier fuente de luz puede ser un iluminante estándar, siempre que la CIE la reconozca
como tal.
Veamos en primer lugar de qué depende el color que percibimos. En general podemos admitir que el color percibido de un
objeto cualquiera depende de tres factores (ver fig 4.1). El primero es la propia naturaleza del objeto en cuanto a sus propiedades
de transmisión y/o reflexión de la luz, el segundo es el iluminante, y el tercero es el sistema visual del observador, tanto su parte
óptica como su sistema de procesado.
Figura 4.1: Factores que determinan el color percibido: el iluminante, la reflectancia del objeto y el sistema visual que recoge la información. El
estímulo cromático sólo incluye los factores externos al observador.

––––––––––––––––––––––

Si cambias alguno de los factores, ¿cambia el color percibido? Si cambias el tamaño del objeto o el tiempo que miras, o si
utilizas un ojo o ambos, ¿cambia el color percibido?

La respuesta es sencilla si piensas en el efecto que tiene el cambiar el factor: si cambio el iluminante (bombilla blanca o roja),
cambia el color; si cambio el objeto (refleja amarillos o verdes o azules), obviamente cambia el color; si cambio el sistema visual
(normal o anómalo), cambia el color. Matemáticamente podemos pensar que estamos multiplicando esos factores para obtener el
color final.
La variación en cualquiera de estos factores implica necesariamente un cambio en el color. Sin embargo, el sistema visual a
menudo pone en juego mecanismos que tienden a mantener la percepción cromática invariable. Son los mecanismos de constancia
de color, de los que hablaremos más adelante.
En la figura 4.1 hemos señalado el estímulo cromático, en el que solo intervienen dos factores: el iluminante y el espectro de
reflectancia del objeto.

––––––––––––––––––––––

––––––––––––––––––––––

¿Qué pasaría si el sistema visual es el de una persona con visión de color anómala? Veremos las alteraciones de la visión del
color más adelante, pero en este momento ya nos podemos hacer una idea de la respuesta a esta pregunta.

En determinadas condiciones al mirar dos colores bajo una luz parecen iguales pero con otra luz ya no lo son. Las reflectancias
de los colores de la figura 4.2 no son iguales. Al multiplicar por el iluminante 1 (izq.) y por el iluminante 2 (dcha.), los estímulos
cromáticos en el primer caso son iguales y en el segundo no. La percepción es, por tanto, diferente. Se dice que son metámeros
con el iluminante 1 pero no lo son con el iluminante 2.

––––––––––––––––––––––
Figura 4.2: La modificación en un factor supone un cambio en la percepción cromática. En este ejemplo, dos muestras que son iguales (metámeras)
bajo un iluminante D65 (luz de día), se perciben diferentes bajo un iluminante A (bombilla de tungsteno). Extraída de Billmeyer & Saltzman, 2000.

Veamos un ejemplo con más profundidad, con espectros de emisión de iluminantes y de reflectancias de objetos. Supongamos
dos iluminantes, D65 y A, cuyos espectros son los de la figura 4.3.

Figura 4.3: Espectros de los iluminantes D65 y A.

El iluminante D65 blanco corresponde a la luz de día y tiene una emisión alta en la parte de longitudes de onda intermedias. El
iluminante A es amarillento y corresponde a una bombilla incandescente, con una emisión que va creciendo desde bajas a altas
longitudes de onda.
Supongamos dos muestras de color diferentes, M1 y M2, que pueden ser vistas bajo iguales o diferentes condiciones de
iluminación. En la figura 4.4 comprobamos que los espectros de estas muestras se diferencian en la parte de longitudes de onda
medias, donde M1 tiene mucha más contribución que M2.
Figura 4.4: Espectros de las muestras M1 y M2.

Para calcular un estímulo cromático debemos multiplicar cada objeto por cada iluminante. Esto es lo que aparece en la figura
4.5. Todavía falta el factor correspondiente al sistema visual del sujeto, aunque consideraremos que en ambos casos es el mismo,
el lector.
Figura 4.5: La modificación en un factor supone un cambio en la percepción cromática. En este ejemplo, dos muestras que son metámeras bajo un
iluminante A (bombilla incandescente) se perciben diferentes bajo un iluminante D65 (luz solar).

Las dos muestras se perciben como iguales bajo un iluminante A, pero se perciben diferentes bajo un iluminante D65. El
metamerismo es la característica del sistema visual que nos permite apreciar como iguales dos colores que difieren en su
composición espectral. Cuando esto sucede se dice que estos colores son metámeros. Por ejemplo, compramos dos piezas de ropa
que en la tienda parecen iguales, pero al salir a la calle son diferentes. Son metámeros bajo un iluminante pero no bajo el otro.
Aprovecharemos esta propiedad del sistema visual para realizar nuestro estudio del procesado de la información. Uno de los
objetivos de la colorimetría o medida del color es determinar los atributos propios de un color, de modo que claramente se distinga
de los demás colores. Este proceso se conoce como caracterización de color. Pues bien, se puede caracterizar la percepción
mediante experiencias de igualación del color, es decir, igualaciones perceptuales, en las que determinamos si dos colores
colocados uno al lado de otro presentan, o no, el mismo aspecto, es decir, si son metámeros.

2. TRIVARIANCIA VISUAL
Vamos a intentar justificar el número mínimo de variables necesario para caracterizar cualquier estímulo de color.
Para un nivel de iluminación escotópico sólo vemos grises, solamente es necesaria una variable que defina la mayor o menor
intensidad de gris, esto es, la luminancia.
Si cambiamos a un nivel fotópico, y se trata de un color monocromático, además de la luminancia será necesario especificar la
longitud de onda de la luz.
Finalmente, si estamos en nivel fotópico pero se trata de un color policromático (compuesto por muchas longitudes de onda), en
principio cabe pensar que necesitamos, como antes, dos variables para cada λ. Eso nos daría un número muy alto de variables.
Para comprobar que no son necesarias tantas variables planteamos el siguiente experimento (ver fig 4.6). Un color cualquiera A
se ha obtenido mezclando varias luces monocromáticas, en el ejemplo C1(λ1) y C2(λ2). Por otra parte se ha obtenido el color B
mezclando blanco (W) y una cantidad determinada de una luz monocromática, convenientemente elegida, a la que se denomina
longitud de onda dominante λd de ese color B (la necesaria para que A y B se perciban como colores iguales). En primer lugar, A y
B son metámeros. En segundo lugar, siempre es posible hacer esta igualación.

00:00 / 00:00

Figura 4.6: Experimento de igualación de colores. El color A se obtiene como suma de dos monocromáticos, mientras que B es la suma de un
monocromático y un blanco.

Se puede expresar la igualación de la siguiente forma, donde L representa la luminancia, es decir, la cantidad de luz de cada
estímulo:

Por lo tanto, elegido el blanco de referencia podemos caracterizar este color por tres variables: la longitud de onda dominante ld,
la luminancia, L(λ1) + L(λ2) ¡y una cantidad cualquiera que exprese la proporción de mezcla necesaria entre la cantidad de blanco
Lw y la cantidad de luz monocromática Lld. Se emplea el término pureza para referirse a esa proporción de mezcla, de forma que
los colores menos puros son lo que tienen mayor cantidad de blanco y los colores más puros son los que tienen mayor cantidad de
color.
Supongamos ahora un color formado por la mezcla de tres luces monocromáticas. Aplicamos a dos de ellas el mismo
razonamiento anterior, sustituyéndolas por una cierta cantidad de blanco y otra de un monocromático. De nuevo disponemos de
una mezcla de dos luces monocromáticas a las que volvemos a aplicar esta sustitución:

Nuevamente reducimos la mezcla a una suma de blanco más un monocromático. Pero, ¿qué sucede con un color de espectro
continuo? Cualquier color de espectro continuo lo podemos interpretar como la suma de una serie de colores monocromáticos y
hemos visto que, independientemente del número de colores que sumemos, siempre podemos reducir a L(W) + L(ld).
Podemos realizar diferentes experiencias, pero llegamos a la conclusión de que el número mínimo de parámetros que permite
hacer todas las igualaciones es tres. En particular, se puede demostrar que estos tres parámetros pueden ser las luminancias de tres
colores que vamos a llamar primarios y que servirían para igualar cualquier color. Es decir, nuestro sistema visual es trivariante.
A nivel de la retina nuestro sistema visual funciona de forma análoga a la adición de luces, considerando que el sistema de luces
que se suman serían las señales de salida de los conos. Trabajamos de la misma forma que los televisores, los proyectores de
video, etc. Aunque realmente son estos dispositivos los que nos han copiado a nosotros.
En la retina tenemos tres sistemas de conos, lo que en colorimetría se denomina un sistema de tres primarios, porque ellos son
los que van a dar origen al resto de colores percibidos. La combinación de las señales de los tres primarios en las proporciones
adecuadas nos dará la percepción de todos los colores.
El siguiente experimento es muy sencillo y espectacular. Con tres proyectores y unos filtros rojo, verde y azul, o tres focos de
luz de esos colores, podemos obtener mediante la adición de los tres la gama de colores de la figura 4.7.
Figura 4.7: Mezcla aditiva de tres luces o primarios. Extraída de www.kightleys.photoshelter.com.

3. PROPIEDADES DE LAS MEZCLAS DE COLORES. LEYES DE GRASSMAN


El hecho de que al observar cualquier color no nos demos cuenta de que está formado por la mezcla de estas tres luces
primarias de colores diferentes, nos permite afirmar que el ojo humano no puede resolver las componentes de una mezcla de
colores. Además, otra conclusión importante es la confirmación de que la luminancia total de un color es igual a la suma de las
luminancias de sus componentes (ley de Abney).
A mediados del siglo XIX, Hermann Grassmann realizó una serie de experiencias de igualaciones de colores y estableció las
leyes que cumplen dichas igualaciones y que llevan su nombre:

Linealidad: Si los colores A y B son metámeros y la luminancia de cada uno de ellos se multiplica por una cierta
cantidad K, los colores resultantes también son metámeros: A≡B ⇒ K·A ≡ K·B.
Adición y sustracción: si A y B son metámeros y se añade a ambos una cierta cantidad de otro color C, se cumple que
las mezclas resultantes A+C y B+C también son metámeros: A≡B ⇒ A+C≡B+C. En la sustracción, la resta se
interpreta como la suma al otro lado de la igualdad.
Transitividad: si un color A es metámero de B y éste es metámero de otro color C, entonces A y C también son
metámeros: A≡B y B≡C ⇒ A≡C.

Otra característica importante del sistema visual es su capacidad de sumar colores como suma de dos estímulos situados en
áreas muy cercanas, o bien de estímulos en instantes temporales sucesivos. En ambos casos los estímulos cromáticos de las
componentes son independientes. En el primer caso hablaremos de sumación espacial y en el segundo de sumación temporal.

Sumación espacial o sumación por mosaico: Cuando observamos un tablero de ajedrez a una distancia cercana vemos
los cuadrados blancos y negros. Sin embargo, si lo alejamos a una distancia suficientemente lejana, la imagen en la
retina es lo suficientemente pequeña para que sobre un fotorreceptor se proyecte más de un cuadro del tablero, de
manera que no distingue entre blanco y negro y la señal será un gris de luminancia intermedia. Podemos decir que lo
que se percibe es la mezcla aditiva de toda la luz que incide sobre un fotorreceptor. Esta característica se aprovecha en
las pantallas de televisión, ordenadores, teléfonos móviles, etc, donde la pantalla está formada por píxeles o grupos de
tres luces muy cercanas (rojo, verde y azul). Los colores se forman por suma de los tres en diferentes proporciones. En
arte, también se utiliza con las pinturas impresionistas (puntillismo, ver fig 4.8).
Figura 4.8: Tarde de domingo en la isla de la Grande Jatte, de Seurat, 1886. Si nos acercamos, o ampliamos la imagen, vemos las pinceladas que a
mayor distancia parecen un trazo continuo. Extraída de www.manzartistas.blogspot.com.es/2012/11/puntillismo.html.

Sumación temporal o sumación por parpadeo: es la mezcla aditiva debida a la propiedad de latencia temporal del
sistema visual. Por ejemplo: en un rápido parpadeo entre dos colores, percibimos la mezcla de ambos ya que los
fotorreceptores todavía están dando señal a un color cuando aparece el siguiente estímulo. En la figura 4.9 vemos una
simulación de la latencia obtenida mediante fotografía.

Figura 4.9: Simulación de la sumación temporal que tendría lugar en el sistema visual: diferentes imágenes en diferentes tiempos que se mantienen
activas por la persistencia del sistema visual. Foto de M. Saldaño, extraída de www.inclusiondigital.gov.ar/recursos-y-estrategias/el-efecto-
estroboscopico.

Otro ejemplo es la experiencia clásica de sumación mediante la rueda de colores de Newton, que podemos ver simulada en la
animación de la figura 4.10 y en este vídeo:
Figura 4.10: Simulación de la sumación temporal que tendría lugar en el sistema visual: cuando la rueda gira, los diferentes sectores de colores excitan
los mismos receptores, que suman sus señales. El conjunto percibido es la suma de amarillo y azul, es decir, verde.

Puede verse un ejemplo más de sumación para dos colores en el siguiente vídeo, en el que se muestra el parpadeo entre blanco
y negro a diferentes frecuencias. Se puede acceder desde aquí al mismo ejemplo con otras frecuencias de parpadeo para estudiar la
diferencia de percepción.

PARA SABER MÁS


Podemos razonar las mezclas de colores utilizando el ejemplo de la fotografía química que hemos esquematizado en la figura
4.11.
Hacemos tres fotos de la escena poniendo delante de la cámara tres filtros de color. De esa forma obtenemos los negativos,
donde aparece impresionada (negro) la parte de la película que haya recibido la luz que ha atravesado el filtro.
En el proceso de revelado de la fotografía química el siguiente paso es pasar estos negativos a positivos, de forma que ahora
dejen pasar luz (blanco) justo en los mismos puntos en los que había pasado al hacer la foto.
Al reproducir la imagen sumando las tres imágenes iluminadas por los mismos tres filtros, obtenemos los colores originales. Es
una prueba de la naturaleza trivariante del color y de la ley de aditividad.
Figura 4.11: Ejemplo de sistema aditivo del color.

––––––––––––––––––––––

¿Puedes razonar que cada parte de la escena se reproduce como la original mediante las mezclas aditivas de las luces? Céntrate
en la segunda línea de fotos, los positivos. La parte clara deja pasar la luz y la parte negra no.

––––––––––––––––––––––

4. CARACTERIZACIÓN FÍSICA: LUMINANCIA, LONGITUD DE ONDA DOMINANTE Y PUREZA


COLORIMÉTRICA
Ahora que ya sabemos que para caracterizar un color C cualquiera hacen falta tres variables, vamos a diferenciar entre
descriptores físicos y descriptores perceptuales del color.
Supongamos una muestra de color aislada sobre un campo oscuro uniforme. Existen tres magnitudes físicas para caracterizar
correctamente ese estímulo:

luminancia L (cd/m2), indica la cantidad de luz. En colorimetría se denota también con la letra Y.
longitud de onda dominante λd, es el estímulo espectral que tiene el mismo aspecto, indica la categoría del color: rojo,
amarillo, verde, azul, etc.
pureza colorimétrica, definida como el cociente pc = Lλd / L, donde L es la luminancia del estímulo C y Lλd es la
luminancia del monocromático necesario para igualar el color C como ya hemos contado anteriormente en el punto 2.

El hecho de que el color sea susceptible de medida ha dado lugar al desarrollo de la colorimetría, definida como la ciencia que
se encarga de la medida del color. Su objetivo es, partiendo del estímulo, obtener una caracterización numérica biunívoca y
sencilla del color. Esto permite identificarlo en lo que llamamos un espacio de representación del color, es decir, una
representación geométrica de los colores en el espacio, generalmente en 3 dimensiones.
5. CARACTERIZACIÓN EN VALORES TRIESTÍMULO: ESPACIOS DE REPRESENTACIÓN
Otra forma de describir físicamente un color es hacerlo a partir de las cantidades de tres primarios que mezclados en la
proporción adecuada igualan ese color. Pensemos en un conjunto cualquiera de tres luces, que vamos a llamar primarios Pi, y que
realizamos mezclas de ellos para igualar el resto de colores. Podemos medir la cantidad de cada primario necesaria para igualar
cada color (no es más que la luminancia de cada primario).
En el sistema o espacio de representación RGB de la CIE la base son tres luces primarias (P1, P2, P3) que corresponden a las tres
líneas de emisión de la lámpara de mercurio (546.1 y 435.8 nm) y una luz roja de 700 nm. Estos primarios se denotan como R, G y
B (red, green & blue, ver fig 4.12).

Figura 4.12: Luces primarias del sistema RGB de la CIE.

Cualquier color C se obtiene mediante suma, en la proporción adecuada, de luminancias de los tres primarios, podemos
representarlo como:

donde L es la luminancia, P1,2,3 los correspondientes primarios y C el color en cuestión.

––––––––––––––––––––––

El sistema de primarios, ¿puede ser cualquier conjunto de luces? ¿Importa el número de primarios? ¿Importa cuáles son esos
primarios? Para responder es necesario considerar las propiedades matemáticas de las bases en un sistema tridimensional.

––––––––––––––––––––––

5.1. Unidades tricromáticas


En particular, el blanco es un color como otro cualquiera, y se obtiene también mediante la suma en las proporciones
adecuadas, de los tres primarios Pi (ver fig 4.13). Esas cantidades las vamos a expresar como: [L(P1)W, L(P2)W, L(P3)W], siendo
L(Pi)W la cantidad de cada primario Pi necesaria para conseguir el blanco.
Figura 4.13: Esquema de la mezcla aditiva de colores. Extraída de www.cvrl.org.

––––––––––––––––––––––

¿Cualquier proporción de los primarios da como resultado el blanco?

––––––––––––––––––––––

Vamos a considerar que el blanco de referencia es el blanco equienergético (luz con una emisión constante de energía para todas
las longitudes de onda que lo componen) y vamos a llamar unidades tricromáticas a las cantidades necesarias de cada primario
para igualarlo. El valor absoluto dependerá de la luminancia del blanco que se quiera construir, pero la proporción es siempre la
misma. En este sistema RGB, esas cantidades son:

L(R)W= 1.00000
L(G)W= 4.59070
L(B)W= 0.06101

para conseguir 5.6518 unidades de blanco. Nuevamente vemos que las luminancias son aditivas.

5.2. Valores triestímulo


Para el resto de colores las proporciones de cada primario necesarias en la mezcla son diferentes. Aunque se podrían dar esas
cantidades para especificar cada color, la normalización CIE introduce unos valores normalizados, los valores triestímulo (T1, T2,
T3). Estas nuevas cantidades están referidas al blanco de referencia, se obtienen haciendo el cociente entre la cantidad necesaria de
cada luz primaria (roja, verde o azul) para reproducir ese color y la cantidad de cada una necesaria para reproducir el blanco.
Realmente es una normalización de las cantidades de cada primario en ese color respecto a las cantidades de cada primario en el
blanco:

En el sistema RGB de la CIE, se denotan los valores triestímulo como R, G y B. En otros sistemas las iniciales pueden cambiar
o utilizarse la nomenclatura genérica (T1, T2, T3).
Representaremos la igualación del color C en función de sus valores triestímulo y los primarios como:

.
Pero realizar una igualación experimental cada vez que se quiera obtener los valores triestímulo de un color no parece un
método económico para trabajar en colorimetría. Por eso se utiliza otra forma de calcularlos que implica conocer unas
proporciones de mezcla para una serie de colores (concretamente para los colores monocromáticos), esas proporciones de mezcla
se conocen como las funciones de igualación del color, que vamos a estudiar a continuación.
Si estudiamos qué cantidad de cada primario es necesaria para igualar un color monocromático, (cada λ con una radiancia
constante E0), obtenemos las funciones de igualación del sistema (ver fig 4.14):

En el sistema RGB de la CIE, se denotan como ̅r ̅g ̅b. De nuevo, en otros sistemas las iniciales pueden cambiar o utilizarse la
nomenclatura genérica.
Figura 4.14: Funciones de igualación de color en el sistema RGB. Estas funciones representan las cantidades necesarias de cada uno de los primarios
para igualar cada uno de los colores monocromáticos.

El valor numérico absoluto de las funciones de igualación depende del valor de radiancia en la igualación, pero se puede
establecer una normalización (ver tema 3). En este sistema, se establece que E0=1/km, de forma que la luminancia del estímulo
espectral sea igual a la V(λ):

Se puede definir entonces la función de sensibilidad espectral V(λ) como la luminancia de cada uno de los estímulos espectrales
Eλ del estímulo equienergético. Además se puede obtener la luminancia de ese estímulo espectral a partir de la unidades
tricromáticas (L(Pi)w) y las funciones de igualación t̄i(λ)):

Cuando se trata de un color C cualquiera, la luminancia se puede expresar a partir de las unidades tricromáticas (L(Pi)w) y los
valores triestímulo (Ti(C)):

––––––––––––––––––––––
¿Qué significan cantidades negativas en la mezcla de tres luces para obtener un color? Piensa que en el caso de las funciones de
igualación, hay monocromáticos que necesitan una cantidad negativa de uno de los primarios. ¿Cómo se añade una cantidad
negativa de luz? Volviendo a la definición de valores triestímulo, ¿cada vez que necesite calcular los valores de un color, necesito
hacer la medida experimental? Supongamos por ejemplo que tengo el mismo objeto, pero una vez lo ilumino con luz blanca y otra
con luz verde. El objeto es el mismo, el sistema visual también, pero el iluminante no, ¿cambian los valores triestímulo?

––––––––––––––––––––––

Para no tener que medir experimentalmente el color con su iluminante cada vez que necesitemos conocer los valores
triestímulo, la colorimetría permite otra forma de calcularlos:

donde km vuelve a ser la constante de ajuste de unidades que ya conocemos y P es el flujo radiante que llega al ojo, es decir, la
combinación de la radiancia espectral del objeto (luz que refleja o transmite el objeto) y la del iluminante. De esta forma, sólo es
necesario conocer el espectro del objeto, dado que los iluminantes habituales y las funciones de igualación del observador patrón
son conocidos y están tabulados por la CIE.

5.3. Coordenadas cromáticas


Los espacios cromáticos con tres primarios, se representan en 3 dimensiones, y trabajar en un espacio 3D en ocasiones resulta
complicado y difícil de visualizar. En colorimetría, es fácil pasar a un espacio de dos dimensiones. Para trabajar en un espacio 2D,
separamos la información de luminancia, L, de la información de cromaticidad, de forma que sólo representamos la cromaticidad
en un diagrama plano mediante dos variables que se denominan coordenadas cromáticas (ti):

Se representa el diagrama cromático (2D) con las dos primeras coordenadas cromáticas: t1 y t2. El paso desde 3D a 2D es
posible porque las tres coordenadas cromáticas son linealmente dependientes, podemos eliminar una sin perder información. La
representación resultante es mucho más sencilla, aunque no debemos olvidarnos tampoco de que falta la tercera dimensión, la
luminancia.
En este diagrama cromático (ver fig 4.15) podemos representar todos los colores posibles, limitados por una curva que
corresponde a los colores monocromáticos (línea azul en la figura). Las coordenadas cromáticas de los primarios ([0,1], [1,0] y
[0,0]) definen un triángulo (línea verde en la figura), dentro del cual están todos los colores que se pueden obtener por mezcla de
esos primarios, mientras que el resto de colores posibles no se podrían reproducir con la mezcla aditiva de esos tres primarios.

Figura 4.15: Diagrama cromático rg. La curva límite corresponde a los colores monocromáticos y se conoce como locus espectral. Los vértices del
triángulo corresponden a los primarios R, G y B.

6. CAMBIO DE ESPACIO DE REPRESENTACIÓN


Los sistemas de representación de color nunca son perfectos, por ejemplo, la existencia de coordenadas cromáticas negativas, la
falta de homogeneidad en cuanto a la métrica de las diferencias de color, etc. Para intentar solucionar estos problemas se han
propuesto otros espacios de representación del color. Y para cambiar de un espacio a otro sólo necesitamos conocer la matriz de
cambio de base, en el ejemplo, para transformar (R,G,B) en unos valores triestímulo cualesquiera (T1,T2,T3):
6.1. El espacio CIE XYZ (1931)
El espacio XYZ es uno de los más conocidos y empleados. Fue propuesto por la CIE en 1931 y se basa en tres nuevos
primarios. Volviendo a la figura 4.12, Schrodinger descubrió que los puntos de luminancia nula están alineados en una recta que se
denominó Alychne, y aquí es donde se seleccionaron los primarios X y Z (ver fig 4.16). Se añadió el primario Y de forma que las
líneas que lo unían con los anteriores fueran tangentes al locus espectral.

Figura 4.16: Coordenadas cromáticas rg de los primarios del espacio XYZ. Al ser externos al locus espectral, no son colores que existan en la realidad.

Los nuevos primarios XYZ corresponden a los vértices del triángulo rojo, que como podemos observar, incluye a todos los
colores posibles. Pero estos tres colores sólo tienen sentido matemático, se trata de primarios imaginarios ya que al ser externos al
locus espectral, no pueden obtenerse de ninguna manera.
Para obtener el nuevo espacio de representación, sólo es necesaria una transformación matemática que podemos expresar
mediante la siguiente matriz:
Podemos ver esta transformación en la animación de la figura 4.17:

00:00 / 00:00

Figura 4.17: Animación de la transformación entre el espacio RGB y el espacio XYZ. Extraída de www.pauloporta.com/Fotografia/cor/espacios6.htm.

El aspecto del nuevo diagrama de color se muestra en la figura 4.18, y las funciones de igualación de color calculadas
teóricamente mediante la matriz de transformación se muestran en la figura 4.19.
Figura 4.18: Diagrama cromático en el espacio CIE XYZ 1931.
Figura 4.19: Funciones de igualación del color en el espacio CIE XYZ 1931.

––––––––––––––––––––––

¿Sigue habiendo coordenadas negativas? ¿Los colores, se siguen obteniendo mediante la mezcla de tres luces primarias?

––––––––––––––––––––––

En el espacio XYZ, los primarios se han elegido de manera que cumplen dos condiciones: la primera es que evitan las
coordenadas negativas y la segunda es que uno de los valores triestímulo se corresponda con el valor de la luminancia. Por un
lado, el triángulo de primarios ahora abarca a todos los colores posibles, por lo que no hay ningún color que tenga coordenadas
cromáticas negativas. Como contrapunto, también hay colores no reales dentro del triángulo. Por otro lado, el hecho de que los
primarios X y Z se encuentren sobre la línea de luminancia 0 hace posible identificar la luminancia con un único valor triestímulo,
el Y (L=Y). Las unidades tricromáticas en este nuevo sistema son, por tanto, [0 1 0]. La ec 4.9 queda entonces como:

En este nuevo diagrama, se sigue cumpliendo que:

todos los colores monocromáticos se sitúan sobre el diagrama cromático y el resto dentro del mismo.
fuera del diagrama los colores no son reales, o son imaginarios (entre ellos los propios primarios).
la línea recta inferior que cierra el diagrama, llamada línea de los púrpuras, no son monocromáticos, sino que se añade
al diagrama para cerrarlo. En la zona de los púrpuras (violetas, morados) no hay colores monocromáticos.
Las mezclas experimentales de colores deben seguir realizándose mediante primarios reales, por ejemplo en el espacio RGB.
Los datos se convierten matemáticamente a XYZ siempre mediante la matriz de transformación.

6.2. Coordenadas de las mezclas de colores


La representación vectorial del color permite responder de forma sencilla a la pregunta de cuáles son las coordenadas de la
mezcla de colores (ver fig 4.20). El color mezcla C resultante de la suma de los colores C1 y C2 se sitúa sobre la recta que une
dichos colores y las distancias relativas de C a cada uno de ellos son inversamente proporcionales a los flujos relativos de C1 y C2.

Figura 4.20: Al mezclar dos colores, C1 y C2, el color mezcla C en el diagrama cromático está siempre situado en la recta que une los dos colores a
mezclar.

Llamemos [X1,Y1,Z1] y [X2,Y2,Z2] a los valores triestímulo de los colores C1 y C2 y (x1,y1) y (x2,y2) a sus respectivas
coordenadas cromáticas. Si se realiza la suma vectorial de los valores triestímulo para obtener el color mezcla C, entonces se
puede demostrar que las coordenadas cromáticas (x,y) de dicha mezcla se obtienen a partir de la ecuación:
que evidentemente corresponde a la ecuación de la recta que pasa por ambos puntos.

6.3. Descriptores físicos del color en el espacio XYZ


Es sencillo establecer una relación entre los descriptores físicos del color y algunas características del diagrama cromático. Para
ello comenzamos representando las coordenadas cromáticas del color problema, del blanco de referencia y del monocromático que
representa su longitud de onda dominante.

Longitud de onda dominante. La definición de longitud de onda dominante resulta fácil de establecer: es el estímulo
espectral que resulta de unir el color mezcla con el blanco y prolongar la recta hasta que corte al diagrama cromático
(ver fig 4.21). Por ejemplo, la longitud de onda dominante de un rosa es un rojo. En la zona de los púrpuras se utiliza
el estímulo complementario, prolongando la recta hacia el lado contrario del diagrama cromático.

Figura 4.21: Cálculo gráfico de la longitud de onda dominante del color C. Modificada de www.cvrl.org.

Pureza. La pureza indica la proporción de color respecto al blanco, cuanto más cerca del borde diagrama, más puro es
ese color. Matemáticamente su valor estará entre 0 y 1. Aunque hemos definido ya la pureza colorimétrica, sobre el
diagrama cromático es más conveniente utilizar otra definición análoga, que se conoce como pureza de excitación, y
corresponde a la fórmula:
En esta expresión el numerador corresponde a la distancia entre el estímulo y el blanco (calculadas o medidas sobre el propio
diagrama), mientras que en el denominador se introduce la distancia entre el monocromático λd y el blanco (ver fig 4.22).

Figura 4.22: Cálculo gráfico de la pureza de excitación. Modificada de www.cvrl.org.

Se puede obtener la relación entre ambas definiciones de pureza, pero sólo vamos a quedarnos con la idea de que no tienen por
qué ser directamente proporcionales.

Luminancia. En el diagrama de coordenadas cromáticas xy, la luminancia correspondería a diferentes alturas respecto
al plano de la figura, es decir, la tercera dimensión que falta si hablamos sólo en términos de coordenadas cromáticas
(ver fig 4.23).
Figura 4.23: Representación gráfica de la luminancia Y en el sistema XYZ. Cada plano del locus corresponde a un nivel de luminancia constante.
Extraída de www.blc.lsbu.ac.uk/webcreatif/BES/lighting-4/T4-7.html.

CUESTIONES
1. Señala si es verdadera o falsa la siguiente afirmación: el estímulo cromático depende del iluminante, del objeto y del observador

a. Verdadero.
b. Falso.

2. Cualquier bombilla ¿es un iluminante?

a. Si, todas las fuentes luminosas son iluminantes.


b. No, únicamente las fuentes luminosas naturales son iluminantes
c. No, los iluminantes son siempre tubos fluorescentes
d. No, los iluminantes son fuentes luminosas, naturales o artificiales que están caracterizadas o catalogadas por la CIE
(Comisión internacional de la iluminación).
e. No, únicamente las bombillas de más de 100 Watios son iluminantes.

3. Señala la afirmación (o afirmaciones) correcta: el color...

a. Es una sensación.
b. Permite diferenciar estímulos de igual área, duración, forma y textura.
c. Depende exclusivamente del iluminante y del objeto.
d. a y b son ciertas.
e. a, b y c son ciertas.
4. Señala si es verdadera o falsa la siguiente afirmación: dos colores con diferente composición espectral jamás podrán verse como
iguales.

a. Verdadero.
b. Falso.

5. Si mezclamos 30 lúmenes de color verde y 60 lúmenes de color azul, obtenemos un color azul verdoso, pero ¿la luminancia del
color será de 90 lúmenes?

a. No, debido al efecto Morgan, la luminancia siempre será un poco menor que la suma.
b. Si, de acuerdo al efecto Abney, la luminancia será la suma de ambas.
c. Si, de acuerdo al efecto Stiles-Crawford, la luminancia será la suma de ambas.
d. No, debido al efecto Morgan, la luminancia siempre será un poco mayor que la suma.
e. No, debido al efecto Von Kries, se verá un color rojizo, y la luminancia es la resta de ambas.
f. No, las luminancias no se suman, sino que se restan por el efecto de oponencia.

6. Para caracterizar un color verde de 540 nm en el dominio escotópico, es necesario un mínimo de.......... variables colorimétricas.

a. Dos variables, la longitud de onda dominante y la luminancia.


b. Una única variable, la luminancia.
c. Tres variables: longitud de onda dominante, pureza colorimétrica y luminancia.

7. Cualquier color se puede obtener como una combinación de blanco y un color monocromático, mezclados en las proporciones
adecuadas.

a. Cierto, esta propiedad se debe a la trivariancia del color.


b. Falso, algunos colores no es posible obtenerlos así.
c. Cierto, esta propiedad se debe a las Leyes de Grassman.
d. Cierto, esta propiedad se conoce como metamerismo.

8. Los atributos perceptuales del color son:

a. Tono, luminancia y saturación.


b. Longitud de onda dominante, luminancia y pureza colorimetrica.
c. Tono, luminosidad y saturación.
d. Tono, luminosidad y colorido.

9. La siguiente ecuación:

representa

a. Las coordenadas cromáticas.


b. Las funciones de igualación.
c. La pureza colorimétrica.
d. Los valores triestímulos.

10. Fíjate en el diagrama, ¿es posible obtener un color rojo mezclando azul y amarillo?
a. No es predecible, hay que realizar cálculos numéricos.
b. Si, debido al comportamiento vectorial del color, en la proporción adecuada cualquier color es posible.
c. No, debido al comportamiento vectorial del color, únicamente es posible generar colores situados a lo largo del
segmento de la recta que une los dos colores a mezclar.
d. Si, debido al comportamiento vectorial del color y visto el diagrama, esta mezcla da rojo.
e. Todas son falsas.
...

5. La visión de los colores aislados y de los colores dentro de una escena

1. DESCRIPTORES PERCEPTUALES DE COLORES AISLADOS


La apariencia del color está fuertemente influenciada por la apariencia del entorno. En la figura 5.1a se pone de manifiesto este
hecho: hay dos cartas de colores, una al sol y la otra a la sombra. Las dos muestras marcadas por una flecha negra son
colorimétricamente iguales, aunque no nos lo parezca. Esto se pone de manifiesto por ejemplo al colocar un marco y aislarlos de
su entorno (ver fig 5.1b).

Fig 5.1: a) Las dos muestras de color señaladas por las flechas son colorimétricamente idénticas, no obstante no lo parece. b) Al aislarlas de su
entorno, ya parecen iguales.

Al tratarse de colores rodeados de una escena, es el conjunto de la escena lo que determina nuestra percepción. Cuando el color
se presenta aislado, no tenemos referencias a un posible iluminante. En este caso, como toda la carta de la izquierda está en
sombra, los niveles de gris son percibidos de forma relativa y no absoluta, por lo que nunca diremos que el color más claro de la
izquierda pueda ser como el más oscuro de la derecha.

1.1. Experiencias de igualación de colores


Un experimento habitual en colorimetría, para múltiples finalidades, consiste en comparar dos muestras de color, situadas una
junto a la otra y rodeadas o no por un entorno. Distinguimos dos tipos de experiencias en función del entorno que rodea a nuestro
test:

experiencias de igualación simétricas: cuando el estímulo de referencia y el variable tienen un entorno fijo,
experiencias de igualación asimétricas: cuando el estímulo de referencia y el variable tienen un entorno diferente.

El número de variables necesario para la caracterización de la escena depende del planteamiento de la experiencia. Cuanto más
general es la configuración del experimento, más compleja es la caracterización:

Supongamos una igualación simétrica en la que tenemos un estímulo de referencia y otro test para el que permitimos
variar la energía de un primario: en este caso no existe la caracterización ya que no se puede igualar el estímulo de
referencia (salvo que se trate del mismo primario).
Una igualación simétrica en la que permitimos variar la energía de n primarios: como ya hemos visto, se puede igualar
con 3 primarios (mezclando tres colores se pueden obtener todos los demás).
Una igualación asimétrica en la que referencia y test tienen entorno diferente pero uniforme y una configuración
espacial fija: en principio podríamos pensar que hablamos de 6 dimensiones para cada parte (3 para el test y 3 para el
entorno).
En una igualación asimétrica y con entorno no uniforme, el número de variables depende de lo complejo que sea el
entorno.
Por lo tanto, el número de variables necesarias para caracterizar un color parece depender del grado de complejidad del entorno.

1.2. Colores aislados y colores relacionados


Los colores aislados o no relacionados corresponden a colores vistos en un entorno uniforme y neutro (acromático). Los colores
relacionados corresponden a esos mismos colores cuando son observados en un entorno no neutro y posiblemente no uniforme.

1.3. Caracterización sensorial de colores aislados


En el capítulo anterior vimos que un color puede caracterizarse por tres magnitudes físicas: luminancia, longitud de onda
dominante y pureza colorimétrica.
Perceptivamente, el color también se caracteriza mediante tres variables: el nombre o categoría del color (rojo, verde, amarillo,
…), la cantidad o intensidad del color (amarillo puro, amarillo crema, amarillo pálido,…) y la cantidad de luz (verde luminoso,
verde oscuro, …).
En la figura 5.2 se muestran estas variaciones ordenadas por filas.

Figura 5.2: Variaciones de tono (fila 1), saturación (fila 2) y luminosidad (fila 3).

Estas tres variables perceptuales reciben el nombre de Tono, Saturación y Luminosidad respectivamente. Vamos a definir
correctamente estos descriptores:

TONO (H), es el atributo de la sensación visual por el cual un estímulo parece ser semejante a uno de los colores
percibidos como rojo, amarillo, verde, azul o combinaciones de ellos. La clasificación según el tono establece
estímulos acromáticos (grises) y estímulos cromáticos (el resto de colores).
LUMINOSIDAD (B), es el atributo de la sensación visual por el cual un estímulo parece emitir más o menos luz.
COLORIDO / SATURACIÓN (M / S). Aunque el descriptor perceptual es la saturación, necesitamos definir antes
otro parámetro. El Colorido (M) es el atributo de la sensación visual por el cual un estímulo parece ser más o menos
cromático. La Saturación es el colorido de un test relativo a su luminosidad (S=M/B).

Para comprender mejor el significado de la saturación supongamos que en un campo bipartito colocamos dos luces con valores
de luminancia 60 y 100 cd/m2 del mismo blanco. Seguidamente añadimos a ambos lados luz monocromática de longitud de onda λ
hasta igualar ambos semicampos en sensación luminosa. En esta situación, ambos colores presentan la misma λd y la misma
luminosidad, sin embargo se perciben como distintos, porque la proporción de mezcla blanco/luz monocromática es diferente. Esta
diferencia es la saturación.

1.4 Dependencia de los descriptores perceptuales con los parámetros físicos


Las caracterizaciones mediante descriptores perceptuales y mediante magnitudes físicas medibles están directamente
relacionadas, es decir, cada uno de los descriptores perceptuales está íntimamente relacionado con su correspondiente variable
física (ver tabla 5.1). Si cambia la variable física, cambia la variable sensorial:

Tabla 5.1: Relación entre descriptores físicos y descriptores perceptuales del color.

Pero sabemos que se producen percepciones particulares que no pueden explicarse con estas relaciones tan sencillas. Estas
relaciones de primer orden se van a ver complementadas con unas dependencias en segundo orden entre los diferentes
descriptores. En ocasiones, una variación en uno de los descriptores físicos produce cambios en dos o más descriptores
perceptuales. Los tres descriptores no son totalmente independientes entre sí.
Además, sabemos que se producen otras situaciones donde se demuestra la influencia en los descriptores de otros parámetros
como la configuración espacial del estímulo y el entorno
Veamos un ejemplo clásico donde no parece que se cumpla la relación entre luminancia y luminosidad: las bandas de Mach (ver
fig 5.3). Se trata de una serie de bandas con luminancia constante en cada una de ellas. Sin embargo, en la frontera entre dos
bandas aparece un fenómeno de inducción que produce un resalte de bordes: la zona cercana a una banda oscura se percibe más
clara y la zona cercana a una banda clara se percibe más oscura.

Figura 5.3: Bandas de Mach. En una serie de franjas homogéneas en luminancia, los bordes se perciben con un escalón de luminosidad. El borde
pegado a una franja oscura parece más claro que el resto de la correspondiente franja, mientras que en el borde pegado a una franja clara sucede lo
contrario. Extraída de http://irtel.uni-mannheim.de/cvd.html.

Algunas propiedades o efectos visuales nos van a llevar a la conclusión de que la caracterización trivariante no va a ser
suficiente. No se pone en duda la naturaleza tricromática de la visión del color, pero el proceso de transmisión de tres imágenes
independientes al cerebro es insuficiente para explicar algunos fenómenos visuales (efectos como los de inducción y adaptación,
que veremos más adelante).
Para tratar de explicar estos fenómenos visuales vamos a necesitar apoyarnos en dos ideas: la existencia de colores oponentes y
estas relaciones cruzadas entre descriptores.

a) Colores oponentes. Cuando se le pide a un observador que denomine el tono de una serie de colores mediante los nombres y
las proporciones de los colores que lo componen, comprobamos que nunca se nombra un color mediante la combinación rojo-
verde o mediante la combinación azul-amarillo. Por ejemplo: podemos hablar de un verde azulado o amarillento y también de un
amarillo verdoso o rojizo. Pero no describiremos nunca un color como verde rojizo o como amarillo azulado o incluso
combinaciones como verde azulado-amarillento.
Si consideramos la visión del color como un proceso aditivo de las respuestas de los receptores, nada impediría estas mezclas.
Por tanto, debe haber algún tipo de procesado posterior a los receptores, en el que se combinen esas señales para obtener otras
diferentes. Fue Ewald Hering el que propuso en 1872-74 la existencia de tres procesos oponentes generados en algún lugar del
proceso visual: claro-oscuro, rojo-verde y azul-amarillo.
La idea de oponencia implica que las categorías Rojo-Verde (y de la misma forma Azul-Amarillo y Claro-Oscuro) son los dos
extremos de variaciones de un continuo. Más rojo implica necesariamente menos verde. Pueden combinarse señales de un proceso
con las de otro, pero no dentro del mismo proceso. Lo veremos con más detalle en el capítulo 7.

b) Relaciones cruzadas entre parámetros. Las relaciones entre descriptores físicos y perceptuales no demuestran una
independencia absoluta, sino que existen ciertas interferencias entre ellos. La variación en L, Pc, y λ del entorno del color puede
afectar no sólo al atributo perceptual al que está asociado, sino también a los otros dos. Estos efectos no pueden ser explicados por
un modelo lineal, como ocurre con la caracterización por valores triestímulo o mediante la oponencia. Por tanto sabemos que debe
existir algún proceso posterior y que éste no debe ser lineal.

2. EFECTOS CROMÁTICOS EN LA VISIÓN DE COLORES AISLADOS


Entendemos por efecto cromático cualquier percepción de color que no pueda ser explicada de manera sencilla (por ejemplo,
mediante las leyes de Grassman). La existencia de estos efectos cromáticos muestra la complejidad del sistema visual y las
interrelaciones entre las diferentes características espaciales y temporales de la visión. En un intento de explicar el porqué de estos
efectos cromáticos, los modelos de visión humana son cada vez más completos y complejos. Vamos a estudiar los efectos
cromáticos más importantes de estas interferencias entre parámetros.

2.1. Efecto Bezold-Brücke. La variación de la luminancia cambia la luminosidad, pero también cambia el tono: «Una variación
en la luminancia puede alterar el tono, cambiando por lo tanto su apariencia de color». Bezold y Brücke (1873 y 1878)
descubrieron este efecto de manera independiente, y ambos indicaron que a luminancias elevadas, los rojos y los verdes
amarillentos tendían a parecer más amarillos mientras que los violetas y los azules verdosos tendían a parecer más azules.
Además, existen tres tonalidades que no varían, son los tonos invariantes o únicos: amarillo único (571 nm), verde único (506 nm)
y azul único (474 nm).
La figura 5.4 muestra los resultados correspondientes a este efecto. Al variar la luminancia de un estímulo monocromático, no
sólo varía la sensación de luminosidad, también varía el tono (hasta λv). En el experimento las dos muestras parten de la misma
luminancia y la misma λ0, al aumentar la luminancia de la muestra de referencia (desde 100 hasta 1000 Trolands), el observador
percibe un cambio en su tono. Seguidamente ajusta la longitud de onda del semicampo variable hasta igualarlos de nuevo en tono.
La longitud de onda de igualación es λv, y el cambio de tono será Δλ = λ0 - λv.

00:00 / 00:00

Figura 5.4: Efecto Bezold-Brücke. Δλ > 0 implica que, al aumentar L, el tono del color se desplaza hacia longitudes de onda más cortas. Según datos
de Purdy, modificada de Artigas, 1995.
De la figura podemos extraer que los mayores desplazamientos de tono se dan para los rojos. Está representado λ0 – λv (donde λ0
representa un estímulo fijo de 100 td y λv un estímulo de longitud de onda variable de 1000 td), es decir, cómo ha de variar el tono
del estímulo para igualarlo al de referencia. Los valores positivos y negativos indican respectivamente que en la igualación:

λ0 – λv > 0 → al aumentar L el color se desplaza a λ más cortas


λ0 – λv < 0 → al aumentar L el color se desplaza a λ más largas.

2.2. Efecto Aubert-Abney. Al variar la pureza colorimétrica, varía la saturación, pero también lo hace el tono. Aubert (1865) y
Abney (1910) comprobaron de manera independiente que «al añadir blanco a un púrpura o a un monocromático, además de
disminuir la saturación también se producen cambios en el tono». Este efecto se aprecia al representar, en un diagrama cromático
CIExy, las muestras del Atlas de color Munsell (véase capítulo 7) de igual tono y croma creciente. De acuerdo a lo visto en el tema
anterior, sería de esperar que las líneas de igual tono correspondieran a rectas que pasaran por el blanco y el monocromático que
indicara la longitud de onda dominante. Sin embargo no es así y las muestras de igual tono del Atlas se sitúan a lo largo de curvas,
tal y como vemos en la figura 5.5. Por lo tanto al variar la saturación, hay asociada una pequeña variación de tono.

Figura 5.5: Efecto Aubert-Abney. Las muestras Munsell de igual tono y saturación creciente no se disponen a lo largo de rectas. Según datos de
Newhall et al. 1943, extraída de Artigas, 1995.

––––––––––––––––––––––

¿Cómo explicarías en la figura que cambia el tono al cambiar la pureza? ¿Cómo sería la figura si no cambiase el tono?
––––––––––––––––––––––

En la figura están representados los colores que resultan de añadir blanco a algunos colores monocromáticos, por tanto, si
partimos del borde del diagrama cromático, esos colores se van situando en el interior del diagrama cada vez más cerca del blanco.
Estamos disminuyendo la pureza, o lo que es lo mismo, la saturación, pero hay que recordar la definición de tono en este
diagrama. Teóricamente deberían ser líneas rectas de λd constante, pero lo que se obtiene es una curvatura mayor cuánto más cerca
están las muestras del locus espectral. De nuevo encontramos excepciones a este comportamiento, en este caso un tono amarillo de
572 nm y un tono púrpura de coordenadas x,y (0.240, 0.035) con λc=559 nm.
También se manifiesta un desplazamiento de las líneas según el nivel de luminancia debido al efecto Bezold-Brücke, excepto
para los tres tonos únicos. Las líneas continuas y discontinuas de la figura 5.5 corresponden a los resultados obtenidos para dos
niveles diferentes de luminancia.

2.3. Efecto Helmholtz-Kohlrausch o variación de la luminosidad con la cromaticidad: «en igualaciones de color
heterocromáticas, a igualdad en la luminancia, la luminosidad o sensación luminosa varía con la cromaticidad del estímulo».
Por un lado, a igualdad de luminancias se cumple que la luminosidad del blanco es menor que la del color cromático (BW < BC).
El estímulo cromático parece más luminoso.
Se puede enunciar este efecto de otra forma: a igualdad de luminosidades, YC<YW. La luminancia del color igualado es menor
que la del acromático, pero los colores se ven igual de luminosos. La relación entre estas luminancias tiende a uno cuanto más
desaturado es el color, obviamente, ya que se tratará de un color más cercano al blanco de referencia.

Figura 5.6: Efecto Helmholtz-Kohlrausch. Todos los colores situados en cada curva presentan la misma luminosidad. El factor de cada curva indica el
valor porcentual de luminosidad respecto al blanco de referencia. Según datos de Sanders y Wyszecki 1963, extraída de Artigas, 1995.

En la figura 5.6 se puede ver el factor por el cual hay que dividir la luminancia para igualar la luminosidad de los puntos
situados sobre cada curva con el acromático de referencia. Es decir, que a luminancia constante no tenemos sensación de
luminosidad constante, esta sensación depende de la longitud de onda y de la cantidad de color.
En el caso de colores monocromáticos los resultados se muestran en la figura 5.7. La gráfica es sencilla de interpretar: cada
longitud de onda produce un efecto diferente de luminosidad aun teniendo la luminancia constante.
Figura 5.7: Efecto Helmholtz-Kohlrausch para colores monocromáticos. (MJ Luque).

Se piensa que el origen de este efecto podría estar en fallos en la ley de aditividad de luminancias de Abney (las luminancias
son aditivas), o también en el uso incorrecto de la Vλ en el cálculo de luminancias. Por otra parte, LeGrand propuso que la
explicación podría estar relacionada con efectos de adaptación cromática temporal. Por ejemplo, la acción prolongada de una luz
verde sobre la retina debilita la respuesta al verde.

––––––––––––––––––––––

En la imagen de la figura 5.8 hemos generado los dos estímulos con la misma luminancia, ¿te parecen igual de luminosos?
Figura 5.8: Colores con igual luminancia, pero la sensación luminosa es menor en el acromático.

––––––––––––––––––––––

Utiliza este ejemplo y la gráfica del diagrama cromático (figura 5.6) para interpretar los valores numéricos que hay señalados
en cada curva: supón que este verde está en la curva que aparece marcada con el valor 1.2.

3. DESCRIPTORES ADICIONALES PARA COLORES DENTRO DE UNA ESCENA


Si un color pertenecen a una escena más o menos compleja, lo cual es la situación más habitual y realista, estará rodeado de
otros colores que pueden influir en la percepción, en este caso hablamos de colores relacionados en lugar de colores aislados. Los
descriptores perceptuales siguen siendo tres, el tono, que se define de la misma manera que para colores aislados, la claridad y el
colorido/croma.

TONO (H): es el atributo de la sensación visual por el cual un estímulo parece ser semejante a uno de los colores
percibidos como rojo, amarillo, verde, azul o combinaciones de ellos.
CLARIDAD (J): luminosidad de una muestra de color relativa a la luminosidad de una muestra que parece blanca y
está iluminada de la misma forma. Si en una escena aumentamos la intensidad del iluminante, la luminosidad cambia
pero la claridad no. Por ejemplo una hoja de papel blanco sobre fondo negro, si iluminamos con una lámpara de baja
intensidad y otra de alta intensidad, la luminosidad de hoja y fondo cambia drásticamente, pero la claridad es la misma
y la hoja siempre parece blanca sobre fondo negro.
COLORIDO / CROMA (M / C): Ya hemos introducido el Colorido como el atributo de la sensación visual por el
cual el estímulo parece ser más o menos cromático. El Croma es el colorido de un estímulo relativo a la luminosidad
de una muestra que parece blanca y está iluminada de la misma forma (C=M/B).

4. EFECTOS CROMÁTICOS EN LA VISIÓN DE COLORES RELACIONADOS. CAMBIOS DE APARIENCIA


Para los colores relacionados también se producen variaciones en la percepción de su apariencia cuando se varía su entorno. En
estos casos la interpretación puede resultar algo más compleja, pues abarca fenómenos de tipo sensorial y de tipo cognitivo.

4.1. Efectos espaciales: inducción y asimilación


El sistema visual humano dispone de estos dos mecanismos que son claves para distinguir la figura del fondo en una escena. La
inducción va en el sentido de aumentar las diferencias percibidas entre partes de la escena mientras que la asimilación va justo en
sentido contrario: minimizar las diferencias.
Son muchos los fenómenos que se pueden explicar a partir de estos dos mecanismos, el contraste simultaneo, el efecto
crispening, la mezcla aparente, las bandas de Mach, etc.

– Contraste simultáneo: Al oscurecer el fondo se percibe un incremento en la claridad del objeto, y viceversa. Un entorno
oscuro induce que un color se vea más claro que ese mismo color con un entorno blanco, y lo mismo sucede al revés (ver fig 5.9).
Figura 5.9: Contraste simultáneo. Extraída de irtel.uni-mannheim.de/cvd.html.

En este punto podemos intentar explicar el efecto de las bandas de Mach que vimos anteriormente. Supongamos que la
información es recogida por células de tipo centro-periferia, con la periferia off. Las células con iluminación uniforme dan una
respuesta constante, pero hay células que tiene parte de la periferia sobre una banda y parte sobre otra (ver fig 5.10). Eso hace que
la inhibición sea menor (izquierda en la figura) o mayor (derecha) y por tanto la respuesta total sea mayor o menor
respectivamente.

00:00 / 00:00

Figura 5.10: Bandas de Mach. La inhibición lateral en los campos receptivos de células centro-periferia hace que la respuesta no sea el escalón
cuadrado en un borde, sino que se produce por inducción un aumento y una disminución a cada lado del borde que dan como resultado un escalón
mayor, es decir, un resalte de borde.

– Efecto Crispening: Este efecto ya fue introducido en el capítulo 3, cuando hablamos de los mecanismos de adaptación.
Supongamos dos muestras de color muy parecidas situadas una cerca de la otra y sobre un fondo también coloreado. Cuando el
fondo es de una claridad similar a la de las dos muestras aumenta la capacidad de diferenciar entre ambas. En la figura 5.11
podemos apreciar este efecto. Dos muestras grises muy parecidas se colocan sobre fondos acromáticos, de forma que el del centro
de la figura tiene una luminancia parecida a la de ambos estímulos. Las dos muestras grises se discriminan mucho mejor sobre el
fondo más parecido a los estímulos. En este ejemplo estamos evaluando realmente el umbral de discriminación de luminancia, que
resulta dependiente de la luminancia del entorno.
00:00 / 00:00

Figura 5.11: Efecto Crispening. Extraída de irtel.uni-mannheim.de/cvd.html.

––––––––––––––––––––––

Este experimento lo puedes buscar también en PXLab, en Color Discrimination-Chevron. Aparece una rueda con sectores de
diferentes luminancias, prueba a cambiar la luminancia del fondo de la pantalla.

––––––––––––––––––––––

– Mezcla aparente: Ya hemos introducido este efecto al hablar de la sumación espacial que tiene lugar en nuestro sistema
visual en el capítulo 4. Veamos varios ejemplos. Si disponemos de una muestra cromática construida por pequeñas zonas de
colores diferentes, cuando se observa a distancia (para que la frecuencia espacial de la muestra sea suficientemente elevada), no se
perciben los colores por separado, sino que se percibe el color resultante de la mezcla.
En la figura 5.12a hemos ampliado el cursor de nuestro ordenador. Aunque sabemos que en su tamaño natural el cursor siempre
es blanco, en la ampliación vemos que el color se debe a la mezcla de los tres fósforos del monitor, al igual que ocurre con el resto
de colores que es capaz de reproducir nuestro monitor simplemente cambiando el nivel de encendido de cada pixel. El nivel de
encendido también nos proporciona colores más o menos luminosos.
00:00 / 00:00

Figura 5.12: a) Si miramos con lupa el cursor de nuestro ordenador, nos damos cuenta que está formado por pixeles de los tres primarios del monitor
(extraída de www.taringa.net/posts/imagenes/9261153/Mega-post-todo-pixeles.html). b) Mira los estímulos de la figura a bastante distancia. El de la
izquierda se ha fabricado con un color uniforme, pero el de la derecha no. Extraída de irtel.uni-mannheim.de/cvd.html.

En la figura 5.12b la imagen de la derecha está formada por líneas rojas y verdes, mientras que la de la izquierda es un cuadrado
de color uniforme. Este experimento lo puedes buscar también en PXLab (Photometry-Spatial color mixing y en Matching and
spatial mixture).

4.2. Efectos temporales: adaptación a la luz y adaptación cromática


El ojo humano tiene capacidad para adaptar su funcionamiento al nivel de luz, de manera que optimiza su rendimiento. Existen
mecanismos de adaptación a la oscuridad y a diferentes niveles de luz. Estos mecanismos ya han sido tratados anteriormente en el
capítulo 3.

Adaptación a la oscuridad: Se produce un incremento en la sensibilidad visual cuando decrece el nivel de


iluminación.
Adaptación a la luz: Se produce una disminución de la sensibilidad al aumentar el nivel de iluminación.
Efecto Hunt: El colorido aumenta con la luminancia, los colores parecen más vivos cuanto mayor es la luminancia
del iluminante.
Efecto Stevens: El contraste luminoso aumenta con la luminancia. Es un efecto parecido al efecto Hunt, allí era el
contraste cromático o colorido, y aquí es el contraste luminoso. Al aumentar la luminancia del iluminante, los colores
oscuros aparentan ser más oscuros y los claros más claros.
Efecto Bartleson: El contraste percibido aumenta con la luminancia del entorno, un entorno oscuro hace que el
contraste percibido sea menor y que se necesite más luminancia en la escena. Esto se aprecia al observar una
fotografía en papel en un entorno con iluminación media frente a la misma fotografía proyectada en pantalla con un
entorno oscuro, la proyección necesita más luminancia para percibir el mismo contraste.
Adaptación Cromática: El sistema visual cambia su sensibilidad para ajustarse a las características cromáticas de la
iluminación. Recordamos que los conos tienen sus mecanismos de adaptación tipo Von Kries que permiten variar la
sensibilidad de respuesta para adaptarse al entorno.

Para comprobar la influencia de la adaptación al iluminante, vamos a realizar una experiencia utilizando dos iluminantes
diferentes. Tenemos una foto (ver fig 5.13) que hemos filtrado para simular cómo se vería con esos dos iluminantes: luz de día,
con un aspecto blanco-azulado y una lámpara incandescente, con un aspecto anaranjado. Al observar las simulaciones, apreciamos
que cada una ha sufrido un cambio colorimétrico hacia el color del iluminante. La percepción bajo un iluminante luz de día es
azulada y bajo una lámpara incandescente es anaranjada. Si las observamos así, sin adaptarnos a ningún iluminante, las percibimos
completamente diferentes.
Figura 5.13. Influencia del color del iluminante. La luz de día da unos tonos más azulados, mientras que una bombilla de luz amarillenta, como la
lámpara de tungsteno, da unos tonos más anaranjados y rojizos. Extraída de www.freestockphotos.biz/stockphoto/2816. Adaptado de D. Thomson.

Pero adaptémonos a ambos iluminantes, media retina a cada uno, mirando siempre a la cruz central de la figura 5.14a durante
un minuto y miremos de nuevo las dos fotografías, que hemos vuelto a reproducir en la figura 5.14b. Al haber adaptado la mitad
izquierda de cada retina al azul, disminuye la sensibilidad al azul, y al haber adaptado la mitad derecha de la retina al anaranjado
disminuimos la sensibilidad al anaranjado en esa zona. El iluminante ha bajado la sensibilidad del sistema visual a los colores que
predominaban cada escena. El resultado final es que ahora las percepciones se igualan y las dos fotografías se ven iguales.

Figura 5.14. Influencia del color del iluminante. La adaptación selectiva en la retina permite igualar la percepción de ambas fotografías.

4.3. Efectos combinados con otras tareas visuales


– Postimágenes: cuando los fotorreceptores se han adaptado a una cromaticidad durante un cierto intervalo temporal se saturan
para esa cromaticidad y, al presentar un blanco, percibimos el color oponente. Aunque ya hemos introducido la oponencia
cromática, este concepto se desarrolla en el capítulo 7.
Este experimento lo puedes buscar también en PXLab (Color adaptation-Opponent colors successive contrast). En la segunda
barra de herramientas verás dos botones numerados como 1 y 2, cada uno de ellos tiene las presentaciones de la figuras 5.15, sólo
tienes que pincharlos para pasar de una a otra.
Fig. 5.15: Postimágenes. Después de adaptar durante un minuto una zona de la retina a un color determinado, al mirar posteriormente a la superficie
blanca en las posiciones correspondientes a las cuatro zonas coloreadas, aparece el color oponente del original: donde había rojo se verá verde, donde
había amarillo se verá azul, y así sucesivamente. Extraída de http://irtel.uni-mannheim.de/cvd.html.

––––––––––––––––––––––

Razona qué fotodetectores están dando respuesta en cada zona de la figura. Intenta pensar en la sensibilidad de los
fotodetectores después de haber pasado un minuto recibiendo la luz de cada uno de los cuadrados coloreados. ¿Qué pasa si miras a
un folio blanco más cercano que la pantalla o una pared blanca más lejana? ¿Cambia algo en la imagen?

––––––––––––––––––––––

– Efecto McCollough: El efecto McCollough pone de manifiesto la existencia de mecanismos que relacionan visión de color y
visión espacial. Después de una adaptación prolongada (5 minutos) a una red que varia su orientación y cromaticidad (horizontal
roja y vertical verde por ejemplo, ver fig 5.16), se observa un campo en blanco y negro con secciones de redes verticales y
horizontales. La adaptación tiene lugar en la misma zona de la retina, aparece una de las redes durante unos segundos y luego
aparece la otra también durante unos segundos. La parte de comprobación con las redes blanco-negro puede hacerse con cualquier
tamaño y en cualquier punto de la retina. (Puedes realizar el experimento en tu PC en el siguiente enlace: lite.bu.edu/vision-
flash10/applets/Color/McCollough/McCollough.html).

Fig. 5.16: Efecto McCollough. El sistema visual se adapta a una orientación y un color. Cuando miramos redes blanco-negro, nos damos cuenta que
esa información va unida, ya que el post-efecto de color depende de la orientación de la red que estemos mirando. Extraído de lite.bu.edu.
Las partes verticales de la red blanco-negro se ven con una postimagen y las horizontales con la otra, sin importar su
localización espacial, es decir, el mecanismo no responde a las zonas de retina que han sido adaptadas a un color y a otro
simultáneamente, sino que asigna un color a una determinada orientación, independientemente de su posición en el espacio. Si
giramos las redes blanco-negro, el postefecto desaparece. Esto sugiere que existe una adaptación a nivel cortical en el sistema
visual: las áreas de procesado espacial que están sintonizadas a una determinada orientación, también lo están al color.

––––––––––––––––––––––

Si la información de color y la orientación fuesen analizadas por separado, nuestra percepción del efecto sería diferente. Razona
la postimagen que tiene lugar en cada punto de la imagen total. Las zonas que se adaptan al color rojo, como ya sabemos, nos
darían una postimagen verde. Las zonas que se adaptan al verde darían una roja. Pero ahora viene la parte más curiosa: ¿qué le
ocurre a las zonas en las que la retina se ha adaptado al rojo y el verde (ver fig 5.17)? ¿Y qué ocurre cuando giramos las redes?

Figura 5.17: Zonas de adaptación al rojo y al verde en el experimento McCollough. La parte correspondiente a la adaptación simultánea a rojo y verde,
¿qué percepción debería darnos?

––––––––––––––––––––––

5. LA CONSTANCIA DEL COLOR


Ya hemos visto que el color percibido depende del iluminante, de la transmitancia/reflectancia del objeto y del sistema visual
que recoge la información. Si el objeto y el sistema visual se mantienen, el cambio del iluminante produce un cambio en la
percepción.
Recordemos también que hemos razonado que nuestro sistema visual es capaz de modificar su sensibilidad cuando nos
exponemos a un iluminante durante un tiempo determinado, adaptándose a ese cambio. La finalidad de este mecanismo es
mantener la percepción de los colores de una forma más o menos constante, para facilitar el reconocimiento de los objetos en
diferentes condiciones (ver fig 5.18).
Figura 5.18: Ejemplos del cambio colorimétrico debido al cambio de iluminante. En el caso a) la percepción es la misma, hay constancia del color. En
el caso b) la percepción es diferente, no hay constancia. Extraído de gusgsm.com/constancia_color.

Sabemos que el color de nuestro automóvil se percibe igual independientemente de que se encuentre estacionado en un parking
subterráneo o en la calle a plena luz del día, o al anochecer iluminado por las farolas de la calle. A pesar de los cambios en el color
debidos al cambio en las condiciones de observación (del iluminante y del entorno del estímulo), somos capaces de reconocer el
color como invariante. Este efecto es mucho más patente si se trata de un objeto propio o familiar. Nuestro sistema visual dispone
de mecanismos que de alguna forma favorecen la constancia del color.
El proceso se denomina descuento del iluminante, ya que lo que trata de hacer nuestro sistema visual es deshacerse de la
información del iluminante para que la percepción del color de los objetos permanezca constante como si estuviera iluminado
siempre de la misma manera (generalmente la situación de referencia habitual sería un blanco como la luz de día). Para poder
llevar a cabo este proceso, el sistema visual necesita una referencia, un ‘punto de anclaje’, algo que le dé una pista sobre el color
que pueda tener el iluminante. Si miramos un campo de color uniforme, no tenemos este tipo de información, por eso es necesario
que se trate de una escena compleja y que podamos comparar los cambios producidos entre los objetos presentes. Esa referencia
necesaria puede ser un único color (acromático) o el promedio de la escena, que por lo general en una situación real será
prácticamente acromática.
Los mecanismos sensoriales del sistema visual no son capaces de una adaptación cromática completa, pero se percibe el color
de los objetos como si hubiese una adaptación completa al color del iluminante: el blanco parece blanco bajo luz de día y bajo
lámpara incandescente. Es una habilidad cognitiva del observador interpretar los colores de los objetos basándose en la
iluminación del entorno.
El resultado final de este proceso es la constancia del color, es decir, reconocer el color como único aunque haya cambiado su
composición debido al iluminante. En muchas ocasiones la eficacia no es completa y la constancia de color que se consigue es
parcial, sobre todo si el cambio de color percibido es demasiado grande. Además del hecho, como hemos dicho, de que depende
de si el entorno es un único color o una escena compleja. En este proceso influyen otros mecanismos cognitivos como la memoria
del color, el reconocimiento a partir de la estructura y contexto del estímulo etc.
Veamos unos ejemplos en la figura 5.19.
Figura 5.19: La foto original (arriba a la izquierda) se ha modificado con filtros verde, rojo y azul, simulando tres iluminantes muy diferentes. En la
vida diaria, ocurren muchos cambios de color por efecto del iluminante y del entorno, no obstante el sistema visual siempre trata de minimizar o de
eliminar estos cambios mediante los mecanismos de constancia de color.

––––––––––––––––––––––

¿Los colores de los coches son iguales? ¿Parecen iguales? ¿Los reconocerías como el mismo coche? ¿Hay alguna parte de la
escena que pueda servir como referencia a tu sistema visual para descontar el efecto del iluminante? ¿Siempre se va a poder
descontar el iluminante? Piensa en casos concretos, a ver si te parece que siempre se va a poder hacer.

––––––––––––––––––––––

––––––––––––––––––––––

Si tomamos una manzana roja, y pasamos de verla bajo una luz blanca a verla bajo una luz amarilla (ver fig 5.20), ¿cambia la
luz que llega a nuestros ojos? ¿Cambia la percepción que tenemos del color de la manzana? Imagínate ahora que la manzana es
azul y razona lo que pasaría.
Figura 5.20: Si miramos una manzana bajo dos iluminantes diferentes, se produce un cambio colorimétrico pero nuestro sistema visual es capaz de
descontar el efecto del iluminante sobre el color. Extraída de www2.konicaminolta.eu.

––––––––––––––––––––––

Veamos unos de los ejemplos más espectaculares de constancia del color. Fíjate en la foto de la figura 5.21 y nombra el color de
la blusa de la chica que tiene los brazos hacia abajo:
Figura 5.21: Nombra el color de la camiseta de la chica que tiene los brazos hacia abajo. Extraída de www.ojodigital.com/foro/tutoriales/306819-el-
balance-de-blancos-que-es-como-se-ajusta-y-por-que-usarlo.html.

Seguramente habrás nombrado el color como amarillo, a pesar de que percibes que toda la foto tiene una tonalidad azulada.
Mira ahora la foto 5.22 y vuelve a nombrar el color:

Figura 5.22: Nombra de nuevo el color de la camiseta de la chica que tiene los brazos hacia abajo.
También amarillo, ¿verdad? Pero ahora sí que percibimos la escena como iluminada por luz natural blanca.
Vamos a completar el experimento cambiando en esta segunda foto sólo la camiseta de la chica por la que aparecía en la
primera foto (ver fig 5.23):

Figura 5.23: La camiseta de la chica en la figura 5.22 se ha sustituido por la de la figura 5.21.

––––––––––––––––––––––

¿De qué color diríamos que es ahora la camiseta? En estas condiciones, ¿el resto de la escena sirve para realizar algún tipo de
descuento del iluminante? ¿Cuándo ha sido capaz de descontar el iluminante nuestro sistema visual?

––––––––––––––––––––––

––––––––––––––––––––––

Vamos ahora a realizar un experimento sencillo, pero que requiere salir a hacer la compra. Nos dirigimos a nuestro
supermercado habitual y en primer lugar hacemos un recorrido de exploración. Localizad las zonas con iluminaciones diferentes,
si las hay: pescado, carne, pasillos genéricos. Ahora coged un producto de la zona de carnes y llevadlo a zona de pescadería.
¿Tiene el mismo aspecto?

––––––––––––––––––––––
A lo largo de este capítulo hemos visto diferentes fenómenos psicofísicos que muestran la complejidad de la percepción del
color para los objetos situados en una escena. El objetivo de cualquier modelo de visión que tenga en cuenta la apariencia del color
es obtener una representación que tenga en cuenta todos estos fenómenos psicofísicos: se busca predecir parámetros perceptivos
del color, obtener pares de colores correspondientes bajo distintos iluminantes, calcular distancias perceptuales entre colores
teniendo en cuenta el entorno, etc. Para ello un buen modelo de color debe incluir la adaptación cromática, un proceso de
oponencia y un cálculo de los descriptores perceptivos.

CUESTIONES
1. Relaciona los descriptores con sus correspondientes definiciones:

a. Tono.
b. Croma.
c. Saturación.

a. Colorido de un test relativo a la luminancia del entorno.


b. Colorido de un test relativo a su luminosidad.
c. Atributo del color por el cual un estímulo es visto como semejante a uno de los colores percibidos rojo, verde,
amarillo azul o combinaciones de ellos.

2. El concepto de oponencia cromática:

a. Implica que la respuesta de los conos es opuesta a la de los bastones.


b. Fue propuesto por Newton.
c. Implica que existen unos mecanismos de oponencia entre conos L y M, y entre (L+M) y S.
d. Implica que existen unos mecanismos de oponencia entre conos (L+S) y M.

3. A ver si recuerdas correctamente los efectos cromáticos:

a. Efecto Bezold-Brucke.
b. Efecto Aubert-Abney.
c. Efecto Helmholtz-Kohlsrausch.

a. En igualaciones heterocromáticas, a igualdad de luminancia, la sensación luminosa (luminosidad) varía con la


cromaticidad del estímulo.
b. Un cambio en la pureza colorimétrica provoca un cambio en la saturación, pero también modifica el tono.
c. Una variación de luminancia, no sólo cambia la luminosidad, sino que también modifica el tono.

4. De acuerdo al efecto Bezold-Brücke, existen unos tonos únicos, que son estos tres:

a. Verde, rojo y anaranjado.


b. Amarillo, verde y rojo.
c. Amarillo, verde y azul.
d. Naranja, violeta y sepia.
e. Son cuatro, amarillo, verde, azul y rojo.

5. Fíjate en esta figura, ¿cuál de estos efectos cromáticos crees que se encuentra en este cuadro?
a. Contraste simultáneo.
b. Mezcla aparente.
c. Contraste sucesivo.
d. Efecto McCollough.

6. La figura del diagrama corresponde a una representación del efecto Helmholtz-Kohlrausch. Fíjate ahora en la curva marcada
con 1.6, selecciona mentalmente un color de esa línea y responde. ¿Que significado tiene ese 1.6?
a. La relación entre la luminancia del blanco y la de ese color será así: Lw=1.6 Lc.
b. La relación entre la luminancia del blanco y la de ese color será así: 1.6 Lw=Lc.
c. La relación entre pureza colorimétrica del blanco y la de ese color será así: pc(w)=1.6 pc(c).
d. La relación entre la luminancia del blanco y la de ese color será así: Lw=Lc+1.6.

7. Rellena los huecos:


La figura corresponde al efecto [........]. Las rectas representan colores del Atlas de color Munsell con el mismo [........] y
diferente [........]. Teóricamente deberían ser rectas (colores con la misma [ ], pero son curvas. Esto implica que «al añadir
[........] a un púrpura o a un monocromático, además de disminuir la saturación se produce un cambio de [........].
8. Recordemos el efecto «Crispening»: dos muestras grises parecidas, pero no iguales en luminancia sobre otro fondo gris más
oscuro, ¿cuándo se aprecia más la diferencia entre esas dos muestras parecidas?

a. Cuando el fondo es un gris muy oscuro.


b. Cuando el fondo es un gris muy claro.
c. Cuando el fondo tiene una luminancia cercana a la de las dos muestras.
d. Cuando el fondo tiene una luminancia cercana a la mitad de la luminancia de la muestra menos luminosa.
e. Cuando el fondo tiene una luminancia cercana a la mitad de la luminancia de la muestra más luminosa.

9. Miras una red espacial que varía en su orientación y cromaticidad (red horizontal roja, y al cabo de un segundo red vertical
verde). Si al cabo de 5 minutos te presentamos una red vertical gris y otra red horizontal gris, de acuerdo al efecto McCollough,
¿qué es lo que percibes?

a. La horizontal la veo roja y la vertical verde.


b. No percibiría color, tanto una como otra la veo gris.
c. La horizontal la veo verde y la vertical roja.
d. Esto no tiene nada que ver con el efecto McCollough.

10. La hipótesis de Hering acerca de los colores oponentes sugiere que hay tres diferentes mecanismos:

a. Azul-Verde, Claro-Oscuro y Rojo-Amarillo.


b. Claro-Oscuro, Rojo-Verde y Azul-Amarillo.
c. Rojo-Azul, Verde-Amarillo y Claro-Oscuro
...

6. Visión cromática anómala y defectiva

1. INTRODUCCIÓN
Las teorías y modelos de visión del color intentan explicar el comportamiento del sistema visual, aunque hasta el momento
ninguno explica satisfactoriamente todas las características de la visión del color. Dada la complejidad del sistema visual y del
proceso visual, interesa conocer cada parte individual por separado. Por eso el punto de partida de nuestro estudio es un estado de
visión reducida, correspondiente a los sujetos que tienen uno o dos sistemas de conos en lugar de los tres normales.
Los tres sistemas de conos de un observador normal se designan como: L (sensibles a λ largas), M (sensibles a λ medias), y S
(sensibles a λ cortas).
Cada uno de estos receptores tiene un tipo diferente de pigmento fotosensible el cual va a determinar la respuesta a cada una de
las longitudes de onda del espectro. Las curvas de respuesta de los conos frente a estímulos de igual energía se denominan
sensibilidades espectrales o receptores fundamentales o simplemente fundamentales. En la literatura científica podemos encontrar
curvas con ligeras variaciones según autores, debido a diferencias en los métodos de medida. En la figura 6.1 se representan los
fundamentales de Smith & Pokorny, al lado de las curvas de Stockman & Sharpe que ya introdujimos en el capítulo 1. Se pueden
observar ligeras diferencias de forma y escalado.

Figura 6.1: Curvas de sensibilidad espectral o fundamentales según datos de: a) Smith & Pokorny, b) Stockman & Sharpe.

Las curvas de respuesta de los conos son de espectro continuo, con un máximo muy marcado para cada tipo de conos L, M y S.
Los conos S dan respuesta a la luz de longitudes de onda desde el extremo violeta hasta aproximadamente 520 nanómetros, y los
conos L y M dan respuesta para todo el espectro. Los conos M responden a luces azules, verdes, amarillas, anaranjadas, e incluso
tienen una débil respuesta en el rojo cercano. Y lo mismo sucede para los conos L: la respuesta abarca prácticamente el mismo
rango de longitudes de onda, aunque no con la misma intensidad, ya que la respuesta en el extremo rojo es mucho mayor.
Recordamos también que los bastones daban respuesta en todo el espectro, pero es prácticamente nula para los rojos, como ya
habíamos deducido cuando estudiamos la curva de sensibilidad espectral del sistema visual (la curva se desplaza hacia longitudes
de onda corta).

1.1. Clasificación de la visión cromática en función de los tipos de conos


La mayoría de personas perciben el color de la misma manera e identifican como iguales los mismos colores, pero esto no
siempre es así. Hay muchas personas que perciben el color de una manera diferente, aparentemente más limitada, son los llamados
anómalos y defectivos cromáticos. La explicación a esto se basa en los tipos de conos que intervienen en el proceso de visión del
color.
Los observadores normales construyen el color a partir de los tres tipos de conos, mientras que anómalos y defectivos no
emplean los tres tipos, o bien porque no los tienen, o bien porque no funcionan correctamente. En función de qué conos funcionan,
podemos clasificar la visión cromática en los diferentes tipos que se muestran en la tabla 6.1.

Tabla 6.1. Clasificación de la visión cromática. Las primas (‘) indican que los conos tienen una curva de respuesta anómala, con el máximo desplazado
respecto a las curvas normales. El guión (_) indica que no existen los detectores de esa clase.

Los sujetos tricrómatas tienen tres tipos de conos, sean normales o no. Los sujetos dicrómatas sólo tienen dos tipos de conos.
Los monocrómatas sólo disponen de un tipo de conos, y los únicos casos reportados corresponden a la existencia de conos S. Los
acrómatas no tienen conos, su visión es únicamente debida a los bastones.

1.2. Experiencias de igualación de colores


La existencia de estas alteraciones de la visión del color se pone de manifiesto, y se pueden cuantificar, en experimentos de
igualación de colores. Hagamos una igualación de color clásica, en la mitad del campo colocamos un amarillo monocromático 589
nm y en el otro semicampo una mezcla de rojo 670 nm y de verde 546 nm.
Estos tres colores están situados sobre una misma recta en el diagrama CIExy1931 y, por lo tanto, es posible establecer la
igualación cromática del amarillo con una suma del rojo y el verde. El color resultante de la mezcla sabemos que estará localizado
siempre en la línea que une los colores originales.
En estas circunstancias, la mayoría de personas iguala ambos semicampos en un rango de proporciones rojo-verde muy
parecido, lo que nos da idea de una gran homogeneidad en la visión del color (ver animación de la figura 6.2).

00:00 / 00:00

Figura 6.2: Experimento de igualación de color. El observador modifica la proporción de mezcla de 670 y 546 nm hasta igualar con el tono amarillo
589 nm. La gran mayoría de personas igualan en una proporción similar de rojo/verde, mientras que los anómalos y los defectivos cromáticos emplean
otras proporciones distintas.

Sin embargo, hay otros sujetos que igualan para cualquier proporción de rojo y de verde. Es decir, cualquier cantidad de rojo y
de verde en la mezcla coincide para ellos con el amarillo.
Por otra parte, si en lugar de plantear la igualación anterior, planteamos otra similar en la que sumamos verde y azul para
igualar un verde azulado, nos encontramos que también hay otro pequeño grupo de personas que igualan para cualquier
proporción de azul y de verde.
Este tipo de sujetos son catalogados como defectivos cromáticos, en particular, dicrómatas, ya que sólo disponen de dos tipos
de conos.
Pero también existe otro tipo de sujetos que, en la misma experiencia, dan como resultado igualaciones en las que la proporción
de uno de los componentes de la mezcla es mucho mayor de lo normal. Estos sujetos son los anómalos cromáticos, también
llamados parcialmente ciegos al color.

1.3. Principio de univariancia de Rushton


La explicación de los diferentes tipos de la visión cromática puede establecerse a partir del principio de univariancia de
Rushton: la respuesta de un cono es una variable única que combina la longitud de onda y la intensidad del estímulo visual:

donde R es la respuesta del fotorreceptor, λ la longitud de onda de la luz incidente, y F es el flujo de fotones incidente (cantidad
de luz incidente). Esto implica que la longitud de onda únicamente va a determinar la mayor o menor cantidad de fotones
absorbidos por el receptor y, por tanto, que la respuesta sea más o menos intensa.

2. VISIÓN CON UN PIGMENTO


Supongamos un monocrómata, es decir, un sujeto cuyo único pigmento S, presenta este espectro de absorción. Representamos
la tasa de fotones absorbidos, frente a la longitud de onda de la luz incidente en la figura 6.3.

Figura 6.3: Curva de respuesta espectral de los conos S.


Si se proyecta en un campo bipartito estímulos de 440 y 490 nm respectivamente, de modo que en la retina se recibe un flujo
igual para ambos semicampos, por ejemplo 1000 fotones por segundo por cada receptor (f/s), cada cono S del área de retina
iluminada captará:

para la λa de 440 nm → Rs440 = 0.013*1000 = 13 f/s


para la λb de 490 nm → Rs490 0.004*1000 = 4 f/s

La cantidad de fotones absorbida es diferente en ambos semicampos y por lo tanto, de acuerdo al principio de univariancia, la
respuesta de los conos es distinta a uno y otro lado y este sujeto percibe ambos semicampos como distintos. La percepción no
puede ser cromática, ya que el color vendrá codificado por la comparación entre las señales de los conos, y este sujeto sólo
dispone de la información de un tipo de cono.
Sin embargo es posible igualar las respuestas, lo único que hay que hacer es mantener constante el flujo en uno de los dos
semicampos, por ejemplo el de 440 nm, y aumentar el flujo del otro hasta igualar la cantidad final de fotones absorbidos. Así, si
aumentamos el flujo del estímulo de 490 nm hasta 3250 f/s, obtenemos: Rs490 =0.004*3250=13, es decir, hemos igualado las
respuestas.
Como este sujeto no dispone de ningún otro mecanismo (L o M) que le permita discriminar color, percibirá ambos semicampos
exactamente iguales, a pesar de que presentan distinto color.
En la figura 6.4 podemos ver un esquema de los niveles de respuesta antes y después de aumentar el flujo de fotones de uno de
los estímulos.

Figura 6.4: a) Un observador monocrómata, es capaz de distinguir entre los dos colores λa y λb. b) Sin embargo, si aumenta la intensidad de λb el factor
necesario, ya no apreciará diferencias (Cambiar la intensidad no cambia la curva de respuesta, sólo la tasa de fotones absorbidos, por lo que es como si
la curva fuese más alta o más baja que la original).

Este es el caso de los monocrómatas y acrómatas: únicamente son capaces de percibir diferencias de intensidad, es decir,
diferencias de luminosidad. Su visión cromática se reduce a una escala de luminosidad: grises con límites en el blanco y en el
negro.
Acrómatas y monocrómatas son similares en cuanto a su visión cromática. Sin embargo los acrómatas, al no disponer de conos,
no tienen visión central (hay un número muy bajo de bastones en la fóvea) y como consecuencia presentan problemas adicionales
de baja agudeza visual, nistagmo y fotofobia aguda (los bastones se saturan mucho antes que los conos).

3. VISIÓN CON DOS PIGMENTOS


Supongamos ahora un dicrómata, tiene dos tipos de conos, por tanto tiene dos tipos de pigmento en lugar de uno. Para nuestro
ejemplo, supongamos un sujeto tritanope con conos L y conos M. Sus correspondientes espectros de absorción, son los que vemos
en la figura 6.5.
Figura 6.5: Curvas de respuesta para un sujeto tritanope (conos L y M).

Le presentamos ahora a nuestro paciente una igualación de dos colores monocromáticos a y b (ver fig 6.6), y plantemos igual
que en el caso anterior si los percibirá iguales o no y si será capaz de igualarlos de alguna forma:

Figura 6.6: Niveles de respuesta de los conos M y L de un tritanope a dos diferentes colores.
––––––––––––––––––––––

¿Distingue los colores como diferentes? ¿Podrá igualarlos cambiando la intensidad de alguna de las luces?

––––––––––––––––––––––

Si planteamos la igualación entre dos longitudes de onda (por ejemplo 580 y 620 nm) con flujos de 1000 f/s. Nos encontramos
esta relación:

Para 580 nm:


los conos M captan → RM580 = 0.26 * 1000= 260 f/s
los conos L captan → RL580 = 0.63 * 1000 = 630 f/s

Para 620 nm:


los conos M captan → RM620 = 0.04*1000= 40 f/s
los conos L captan → RL620 = 0.36*1000= 360 f/s

Como vemos, en los dos semicampos tenemos respuestas diferentes tanto de los conos L como de los conos M. Si intentamos
igualar ambas respuestas vemos que resulta imposible. Para igualar la respuesta de los conos M, dejaríamos igual este semicampo
y tendríamos que aumentar el flujo en la otra mitad hasta 6500 f/s. Así tendremos que para 620 nm:

los conos M captan → RM620 = 0.04*6500 = 260 f/s


los conos L captan → RL620 = 0.36*6500 = 2340 f/s

Hemos igualado la respuesta de los conos M, pero ahora la diferencia para las respuestas de los conos L ha aumentado. No es
posible encontrar una relación general en la que se igualen simultáneamente las respuestas de ambos tipos de conos y por lo tanto
que se vean igual los colores de uno y otro semicampo. Consecuentemente, este sujeto es capaz de distinguir estos dos colores
independientemente de la intensidad que presenten. Esta regla tiene sus excepciones, que nos llevará a colores que pueden ser
igualados variando la intensidad de uno de ellos. Para el sujeto normal, en cualquier caso, también se percibirán como colores
diferentes.

3.1. Rectas de confusión


Pero la percepción de esos colores no va a ser la misma que la del observador normal, porque no tiene información
correspondiente al tercer tipo de cono. A pesar de que los dicrómatas ven colores, su visión cromática está mucho más limitada.
Aceptan como válidas las igualaciones que hacen los tricrómatas normales, pero establecen otras igualaciones que resultan
totalmente inaceptables para el tricrómata normal. Es decir, confunde colores. Podemos razonar fácilmente cuáles serían esos
colores que confunde. Supongamos que el dicrómata del ejemplo iguala dos colores 1 y 2:

Como la única información que tiene para discriminar color es la de los conos L y M, la igualación la hará cuando L1=L2 y
M1=M2. Como vemos, S podrá tomar cualquier valor:
En el diagrama cromático, los colores que cumplen esta condición se distribuyen a lo largo de una línea recta (un grado de
variación, el valor de S). En la figura 6.7 podemos ver un ejemplo, todos los colores representados en la figura tienen la misma
apariencia para el tritanope.

Figura 6.7: Rectas de confusión del tritanope (M.J. Luque).

Si la escena está compuesta por ese conjunto de colores de la figura 6.7, este sujeto no tiene información para distinguir entre
diferentes objetos si la única variación entre ellos se debe al color. Por ejemplo, construimos un optotipo como los que suelen
usarse en los tests de detección de alteraciones de la visión del color. Se trata de una escena compuesta por cuadraditos con una
distribución aleatoria de colores de la recta de la figura 6.7. Pero hay un problema asociado a la reproducción del color, debido a la
precisión en esa reproducción: pequeñas variaciones de luminancia. Para evitar que un ligero cambio de luminancia en la
reproducción de algunos de los colores permita al observador distinguir entre ellos, se produce también en la imagen una variación
aleatoria entre varios niveles de luminancia para cada color. De esta forma evitamos ese posible reconocimiento, ya que la tarea
pasa a ser únicamente basada en el color. En la figura 6.8 hemos diseñado el optotipo E bajo estas condiciones. Para un sujeto
normal, la gama de colores que forman el optotipo E se distingue perfectamente del fondo, pero para un sujeto tritanope toda la
figura corresponde al mismo color, confunde todas las zonas de la imagen y es incapaz de leer la letra.
Figura 6.8: Optotipo diseñado a partir de los colores de confusión de la figura anterior. Un sujeto tritanope muy difícilmente será capaz de ver el
optotipo E (M.J. Luque).

Los colores que son confundidos entre sí por los dicrómatas se sitúan sobre rectas que convergen hacia un punto único (ver fig
6.9). Este punto de convergencia se conoce como el centro o punto de confusión y es característico para cada tipo de deficiencia
(identifica las coordenadas cromáticas del mecanismo de respuesta que falta, aunque en la práctica habría una influencia de la
absorción de los medios prereceptoriales, es decir, cornea, cristalino, humores).
Los puntos de confusión en coordenadas CIExy1931 son:

(0.747, 0.253) en el protanope,


(1.080, –0.080) en el deuteranope
(0.171, 0.000) en el tritanope.
Figura 6.9: Rectas de confusión correspondientes a los tres tipos de deficiencias cromáticas. Según datos de Pokorny J, Smith VC, Verriest G, Pinckers
AJLG. Extraído de Schwartz, 1999.

––––––––––––––––––––––

¿Cómo sería la visión de un sujeto que tuviese el centro de confusión por ejemplo en el punto de coordenadas cromáticas
(0.500, 0.300)? Haz un diagrama para razonarlo.
––––––––––––––––––––––

––––––––––––––––––––––

¿Los colores de la línea de confusión común para protanopes y deuteranopes, permitirían distinguir un comportamiento
diferente entre estos dos tipos de dicrómatas?

––––––––––––––––––––––

Como se puede observar en la figura 6.9, los protanopes y los deuteranopes tienen una línea de confusión común, la que
corresponde al límite derecho del diagrama cromático. Esta recta de confusión común es tangente al locus espectral en toda la
zona desde el verde amarillento hasta el rojo profundo, pasando por toda la gama de amarillos y anaranjados. Por eso, en la
igualación propuesta en el anomaloscopio (Rojo + Verde = Amarillo), estos sujetos igualaban en cualquier proporción de rojo +
verde. Este hecho se aprovechará, como veremos, para diagnosticar estas deficiencias. Como puede comprobarse, los
monocromáticos del anomaloscopio se sitúan sobre rectas de confusión diferentes para el tritanope y por tanto este sujeto es capaz
de distinguirlos.
También resulta interesante conocer qué colores se confunden con el blanco. Para ello, se traza la línea de confusión que une
cada centro de confusión con el blanco y todos esos colores tendrán la misma apariencia que el blanco, incluido el correspondiente
punto de corte en el diagrama cromático. Este monocromático particular que tiene el mismo aspecto que el acromático se
denomina punto neutro, y los valores son diferentes para cada tipo de dicrómata:

494 nm para protanopes,


499 nm para deuteranopes,
570 nm para tritanopes.

La importancia del punto neutro radica en que caracteriza también el tipo de alteración de la visión del color.

3.2. Percepción del dicrómata


Hemos hablado hasta ahora de qué colores son confundidos, lo que nos indica que tienen el mismo aspecto para nuestro sujeto
problema, pero no hemos dicho todavía nada sobre qué aspecto tienen esos colores, cuál es la percepción del dicrómata. Una
simulación de qué colores ve cada tipo de dicrómata puede hacerse mediante alguno de los modelos matemáticos de visión que
estudiaremos más adelante.
Como protanopes y deuteranopes carecen de conos L o M, no van a percibir rojos o verdes, que tendrán un aspecto amarillento.
Pero percibirán los azules gracias a sus conos S. El punto neutro, es decir, la percepción acromática entre estas dos gamas,
dependerá del tipo de dicrómata, como hemos visto.
Los tritanopes carecen de conos S, por lo que no van a percibir azules, que tendrán un aspecto verdoso hasta los 570 nm. A
partir de su punto neutro, percibirán el resto de colores rojizos.
En la figura 6.10 podemos ver un ejemplo, donde aparece también la visión que tendrían el monocrómata y el acrómata.
Figura 6.10: Simulación de la gama de colores distinguibles para los diferentes tipos de deficiencias cromáticas. Extraído de Gegenfurtner-Sharpe,
1999.

Conviene aclarar que se trata de simulaciones con modelos matemáticos que no son perfectos. Además, sólo podríamos estar
seguros de que son buenas simulaciones si encontráramos un sujeto con un ojo dicrómata y otro normal, de forma que él mismo
hiciese la comparación. Pero estos sujetos son muy raros, pues las deficiencias cromáticas son binoculares casi en su totalidad.
En la figura 6.11 podemos ver una simulación de cómo ven los colores de una escena real los diferentes casos de deficientes
cromáticos, frente a un sujeto normal. Dependiendo de la gama de colores de la imagen original, puede que protanope y
deuteranope perciban prácticamente lo mismo, pero siempre habrá alguna diferencia en colores o en la luminosidad.
Figura 6.11: Comparación de gama de colores para diferentes tipos de visión cromática. Extraído de Gegenfurtner-Sharpe, 1999.

En la figura 6.12 vemos un ejemplo práctico que nos indica la dificultad de tareas cotidianas para estos sujetos: distinguir
monedas. En el ejemplo se comparan las monedas de 20 y 5 céntimos, que tiene tamaños parecidos. Para protanopes y
deuteranopes la percepción del color es prácticamente la misma entre ambas monedas, lo que entorpece la tarea de distinguirlas.

Figura 6.12: Comparación del color de las monedas de 20 y 5 céntimos de euro para un sujeto normal, un deuteranope y un protanope (de arriba
abajo). Según datos de Pardo, Pérez y Suero, 2002.

Además de la percepción de colores diferente, en algunos de los ejemplos hemos visto que la percepción de la luminosidad no
es la misma según el tipo de dicrómata. Veamos seguidamente las curvas de sensibilidad espectral de cada uno de estos sujetos
(ver fig 6.13). El sujeto tritanope tiene una curva muy parecida a la del sujeto normal, salvo en la zona de bajas longitudes de onda
donde se aprecia una pérdida de sensibilidad. Con las anomalías rojo-verde no sucede lo mismo, protanope y deuteranope son
claramente diferentes entre sí. Este parámetro también permite distinguir el tipo de dicrómata.
Figura 6.13: Comparativa de las curvas de sensibilidad espectral normal y dicrómatas. Según datos de Stockman, MacLeod & Johnson, 1993 (protan y
deutan) y Wright, 1951 (tritan).

4. VISIÓN CON TRES PIGMENTOS


Cuando en la retina están presentes conos de tipo L, M y S, la visión es tricromática. Dentro de esta categoría podemos
diferenciar entre sujetos con visión normal y sujetos con una anomalía cromática.

4.1. Visión normal


Un sujeto normal que disponga de los tres sistemas de conos L, M y S tendrá una visión del color completa. La interpretación
del color que hace el cerebro se basa en las señales de los tres tipos de conos, combinadas entre sí desde el momento que salen de
la retina. A la hora de identificar un color, nuestro cerebro organiza sus diferentes características en categorías: el tono se clasifica
en diferentes nombres de colores (rojo, verde, azul…), la claridad en una serie de escalones (luminoso, medio, oscuro…) y el
croma en una serie de adjetivos que también representan una escala (fuerte, vivo, pálido…). Estas clasificaciones tienen fuerte
influencia cultural y dependen del idioma, la geografía etc.

4.2. Visión tricromática anómala


Como ya hemos adelantado, al plantear la igualación: rojo + verde = amarillo, existe otro grupo de sujetos que para igualar, o
bien necesitan poner mucho rojo en la mezcla (protanómalos), o bien mucho verde (deuteranómalos). Se trata de los anómalos
cromáticos. La explicación a estas anomalías se encuentra en la existencia de un pigmento anormal en alguno de los tres tipos de
conos. En estos casos la visión es tricromática ya que contamos con los tres pigmentos LMS, sin embargo, el máximo de absorción
de uno de ellos se encuentra anormalmente desplazado.
En los protanómalos el máximo de absorción del pigmento L’ no está en 560 nm (L), sino ligeramente desplazado hacia
longitudes de onda más cortas y consecuentemente más cercano al pigmento M (ver fig 6.14). Si analizamos la respuesta a una
longitud de onda roja 650 nm, por ejemplo vemos que la sensibilidad para este color está disminuida respecto al observador
normal y, por tanto, en la igualación del amarillo con una suma de rojo y verde, el protanómalo tendrá que añadir más cantidad de
rojo que un observador normal.
Figura 6.14: Los sujetos protanómalos presentan pigmentos S, M y L’. En la figura se muestra la diferencia entre un pigmento L normal y el pigmento
L’. L’ es un pigmento con el máximo desplazado hacia el verde, más cercano al de los conos M, y el sujeto pierde sensibilidad en la zona de los rojos.

Con los deuteranómalos ocurre algo similar, pero en este caso, es el pigmento M’ el que está anormalmente desplazado hacia el
rojo (ver fig 6.15). El máximo de absorción ya no corresponde a 540 nm (M) sino que se desplaza hacia una longitud de onda más
alta y por lo tanto más cercana al pigmento L. En este caso, existe una menor sensibilidad en la zona de los verdes, como
consecuencia, necesitarán colocar más verde en la igualación.
Figura 6.15: Los sujetos deuteranómalos presentan pigmentos S, M’ y L. En la figura se muestra la diferencia entre un pigmento M normal y el
pigmento M’. M’ es un pigmento con el máximo desplazado hacia el rojo, más cercano al de los conos L, y el sujeto pierde sensibilidad en la zona de
los verdes.

Esta hipótesis de un anormal desplazamiento en el máximo de absorción del pigmento fue confirmada por los trabajos de
Piantanida, Sperlig, o Rushton, quienes identificaron la existencia de pigmentos anormales en los protanómalos y deuteranómalos.
También se han detectado algunos casos, muy pocos, de tritanomalías. En estos casos la causa es siempre patológica, por lesiones
en nervio óptico o retina y no por la existencia de un pigmento anormal.
La variación en la sensibilidad de los anómalos, también se aprecia en su curva de visibilidad (ver fig 6.16). En el caso del
protanómalo hay un desplazamiento hacia el verde, mientras que en el caso del deuteranómalo, el desplazamiento es hacia el rojo,
aunque menos marcado. Recordamos que este comportamiento también se apreciaba en las curvas de los protanopes y
deuteranopes. En cierto modo resulta predecible ese comportamiento similar, ya que al tener los pigmentos L y M unos espectros
de absorción parecidos en cuanto a la forma de la curva, el desplazamiento extremo de la curva de L hacia M o viceversa, equivale
a la ausencia del correspondiente pigmento.
Figura 6.16: Curvas de sensibilidad espectral correspondientes a un observador normal, un protanómalo y un deuteranómalo. Según datos de Wriht
(1946), extraída de Wyszecki & Stiles, 1982.

CUESTIONES
1. Responde cuál o cuáles respuestas son correctas.

a. Los conos L responden exclusivamente a luz roja, y los conos M a luz verde.
b. Los conos M responden exclusivamente a luz roja y los conos L a luz verde.
c. Tanto unos como otros responden en un amplio rango de longitudes de onda, que incluyen luces rojas y verdes.
d. La respuesta a corresponde a protanopes y la b a deuteranopes.
e. Todas son falsas.

2. Indica cual de estas combinaciones de pigmentos corresponde a un protanope.

a. L’ M S
b. L M S’
c. L’ _ S
d. L _ S
e. _ _ S
f. _ M S.

3. Indica cuál de estas combinaciones de pigmentos corresponde a un protanómalo.

a. L M’ S’
b. L M S’
c. L’ _ S
d. L _ S
e. _ _ S
f. L’M S.

4. Indica cuál de estas combinaciones de pigmentos corresponde a un deuteranope.


a. L’ M S
b. L M S’
c. L M’ S
d. L _ S
e. _ _ S
f. _ M S.

5. Indica cuál de estas combinaciones de pigmentos corresponde a un deuteranómalo.

a. L’ M S
b. L M S’
c. L M’ S
d. L _ S
e. _ _ S
f. _ M S.

6. Las rectas de confusión de esta figura, ¿a qué deficiencia cromática corresponden?

a. Protanope.
b. Deuteranope.
c. Tritanope.
d. Acrómata.
e. Monocrómata.
f. Protanómalo.

7. En la figura de la cuestión anterior, indica cual es el Centro de confusión.

a. Es el punto de corte con el locus de la recta que pasa por el blanco (aproximadamente 495nm).
b. Es el punto donde confluyen todas las rectas de confusión. En este gráfico corresponde al extremo de 700 nm del
locus.
c. Es el punto marcado con una W, el blanco equienergético.
d. Los protanopes no tienen punto neutro.
e. Los deuteranopes no tienen un único punto neutro.

8. En la figura anterior, indica cuál es el punto neutro.

a. Es el punto de corte con el locus de la recta que pasa por el blanco (aproximadamente 495nm).
b. Es el punto donde confluyen todas las rectas de confusión. En este gráfico corresponde al extremo de 700 nm del
locus.
c. Es el punto marcado con una W, el blanco equienergético.
d. Los protanopes no tienen punto neutro.
e. Los deuteranopes no tienen un único punto neutro.

9. ¿A qué corresponde esta ecuación matemática? R¡λ = T¡ * F

a. Es el principio de univariancia de Rushton.


b. Es la ecuación para calcular las rectas de confusión.
c. Es una ecuación para calcular la contribución de los conos rojos ante un estímulo F modulado por una
transmitancia T.
d. Todas son falsas.

10. Si el centro de confusión estuviera dentro del diagrama cromático en la zona de los azules:

a. El sujeto confundiría todos los colores entre sí.


b. El sujeto confundiría exclusivamente los tonos azules.
c. El sujeto confundiría todos los colores, a excepción de los tonos azules.
...

7. Modelos de visión cromática

Establecer un modelo que reproduzca las respuestas de cualquier sistema tiene como objetivo predecir su comportamiento ante
una amplia gama de condiciones.
En nuestro caso, buscamos modelos matemáticos que reproduzcan la sensación visual. Por un lado, para comprender mejor
todo el proceso visual, al que no tenemos acceso directamente, sino a través de experimentos psicofísicos. Por otro lado, para
poder predecir una respuesta sin necesidad de llevar a cabo el experimento. Esto es una gran ventaja, sobre todo si pensamos que
la percepción visual está influenciada por una gran cantidad de factores y que conocer todas las respuestas implicaría un número
inasequible de situaciones experimentales.
Un buen modelo de visión debe reproducir un número aceptable de experimentos de los que sí se conoce la respuesta, por lo
que suele ser una tarea compartida entre investigadores de la comunidad científica. Hay modelos que funcionan correctamente
para una serie de experiencias pero no funcionan para otras. Todavía no hemos encontrado ‘el modelo’. Cuando se haya alcanzado,
la visión artificial no se distinguirá de la real.

1. MODELOS DE UNA ETAPA


Vamos a centrarnos en este punto en los modelos que se limitan a una única etapa de procesado, la etapa tricromática, y por
tanto sólo tienen en cuenta la trivariancia visual.
El color percibido es resultado de la estimulación de tres mecanismos correspondientes a los conos L, M y S, cuyas curvas de
sensibilidad están solapadas (Young-Helmholtz, 1802). Muchos de los modelos utilizan los fundamentales de Smith y Pokorny,
que ya introdujimos en el capítulo anterior (ver fig 7.1 y 6.1).

Figura 7.1: Fundamentales de Smith y Pokorny.

Los conos presentan una serie de características que todos estos modelos incorporan:
los conos L presentan un máximo en 565 nm y ocupan todo el espectro,
los conos M presentan un máximo en 540 nm y ocupan casi todo el espectro, pero no responden a las longitudes
largas,
en longitudes de onda largas la respuesta de L es muy superior a la de M,
el cociente M/L es máximo en 465 nm (donde son iguales),
los conos S presentan un máximo en 440 nm y son sensibles sólo para longitudes inferiores a 520 nm.

Esto modelos se denominan genéricamente como espacios LMS, donde L(C), M(C) y S(C) son las respuestas de los tres tipos
de conos al estímulo de color C. Estos receptores fundamentales pueden expresarse como una transformación lineal de los
primarios de la CIE (en los espacios cromáticos RGB o XYZ). Por ejemplo:

donde X, Y y Z son los valores triestímulo del color C. Este es el sistema de representación del color conocido como espacio de
excitación de conos o espacio de McLeod-Boynton (1979). En este modelo, los mecanismos de visión se manifiestan de forma
directa y facilita la interpretación de resultados. De estos valores triestímulo LMS se obtienen las coordenadas cromáticas l, m y s
pero mediante expresiones diferentes a las estudiadas en el capítulo 4 y de forma que l+m=1:

Este tipo de modelos, basados únicamente en la colorimetría triestímulo, permiten caracterizar el color de los estímulos y
predecir el resultado de operaciones sencillas con colores (las leyes de Grassman). Pero no permiten predecir los descriptores
perceptuales de los estímulos, la influencia del iluminante y la influencia del entorno. Por tanto, la colorimetría triestímulo no
puede por sí sola explicar el funcionamiento de nuestro sistema visual.

2. MODELOS ATD
Dado que la mezcla de las respuestas de los tres tipos de conos explica muchos fenómenos de apariencia del color, parece
razonable pensar en un modelo con más de una etapa de procesado, donde una de esas etapas (la primera) fuera esa trivariancia,
pero que además existieran otras etapas de procesado posteriores. Esas etapas posteriores son las que permitirían explicar otros
fenómenos adicionales de la visión del color.
La estructura general de un modelo de visión del color debe incorporar algunos aspectos básicos:

la trivariancia visual,
la existencia de mecanismos oponentes,
la adaptación al nivel de luminancia,
la adaptación al entorno.

2.1. Oponencia cromática


En la segunda mitad del siglo XIX, Ewald Hering (1872-74) estudió la apariencia de los colores. En sus informes a la Academia
Imperial de Ciencias de Viena propone la existencia de tres procesos oponentes generados en algún lugar del proceso visual, como
podemos apreciar en el esquema de la figura 7.2:

Proceso Claro-Oscuro,
Proceso Amarillo-Azul,
Proceso Rojo-Verde.

Figura 7.2: Esquema de la oponencia cromática: claro-oscuro, rojo-verde y azul-amarillo.

La idea de oponencia implica que las categorías Rojo-Verde (y de la misma forma Azul-Amarillo y Claro-Oscuro) son los dos
extremos de variaciones de un continuo. Por ejemplo: más claro implica necesariamente menos oscuro. Un color no puede ser al
mismo tiempo claro y oscuro. Lo mismo, por extensión, se aplica a las descripciones cromáticas: más rojo implica menos verde y
más azul implica menos amarillo.
Aparte de no tener ningún soporte experimental, Hering chocó frontalmente con la teoría tricromática establecida y con las
ideas fisiológicas de la época. Según Müller, «una fibra nerviosa es capaz de conducir únicamente un tipo de información
cualitativa». Por tanto, una fibra nerviosa no podía transmitir información de rojo y verde, ya que son cualitativamente diferentes.
Es por esto que sus ideas fueron cuestionadas y no se consideraron correctas hasta muchos años más tarde, cuando se comprobó
experimentalmente la existencia de estos mecanismos oponentes.

2.2. Experiencia de Jameson y Hurvich


Antes de que se confirmara fisiológicamente la existencia de mecanismos oponentes en el sistema visual, Jameson y Hurvich
(1955) realizaron una experiencia psicofísica que apoyaba la teoría de oponencia de Hering. Demostraron que es posible cancelar
o neutralizar el tono de un color monocromático mediante la superposición de luz de longitud de onda, de tono «opuesto» al que se
quiere cancelar.
Supongamos un color monocromático C, que puede ser descrito mediante las sensaciones básicas rojo, verde, amarillo y azul
(una o combinaciones de ellas). Le pedimos al sujeto que cancele cada una de las sensaciones básicas con las que describiría el
color C. Por ejemplo: si el color C se percibe naranja rojizo, el sujeto añadirá verde hasta anular la sensación rojiza y que el color
se perciba como amarillo, como puede verse en el esquema de la figura 7.3 (la cantidad que debe añadirse dependerá de las
componentes del color de partida). Si por ejemplo el color resultante ahora se percibe amarillento (C2 en la parte inferior de la
figura), el sujeto añadirá azul hasta anular esa sensación y el resultado final parecerá blanco.
Este mismo razonamiento podemos aplicarlo a cualquiera de las cuatro sensaciones básicas de tono, de forma que
comprobamos que se puede anular cada una de ellas añadiendo el estímulo adecuado.

Figura 7.3: Experimento de cancelación de tono. Dado un color luz C p. ej. naranja rojizo, añadiendo suficiente cantidad de luz verde se cancela la
componente rojiza y se percibe un amarillo.

Los resultados de este experimento corroboran la idea de oponencia cromática al poder cancelar un tono con su
complementario. Además demuestra que sólo son necesarias cuatro sensaciones básicas para describir cualquier color espectral, ya
que los observadores sólo necesitan las cualidades rojo, verde, amarillo y azul para describirlos, no utilizando nunca las
agrupaciones rojo-verde ni azul-amarillo (por ejemplo, un color rojizo no es descrito al mismo tiempo como verdoso).
Podemos definir la valencia cromática como la cantidad de cada componente de la mezcla y, por tanto, lo que tendremos que
añadir del color complementario para cancelar una parte. La valencia cromática se representa en la conocida figura de Jameson y
Hurvich de 1955 (ver fig 7.4):
Figura 7.4: Curvas de valencia cromática, según datos de Jameson y Hurvich, 1955. Extraída de Artigas, 1995.

––––––––––––––––––––––

Selecciona un color de por ejemplo 450 nm. ¿Qué componentes tiene? ¿Con qué colores se anularía cada una? ¿Todos los
monocromáticos tienen dos componentes en la mezcla? Fíjate en las zonas en que se unen las curvas de rojo con verde y de azul
con amarillo. Esos brazos de cada curva son asíntotas, continúan hacia abajo sin tocarse.
Los monocromáticos de 475 nm (azul), 500 nm (verde) y 575 nm (amarillo) se denominan tonos únicos, y están caracterizados
por tener una sola componente.

––––––––––––––––––––––

Habitualmente se asigna un signo positivo o negativo para destacar el concepto de oponencia, de manera que si se giran las
curvas correspondientes por ejemplo al azul y al verde, se obtienen las llamadas curvas de respuesta de los mecanismos rojo-verde
y azul-amarillo del modelo oponente (ver fig 7.5). Los autores postularon que estas curvas debían ser combinaciones de las
funciones de igualación de color.
Figura 7.5: Curvas de respuesta de los mecanismos cromáticos rojo-verde y azul-amarillo. Según datos de Jameson y Hurvich, 1955.

––––––––––––––––––––––

Fíjate también en las zonas en que se unen las curvas de rojo con verde y de azul con amarillo. En esta gráfica puedes ver que
esos puntos corresponden a ceros de ese mecanismo, por lo que se denominan también puntos neutros del mecanismo. ¿Es más
fácil responder ahora a la pregunta de si todos los monocromáticos tienen dos componentes?

––––––––––––––––––––––

2.3. Estructura general de un modelo ATD


Los modelos que integran dos o más etapas, con una de ellas oponente, se conocen como modelos ATD, en alusión a los
canales Acromático, Tritán (R/V) y Deután (Az/Am). Estos modelos surgen de la combinación de dos ideas que en su día se
consideraron antagónicas: la teoría tricromática, capaz de reproducir gran cantidad de experimentos psicofísicos aunque no predice
la apariencia del color, y la teoría de colores oponentes, capaz de predecir ésta última.
La unificación de ambos enfoques se estableció a partir del experimento de Jameson y Hurvich, por combinación de una
primera fase tricromática a nivel de los receptores (espacio LMS) y una segunda fase de procesamiento neural regida por
mecanismos de colores oponentes: los dos mecanismos cromáticos oponentes rojo-verde (T) y azul-amarillo (D) además de un
mecanismo de luminancia no oponente (A).
En la figura 7.6 se presentan juntos el mecanismo acromático y los mecanismos oponentes cromáticos. El mecanismo
acromático coincide con la curva de visibilidad espectral y los mecanismos T y D con las curvas obtenidas en la experiencia de
cancelación de tono de Jameson y Hurvich.
Figura 7.6: Curvas de los mecanismos A (línea negra), T (línea rojo-verde) y D (línea azul-amarillo).

Los modelos ATD de visión del color son cuantitativos, de modo que cualquier cambio en un estímulo cromático pueda
describirse mediante operaciones matemáticas en un espacio de representación. La complejidad del modelo va a depender de la
cantidad de fenómenos visuales que sea capaz de explicar, aunque como ya hemos adelantado no existe ningún modelo que sea
capaz de responder a todas las preguntas.
La estructura general de un modelo de visión cromática (ATD) se basa en la relación entre el estímulo físico y la respuesta del
sistema visual en un nivel fisiológico determinado (conos, LGN, corteza visual etc…). Esta relación puede ser lineal o no, por lo
que distinguiremos en primer lugar dos grandes clases entre los modelos atendiendo a si las operaciones matemáticas para obtener
la respuesta son lineales o no lo son. Además, distinguiremos las diferentes etapas de que conste el modelo, según el nivel
fisiológico al que corresponda.
Aunque la descripción del estímulo físico comienza con los valores triestímulo, para simplificar vamos a considerar como
inicio la etapa de conos en la retina. Sólo faltaría añadir el paso de valores triestímulo XYZ al espacio de excitación de conos
LMS, perfectamente conocido y tabulado. La representación general del cambio desde el espacio de excitación de conos hasta la
salida ATD sería:

o bien, especificando los nueve coeficientes de la matriz de cambio:


Como vemos, en la ecuación anterior las combinaciones de los conos para dar las salidas ATD se han expresado como una
matriz de cambio Mc (MLMS→ATD) que permitirá pasar de una representación a otra.
Todos los modelos ATD cumplen unas condiciones genéricas, que vienen dadas por lo que ha de representar cada una de las
salidas de los tres mecanismos. En el esquema de la ecuación 7.5 se han representado las condiciones que ha de cumplir cada uno
de los 9 elementos de la matriz de cambio Mc. Las condiciones se expresan en función de los signos de los elementos, o si pueden
ser mayores, menores o iguales a 0. Los elementos que no tienen restricción pueden tomar cualquier valor.

Con estos condicionantes la señal acromática es siempre positiva y se garantiza que los canales T y D sean oponentes. T es una
señal oponente rojo-verde y D una señal oponente azul-amarillo.
Dependiendo del modelo, la salida ATD puede estar localizada en el LGN, en la corteza visual, o incluso puede corresponder a
la percepción final del sujeto. En este caso hablamos de descriptores perceptuales L, C y h (Luminosidad, Colorido y Tono) y se
suelen expresar como combinaciones de A, T y D, a las que se llega mediante una transformada (OPATD→LCh) que puede incluir
operaciones lineales o no lineales:

Figura 7.7: Esquema de las transformaciones entre LMS y los descriptores perceptuales LCh.

La estructura general completa se muestra en el diagrama de la figura 7.8:


Figura 7.8: Estructura general de un modelo ATD, con las transformaciones entre XYZ y los descriptores perceptuales LCh.

2.4. Modelos ATD lineales


Uno de los modelos ATD mas simples, si no el que más, es el modelo de Boynton (1986). Se trata de un modelo de dos etapas,
que parte de los receptores fundamentales de Smith y Pokorny. El funcionamiento de este modelo se resume en la figura 7.9,
donde se han duplicado los conos para apreciarlo mejor:
Figura 7.9: Modelo de visión cromática de Boynton, 1986.

Veamos con detenimiento sus principales características.


El canal A es proporcional a la luminancia y recibe la suma de las señales de L y M, la contribución de los conos S se considera
despreciable en este mecanismo. El canal oponente de cromaticidad rojo-verde (T) recibe las señales de L y M pero no de S,
quedando de la forma L-2M.
El factor 2 que aparece en esta contribución está perfectamente justificado. De esta manera se garantiza que para el tono
amarillo único de 575 nm, la respuesta de este mecanismo sea cero (ni rojo-ni verde). De no introducir el factor 2, la señal de T
sería un valor positivo, predominaría el rojo sobre el verde, que se añadiría al amarillo y nos haría percibir un naranja rojizo.
Otra razón para este factor parece estar en la proporción de conos en la retina (L:M:S = 10:5:1), ya que hay el doble de conos L
que de conos M.
En la figura 7.10 están representados los fundamentales de Smith y Pokorny, además del reescalado para la curva L/2 (en lugar
de 2M). Se aprecia así que para 575 nm el mecanismo T daría respuesta 0.
Figura 7.10: Curvas consideradas para el desarrollo del modelo de Boynton: fundamentales de Smith y Pokorny, curva de visibilidad Vλ y curva
reescalada para los conos L (curva punteada L/2). Extraída de Artigas, 1995.

El canal oponente de cromaticidad amarillo-azul (D) recibe una señal amplificada con signo negativo desde valores
relativamente pequeños del cono S y una señal de longitudes de onda largas desde los conos L y M: (L+M)-S.
Cuando S>L+M, la respuesta del canal es negativa y el color es interpretado en estadios superiores del proceso visual como
azul. Por otro lado, cuando S<L+M, la respuesta del canal es positiva y el color es interpretado como amarillo.
Para longitudes superiores a 520 nm los conos S prácticamente no dan respuesta, por lo que la señal del canal es entonces
positiva y se interpreta siempre como amarillo.
Además, el blanco equienergético W cumple estas dos condiciones: LW=2MW y LW+MW=SW. Esto nos indica que no se percibe
ni rojo, ni verde, ni azul, ni amarillo.
Podemos afirmar que la señal L+M se transmite por fibras nerviosas diferentes a las que transmiten la señal L-2M.
La ecuación de transformación de los receptores LMS a los mecanismos ATD es la siguiente:

Todos los modelos de visión cromática coinciden en grandes rasgos en esta estructura general que acabamos de ver para el
modelo de Boynton: hay dos canales oponentes y hay un canal aditivo no oponente para la luminancia. Sin embargo, existen
ciertos puntos de discrepancia entre unos modelos y otros que aún no se ha logrado aclarar:

Respecto al canal T, siempre hay oponencia T=L-M, pero se discute si existe contribución o no de los conos S. En
caso de que existiera, esta contribución sería del tipo (L+S)-M.
Respecto al canal D, siempre hay oponencia D=L-S, pero se discute si existe contribución o no de los conos M a este
canal. En caso de que existiera, esta contribución sería del tipo (L+M)–S.
Respecto al canal A, siempre es aditivo, A=L+M, pero se discute si existe contribución o no de los conos S a este
canal. En caso de que existiera, esta contribución sería del tipo aditivo L+M+S. La mayoría de resultados
experimentales apuntan a que no existe esta contribución.
Aunque no vamos a razonarlos aquí, los modelos ATD resuelven algunos de los efectos visuales para colores aislados. El efecto
Helmholtz-Kohlsrausch, el efecto Aubert-Abney, el efecto Bezold-Brücke y la apariencia del color para los dicrómatas pueden
explicarse con modelos ATD lineales.

2.5. Modelos ATD no lineales


Existen ciertos efectos cromáticos que no son explicables mediante estos modelos lineales, por ejemplo los efectos debidos a la
adaptación a un iluminante, la influencia del fondo y del entorno que rodea al estímulo, etc. En estos casos se hace necesario
introducir no linealidades en el cálculo de la respuesta ATD.
Un buen ejemplo es el modelo CIE-La*b* o CIELAB, uno de los primeros y el que más se utiliza en aplicaciones industriales.
A partir de los valores triestímulo del color C, este modelo introduce información del iluminante (toma un blanco de referencia W)
y no linealidades (raíces en las ecuaciones de cálculo), que nos llevan a unas nuevas coordenadas L*, a* y b*, así como a los
descriptores perceptuales L* (lightness), C* (chroma) y h* (hue), como podemos ver esquemáticamente en la figura 7.11.

Figura 7.11: Representación esquemática del modelo CIELAB. Se desarrolla a partir de los valores triestímulo XYZ y contempla un iluminante (W) y
un mecanismo de adaptación cromática. Las coordenadas (a*,b*) corresponden a la cromaticidad del estímulo (T y D), mientras que L corresponde al
canal acromático A.

Este modelo se puede considerar como el primer modelo ATD, a pesar de que la salida no se nombra con esas iniciales, sino
como L*, a*, b*. Las expresiones de estos tres parámetros se dan siempre en función de XYZ del color y del blanco de referencia
(ver fig 7.12).
Figura 7.12: Ecuaciones de transformación y representación gráfica del modelo CIELAB
(http://disenoypreimpresionmozadr.files.wordpress.com/2012/03/labsys.jpg).

Este modelo mejora las prestaciones de un modelo lineal. Por ejemplo predice los pares correspondientes como veremos más
adelante. Pero no es capaz de predecir todos los efectos para colores relacionados ya que no introduce información del entorno del
test. Además, no es un espacio uniforme perceptualmente, como también veremos más adelante.

2.6. Otros modelos más actuales


Los modelos más actuales siguen el esquema general que representamos en la ec 7.7: se parte de LMS y se introduce la primera
no linealidad (NL), obteniendo una respuesta LMS adaptada a esas condiciones, se aplica la matriz de cambio Mc para obtener la
respuesta ATD y se aplica otra etapa que recoge no linealidades para obtener valores ATD adaptados. El objetivo es, como en otras
ocasiones, reproducir los ATD de Jameson y Hurvich, lo que permite un buen testeo de las prestaciones del modelo.

Las no linealidades son generalmente del tipo:


No vamos a profundizar en estos modelos, ya que se escapa de nuestros objetivos, pero sí podemos nombrar dos ejemplos de
modelos más actuales que intentan recoger algunos de los factores más influyentes conocidos a partir de los resultados
experimentales.

a) El modelo de Derrington-Krauskopf y Lennie (1984), también conocido como DKL, espacio de contraste de conos o de
modulaciones oponentes. Es un modelo lineal que incluye una dependencia del estímulo de fondo adaptador, pero con una
característica que lo diferencia del resto de modelos. Como el comportamiento del sistema visual humano es altamente no lineal,
cuando relacionamos las variaciones de un estímulo C con las variaciones a un nivel fisiológico determinado (conos, LGN), la
relación es sólo lineal en la vecindad de ese estímulo C. Esto nos permite hacer lo que se llama una caracterización diferencial de
cómo el sistema visual responde a condiciones de adaptación de los conos o del LGN.
Si consideramos un fondo definido por (L0, M0, S0) en el espacio de excitación de conos, podemos estudiar las amplitudes (∆A,
∆T, ∆D) asociadas a un estímulo incremental (∆L, ∆M, ∆S), que sería nuestro color sobre ese fondo. La notación matricial es la
siguiente:

b) Modelos más complejos que proponen explícitamente la adaptación y mecanismos de compresión de señales: por ejemplo el
modelo Guth de 1991. No es estrictamente un modelo de visión del color, sino un modelo de adaptación, incluyendo ruido y
control de ganancia a nivel de los conos, así como no linealidades en dos etapas oponentes.

La existencia de una amplia variedad de modelos de visión, así como el hecho de que su desarrollo constituye uno de los
objetivos de muchos grupos de investigación, nos hace darnos cuenta de que todavía no tenemos un modelo ideal que sea capaz de
cubrir todas las necesidades. Para cada problema de visión del color que deseemos resolver, debemos elegir el modelo que
proporciona la máxima información con la mínima complejidad de cálculo.

3. TESTEO DE MODELOS: PARES CORRESPONDIENTES Y DISCRIMINACIÓN CROMÁTICA


Una de las tareas más importantes que debe predecir un modelo de visión del color es la diferencia de color entre dos estímulos,
de forma que podamos estudiar la discriminación cromática del sistema visual. Retomamos por tanto el concepto de umbral, la
mínima variación de una magnitud que produce un cambio en la percepción. A menor umbral, mayor capacidad de discriminación
o capacidad de diferenciación.
Dos de las pruebas clásicas con resultados experimentales para testear las prestaciones de un modelo son los estudios de
uniformidad del espacio de color (concepto asociado a la discriminación cromática) y la predicción de los llamados pares
correspondientes.

3.1. Umbrales y Discriminación


El sistema visual tiene una gran capacidad en todas las tareas de discriminación. Ya hemos introducido la mínima diferencia de
una magnitud que es capaz de distinguir nuestro sistema visual: los umbrales absolutos y relativos. Por ejemplo, podemos apreciar
como diferentes dos estímulos blancos que difieren en luminancia solamente un 1%, o incluso menos si se trata de luminancias
bajas. También podemos distinguir entre estímulos monocromáticos de la misma luminancia que difieren 2 o 3 nm.
––––––––––––––––––––––

Supongamos que para una magnitud M el umbral de discriminación es U (discriminar es sinónimo de distinguir, diferenciar).
Cuanto mayor es U, la capacidad de discriminación asociada a esa magnitud ¿es mayor o menor? Dicho de otra forma, cuanto
mayor es U, ¿discriminamos mejor o peor los cambios en esa magnitud, nos daremos cuenta antes o después de que hay un
cambio?

––––––––––––––––––––––

A la hora de preguntarnos por cómo ha de ser de diferente un color para que el sujeto perciba que ha cambiado, podemos pensar
en varias opciones, debido al carácter tridimensional de la descripción colorimétrica. El planteamiento más lógico será el que
incluya todas las variables del color al mismo tiempo, es decir, el umbral de color propiamente dicho. Pero antes de valorar la
diferencia total de color veamos algunos resultados experimentales de las variables por separado.
Por ejemplo, al considerar los descriptores perceptuales, podemos plantearnos umbrales de tono, luminosidad y colorido. Si
pensamos en los descriptores físicos del color, nos plantearemos umbrales de longitud de onda, de luminancia y de pureza. Como
ya hemos hablado de los umbrales de luminancia en temas anteriores, en este capítulo vamos a ver los otros dos tipos.

3.1.1. Umbrales de longitud de onda


Si medimos para todos los colores monocromáticos cuánto ha de variar la longitud de onda inicial para que sea perceptible un
cambio en el color, se obtiene que el valor del umbral no es constante a lo largo del espectro, sino que depende de cuál es el color
de partida (ver fig 7.13):

Figura 7.13: Representación de los umbrales diferenciales de longitud de onda para colores monocromáticos, según datos de Wright y Pitt, 1934.
Extraída de Artigas, 1995.

––––––––––––––––––––––

¿Para qué gama de colores tenemos mayor y menor capacidad de discriminación de longitudes de onda? Si comparamos un
verde de 500 nm y un rojo de 650 nm, ¿para cuál de los dos tendremos que variar más su longitud de onda si queremos distinguir
un color diferente?
––––––––––––––––––––––

El rango de umbrales está comprendido entre 1 y 6 nm, siendo el incremento medio del orden de 2.5 nm, pero no podemos
olvidar que hay muchos colores con incrementos superiores a los 2 nm.
Podemos aplicar estos resultados si queremos diagnosticar algunas patologías. Por ejemplo, en la diabetes hay alteraciones
retinianas que llevan asociada una pérdida de discriminación cromática muy acusada en prácticamente todo el espectro. En la
figura 7.14 se compara la curva normal con la de un paciente diabético. Como podemos ver hay una pérdida de discriminación en
todo el espectro, además de una pérdida más acusada en la zona de cortas longitudes de onda, cuya detección está mediada por el
canal azul-amarillo.

Figura 7.14: Representación de los umbrales diferenciales de tono para colores monocromáticos en un observador normal y otro diabético, según datos
de Marré y Marré, 1986. Extraída de Cronly-Dillon, 1991.

3.1.2. Umbrales de pureza


Para estudiar cómo varían los umbrales de pureza colorimétrica con la longitud de onda se mide la cantidad de color
monocromático que se debe añadir a un blanco para percibir una mínima desviación cromática. De nuevo no hay un valor único
para todo el espectro: en los amarillos el umbral es grande, en los azules es pequeño y en los rojos intermedio (ver fig 7.15). ¿Qué
implica esto? Pues que en colores amarillos necesitamos cambiar mucho la pureza del color para ver diferencias, pero en azules
enseguida vemos el cambio.
Figura 7.15: Umbrales diferenciales de pureza (cada curva corresponde a un sujeto), según datos de Priest & Brickwedde, 1938. Extraída de
webvision.med.utah.edu/book/part-viii-gabac-receptors/color-perception.

También podemos utilizar este parámetro para diagnóstico, por ejemplo en el caso de diabetes visto anteriormente (ver fig
7.16). Las pérdidas respecto al sujeto normal son más acusadas para altas y bajas longitudes de onda (rojos y azules), pero se
puede considerar normal en las intermedias.

Figura 7.16: Umbrales diferenciales de pureza para un sujeto normal y un sujeto con diabetes, según datos de Marré y Marré, 1986. Extraída de
Cronly-Dillon, 1991.

3.1.3. Umbrales de color


Entre los trabajos clásicos de medidas de umbrales de color destaca el publicado por MacAdam en 1942 (ver fig 7.17).
MacAdam realizó un experimento clásico de discriminación con colores no espectrales. Se trata de determinar la mínima variación
en un color para que se perciba que ha habido un cambio. Lo que evalúa el observador en este caso es la diferencia total de color
∆E, independientemente de que el cambio se haya producido en longitud de onda y/o pureza.

Figura 7.17: Resultados obtenidos por MacAdam en sus experimentos de discriminación de color. Los ejes de las elipses están ampliados en un factor
10, para su mejor visualización. Este trabajo pone de manifiesto la falta de homogeneidad del diagrama CIExy1931, ya que en un espacio homogéneo,
esas elipses deberían ser círculos. Extraída de Wyszecki & Stiles, 1982.

En primer lugar seleccionó veinticinco colores distribuidos por todo el diagrama cromático. Para cada uno de ellos (x0,y0),
realizó igualaciones a lo largo de diferentes líneas/direcciones radiales en el diagrama cromático, de forma que en cada dirección
se determina el umbral de discriminación respecto al color del punto central. La dispersión de las igualaciones realizadas por el
observador se puede ajustar a elipses. Los resultados nos indican que todos los colores incluidos dentro de cada elipse no son
distinguibles entre sí para el observador.
Hoy en día se conocen como las elipses de MacAdam. Su orientación y tamaño es diferente en cada zona del diagrama
cromático, lo que nos indica que el diagrama cromático xy no es uniforme: un cambio constante en cualquier coordenada no se
corresponde con un cambio igual en la percepción del color.
Las elipses de MacAdam se calcularon en un plano de luminancia constante, pero posteriormente Brown y MacAdam
estudiaron el problema considerando también variaciones en luminancia. El resultado son los elipsoides de Brown y MacAdam
que se muestran en la figura 7.18.
Figura 7.18: Elipsoides de Brown y MacAdam. Extraída de Wyszecki & Stiles, 1982.

En un espacio euclídeo la diferencia de color (∆E) corresponde a una distancia, por lo que aplicaremos la expresión de la
distancia entre dos puntos como la suma ponderada de la contribución sólo de cromaticidad y la de luminancia. Por ejemplo, en
CIELab:

En un modelo general ATD, la diferencia de color entre dos muestras se calcula o bien a partir de las señales de salida ATD o
bien a partir de los descriptores perceptuales LCh:

––––––––––––––––––––––

Aplicando esta definición de distancia al espacio XYZ, dos colores a igual distancia métrica uno de otro en el diagrama
cromático CIExy, deberían mantener la misma diferencia perceptual en cualquier zona del diagrama. ¿Es correcta esta afirmación?

––––––––––––––––––––––
Las diferencias de color tienen una gran importancia económica y comercial. Un producto puede ser aceptado o rechazado por
el consumidor en función de una diferencia de color perceptible. Uno de los grandes retos de la colorimetría está en establecer un
criterio universal de especificación del color y una expresión para evaluar y predecir la diferencia de color, es decir, una fórmula
de diferencia de color. Retomaremos esta idea en el punto siguiente.

3.2. Pares correspondientes


Una prueba clásica para saber si un modelo funciona bien es comprobar si es capaz de predecir los pares correspondientes,
donde entra en juego una igualdad de color (discriminación) y la influencia del iluminante. La prueba consiste en igualar dos
muestras de color vistas cada una bajo un iluminante diferente. Obviamente, para que la percepción sea la misma, las reflectancias
de esas dos muestras no pueden ser iguales, ya que los espectros de los iluminantes son distintos. A esas dos muestras físicas
diferentes se las denomina par correspondiente.
La figura 7.19 muestra un montaje experimental para la obtención de pares correspondientes bajo los iluminantes A y D65,
dentro de una cabina de iluminación con dos zonas independientes. La muestra patrón es vista con D65 y se selecciona su par de
entre un conjunto de muestras visto bajo A. El sujeto que realiza la prueba debe llevarla a cabo de forma haploscópica, es decir, un
ojo recibe información de un solo iluminante.

Figura 7.19: Determinación de «pares correspondientes» en cabina de iluminación. La tarea del observador consiste en determinar qué muestra de la
derecha, vista con un ojo bajo iluminante A, se percibe igual que la muestra de la izquierda vista con el otro ojo bajo un iluminante D65.

En la figura 7.20 se presentan los resultados obtenidos por Breneman con la pareja de iluminantes D65 (círculos) y A
(triángulos negros) en el espacio CIELUV (espacio de características similares al CIELAB, propuesto en el mismo año por la
CIE). Las muestras no son iguales, pero tienen la misma apariencia en las condiciones del experimento. En la figura también se
muestran las predicciones de un modelo de visión del color (triángulos blancos). El modelo, dado un color del par correspondiente
(círculo) en unas condiciones, calcula cuál debe ser el segundo color del par en las otras condiciones, con la condición intermedia
de que la apariencia sea la misma. Para esto se impone la condición de que la diferencia de color percibida sea nula. Si el modelo
fuera perfecto, los datos experimentales (triángulos negros), y los datos predichos por el modelo (triángulos blancos) deberían
coincidir unos sobre otros.
Figura 7.20: Resultados experimentales para siete pares correspondientes (unidos por flecha), y predicciones de un modelo de visión cromática
(triángulos blancos). Los resultados se muestran sobre un diagrama CIELuv. Extraída de Fairchild, 2005.

En la figura 7.21 podemos ver un ejemplo de las predicciones hechas por los modelos CIELAB y CIELUV:

Figura 7.21: Predicción de la apariencia cromática de los modelos CIELAB y CIELUV. M.J. Luque.
En la fila superior vemos el aspecto que tendrían las nueve muestras coloreadas del ejemplo si las pusiésemos bajo una
bombilla D65 (blanca) y al lado el aspecto que tendrían las mismas muestras bajo una bombilla A (anaranjada). La diferencia entre
las dos imágenes es el cambio colorimétrico que ha tenido lugar al cambiar el iluminante. Pero no era esto lo que queríamos
plantear, sino, saber qué muestras deberíamos escoger de forma que si las mirásemos con la bombilla A tuviesen el mismo aspecto
que las muestras originales bajo la bombilla D65. En la fila inferior de la figura vemos la predicción de la apariencia que hacen los
modelos CIELAB y CIELUV. Aunque la comprobación debería hacerse mirando cada figura con su iluminante correspondiente,
vamos a suponer que estamos en las condiciones necesarias. Si nos fijamos en la figura 7.21, ambos modelos predicen
relativamente bien los colores, ya que se parecen bastante a los originales (arriba-izq). Pero apreciamos diferencias que nos
permiten afirmar que la predicción de CIELAB es más acertada.

4. ESPACIOS UNIFORMES DE COLOR


El camino correcto para abordar el problema de las diferencias de color es un proceso de uniformización del espacio de
representación, para poder trabajar con una métrica sencilla.
La CIE ha adoptado diferentes espacios desde 1960, como transformaciones del XYZ, con el fin de establecer un espacio lo
más uniforme posible: UCS (1960), CIELAB y CIELUV (1976), CIECAM97, CIECAM02,... A pesar de sus limitaciones,
CIELAB continúa siendo el espacio de representación más extendido en gran número de aplicaciones científicas e industriales. A
nivel industrial se ha constituido como un estándar de referencia en múltiples sectores (textil, alimentación, pinturas…). En origen,
CIELAB era un sistema recomendado para colores impresos y CIELUV para colores luz, aunque han sido usados indistintamente.
En un principio CIELAB se propuso explícitamente para el cálculo de diferencias de color. Es el primer espacio de color que
incorpora una transformada de adaptación cromática, por el hecho de incluir una normalización respecto al blanco de referencia.
Como esta normalización se hace en XYZ y no en LMS, nos referimos a ella como pseudotransformada Von Kries. Las
predicciones de los pares correspondientes de Breneman en este espacio son bastante buenas, pero no considera las variaciones de
iluminación ni la influencia del entorno. Es por tanto un modelo de apariencia del color en la forma más simple posible.
Una característica importante para un espacio cromático es, como hemos adelantado, que sea homogéneo para las diferencias de
color. O dicho de otra manera, las diferencias de color perceptivamente iguales deben corresponder sobre el diagrama a distancias
iguales, independientemente de la zona concreta del diagrama sobre la que se sitúe el color.
Para validar el grado de homogeneidad de un espacio cromático se puede utilizar por ejemplo al Atlas Munsell. Se trata de un
muestrario de colores que están ordenados con criterios perceptivos (las diferencias entre muestras son pasos constantes de L, C o
h). Si las diferencias perceptuales entre muestras son constantes, al representar los locus de igual croma en un diagrama de color
homogéneo deberíamos obtener círculos concéntricos y al representar los locus de igual tono obtendríamos líneas rectas con
origen en el centro del diagrama. En la figura 7.22, a la izquierda están representados los locus de croma y tono constante ideales.
A la derecha vemos lo que ocurre en el diagrama CIExy con las muestras de colores reales.

Figura 7.22: Izquierda: locus de croma y tono constantes en un diagrama perfectamente homogéneo. Derecha: resultados reales en el espacio CIExy.

Podemos encontrar otros espacios donde los resultados para los locus de croma y tono constante son más homogéneos que en
CIExy. En la figura 7.23 se representan estos locus para distintos espacios: CIELAB, CIELUV y SVF, un modelo no adoptado por
la CIE, sino propuesto por Seim y Valberg, con resultados prometedores.
Figura 7.23: Locus de croma y tono constantes en los diagrama CIELAB, CIELUV y SVF. Como puede verse estos espacios de representación, a pesar
de no ser perfectos, son muchísimo más homogéneos que CIExy. M.J. Luque.

En el espacio SVF las transformaciones matemáticas tratan de ser coherentes con las evidencias conocidas acerca del
funcionamiento de las células del sistema visual. Impone un doble criterio, que el modelo reproduzca los locus de croma constante
del Atlas Munsell y que las transformaciones reproduzcan las respuestas reales de los fotorreceptores y de las diferentes células
del LGN. Se trata por lo tanto de un modelo fisiológico: no solamente considera que el resultado matemático sea correcto, sino
que las ecuaciones deben ser coherentes con el funcionamiento de las células visuales.

5. SISTEMAS DE ORDENACIÓN DEL COLOR


Supongamos que tenemos un conjunto de muestras de color y que nos planteamos ordenarlas (ver fig 7.24). ¿Qué criterio sería
el más adecuado para clasificarlas? ¿En cuántas dimensiones?

Figura 7.24: ¿Qué criterio sería el más adecuado para clasificar un muestrario cualquiera de colores?

Un sistema de ordenación del color, o atlas de colores, es básicamente un criterio para ordenar los colores de acuerdo a sus
atributos y un método de notación que permite la especificación del color. La ordenación se realiza de forma que cuanto más
parecidos sean los atributos de dos colores, más próximos estén sus valores numéricos.
Un sistema de ordenación generalmente está formado por muestras físicas, por tanto están sujetos al deterioro por el manejo y
la luz, a la dependencia del soporte, a la falta de continuidad en la reproducción de parámetros etc. En este apartado vamos a ver
algunos de los sistemas más conocidos de ordenación y de nomenclatura del color.

5.1. Atlas Munsell


Figura 7.25: Atlas Munsell de colores. A la izquierda, una parte de las muestras organizadas en una estructura tridimensional. A la derecha, diferentes
ediciones de los libros conteniendo el conjunto de muestras. Extraídas de www.unitycolor.com y
commons.wikimedia.org/wiki/File:Munsell_Books.jpg.

Es sin duda el más importante y conocido de los sistemas de ordenación para aplicaciones basadas en visión, ya que la
ordenación de las muestras está realizada por observadores reales. Además, por su antigüedad se ha empleado en innumerables
estudios de visión.
Este Atlas (ver fig 7.25) está formado por una serie de muestras coloreadas y grises, ordenadas según criterios perceptivos, es
decir, la distancia perceptiva entre cada dos muestras se mantiene constante en cualquier dirección del espacio. Es por esto que
constituye una base de datos muy usada en visión para testear el comportamiento de modelos de visión del color.
La clasificación de las muestras en el Atlas responde a tres criterios:

cada tono (Hue) aparece en una página diferente y dentro de ella:


cada fila corresponde a un valor de luminosidad (Value),
cada columna corresponde a un valor de colorido (Chroma).

5.2. Atlas NCS

Figura 7.26: Atlas de color NCS, en dos ediciones diferentes. Extraídas de www.ncscolour.com.

Este Atlas (ver fig 7.26) está basado principalmente en la oponencia de colores, estableciendo 6 colores elementales y las
proporciones entre ellos (ver fig 7.27):
Figura 7.27: Colores elementales del sistema NCS.

Estos colores están relacionados con una serie de atributos cognitivos, escalados de 0 a 100: blancura w, negrura s, amarillez y,
rojidez r, azulez b, verdor g, y contenido cromático c.

5.3. HSV
Otro sistema de ordenación del color es el modelo HSV (ver fig 7.28), que define los colores en función de los valores de tres
atributos: matiz (H), saturación (S) y brillo (V).

Figura 7.28: Esquema del sistema de ordenación HSV. Extraída de es.wikipedia.org/wiki/Archivo:HSV_cone.jpg

El matiz hace referencia al color como tal, por ejemplo el matiz de la sangre es rojo. La saturación o intensidad indica la
concentración de color en el objeto. La saturación de rojo de una fresa es mayor que la del rojo de unos labios. Por su parte, el
brillo denota la cantidad de claridad que tiene el color (más o menos oscuro).

5.4. PANTONE
Entre los sistemas comerciales de definición de colores, el más conocido es el sistema Pantone (ver fig 7.29). Se basa en la
edición de una serie de catálogos sobre diversos sustratos (superficies a imprimir: brillo, satinado, mate….), que suministran una
codificación estandarizada mediante un número de referencia y un color específico.
Figura 7.29: Catálogos del sistema Pantone. Extraída de www.pantone-espana.com.

5.5. HEXADECIMAL (Lenguaje HTML)


Se utilizan 16 caracteres (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E y F) para codificar el nivel de intensidad de los niveles
digitales RGB (8 bits de profundidad) agrupados de dos en dos. Un color cualquiera vendrá representado mediante la sintaxis
hexadecimal #RRGGBB (ver fig 7.30). El menor nivel para cada canal corresponde al 00 y el mayor nivel a FF.
Por ejemplo: el color rojo puro se especificará como #FF0000 en notación RGB hexadecimal, mientras que un color verde-
amarillento se corresponde con el color hexadecimal #99FF00.

Figura 7.30: Ejemplos de colores en notación hexadecimal y el equivalente en niveles digitales. Extraída de www.proyectacolor.cl/aplicacion-del-
color/modelos-de-color/modelo-rgb.

5.6. CMYK
La síntesis aditiva no es la única forma de percibir el color. Cuando hablamos de pinturas o tintes, es la síntesis sustractiva la
que entra en juego.
Cuando la luz solar choca contra la superficie de un objeto, éste absorbe y refleja ciertas longitudes de onda. La relación entre
la parte absorbida y la reflejada es precisamente la causante de los colores de los objetos. Por ejemplo una pintura ‘roja’ actúa de la
misma forma que lo haría un filtro que sólo refleja la parte roja de la luz blanca que incide y absorbe la parte verde y azul, es decir,
se comportaría como un filtro cian (el opuesto del rojo). La cantidad de pigmento rojo aplicada en un papel controlará la parte cian
del color percibido. Es por esto que se denomina síntesis sustractiva.
En esta concepción sustractiva los colores primarios no son rojo, verde y azul, sino el cian, el magenta y el amarillo (ver fig
7.31). A partir de estos tres colores podemos obtener casi todos los demás, salvo el blanco y el negro.

Figura 7.31: Mezcla sustractiva de colores. Extraída de commons.wikimedia.org/wiki/File:SubtractiveColorMixing.png.

Efectivamente, la mezcla de pigmentos cian, magenta y amarillo no produce el color blanco, sino un color gris sucio, neutro. En
cuanto al negro, tampoco es posible obtenerlo a partir de los primarios, siendo necesario incluirlo en el conjunto de colores básicos
sustractivos, obteniéndose el modelo CMYK (Cyan, Magenta, Yellow, Black). En la figura 7.32 podemos ver un ejemplo de
notación CMYK.
Figura 7.32: Ejemplo de especificación CMYK. Extraída de
datateca.unad.edu.co/contenidos/299210/exe/ContLine_299210/leccin_9_modelos_de_color.html.

CUESTIONES
1. Rellena los huecos correspondientes:
Experiencia de [........]: «Es posible cancelar el tono de un estímulo monocromático mediante la superposición de luz de
longitud de onda opuesta a la que se quiere cancelar. Una luz monocromática naranja (600 nm) tiene como componentes
primarios [........]. Usando un monocromático verde, es posible cancelar el tono [........], resultando un color [........] único. La
cantidad de color verde añadido hasta cancelar el tono será la valencia cromática.

2. La siguiente matriz representa un modelo de visión cromática cualquiera:

a. Las ecuaciones son: A=L+M+S, T=L+2M+S, D=S.


b. Las ecuaciones son: A=L+M, T=L+2M, D= L+M+S.
c. Es un modelo oponente.
d. No es un modelo oponente.

3. Indica cuales de estos efectos no quedan resueltos (no se pueden explicar) con el modelo de Boynton:

a. Efecto Helmholtz-Kohlsrausch.
b. Efecto Bezold-Brücke.
c. Efectos de adaptación del fondo.
d. Efectos de influencia del entorno.
e. Efecto Aubert-Abney.
f. Todas son ciertas.

4. Supongamos un color monocromático de 500 nm y otro de 650 nm. Supongamos que podemos variar su longitud de onda de
nm en nm, fijándote en la gráfica de umbrales de longitud de onda (7.13), ¿cuál de las siguientes afirmaciones es la correcta?

a. 499 y 501 serán colores iguales al color de 500 nm, 646 y 654 serán colores iguales al color de 650 nm.
b. 499 y 501 serán colores diferentes del color de 500 nm, 646 y 654 serán colores diferentes del color de 650 nm.
c. 498 y 502 serán colores diferentes del color de 500 nm, 648 y 652 serán colores diferentes del color de 650 nm.
d. 498 y 502 serán colores iguales al color de 500 nm, 648 y 652 serán colores iguales al color de 650 nm.

5. Señala la afirmación correcta sobre el umbral de pureza:

a. Es mayor en los rojos, intermedio en los amarillos y menor en los azules.


b. Es mayor en los verdes, intermedio en los rojos y menor en los azules.
c. Es mayor en los amarillos, intermedio en los azules y menor en los verdes.
d. Es mayor en los amarillos, intermedio en los rojos y menor en los azules.
e. Es similar para todos los colores del espectro.

6. Teniendo en cuenta los umbrales de pureza, vamos a plantear dos experimentos:

a. tenemos dos amarillos exactamente iguales en un campo bipartito y añadimos blanco a uno de ellos hasta
percibirlos como diferentes.
b. Tenemos dos azules exactamente iguales y añadimos blanco a uno de ellos hasta percibirlos como diferentes.

¿En qué caso hay que añadir mayor cantidad de blanco?


a. Igual en ambos.
b. En el amarillo.
c. En el azul.
d. Añadiendo blanco, el color no va a cambiar, siempre los veré iguales.

7. Señala la respuesta correcta sobre las elipses de McAdam:

a. Representa los umbrales acromáticos.


b. Representan los umbrales de discriminación de pureza para colores no monocromáticos.
c. Representan los umbrales de discriminación de luminancia para colores no monocromáticos.
d. Representan los umbrales cromáticos de adaptación a la oscuridad.
e. Representan los umbrales de discriminación de color para colores no monocromáticos.
f. Son elipses porque el espacio cromático CIExy no es homogéneo.

8. La figura representa una hoja de un atlas de color, ¿de que atlas se trata?

a. Atlas Munsell.
b. Atlas Farnsworth-Munsell 28H.
c. Atlas Farnsworth-Munsell 100H.
d. Atlas NCS.
e. Atlas Helmholtz.
f. Atlas Hering.

9. La figura representa una hoja de un atlas de color, ¿De que atlas se trata?
a. Atlas Munsell.
b. Atlas Farnsworth-Munsell 28H.
c. Atlas Farnsworth-Munsell 100H.
d. Atlas NCS.
e. Atlas Helmholtz.
f. Atlas Hering.

10. En el atlas de la pregunta anterior, ¿por qué crees que en cada línea hay diferente número de muestras de color?

a. Porque el fabricante se quedó sin tintas para imprimir más.


b. Porque ninguna tecnología puede fabricar muestras del mismo tono y luminosidad pero mayor croma.
c. Porque utilizando esa tecnología de impresión no se pueden fabricar muestras del mismo tono y luminosidad pero
mayor croma.
d. Porque el ojo humano no va a ser capaz de distinguir esas muestras.
...

8. Visión espacial

1. INTRODUCCIÓN: DESCOMPOSICIÓN FRECUENCIAL DE UN ESTÍMULO VISUAL


Como ya hemos adelantado, la visión es un proceso de interpretación del mundo exterior a partir de la extracción de
información contenida en las imágenes retinianas. El resultado final es una percepción que abarca aspectos espaciales, temporales,
cromáticos, etc. El sistema visual analiza de manera separada estos aspectos y posteriormente se integra toda la información.
En este capítulo analizaremos de qué manera trabaja nuestro sistema visual para analizar la información espacial. De una
manera general, entendemos por información espacial de una escena la parte de la percepción visual relacionada con la forma,
tamaño y posición de los objetos.
Ya hemos visto que el sistema visual no analiza la información punto a punto, ese no es el modo de trabajo de nuestro cerebro.
Todo apunta a que la información se trata en procesos paralelos, más o menos independientes entre sí y con procesos de
compresión de la información.
Los resultados experimentales de muchos experimentos, tanto psicofísicos como fisiológicos corroboran la hipótesis del
funcionamiento del sistema visual como un analizador de Fourier. El análisis de Fourier es una herramienta matemática que
permite descomponer una función compleja en una suma de funciones elementales, dando información sobre el conjunto de
frecuencias presentes.
Este análisis es muy útil para analizar matemáticamente patrones de luz. Es razonable pensar que en una operación de ahorro de
procesado, el sistema visual actúe de manera análoga para no tener que procesar por separado millones de fotorreceptores. De esta
manera se produce un ahorro en el procesado de información, lo cual supone también una reducción en el tiempo de procesado.
Supongamos una imagen cualquiera y un punto de coordenadas (x,y) dentro de esa imagen, con una intensidad luminosa (I)
determinada (ver fig 8.1). El análisis de Fourier nos dice que la función que indica la intensidad luminosa en cada punto de la
imagen puede expresarse como una superposición de ondas elementales de diferente frecuencia y amplitud. Vamos a representar
estas ondas elementales mediante la función y=sen(x), por lo que hablaremos de ondas sinusoidales o sinusoides.

Figura 8.1: Una función compleja puede descomponerse mediante el análisis de Fourier en la suma de ondas sinusoidales elementales con diferente
frecuencia y amplitud. Imagen cortesía de «dan» en www.FreeDigitalPhotos.net.

Los objetos más elementales para nuestro sistema visual van a ser esas ondas sinusoidales. En primer lugar será necesario
descomponer la escena para obtener su contenido frecuencial, a continuación esa información será procesada y por último será
necesario volver a componerla.
1.1. Nociones previas sobre ondas y redes
Matemáticamente, una onda no es más que un corte longitudinal de una estructura 2D que se denomina red (ver fig 8.2). La red
está compuesta por un conjunto de bandas claras y oscuras. La onda es en realidad un perfil de la variación de luminancia a lo
largo de la dirección perpendicular a dichas bandas.
Las bandas claras son más luminosas y por tanto incluyen el máximo valor de luminancia de la onda, mientras que las bandas
oscuras son menos luminosas e incluirán el mínimo valor. La transición del máximo al mínimo en una onda sinusoidal no es
brusca sino que es un cambio suave y progresivo de intensidad.

Figura 8.2: Red de luminancia y representación gráfica de la onda asociada.

Para definir una red espacial correctamente, hace falta fijar una serie de variables:

Ciclo: es una sucesión de una banda clara y una banda oscura.


Frecuencia espacial: es el número de ciclos por unidad de ángulo visual en el espacio objeto (ver fig 8.3). Se mide en
ciclos por grado (cpg o c/g).

Figura 8.3: La frecuencia espacial de una red indica el número de ciclos (sucesión de una banda clara y una banda oscura) por unidad de ángulo visual
(unidad= ciclos/grado). En la figura se representa un ciclo medido de centro a centro de dos bandas oscuras consecutivas.
Amplitud: está relacionada con la variación de luminancia entre el valor máximo y el valor mínimo que toma.
Matemáticamente se expresa así:

Luminancia media: es el valor medio de luminancia de la onda:

Contraste: da una medida de la luminancia de un punto en relación al resto de la escena. Para una red sinusoidal, se
representa así:

Como puede verse, el contraste es adimensional.

Cada persona tiene una mayor o menor capacidad para la visión espacial, en función de distintas características de su sistema
visual, tanto de la parte óptica como de la parte neural. Así, considerando ahora el sistema visual como un detector, podemos
definir el contraste umbral de detección y la sensibilidad del sistema.

Contraste umbral: es el contraste mínimo por debajo del cual no hay detección (no se aprecia la red espacial).
Sensibilidad: es mayor cuanto menor es el contraste que una persona es capaz de detectar. Es por tanto inversamente
proporcional al contraste umbral de detección y se define como:

Cuanto menor es el contraste umbral de detección, mayor es la sensibilidad del sistema visual.

––––––––––––––––––––––

¿Qué significa tener una buena sensibilidad al contraste? ¿Y una buena capacidad de discriminar contrastes? Si la sensibilidad
es máxima, ¿el umbral de detección es máximo o mínimo? ¿Para qué umbrales de contraste –altos o bajos – tendremos la mayor
sensibilidad?

––––––––––––––––––––––

1.2. Visión de un estímulo simple: una rendija luminosa


Para entender mejor el análisis mediante ondas, empecemos con un ejemplo sencillo: un estímulo en forma de barra luminosa
situado sobre un fondo oscuro homogéneo (ver fig 8.4). El perfil de intensidades de este objeto es un escalón cuadrado, es por lo
tanto una barra cuadrada, donde el paso de luz a oscuridad no es gradual, sino que es brusco.

Figura 8.4: Perfil correspondiente a la variación de luminancia de una escena en la que se presenta un estímulo luminoso en forma de barra sobre un
fondo oscuro.

Para analizar la información de este objeto el sistema visual no realiza una única tarea, sino que debe analizar las luminancias
de la imagen punto por punto, los bordes de la barra, su extensión, etc. Las áreas con luminancia uniforme no presentan excesivo
problema, al menos hasta que llegamos a los bordes, donde el cambio es brusco. Las células especializadas en visión espacial de
nuestro sistema visual están preparadas para responder a cambios suaves de luz a oscuridad, pero no a cambios bruscos.
Este objeto con esos bordes tan definidos también se puede entender como la superposición de un conjunto de ondas
sinusoidales elementales de diferente frecuencia y amplitud, esto es lo que predice el análisis de Fourier.
En la figura 8.5 se plantea una suma sucesiva de sinusoides. Partiendo del conjunto de sinusoides de la izquierda, todas ellas
centradas en el mismo punto origen, y añadiendo sucesivamente una sinusoide más, obtenemos las ondas que se muestran a la
derecha. Con la suma adecuada, el resultado final es nuestra rendija luminosa.
Figura 8.5: La suma sucesiva de las ondas sinusoidales de la izquierda produce como resultado el perfil de onda de la derecha. O al revés, el perfil de
onda de la derecha puede descomponerse en la suma de ondas sinusoidales de la izquierda. El número adecuado de superposiciones de ondas nos
reproduce la rendija luminosa.

Al sumar las dos primeras se aprecia que en el centro vamos a obtener un pico más alto, pero a cada lado sigue habiendo
intensidad. Al sumar las ondas representadas en el ejemplo, el centro ya aparece claramente diferenciado y se va aplanando a
ambos lados. Ese aplanamiento va a reproducir la oscuridad fuera de la barra luminosa. Si seguimos sumando términos (el número
adecuado de ondas) llegamos a obtener el perfil original: el máximo ha de resultar plano y no curvado y la caída a cada lado del
máximo ha de ser recta y no inclinada.
Nos damos cuenta que al añadir las frecuencias espaciales más altas es cuando se aprecian los bordes del objeto, el salto brusco
entre luz y oscuridad. Esta relación entre las frecuencias más altas y los bordes de los objetos es siempre así, independientemente
de cuál sea el objeto en cuestión.

1.3. Un objeto no tan sencillo: un conjunto de barras


Veamos a continuación otro ejemplo un poco más complejo, una red espacial con un perfil de intensidad cuadrado, se llama
onda cuadrada (ver fig 8.6). Esto se parece a la onda sinusoidal que hemos introducido al principio, pero en lugar de la transición
suave de luz a oscuridad, vuelve a haber un salto brusco.
Figura 8.6: Perfil de luminancia de una red cuadrada.

Veamos primero la diferencia entre una onda sinusoidal y esta onda cuadrada (ver fig 8.7). Hay que fijarse en los bordes,
mientras que la onda cuadrada presenta un borde brusco con cambio de luminancia de cero a uno, en la onda sinusoidal el cambio
es progresivo y suave.

Figura 8.7: Red cuadrada y red sinusoidal con el mismo contraste y amplitud.

La onda cuadrada se puede obtener sumando ondas sinusoidales, o al revés: se puede descomponer una onda cuadrada en una
serie de sinusoides elementales (ver fig 8.8). Como la onda cuadrada es una función periódica, estas sinusoides se denominan
también armónicos. Aplicando el análisis de Fourier, el primer término que habría que sumar sería una onda sinusoidal de la
misma frecuencia y amplitud que la onda cuadrada (es el armónico fundamental) y el resto de armónicos (N ondas) se van
sumando con una relación de frecuencias en múltiplos impares y amplitudes en divisores del mismo orden.

Figura 8.8: Reconstrucción de una onda de perfil cuadrado a partir del análisis de Fourier.

Al sumar término a término vemos cómo en este caso la sinusoide fundamental se va convirtiendo poco a poco en una onda
cada vez más cuadrada, ya que en lugar de transiciones suavizadas van apareciendo los bordes de cada escalón. De nuevo, las
frecuencias altas son las que nos dan la información de los bordes del objeto original. Este conjunto de sinusoides se denomina
espectro de Fourier del objeto, que representamos esquemáticamente en la figura 8.9.
00:00 / 00:00

Figura 8.9: Representación esquemática de los armónicos correspondientes al espectro de Fourier de la onda cuadrada. El primer armónico tiene la
misma frecuencia y amplitud. A partir del segundo armónico, las frecuencias crecen en múltiplos impares (3, 5, 7, …) y las amplitudes disminuyen en
divisores del mismo orden que las frecuencias correspondientes.

El proceso es invertible, es posible descomponer un objeto en sinusoides elementales y también es posible recomponer un
objeto sumando un conjunto de sinusoides elementales.
Lo que acabamos de ver con dos ejemplos es aplicable a cualquier tipo de objeto dentro de cualquier escena. Sólo es necesario
hacer los cálculos oportunos.

2. TRANSMISIÓN DEL CONTRASTE Y CALIDAD DE UN SISTEMA ÓPTICO


Cualquier sistema óptico es incapaz de dar a la salida una representación idéntica al objeto de entrada, siempre se produce una
serie de pérdidas en el proceso de formación de la imagen. El nivel de pérdidas depende de la calidad óptica del sistema.
Si nos centramos en el contraste del objeto, conocer cómo el sistema transmite ésta magnitud nos da una idea de su calidad.
Para analizar la transmisión del contraste en un sistema óptico, y por tanto la calidad, se emplea la llamada función de
transferencia de modulación (MTF, ver fig 8.10). El tratamiento es válido para el sistema visual, aunque en este caso nos
encontramos con dos problemas a solucionar: la manera de definir el contraste y la manera de medir experimentalmente la
transmisión de ese contraste.
Para un objeto complejo definir el contraste no es sencillo, cada punto de la escena puede tener diferente contraste y sería
necesario valorarlo en el total de puntos. Pero el hecho de que cualquier objeto pueda descomponerse en una serie de componentes
espaciales de diferente frecuencia y amplitud (espectro de Fourier), permite estudiar cómo actúa el sistema sobre cada sinusoide
individual, y eso sí que es posible.

Figura 8.10: Esquema de la determinación de la MTF de una lente. Midiendo el contraste de entrada y de salida para diferentes frecuencias espaciales
se calcula la MTF.
Recordemos cómo se determinaría la MTF de un instrumento óptico cualquiera. En primer lugar se coloca en el plano entrada
una red espacial con contraste alto Ce (generalmente el máximo, C=1). El instrumento óptico funciona como un filtro que reduce el
contraste de la red a la salida: Cs. Se mide el contraste de entrada y el contraste de salida y se define la función MTF, que indica la
pérdida de contraste y que es función de la frecuencia:

El proceso de medida se repite para un conjunto de redes con diferentes frecuencias espaciales y finalmente se representa el
factor de transferencia de modulación MTF(f) frente a la frecuencia espacial (ver fig 8.11).

00:00 / 00:00

Figura 8.11: La función de transferencia de modulación representa las pérdidas de contraste en función de la frecuencia espacial. Los sistemas ópticos
presentan curvas con el perfil característico que vemos en esta figura. El punto de corte con el eje x es la frecuencia de corte o frecuencia límite a
partir de la cual el sistema no transmite. Representa el poder de resolución del aparato.

La MTF indica, para un sistema óptico, de qué manera se atenúa el contraste en la imagen respecto al objeto. La atenuación no
es una constante sino que es mayor conforme va creciendo la frecuencia del objeto (ver fig 8.12). A partir de una frecuencia
determinada, que denominamos frecuencia de corte (fc), el sistema óptico no transmite, es decir, a la salida se obtiene una imagen
con una luminancia constante, no una red. Ese es el límite de resolución del sistema, más allá de esta frecuencia no es capaz de
resolver las líneas de la red, no resuelve detalles tan pequeños.

00:00 / 00:00

Figura 8.12: Espectro de Fourier de salida (rojo) después de atravesar un sistema óptico (negro = espectro de Fourier de entrada). La curva azul
corresponde a la MTF. Multiplicando los valores del espectro de Fourier de entrada por la MTF se obtienen los correspondientes valores del espectro
de Fourier de salida.
––––––––––––––––––––––

Supongamos dos instrumentos cuyas MTFs sean las de la figura 8.13. ¿Cuál de los dos tiene mejor calidad?

Figura 8.13: MTFs correspondientes a dos sistemas ópticos diferentes (Azul = sistema A, Marrón = sistema B).

––––––––––––––––––––––

En el ejemplo de la figura 8.13, el sistema A presenta un menor límite de resolución, sin embargo, presenta una mejor
transmisión de contraste en un amplio rango de frecuencias espaciales. La respuesta dependerá de la utilidad del instrumento.
Hasta el punto de corte de las dos funciones, el sistema A proporciona mejores resultados, transmite mejor el contraste. A partir del
punto de corte, el sistema B proporciona mejores resultados ya que su frecuencia de corte es mayor y por tanto es capaz de
transmitir frecuencias más altas.

2.1. La MTF aplicada a la visión humana


En el sistema visual se puede analizar la atenuación de contraste de la misma manera, pero teniendo en cuenta algunas
consideraciones.
Primero, que el caso de la visión humana no se trata de un simple sistema óptico, ya que una parte del sistema es la óptica
ocular pero también hay una parte de procesado neural. Segundo, que no es posible acceder directamente al plano imagen para
medir el contraste de salida. Tendremos que solucionar estas discrepancias antes de poder llevar a cabo el análisis de la calidad del
sistema visual.
También encontraremos diferencias en cuanto a los resultados que podemos obtener al analizar diferentes sistemas. La MTF
lleva asociada, aparte de la bajada del contraste de salida en todas las frecuencias, la pérdida de las frecuencias altas del objeto. En
el caso del sistema visual, veremos a continuación que la pérdida de sensibilidad puede darse en otro rango diferente a las altas
frecuencias.
Centrándonos en el comportamiento común entre un sistema óptico convencional y el sistema visual humano, si la escena
contiene frecuencias más altas que la frecuencia límite, no serán detectadas por el sistema. Como en las frecuencias más altas es
donde está la información de los detalles de los objetos y los bordes, estamos hablando de si el sistema visual tiene capacidad o no
para resolver esos detalles. La medida de la capacidad de resolver o reconocer detalles va asociada a la agudeza visual del
paciente.
El papel de la frecuencia límite es lo que justifica que en la práctica clínica el estudio de la calidad óptica del ojo se limite a la
determinación de la agudeza visual.

2.2. ¿Cómo determinar la MTF del sistema visual?


Es el momento de analizar la medida de la transmisión del contraste en el sistema visual.
Resulta relativamente fácil determinar la MTF para un dispositivo óptico convencional. Basta para ello con disponer de un
fotómetro y medir los contrastes en el plano de entrada y de salida sobre un banco óptico. Pero si nos planteamos la medida de los
contrastes de entrada y salida para calcular la MTF del sistema visual, nos encontramos con un doble problema: definir donde está
el plano de salida, y acceder a él.

––––––––––––––––––––––

¿Dónde se localiza el plano de salida del sistema en el caso del sistema visual? Este plano puede localizarse en la retina,
estaríamos hablando de la MTF del sistema óptico, o en el cortex visual y en este caso sería la MTF del sistema visual completo.

––––––––––––––––––––––

Existen métodos ópticos complejos que permiten medir el contraste de salida en la retina, pero evidentemente no son válidos
para determinar la MTF del sistema visual completo. Para determinar la MTF del sistema visual completo no se dispone de un
método simple, ya que la medida del contraste de salida Cs no es físicamente accesible al tratarse de una percepción del
observador. ¿Habría que colocar electrodos en el cortex visual del observador? Es necesario encontrar otra forma de calcular la
relación entre el contraste de salida y el de entrada cuando hablamos de la percepción final.
La solución a este problema pasa por definir una nueva función para evaluar la calidad del sistema visual en cuanto al
procesado espacial de frecuencias: la Función de Sensibilidad al Contraste espacial (CSF).

3. SENSIBILIDAD ESPACIAL: FUNCIÓN DE SENSIBILIDAD AL CONTRASTE ESPACIAL


El método más habitual de medida presenta una ligera variante respecto a la medida en un sistema óptico convencional, y se
realiza de atrás hacia adelante.
Si en la determinación de la MTF en un sistema óptico se utilizan contrastes fijos de entrada para cada frecuencia y se analizan
los contrastes de salida una vez afectados por el sistema, ahora vamos a mantener un contraste fijo de salida y estudiamos qué
contraste de entrada produce esa salida, para cada frecuencia.
Se utiliza un contraste de salida especifico, que proporciona una respuesta clara por parte del observador: el contraste umbral de
detección (contraste mínimo por debajo del cual no hay detección). El observador indica a partir de qué contraste de entrada se
produce la transición entre detección y no detección de la red objeto. Seguidamente se define la sensibilidad como la inversa del
contraste umbral.
Veamos un ejemplo, si el contraste umbral para una frecuencia de 8 cpg es de 0.01 Cu= 0.01 y por tanto la sensibilidad
asociada a ese contraste será 100 (S8cpg= 1/0.01=100).
Para evaluar de manera completa cómo funciona el sistema visual, debemos determinar para diferentes frecuencias espaciales
cuál es el contraste mínimo de entrada por debajo del cual ya no es posible detectar. Esto es lo que se determina mediante la
llamada función de sensibilidad al contraste o CSFe. El subíndice ‘e’ hace referencia a espacial, ya que posteriormente veremos la
CSFt, o sensibilidad al contraste temporal. Habitualmente se emplea CSF sin subíndice e, para referirse a la sensibilidad espacial, y
únicamente se incluye el subíndice cuando es necesario diferenciarla de la sensibilidad temporal.

3.1. Relación entre la MTF y la CSF para el sistema visual


La CSF no es exactamente lo mismo que la MTF, pero guardan una relación muy estrecha. Para determinar esta relación
partimos de la idea de que si el umbral de contraste corresponde sobre la red original a un contraste de entrada Ce(f)=1/S, después
de ser atenuado por la MTF del sistema visual, a la salida tiene que ser igual al nivel umbral para ser detectado ud (suponemos
constante para todas las frecuencias, está en el cerebro y no lo conozco):
Así vemos que la MTF del sistema visual es proporcional a la CSF y la constante de proporcionalidad entre ambas es el valor
del umbral de detección. Podemos por tanto hablar indistintamente de una u otra.
La forma de la curva del sistema visual es similar a la de la MTF de un sistema óptico convencional (una lente o un telescopio
por ejemplo), pero con una clara diferencia: aparece una atenuación muy marcada para bajas frecuencias espaciales (ver fig 8.14).
Esta atenuación no se debe a la óptica ocular, si no a la parte neural del sistema visual. Recordemos que al medir la CSF el plano
imagen no está situado en la retina sino en el cortex visual, estamos incluyendo la percepción del observador y por lo tanto la
información visual en el cerebro. Esta forma típica de la curva recibe el nombre de «pasa-banda»: el sistema visual actúa como un
filtro que deja pasar una banda determinada de frecuencias espaciales. La representación habitual de la CSF se realiza en escala
logarítmica:

Figura 8.14: Representación gráfica típica de la CSF (función de sensibilidad al contraste espacial).

Para darnos cuenta de las diferentes contribuciones a la CSF, óptica y neural, nos fijamos en la figura 8.15. La MTF sólo de la
parte óptica del sistema visual se comporta como un sistema óptico convencional y la CSF del sistema visual completo acabamos
de introducirla. La diferencia entre ambas es la contribución sólo de la parte neural, es aquí donde se produce la caída de
sensibilidad en bajas frecuencias.

Figura 8.15: MTF del sistema óptico del ojo, CSF de sistema visual completo y CSF de la parte neural. Según datos de Campbell y Green, 1965,
extraída de Artigas, 1995.

Como se aprecia en la figura 8.14, el máximo de sensibilidad se obtiene para frecuencias espaciales entre 2 y 6 cpg, mientras
que para frecuencias más bajas o más altas la sensibilidad es menor. La frecuencia de corte aparece habitualmente entre 30 y 50
cpg.
Si reflexionamos sobre el significado del punto de corte con el eje x, llegamos a la conclusión de que está relacionado con el
valor de la agudeza visual, ya que mide el límite de resolución del ojo con contraste máximo. Representa la frecuencia límite para
S=0, es decir, Cu = 1/0. Como el valor máximo del contraste es 1, el límite no sería el infinito sino este valor 1 (lim(Cu)→1, tiende
al valor máximo de contraste).

3.2. Relación entre la frecuencia de corte y el valor de la AV


Podemos establecer una analogía entre las redes espaciales de diferentes frecuencias y las características espaciales de los
optotipos empleados en clínica para medir la agudeza visual. Considerando un optotipo habitual de los empleados en optometría,
del tipo E de Snellen, los trazos horizontales de la letra E son análogos a tres franjas oscuras de una red espacial cuadrada (ver fig
8.16).
Figura 8.16: Analogía entre un optotipo y una red espacial cuadrada. Un ciclo equivale a una sucesión de una banda clara y una banda oscura. La E de
la figura equivale a 2.5 ciclos.

Pero vamos a pensar ahora en la red sinusoidal equivalente y supongamos un sujeto con una AV =1. El detalle del optotipo para
este sujeto en este caso es de 1’ de arco, mientras que en la red equivalente un ciclo completo equivaldría a 2’ de arco (ver fig
8.17).

Figura 8.17: Un sujeto con AV=1 es capaz de apreciar detalles en la letra de 1 minuto de arco: un ciclo en la red equivalente corresponderá a 2 minutos
de arco.

Calculando la equivalencia en ciclos por ángulo, obtenemos la frecuencia de corte correspondiente:

1 ciclo → 2’
n ciclos → 60’
n=60/2 = 30cpg

Podemos llegar al mismo resultado de otra forma: como el período de esta red es de 2’=(2/60)º, la frecuencia, definida como la
inversa de este período, es de 30cpg.

––––––––––––––––––––––

Si la frecuencia de corte es de 40 ciclos por grado, ¿cuál es la agudeza visual? Planteamos la siguiente regla de tres para obtener
la frecuencia de corte expresada en minutos de arco:

40 ciclos → 60’
1 ciclo → n’
n=60/40 = 1.5’

Como un ciclo incluye dos veces el tamaño del detalle: s=0.75’ y la AV=1/u=1.3.

––––––––––––––––––––––

Tradicionalmente la calidad del sistema visual se ha especificado mediante el límite dado por la agudeza visual o mínimo
detalle que se puede reconocer. Este parámetro es medido con tests de alto contraste, generalmente optotipos negros sobre fondo
blanco. Así, la agudeza visual marca el límite de resolución de detalles para contraste elevado, lo que en óptica instrumental
equivale al número de ciclos que resuelve el instrumento (poder de resolución del instrumento).
Esto justifica en parte que en la práctica clínica el estudio de la calidad óptica del ojo se limite a la determinación de la agudeza
visual, pero no debemos olvidar que esta magnitud se mide en la clínica sólo con contraste máximo y que en una escena real hay
multitud de frecuencias espaciales y contrastes.

––––––––––––––––––––––

Si la medida de la agudeza visual corresponde a la frecuencia de corte, ¿es razonable que la calidad de visión se mida sólo para
esa frecuencia espacial?

––––––––––––––––––––––

Con esta única medida no tenemos información de cómo el sistema visual afecta al resto de frecuencias espaciales que puedan
estar incluidas en la escena. Además, tampoco podremos contestar a una pregunta importante: ¿qué es necesario para reconocer un
objeto complejo? ¿Es necesario que todos los detalles del objeto superen el tamaño mínimo? ¿Reconoceremos mejor si los detalles
tienen contraste alto o no?, etc...
Es importante conocer cómo varía el proceso de detección en función del tamaño del objeto y de su contraste. Pues bien, la CSF
del sistema visual nos indica cómo varía la sensibilidad en cualquier condición.
Desde el punto de vista clínico, se ha puesto de manifiesto que existe una serie de afecciones en donde la agudeza visual es
normal, pero la CSF no lo es. Esto sucede por ejemplo en la esclerosis múltiple, neuritis óptica, enfermedad de Parkinson,
diabetes, glaucoma y en las ambliopías. Estos sujetos pueden tener una buena agudeza clínica pero presentar dificultades para
reconocer escenas normales debido al hecho de que, para ciertas frecuencias espaciales, su sistema visual no es lo suficientemente
sensible.

3.3. Factores que afectan a la CSF y la AV


La CSF varía fuertemente en función de las condiciones de observación del test, al igual que sucede con la agudeza visual.
Entre los principales factores que afectan podemos destacar: la luminancia, el perfil de la red, la excentricidad del estímulo
respecto a la fóvea, la orientación, el tamaño, el color, etc.

Luminancia: cuanto mayor es la luminancia media, mejor es la sensibilidad y la agudeza visual (ver fig 8.18). La
posición del máximo se desplaza a frecuencias mayores (desplazamientos menores en visión fotópica que en
escotópica). Con luminancias bajas deja de ser pasa banda para convertirse en una función pasa baja.
Figura 8.18: Curvas de sensibilidad al contraste espacial en función de la adaptación. Al disminuir la luminancia, disminuye la agudeza visual, los
valores de sensibilidad y la frecuencia en la que se produce el máximo. Según datos de Van Ness, extraída de
retina.umh.es/Webvision/KallSpatial.html#spatial.

Perfil de la red: en las mismas condiciones de observación, la CSF es mayor para redes cuadradas que para redes
sinusoidales.
Excentricidad: la medida normal de la CSF se establece para el centro de la fóvea; si la medida se hace en posiciones
extrafoveales, disminuye la sensibilidad. La disminución de sensibilidad es más marcada para las frecuencias
espaciales altas, como puede verse en la figura 8.19, donde se presenta el valor de la agudeza visual para diferentes
excentricidades:
Figura 8.19: Disminución de la AV con la excentricidad. Según datos de Westheimer, extraída de webvision.med.utah.edu/book/part-viii-gabac-
receptors/visual-acuity.

Orientación de la red: La sensibilidad es mayor para redes orientadas en las direcciones vertical y horizontal,
disminuyendo para direcciones oblicuas. Dado que la retina y sus conexiones no presentan cambios significativos por
meridianos, este comportamiento debe tener un origen neural.
Tamaño del test: El tamaño del test utilizado solamente parece influir de manera significativa cuando tiene un tamaño
angular por debajo de 2º.
Color: Se pueden construir redes cromáticas específicas para los mecanismos cromáticos T y D alternando franjas
rojas y verdes o azules y amarillas respectivamente. En estas CSFs puramente cromáticas no hay descenso de la
sensibilidad a bajas frecuencias (ver fig 8.20).
Figura 8.20: Curvas de sensibilidad al contraste acromática (pasa-banda) y cromáticas (pasa-baja). Extraída de Valberg, 2005.

Desenfoque: no afecta a bajas frecuencias. Su influencia es mayor cuanto mayor es la frecuencia espacial considerada,
y obviamente también disminuye la AV (ver fig 8.21).

00:00 / 00:00

Figura 8.21: Influencia del desenfoque en la CSF. Afecta más cuanto mayor es la frecuencia espacial. Adaptado de D.Thomson.

Pupila: La influencia de la pupila viene determinada por la difracción, por lo que sólo influye para tamaños muy
pequeños.
Tiempo de exposición: los mecanismos que procesan las frecuencias dependen del tiempo de exposición. A medida
que el tiempo de exposición se reduce, las curvas de CSF pierden la forma pasa-banda y pasan a ser con un perfil
pasa-baja (curvas con un decrecimiento continuo y, por tanto, el máximo está situado para la frecuencia más baja).
Edad: Al igual que sucede con la agudeza visual y con otras funciones visuales, con la edad se produce una pérdida
progresiva de la sensibilidad para todas las frecuencias, sobretodo medias y altas. La forma de la curva se mantiene,
pero presenta valores inferiores (ver fig 8.22).

Figura 8.22: Influencia de la edad en la CSF. Disminuye la frecuencia de corte y la frecuencia del máximo, además del valor de sensibilidad. Extraída
de www.stonesc.com/pubs/Contrast%20Metrics.htm.

3.4. Experiencia de Blackmore y Campbell sobre la existencia de canales de información espacial


En el procesado espacial hay un hecho de gran importancia: el sistema visual tiene un efecto de adaptación o cambio de
sensibilidad específico para cada frecuencia espacial. Blackmore y Campbell realizaron en 1969 el siguiente experimento (ver fig
8.23): determinaron la CSF de un sujeto normal y luego lo adaptaron a una red de alto contraste con una frecuencia de F cpg
durante algunos minutos. A continuación volvieron a determinar otra vez la CSF.

00:00 / 00:00
Figura 8.23: Al adaptar al sujeto a una red de alto contraste con frecuencia F, se observa que la sensibilidad decae únicamente para esa frecuencia
espacial F y para un rango de frecuencias vecinas muy reducido.

Obtuvieron los mismos resultados que la primera vez, excepto en la frecuencia F de adaptación y para un pequeño rango de
frecuencias vecinas. La adaptación del sistema visual, es decir el descenso de sensibilidad ante una estimulación prolongada,
afecta únicamente a un pequeño rango de frecuencias alrededor de la frecuencia de adaptación. Lo que sucede es similar a lo que
ocurría cuando nos adaptamos a una luz intensa, o a un campo con un color determinado: la sensibilidad de los detectores
correspondientes bajaba.

––––––––––––––––––––––

¿Por qué este resultado confirma la existencia de canales independientes por los que viaja la información espacial? Si no
existiesen canales de información espacial, ¿cómo sería el resultado final?

––––––––––––––––––––––

Para explicar este comportamiento, se introduce el concepto de canal de frecuencia espacial y, admitiendo una serie de hipótesis
que vamos a razonar seguidamente, es fácil comprender lo que sucede.

1. Un canal de información está constituido por una secuencia encadenada de neuronas visuales (célula bipolar, célula
ganglionar, célula cortical simple,…) todas ellas con un campo receptivo igual en cuanto a tamaño, forma y
orientación.
2. Existe una serie de canales independientes, cada uno de ellos con un máximo de sensibilidad a una determinada
frecuencia espacial, se dice que cada canal está sintonizado o modulado para una determinada frecuencia espacial.
3. La curva de la CSF es la envolvente de las curvas de respuesta de todos y cada uno de esos canales independientes.
4. Cada uno de esos canales presenta un mecanismo de adaptación propio.

Supongamos un estímulo en forma de red y asumamos que cada detector suma la luz que le llega para dar una respuesta más o
menos intensa, vamos a ver que existe una correlación entre el tamaño de los detectores y la frecuencia de ese estímulo.
Vamos a razonar sólo para el caso de células sin antagonismo espacial. Supongamos una célula visual de centro ON: la
respuesta de la célula es máxima cuando la zona ON de su campo receptivo coincide en tamaño con el ancho de una franja (0,5
ciclos). En estas circunstancias, toda la zona ON da respuesta excitatoria y el campo receptivo total da respuesta máxima.
Podemos hablar de frecuencia de sintonizado para cada célula, como esa frecuencia para la que da su respuesta máxima.
Si el campo receptivo de una célula está ocupado sólo por medio ciclo, el ojo podrá resolver el detalle sin problemas, pero si
está ocupado por más de medio ciclo pueden ocurrir varias cosas:

que no pueda resolver la red debido a que las respuestas de campos receptivos colindantes son iguales y por tanto dan
la misma respuesta,
que las respuestas de campos receptivos colindantes no sean iguales, y por tanto sea posible discriminar, aunque la
frecuencia detectada no coincidirá con la frecuencia real del objeto. Este efecto de percepción de frecuencias
diferentes a la información original del objeto se denomina aliasing.

En la figura 8.24 se muestran en detalle estos tres casos.


00:00 / 00:00

Figura 8.24: Fenómeno de aliasing. El tamaño de los campos receptivos determina la capacidad de detección de una red espacial. De arriba abajo:
percepción correcta; no hay detección; percepción errónea.

Podemos razonar de forma similar lo que ocurre para células centro-periferia, llegando en este caso a que la respuesta máxima
se da cuando el centro del campo coincida con 0.5 ciclos de la red. Así, para cada una de las redes del ejemplo de la figura 8.25, la
respuesta máxima la produce el canal cuyo tamaño de campo receptivo sea el que se aprecia junto a la red.

Figura 8.25: El tamaño de los campos receptivos explica por qué hay canales sintonizados para una determinada frecuencia espacial. Extraído de
Wandell, 1995.

En definitiva, la información referente al contraste parece ser que no va por un único canal de información, sino que es enviada
a través de diferentes canales. Cada uno de estos canales responde a un rango reducido de frecuencias.
Es como decir que la información espacial circula por ‘mangueras’ de información paralelas e independientes. Si se bloquea
una de esas mangueras, el bloqueo afectará exclusivamente a la información que circula por ella, pero no al resto de la
información que circula por las otras mangueras que no han sido afectadas.
El concepto de canal nos permite interpretar al sistema visual como un conjunto de filtros, cada uno de ellos sintonizado a una
determinada frecuencia espacial (y un pequeño entorno), además de estar sintonizados a la orientación de la red. La curva de la
CSF del sistema representa la envolvente de cada una de las curvas de respuesta de cada canal (ver fig 8.26).
Figura 8.26: Representación esquemática de los canales neurales. La envolvente de los canales representados explica la forma de la curva de la CSF.
Extraído de Schwartz, 1999.

El sistema visual descompone la información espacial de la escena en partes más elementales mediante una descomposición en
frecuencias, de forma que cada parte (frecuencia) pasará por un canal o filtro.
A cada frecuencia le aplica una disminución del contraste que viene fijada por la CSF del sujeto. La adaptación de un
canal/filtro a unas determinadas condiciones implica que disminuye su respuesta y, por lo tanto, la curva de CSF se ve afectada
únicamente en esa región de frecuencias espaciales.
Al final, para recuperar la información, el sistema visual debe realizar un análisis de Fourier inverso: volver a juntar la
información después de la modificación. El sistema visual integra la información correspondiente a diferentes frecuencias
espaciales que han sido tratadas de forma independiente, de modo que una buena agudeza visual (altas frecuencias espaciales) no
implica necesariamente una buena percepción de bultos (bajas frecuencias espaciales). Simplemente indicaría el buen
funcionamiento de uno de estos canales de información.

3.5. Pero, ¿hay un rango de frecuencias que permiten reconocer un objeto?


Volvemos a la pregunta que ya nos hicimos anteriormente, si existe un rango de frecuencias que nos permite el reconocimiento
de un objeto complejo. Veamos algunos ejemplos.

Ejemplo 1
Recordemos la red cuadrada que hemos visto antes y su espectro de Fourier. De ese espectro vamos a quedarnos sólo con el
armónico fundamental y el tercero (ver fig 8.27).
Figura 8.27: Izquierda: red cuadrada de partida. Centro: primer armónico de la onda cuadrada, es decir, la red sinusoidal de la misma frecuencia y
amplitud. Derecha: tercer armónico de la onda cuadrada. Si nos alejamos a la distancia adecuada para que la frecuencia de corte de nuestro sistema
visual no deje pasar el tercer armónico, entonces la onda cuadrada y la sinusoidal no se distinguen entre sí.

A la distancia de lectura normal, la red cuadrada y la red sinusoidal son claramente diferentes, no tenemos dificultad en
reconocer ambas como objetos distintos. Pensemos ahora en un sujeto con una frecuencia de corte disminuida, de forma que no
perciba las frecuencias más altas. Para simularlo, nos alejamos de la pantalla hasta que dejemos de ver el tercer armónico, es decir,
que se perciba un campo gris uniforme a la derecha. A esa distancia la frecuencia espacial de esa imagen resulta mayor que la
frecuencia de corte del sistema visual, por lo que no se transmite el contraste (no «pasa» información sobre esa red). Como la onda
sinusoidal tiene una frecuencia mucho menor, toda ella será transmitida por el sistema. Pero en el caso de la onda cuadrada, ya no
ocurre lo mismo. Ahora tenemos que pensar en el conjunto de sinusoides que resulta del análisis de Fourier y pensar que sólo se
transmiten las frecuencias que están por debajo de esa frecuencia de corte, es decir, por debajo del tercer armónico. En esa
distancia particular, comprobamos cómo no somos capaces de distinguir la red cuadrada de la sinusoidal. Las componentes de la
onda cuadrada que son transmitidas producen la misma percepción que la onda sinusoidal, no distinguimos un objeto de otro. En
este ejemplo, la presencia de las frecuencias altas sería lo que nos permitiría reconocer la red cuadrada como un objeto diferente a
la red sinusoidal.

Ejemplo 2
Veamos qué ocurre si son otras las frecuencias que faltan en la escena. En el ejemplo de la figura 8.28 vamos a seleccionar
diferentes bandas de frecuencias en una imagen y a comparar los resultados. Podemos pensar por ejemplo en sujetos cuyos
sistemas visuales presentan una bajada de la sensibilidad muy pronunciada en cada una de estas bandas.
Figura 8.28: Selección de la gama de frecuencias de una imagen. De la fotografía original se eliminan respectivamente las frecuencias bajas, medias y
altas.

Obviamente, eliminar bandas de frecuencias hace que en cada imagen dejemos de percibir mucha información. Por ejemplo, los
labios de Lena se reconocen en la imagen derecha y no en la central, pero como la mayoría de los bordes se distinguen en la
imagen izquierda, resulta que aquí también reconocemos los labios.
Eliminando las altas frecuencias, la figura está desenfocada pero es reconocible. En la figura de la izquierda quedan frecuencias
medias y altas, mientras que en la central quedan bajas y altas. El hecho de que en ambas se reconozca parcialmente la figura,
parece indicar que es la ausencia de las altas frecuencias la que menos dificulta el reconocimiento del objeto.

Ejemplo 3
En la figura 8.29 hemos filtrado dos fotografías, una de un bosque y otra de una carta de optotipos. A la izquierda aparece la
imagen original, en el centro se han quitado las frecuencias altas y a la derecha se han quitado las frecuencias bajas.
Figura 8.29: Objetos originales (izquierda), y sus filtrados: centro, sin frecuencias altas y derecha, sin frecuencias bajas. Imagen cortesía de «dan» en
www.FreeDigitalPhotos.net.

––––––––––––––––––––––

¿En qué caso reconoces mejor el objeto?, ¿cuando falta un juego de frecuencias determinado? ¿Qué podemos afirmar sobre el
conjunto de frecuencias que facilitan el reconocimiento del objeto?

––––––––––––––––––––––

La conclusión no es la misma en las dos imágenes que se han usado en este ejemplo. Los árboles se siguen reconociendo a
pesar de quitar las frecuencias altas, sólo están desenfocados. Pero el desenfoque impide que se reconozcan las letras de las
últimas líneas de la carta. En cambio, en la carta se siguen reconociendo las letras cuando se quitan las frecuencias bajas.
Parece que la respuesta a nuestra pregunta es un compromiso: depende del contenido frecuencial de la imagen original. Si
quitamos una banda de frecuencias de las que nuestra imagen tenga un alto contenido, la percepción se verá comprometida.

CUESTIONES
1. ¿Por qué utilizamos el análisis de Fourier para estudiar la visión espacial?

a. Para manejar un modelo similar al de la visión cromática.


b. Se trata de un enfoque de estudio tradicional, que no aporta nada en especial
c. Porque está demostrado que nuestro sistema visual no actúa de la misma forma según sea la frecuencia espacial del
objeto, por lo que debe hacer una descomposición en frecuencias para llevarlas por diferentes canales y así poder
modificarlos de forma independiente.
d. Porque si no lo hiciera así, no tendríamos explicación para los casos en que una patología afecta a la calidad global
de una imagen pero no a los detalles finos como son los bordes.
2. La curva de la CSF del sistema visual es similar a la de cualquier elemento óptico, salvo que:

a. Tiene una atenuación en frecuencias medias.


b. Tiene una atenuación en frecuencias altas.
c. Tiene una atenuación en frecuencias bajas.
d. Esta atenuación se debe a la parte neural del sistema.
e. Esta atenuación se debe a la propia parte óptica del sistema.
f. Esta atenuación se debe al descentramiento de la fóvea.

3. Para obtener la curva de la MTF del sistema visual deberíamos medir el contraste de salida de cada red en:

a. Un plano posterior al cristalino, ya que es el último elemento del sistema óptico del ojo.
b. En el plano de la retina, ya que es donde se forma la imagen óptica, pero eso es imposible con instrumentos.
c. En el cerebro, donde se forma la «imagen final», pero eso también es imposible ya que en el cerebro no hay una
imagen óptica.
d. Es imposible tomar esa medida, tendremos que buscar otra táctica.

4. Señala si es cierta la siguiente afirmación: la frecuencia de corte de la CSF no guarda ninguna relación con la Agudeza Visual.

a. Verdadero.
b. Falso.

5. Si la frecuencia de corte en la curva de CSF es de 25 ciclos por grado, ¿Cuál es la agudeza visual?

a. 0,25.
b. 0,83.
c. 0,42.
d. 1.
e. 1,2.
f. 0,60.

6. Vamos a hacer un experimento. En nuestro laboratorio, medimos la CSF a un observador. Posteriormente, le adaptamos a la red
de la figura durante 10 minutos; seguidamente, volvemos a medir su CSF.

¿Que es lo que ocurre?

a. La CSF es la misma que antes para todas las frecuencias espaciales, a excepción de esa frecuencia espacial, en la
que la sensibilidad habrá aumentado.
b. Nada, la CSF medida es igual que la primera.
c. La CSF es la misma para todas las frecuencias espaciales, a excepción de esa frecuencia espacial, en la que la
sensibilidad habrá disminuido.
d. Disminuye la sensibilidad para todas las frecuencias, y por lo tanto se mantiene la forma de la curva.

7. El experimento de la pregunta anterior:

a. Pone de manifiesto la existencia de los caminos parvo, konio y magnocelular.


b. Pone de manifiesto la diferencia entre los caminos parvo, konio y magnocelular.
c. Pone de manifiesto la existencia de canales para la información espacial.
d. Contradice la existencia de campos receptivos.
8. Señala si es correcta la afirmación: Los canales de frecuencia espacial están formados por una secuencia de células nerviosas
(bipolar, ganglionar, simple,...) en la que todas ellas tienen un campo receptivo igual en tamaño y forma, aunque no
necesariamente en orientación.

a. Verdadero.
b. Falso.

9. La figura representa dos redes de la misma frecuencia espacial proyectadas sobre la retina. Los círculos representan los campos
receptivos asociados a esas áreas retinianas (campos no oponentes). ¿En qué situación piensas que se detecta correctamente la red?

a. En la figura de la izquierda (campos grandes).


b. En la figura de la derecha (campos pequeños).
c. En las dos igual.
d. No se puede predecir.

10. Si la información de una determinada frecuencia de un objeto viaja por un canal de información, entonces:

a. La información de esa frecuencia no puede viajar por ningún otro canal porque cada uno está sintonizado para una
frecuencia.
b. La información de los canales contiguos debe ser la misma.
c. La información de los canales contiguos contribuirá también aunque en menor medida.
d. Ninguna de las anteriores.
...

9. Visión de patrones espacio-temporales

En este capítulo se aborda el análisis de la respuesta del sistema visual ante estímulos con variaciones temporales de
luminancia, es decir, un parpadeo luz-oscuridad, trabajando siempre con estímulos acromáticos. Realizaremos un estudio análogo
a la visión espacial, por lo que hablaremos de la CSF temporal y de manera análoga a la AV, definiremos la frecuencia crítica de
fusión FCF.

1. DETECCIÓN: PARÁMETROS TEMPORALES


Como punto de partida conviene establecer algunos conceptos y definiciones importantes. En primer lugar diferenciaremos
entre destello y parpadeo.
Un destello (o flash) es un estímulo luminoso muy breve con una duración siempre inferior a 0.15 segundos.
Un parpadeo es una sucesión temporal de variación de luminancia, entre «encendido» y «apagado», teniendo en cuenta que el
«apagado» puede no corresponder a una intensidad nula, sino sólo más baja que en el otro caso (ver animación en figura 9.1).

00:00 / 00:00

Figura 9.1: Destello y parpadeo de un estímulo luminoso.

El parpadeo podrá ser periódico o no periódico, según si el ritmo de encendidos y apagados es secuencial o aleatorio. En el caso
periódico, el parpadeo se caracterizará por su periodo temporal o su frecuencia (ciclos por segundo, donde un ciclo corresponde a
un encendido y un apagado, de forma análoga a las redes espaciales vistas en el tema anterior).
Si la variación se establece desde un valor de luminancia L=0 cd/m2 se dice que el parpadeo es intermitente. Por el contrario,
cuando la variación se establece entre dos valores L1 y L2 distintos de cero se habla de parpadeo modulado. En estímulos
modulados e intermitentes, se define el contraste o modulación (m) como el cociente entre la amplitud de la onda y su luminancia
media, es decir, de manera análoga a como se hizo en el tema anterior para redes con frecuencia espacial:

siendo:
1.1. Fases de la respuesta temporal de un fotodetector
Supongamos un estímulo de intensidad constante que se enciende en t=0 y se apaga un tiempo después. La situación previsible
es que la respuesta del fotodetector se inicie con el encendido, se mantenga constante durante la presentación del mismo, y se haga
cero con el apagado del estímulo. Pero esto no es exactamente lo que ocurre. Vamos a razonarlo a partir de la figura 9.2:

Figura 9.2: Relación entre el encendido/apagado de un estímulo y la respuesta de un fotodetector.

En esta figura vemos que la sensación comienza en B y no en A. El tiempo transcurrido entre A y B se conoce como tiempo de
reacción o retardo, ya que representa el retardo en la aparición de la sensación. Este retardo se debe a dos causas:

hay un tiempo mínimo para alcanzar el umbral de disparo de los fotorreceptores,


hay un tiempo mínimo de transmisión de información desde los fotorreceptores hasta la corteza visual.

Si aumenta la luminancia, disminuye el tiempo de reacción, esto se refleja en la Ley de Pierón:


Sin embargo, a pesar de que el tiempo de reacción disminuye al aumentar la luminancia del estímulo, nunca podrá ser cero, ya
que los tiempos mínimos de umbral y de transmisión no se pueden anular (ti).
En la Ley de Pierón, L es la luminancia, n un exponente con valor entre 0.5 y 1, y ti es la llamada fracción irreductible: un
tiempo mínimo del que nunca se puede bajar. La fracción irreductible representa el tiempo de reacción cuando L tiende a infinito.
El valor de ti es del orden de 0.15 s.
A continuación la sensación luminosa crece pasando por un máximo y después decrece hasta alcanzar un valor estable. Este
comportamiento es similar al de muchas otras neuronas sensoriales. El máximo de respuesta después del tiempo de reacción es
probable que corresponda a un mecanismo para resaltar el inicio de la respuesta, a continuación desciende su valor y se mantiene
constante hasta el apagado del estímulo.
Finalmente, en el instante en que el estímulo ha desaparecido vemos que la sensación continúa durante un cierto tiempo, cada
vez con menor intensidad hasta que vuelve al nivel basal. Este intervalo temporal corresponde a la llamada persistencia o latencia
y es la responsable de las llamadas postimágenes. Una postimagen se define como la persistencia de la sensación visual, una vez
que el estímulo ya ha cesado.
El conjunto de estas fases se puede entender como la suma de dos respuestas a las que denominamos componente transitorio (o
fásico) y sostenido (o tónico). La parte transitoria es una respuesta rápida, que varía en intensidad, mientras que la sostenida es una
respuesta más lenta y constante. La existencia del pico o máximo de sensación se conoce como efecto Broka-Sulzer y aparece
siempre, a no ser que la luminancia sea muy baja, como se deduce de la figura 9.3.
Figura 9.3: Efecto Broca-Sulzer para diferentes niveles de iluminación. Para niveles bajos no se aprecia el efecto. Según datos de Broca y Sulzer,
extraída de retina.umh.es/Webvision/temporal.html#summation.

––––––––––––––––––––––

En la figura 9.2 sólo aparece el caso de una respuesta excitatoria, ¿existe el caso de una respuesta inhibitoria? ¿Cómo sería la
representación?

––––––––––––––––––––––

1.2. Frecuencia crítica de fusión (FCF)


Cuando se observa un estímulo luminoso periódico (encendido/apagado), si la frecuencia de presentación es baja el observador
percibe un parpadeo. En este caso el estímulo está encendido o apagado el tiempo suficiente para que nuestro sistema visual
registre los dos estados como diferenciados, sin ningún tipo de interferencias entre ambos. Si se aumenta progresivamente la
frecuencia temporal, el parpadeo se percibe cada vez más rápido (ver animación en figura 9.4).

00:00 / 00:00

Figura 9.4: Parpadeo a diferentes frecuencias.

Al seguir aumentando la frecuencia, llega un momento en que se alcanza una situación en la que desaparece la percepción del
parpadeo (la variación de la luminancia deja de percibirse) y el observador ve una luz fija. Se llama Frecuencia Crítica de Fusión
(FCF) a aquella en la que se produce la transición entre estas dos situaciones (ver/no ver parpadeo), es decir, la FCF es la
frecuencia a partir de la cual no se percibe parpadeo.
Ejemplos de la FCF los encontramos a diario en casos como la emisión de luz en un tubo fluorescente, o el parpadeo que se
aprecia en las viejas películas de cine mudo debido al escaso número de fotogramas por segundo, o la velocidad de barrido de los
antiguos televisores basados en la tecnología de tubo de rayos catódicos CRT (<50 Hz).
¿Por qué se produce este fenómeno? Como hemos visto anteriormente, al presentarse un estímulo luminoso existe siempre un
tiempo de retardo desde que se enciende el estímulo hasta que el observador es consciente de él. También existe un fenómeno de
persistencia, y cuando desaparece el estímulo la imagen permanece durante un corto tiempo, aún cuando cerremos los ojos. La
FCF es consecuencia directa de la existencia de este fenómeno de persistencia.
Dada una serie de estímulos, la persistencia provoca que la percepción del estímulo n+1 se solape con la percepción del
estímulo n. Dicho de otro modo, la fusión temporal de luces es consecuencia del solapamiento del estímulo con el período de
persistencia del estímulo anterior a la repetición.
El valor normal que toma la FCF varía con las condiciones de observación, siendo más elevada según aumenta la luminancia
del estímulo. Como valores orientativos podemos decir que varía entre 30 y 40 Hz para un amplio rango del nivel de iluminación
fotópico. Si el test es periódico, la FCF es menor.
Si trabajamos con estímulos de color, los resultados experimentales muestran que la FCF cromática resulta ser menor que la
FCF acromática.

2. LA FUNCIÓN DE SENSIBILIDAD AL CONTRASTE TEMPORAL


Supongamos que observamos una luz de luminancia L0 que alterna de forma periódica con la oscuridad. Si la frecuencia de
parpadeo es menor que la FCF, observaremos parpadeo. Si manteniendo constante la frecuencia de parpadeo disminuimos el
contraste (modulación) de la onda, cada vez resultará más difícil apreciar el parpadeo, hasta llegar a percibir una luz continua (ver
animación en figura 9.5).
00:00 / 00:00

Figura 9.5: Para una frecuencia temporal en la que se perciba parpadeo, vamos disminuyendo el contraste hasta que deja de percibirse el parpadeo.

Cuando se repita esta experiencia para muchas frecuencias espaciales, se podrá representar la sensibilidad frente a la frecuencia
temporal. Esta curva es la TMTF o también MTF temporal. Al igual que razonamos en el caso de la MTF espacial y la CSFe,
ahora también se va a medir la CSFt, es decir, la curva de sensibilidad al parpadeo. De la misma manera que si se disminuye el
contraste espacial llega un momento en que el observador es incapaz de diferenciar la red (determinación de la CSFe), si se
disminuye progresivamente el contraste temporal también llega un momento en que el observador deja de apreciar parpadeo
(determinación de la CSFt, ver fig 9.6).
El proceso sigue siendo el mismo que conocemos, disminuir el contraste implica disminuir las diferencias entre la luminancia
máxima y la luminancia mínima del estímulo, teniendo en cuenta que en este caso una corresponde al estímulo encendido y la otra
al apagado. Siguiendo este proceso para cada frecuencia de parpadeo del estímulo, podremos medir una función análoga al caso
espacial: cuál es el contraste umbral para el que desaparece el parpadeo. Conocido este contraste umbral, su inversa nos
proporcionará la sensibilidad para esa frecuencia.
Para poder determinar la función de sensibilidad al contraste temporal los estímulos deben estar por debajo de la FCF del
sujeto, para estar siempre en la situación de poder percibir el parpadeo temporal al menos con el contraste máximo.

00:00 / 00:00

Figura 9.6. Función de sensibilidad al contraste temporal. La frecuencia de corte representa la frecuencia crítica de fusión.

Como puede verse en la figura 9.6, según aumenta la frecuencia de parpadeo, aumenta la sensibilidad hasta que se alcanza un
máximo que generalmente se sitúa entre 10 y 25 Hz, según las condiciones de observación. Pasado este máximo, la curva
comienza a descender hasta que se alcanza el valor mínimo correspondiente a la FCF (C=1 y S=1). La forma típica de esta función
es pasa-banda.

2.1. Factores que afectan a la CSFt y a la FCF


Al igual que ocurría con la visión espacial son muchos los factores que modifican la sensibilidad al contraste temporal. Vamos
seguidamente a analizar los más importantes.

Iluminación: al aumentar la iluminación las curvas de sensibilidad se desplazan y cambian de forma (de pasa-baja a
pasa-banda), el sistema visual no se comporta linealmente (ver fig 9.7). La frecuencia de máxima sensibilidad
aumenta con la luminancia, así como la FCF.
Figura 9.7: Variación de la curva de CSFt en función de la iluminación retiniana, según datos de Kelly, 1916. Extraída de Artigas, 1995.

Tipo de test: si el test es periódico, la FCF disminuye. Si los bordes no están bien delimitados la atenuación es mayor
a bajas frecuencias, es decir, el pico del máximo aparece más remarcado.
Color: Para longitudes de onda cortas la resolución temporal es menor que para largas, probablemente debido a que
hay mayor sumación temporal para conos S (100 ms) que para el resto de conos (50 ms). Además, las propiedades
temporales difieren entre la visión escotópica y la fotópica. En la curva de sensibilidad al parpadeo cromático no
aparece la típica caída en la zona de bajas frecuencias, la forma de la curva es pasa-baja, lo mismo que ocurría en la
CSFe. Se observa una perfecta analogía entre las propiedades espaciales y temporales del sistema visual.
Excentricidad: los valores de la FCF dependen de la proporción de conos en el área de la retina iluminada. Para
luminancias altas la FCF disminuye hacia la extrafovea (aunque los conos pueden responder, su densidad es baja en
estas localizaciones). Para luminancias bajas ocurre al revés, la mejor FCF se da en extrafovea (mayor densidad de
bastones). Podemos ver este comportamiento en la figura 9.8.
Figura 9.8: Influencia de la excentricidad en la FCF, según datos de Hecht y Verrijp. El comportamiento es diferente para luminancias altas y bajas.
Extraída de retina.umh.es/Webvision/temporal.html#summation.

Tamaño del test: la FCF aumenta conforme aumenta el tamaño del estímulo, debido al menor tiempo de integración
temporal asociado a estímulos grandes (ver fig 9.9).

Figura 9.9: Influencia del tamaño del test en la FCF, según datos de Hecht y Smith. Se produce un aumento de la FCF con el tamaño del estímulo.
Extraída de retina.umh.es/Webvision/temporal.html#summation.
Edad: Como sucede con tantas características de la visión, la FCF disminuye con la edad. Tanto por el deterioro de la
óptica ocular, como por el envejecimiento natural del sistema nervioso.

3. SUPERFICIES DE DETECCIÓN
Una vez estudiadas la CSFe y la CSFt, podemos plantearnos el estudio conjunto de ambas, es decir, determinar el umbral de
detección para redes espaciales con diferente frecuencia espacial y diferente frecuencia de parpadeo. Para ello se presenta una red
espacial de x cpg, parpadeando a una frecuencia de y Hz, y se determina el umbral de detección para esa red. El experimento se
repite para diferentes combinaciones de frecuencia espacio-temporal, y se obtiene una representación en 3D. A cada red estudiada
le corresponderá un valor de sensibilidad (un punto x,y,z, siendo z el valor de sensibilidad). Midiendo un número elevado de
puntos se obtiene una superficie como la representada en la figura 9.10.

Figura 9.10: Superficie de sensibilidad espacio-temporal obtenida para redes acromáticas, según datos de D.H. Kelly, 1972. Extraída de Artigas, 1995.

Esta superficie representa los límites de detección espacio-temporales del sistema visual para redes acromáticas. Cualquier red
acromática cuyos valores de frecuencia espacial y de frecuencia temporal estén por debajo de esta superficie podrá ser detectada
por el sistema visual, mientras que si los valores están por arriba no podrá detectarse.
Podemos establecer dos cortes o secciones a partir de la figura. Si seleccionamos una frecuencia espacial fe constante, el corte
representa una CSft. Si seleccionamos una frecuencia temporal ft constante, el corte corresponde a una CSFe. Si el sistema visual se
pudiese separar, todos los cortes a diferentes fe (o ft) serían idénticos. Como no ocurre esto podemos afirmar que existe una
interacción espacio-temporal.
Una cuestión interesante se plantea en una escena real con variaciones espacio-temporales, en las que hay un patrón espacial y
un parpadeo luminoso, en estas condiciones podemos plantearnos qué es lo que se percibe realmente en el umbral de detección: el
parpadeo sin el patrón espacial, el patrón espacial estático o ambas cosas. A día de hoy, los experimentos realizados demuestran
que existen dos umbrales de detección diferentes, uno de parpadeo y otro del patrón espacial y, por tanto, hay dos curvas de
sensibilidad distinta para cada umbral.
La hipótesis que se establece es la existencia de dos canales distintos para detectar y que cada uno actuará dependiendo de las
condiciones. ¿Podemos identificarlos con los canales transitorio (magno) y sostenido (parvo)? Pues si, el magno es más sensible a
bajas frecuencias espaciales y altas frecuencias temporales (al parpadeo), mientras que el parvo es más sensible a altas frecuencias
espaciales y bajas frecuencias temporales (patrones espaciales). En cuanto al canal konio, los resultados confirman que no
responde a patrones acromáticos.

CUESTIONES
1. Para que un estímulo luminoso se considere un destello o flash, su duración temporal deberá ser:

a. Menor de 1 segundo.
b. Menor de 0,5 segundos.
c. Menor de 0,15 segundos.
d. Menor de 0,005 segundos.
e. Depende de las condiciones fotópicas o escotópicas.

2. Señala si son correctas las siguientes afirmaciones acerca del parpadeo:

a. El parpadeo puede ser una sucesión temporal de variaciones de luminancia, o cualquier exposición luminosa breve
con una duración superior a 0,15 segundos.
b. El parpadeo es una sucesión temporal de variaciones de luminancia.
c. El parpadeo puede ser intermitente o modulado.
d. Modulado es cuando la variación de luminancia se establece entre L=0 cd/m2 y cualquier otro valor de luminancia.
e. El contraste o modulación vale m=(Lmax-Lmin)/(Lmax+Lmin).
f. El contraste o modulación vale m=(Lmax+Lmin)/(Lmax-Lmin).

3. De acuerdo a la Ley de Pierón, si disminuye la luminancia del estímulo, el tiempo que tardamos en responder a un estímulo:

a. Aumenta.
b. Disminuye.
c. Permanece invariable.
d. Desaparece.

4. Año 1999. Un sujeto tiene una frecuencia crítica de fusión de 55 Hz; al pasar por delante del escaparate de El corte inglés
observa una exposición de televisores CRT de tubo. Las frecuencias de refresco de esos televisores son de 85Hz, 80 Hz, 50 Hz y
35 Hz. ¿En qué televisores apreciará parpadeo?

a. En los de 85 y 80 Hz.
b. En el de 35 Hz.
c. En el de 50 Hz, por ser el más cercano a su FCF.
d. En los de 50 y 35 Hz.
e. En todos, ya que las frecuencias de refresco son próximas al valor de la FCF.
f. En ninguno, la FCF es independiente de la frecuencia de refresco.

5. Recuerda la figura que representa la superficie de detección de estímulos luminosos (con variaciones espaciales y temporales)
para una persona.
Supongamos que a esa persona le presentamos una red de 2 ciclos por grado con un parpadeo de 4 Hz y con una iluminación en la
retina de 200 trolands (td). ¿Esta persona es capaz de detectar ese estímulo?

a. Verdadero
b. Falso

6. En el efecto Broca-Sulzer:

a. La respuesta transitoria corresponde al máximo inicial y la respuesta sostenida a la parte constante.


b. La respuesta sostenida corresponde al máximo inicial y la respuesta transitoria a la parte constante.
c. La respuesta transitoria corresponde al tiempo de reacción y la respuesta sostenida al tiempo de latencia.
d. La respuesta transitoria corresponde al tiempo de latencia y la respuesta sostenida al tiempo de reacción.

7. Supongamos una luz parpadeando de forma periódica, de la que podemos variar la duración de encendido y de apagado:

a. Si el tiempo de latencia de un encendido se superpone con el inicio de la respuesta del siguiente encendido, vemos
que la luz parpadea.
b. Si el tiempo de reacción de un encendido es muy largo, siempre veremos que la luz parpadea.
c. Si el tiempo de latencia de un encendido se superpone con el inicio de la respuesta del siguiente encendido, vemos
una única luz siempre encendida.
d. Si el tiempo de reacción de un encendido es muy pequeño, siempre veremos que la luz parpadea.

8. Si percibimos el parpadeo de un tubo fluorescente, se debe a que:

a. Nuestra FCF es más baja que la frecuencia del parpadeo.


b. La frecuencia del parpadeo ha sobrepasado los límites de nuestra CSFt.
c. La frecuencia del parpadeo no ha sobrepasado los límites de nuestra CSFt.
d. Nuestra FCF es más alta que la frecuencia del parpadeo.

9. El valor de la FCF varía con la excentricidad debido a que:


a. Para luminacias altas, a mayor excentricidad hay menos conos, por lo que disminuye la FCF.
b. Para luminacias bajas, a mayor excentricidad hay más bastones, por lo que aumenta la FCF.
c. En el rango mesópico pueden darse los dos comportamientos.
d. Todas son correctas.

10. Señala las afirmaciones correctas sobre las características de la curva CSFt:

a. Para el parpadeo cromático, la curva es pasa-banda, como la CSFe.


b. Para el parpadeo cromático, la curva es pasa-baja, como la CSFe.
c. Para el parpadeo cromático, las longitudes de onda corta presentan menor resolución temporal.
d. Para el parpadeo cromático, las longitudes de onda larga presentan menor resolución temporal.
...

10. Integración de la información visual

1. INTRODUCCIÓN
En capítulos anteriores, al tratar sobre los caminos visuales, ya se mostró la existencia de una especialización funcional de la
corteza visual, tanto del córtex primario como del resto de áreas superiores. Pero dejamos aplazado el punto correspondiente a la
integración de la información que viaja a cada una de estas regiones para proporcionar la imagen final.
El primer paso a seguir será analizar por separado los cuatro aspectos más importantes de la información de los objetos que nos
rodean: forma, color, profundidad y movimiento. Como ya hemos tratado la visión del color en capítulos anteriores, nos
centraremos en este capítulo en el resto de facetas de la visión.
A pesar de esta especialización, que obliga a separar la información según sus características, al realizar este estudio nos iremos
dando cuenta que hay ciertos aspectos de la información que no pueden separarse, que debe haber una integración de la
información incluso antes de la percepción final.
Al final del capítulo plantearemos la cuestión más importante: si cada parte de la información se analiza por separado, ¿cómo
interpreta el sistema visual qué cosas van juntas y forman parte del mismo objeto?

2. VISIÓN DE PROFUNDIDAD
La visión en profundidad es una característica que depende de la binocularidad. La construcción de la imagen neural parte de
las dos imágenes retinianas. Disponemos de dos imágenes 2D obtenidas en dos sistemas ópticos diferentes, que han de fusionarse.
Esas dos imágenes no son exactamente iguales, lo que conlleva unos requisitos mínimos para poder realizar la fusión en el
cerebro. Una vez realizada dicha fusión, el resultado es una interpretación 3D. Las dos imágenes son muy parecidas, pero no
iguales, y es esa disparidad de las imágenes retinianas a partir de la que se construye la visión espacial.
Los movimientos oculares proporcionarán las condiciones para llevar a cabo la fusión, manteniendo el punto de fijación a la
distancia adecuada. Pero no todo el mundo puede realizar la fusión, hablamos por tanto de diferentes grados de binocularidad:

Grado 1: no existe superposición de las dos imágenes,


Grado 2: existe fusión neural con algún esfuerzo,
Grado 3: existe fusión neural sin ningún esfuerzo, se trata de la visión estereoscópica.

Vamos a centrar el tema en el grado 3. El hecho de coordinar las dos imágenes monoculares se puede interpretar a través de un
modelo de ojo cíclope que cumple los mismos requisitos. Nuestras dos imágenes retinianas podrán fusionar parejas de puntos que
correspondan a la misma información, lo que se conoce como puntos retinianos correspondientes. Estos puntos se encuentran
organizados alrededor de la fóvea.
Pensemos ahora en dirigir nuestra atención a un punto de una escena cualquiera. Dependiendo de la distancia a la que nos
encontremos de ese punto, el ángulo de convergencia entre los ejes visuales de nuestros ojos puede ser mayor o menor. Si
cambiamos el punto de fijación a una distancia diferente, el ángulo de convergencia también es diferente. A partir de esta
codificación se extrae la información de profundidad de los objetos de la escena.
Esto parece implicar que un sujeto que no tenga dos ojos no podrá tener información de profundidad, pero la verdad es que sí
que puede tenerla a partir de una única imagen. Para ello es necesario que conozca una serie de ‘pistas’ o ‘claves’ monoculares que
le ayudarán a codificar la profundidad, tales como el tamaño de objetos conocidos, la superposición de objetos, etc. De todos
modos, en estos sujetos en los que no existe binocularidad, la percepción de profundidad es más limitada.

2.1. Percepción de profundidad y estereopsis


Vamos a ver las diferencias entre estos dos conceptos.

2.1.1. Percepción de profundidad


La percepción de profundidad es monocular, la interpretación tiene lugar únicamente a partir de una imagen 2D. Pero tiene una
fuerte componente de aprendizaje, ya que la memoria puede proporcionarnos buena parte de la información a pesar de no disponer
de dos imágenes retinianas. Esta percepción nos permite elaborar juicios absolutos y relativos de posición.
Veamos algunas de las claves monoculares que nos permiten la percepción de la profundidad:
Tamaño aparente: los objetos más lejanos subtienden ángulos pequeños, por lo que generalmente los objetos de menor
tamaño aparentan estar más lejos. Si el tamaño subtendido es grande, el objeto aparenta estar más cerca (ver fig 10.1).

Figura 10.1: Pistas monoculares. Los objetos tienen el mismo tamaño real. La mayor distancia, hace que el tamaño de la imagen en retina sea menor.
Extraída de www.cuantaciencia.com/ciencia/tamano-sol.

Constancia de tamaño: los objetos familiares se perciben del mismo tamaño independiente de la distancia, no parecen
ser más pequeños. En la figura 10.2 se observa una percepción anómala de tamaño, producida por un conflicto entre el
tamaño de un objeto conocido y su posición dentro de la escena.

00:00 / 00:00

Figura 10.2: El C3PO repetido en la imagen tiene el mismo tamaño sobre la fotografía, sin embargo, el de la izquierda parece más pequeño, además de
resultar irreal, pues su tamaño debería ser aproximado al de Skywalker, situado a la misma distancia. Extraídas de www.vectorimages.org y
www.freedigitalphotos.net.

Difusión atmosférica: los objetos muy lejanos se perciben azulados por efecto de la atmósfera (por dispersión y
difusión de la luz, ver fig 10.3).
Figura 10.3: Las montañas del fondo tienen un color azulado debido a la atmósfera, incluso la nieve sobre ellas. Extraída de
www.freedigitalphotos.net.

Perspectiva: las líneas imaginarias de perspectiva producen la interpretación de profundidad, ya que habitualmente a
mayor confluencia de líneas, mayor es la profundidad (ver fig 10.4).

00:00 / 00:00

Figura 10.4: La línea roja de la derecha aparenta mayor tamaño debido a la confluencia de las líneas horizontales del muro, que marcan una
perspectiva de profundidad en la parte derecha.

Gradiente de textura: los cambios de textura de un patrón dan idea de profundidad, de forma similar a la perspectiva:
cuanto más cerca estén las líneas entre sí, más alejado parece el objeto (ver fig 10.5).
Figura 10.5: El patrón de bordes de las piedras aumenta su frecuencia con la distancia, dando sensación de profundidad en la imagen. Extraída de
www.freedigitalphotos.net.

Sombreado: las sombras inducen relieve. Como la iluminación habitual viene de arriba, al ver objetos iluminados
desde otra dirección se producen percepciones curiosas (ver 10.6).

Figura 10.6: Camellos vistos desde un plano vertical superior, e iluminados por un sol cerca del horizonte. Las siluetas de los camellos que primero
nos llaman la atención, son sombras. Los animales aparecen a los pies de las siluetas. Fotografía de George Steinmetz, National Geographic.

Interposición: las figuras que se tapan deben estar en diferentes planos (ver fig 10.7).
Figura 10.7: A pesar de que el rectángulo está más lejos, una vez que quitamos la referencia del pie de los objetos parece que está por delante, ya que
tapa al círculo.

2.1.2. Estereopsis
La estereopsis es una propiedad únicamente binocular y está basada en la disparidad binocular (diferente ángulo de
convergencia). Esta percepción nos permite llevar a cabo juicios relativos de posición.
La estereopsis añade mayor complejidad al problema de la percepción de profundidad, ya que ahora nos basamos en la
existencia de dos imágenes en ambas retinas y una disparidad binocular entre objetos a diferentes distancias, es decir la diferencia
del ángulo de convergencia de nuestros ojos al mirar dos puntos diferentes.
Algunas neuronas están especializadas en esta magnitud y su respuesta está sintonizada a una disparidad particular, al igual que
ocurría por ejemplo con las frecuencias espaciales y temporales o el color.

2.2. Estereogramas
Los estereogramas son imágenes diseñadas en 2D para ser vistas de forma binocular y poder extraer la información de
profundidad que falta. Dentro de un patrón de puntos aparentemente aleatorio, se esconden dos imágenes similares pero con cierta
disparidad. La disparidad provoca que al fusionar estas imágenes aparezca una visión en profundidad.
Existen varias técnicas para el diseño de estereogramas. Los más conocidos son los estereogramas de papel pintado, una imagen
que lleva oculta un patrón de disparidades binoculares (ver fig 10.8).
Figura 10.8: Estereograma generado con el software Hidden 3D, C. Pascual.

Para visionar un estereograma sin ayudas ópticas pueden seguirse dos técnicas: visión paralela o visión cruzada. En visión
paralela debe fijarse un punto por detrás del plano del estereograma y en visión cruzada un punto por delante de dicho plano.
Ambas técnicas son complicadas de aprender, requieren cierto entrenamiento al tener que cambiar conscientemente los ángulos de
visión de los ojos.
Otros tipos de estereogramas son las parejas estereoscópicas (ver fig 10.9), que consisten en dos imágenes o fotografías
tomadas desde puntos de referencia ligeramente diferentes, de forma que aparece un patrón de disparidades en diferentes zonas de
la imagen.

Figura 10.9: Pareja estereoscópica. Al observarla a una distancia corta, cada imagen se desdobla en dos y a una distancia particular se consigue
fusionar las dos imágenes centrales, donde aparece el efecto tridimensional. Extraída de heavenwill.deviantart.com.

Los anaglifos son el tercer gran grupo de estereogramas. Consisten en dos imágenes superpuestas con cierto desplazamiento
lateral y que son diseñadas con diferente color o polarización (ver fig 10.10). El valor del desplazamiento es el que permite
codificar la disparidad binocular cuando se visiona.
Figura 10.10: Anaglifo rojo/verde. La diferente posición de la imagen roja y de la verde da mayor o menor sensación de profundidad. Sólo puede
visionarse en forma tridimensional con gafas rojo/verde. Extraída de starwars3d.yolasite.com.

Existen ayudas ópticas para visionar estereogramas. En el caso de los anaglifos se usan gafas coloreadas o polarizadas con el fin
de que a cada ojo llegue una sola imagen, sin cambiar el plano de fijación. Para las parejas estereoscópicas se pueden usar
estereoscopios, que consisten en un sistema óptico que recoge las dos imágenes y las manda a cada ojo también sin necesidad de
cambiar el plano de fijación.

3. VISIÓN DE FORMAS
Hemos visto ya que la visión espacial se basa en el análisis del contenido en frecuencias del objeto y de la transmisión del
contraste. Pero ahora vamos a enfocarlo desde el punto de vista del reconocimiento del objeto, una vez realizado ese análisis.
Para identificar las distintas partes de una escena, uno de los principales factores lo constituye la percepción de los bordes de
separación entre objetos: establecer bordes es el primer paso para identificar objetos diferentes. Se sabe que este proceso ocurre
fundamentalmente en la retina, por fenómenos a nivel de las células ganglionares.
Como la detección de bordes es una tarea prioritaria, el proceso visual puede además usar una estrategia de realce de bordes de
la escena, que generalmente se basa en procesos de inducción y de asimilación. Son variaciones en la percepción visual originadas
por la presencia simultánea de un estímulo luminoso en otra parte del campo visual. Si las variaciones van en el sentido de
aumentar diferencias entre partes de la escena, hablaremos de inducción, y si las variaciones van en el sentido de disminuir
diferencias entre partes de la escena, hablaremos de asimilación.

3.1. Distinción entre figura y fondo


Cuando se observa una escena, casi de inmediato y sin esfuerzo se separan una o varias formas sobre un fondo. Para ello, una
vez localizados los bordes en la escena, nuestro sistema visual utiliza varias claves y principios genéricos para asignar la diferencia
entre la figura y el fondo. Como vamos a comprobar, nuestro sistema visual funciona no sólo buscando bordes para interpretar
figuras sobre un fondo, sino también remarcando las diferencias entre figura y fondo.

1. Si sobre una superficie uniforme trazamos un contorno cerrado, el área incluida dentro de este contorno se reconoce como
figura y el resto de la escena como fondo. El efecto será más marcado si además añadimos color, un tono gris o simplemente una
trama de rayas (ver fig 10.11).

Figura 10.11: Un contorno cerrado determina una figura, al igual que si se tratara de una superficie de color.

2. Se suele asignar al objeto un tamaño menor que al fondo, porque es la situación más habitual. Esto se pone de manifiesto en
el experimento llevado a cabo por Oyama (1960), que podemos ver en la figura 10.12. Se tiende a reconocer como objeto aquella
parte que resulte más pequeña, independientemente de que se trate de los sectores negros o blancos. Por el contrario, si los
tamaños son iguales, la elección de objeto y fondo pasa a ser probabilística.
Figura 10.12: Figuras del experimento de Oyama. Los sectores más pequeños se reconocen como figura y los grandes como fondo.

3. También al objeto se le asigna una mayor proximidad al observador. Esto se pone de manifiesto por ejemplo en la figura
ambigua de Rubin (ver fig 10.13), donde unos sectores contienen radios del círculo y otros curvas concéntricas. Aquellos sectores
que destacan como objeto se reconocerán como más cercanos, en este caso son los sectores con radios porque al tener continuidad
las líneas, parecen tapar al resto de la figura. La interpretación de que unos sectores tapan al fondo se debe a que nuestro sistema
visual ha completado información que no está en el objeto (los círculos concéntricos).

Figura 10.13: Figura ambigua de Rubin. Unas secciones (figura) parecen tapar a otras (fondo).
4. Por otra parte, el sistema visual tiende a asignar una mayor luminosidad a aquella parte de la escena que reconoce como
objeto, es el llamado efecto Wolff, y se pone de manifiesto en la figura 10.14 (Kanizsa, 1979). Cuando destacamos una parte de
una escena y la reconocemos como figura, automáticamente esa zona se percibe más luminosa que el resto de la escena, que
interpretamos como fondo.

Figura 10.14: Efecto Wolf. El rectángulo central se identifica como figura (porque parece tapar a alguno de los cuadrados negros que aparecen
recortados) y por eso se percibe más luminoso que el resto del fondo blanco.

5. Finalmente, nuestro sistema visual tomará como figura aquello que además de destacar tenga un sentido o un significado. Por
ejemplo: la figura 10.15 sólo tienen significado si es vista con una orientación, si la presentamos girada 180º no somos capaces de
reconocerla.

00:00 / 00:00

Figura 10.15: La figura no parece tener significado en esta orientación, pero prueba a girarla 180º. Modificada de idibujosparacolorear.com.

Además de resaltar los bordes, el proceso visual agrupa o reúne los distintos elementos de la escena, tal y como puede verse en
la figura 10.16. A pesar de no existir bordes definidos, es posible adivinar la presencia de un perro.
00:00 / 00:00

Figura 10.16: El sistema visual prueba diferentes agrupamientos de las zonas de manchas hasta encontrar un objeto identificable, creando un contorno
subjetivo y una figura con mayor luminosidad que el fondo. Foto de R. C. James.

En este caso nuestro sistema visual ha buscado un contorno subjetivo, conecta las partes de una escena uniendo espacios en
blanco. La presencia de figuras cortadas o incompletas con significado conocido suele favorecer la aparición de contornos
subjetivos. Esto se aprecia perfectamente comparando en la figura 10.17 los dos casos superiores con el ejemplo inferior, donde no
hay ninguna figura cortada o incompleta y, en efecto, no se percibe contorno subjetivo. ¿Son quizás una ilusión óptica?

Figura 10.17: Figuras de Kanizsa (1955). Nuestra percepción añade el contorno subjetivo para completar las figuras. En las dos superiores se completa
un rectángulo blanco porque tapa a un conjunto de figuras geométricas. En la inferior no es posible, ya que las cruces tienen su significado completo.

El agrupamiento de elementos en la imagen fue ampliamente estudiado por un grupo de psicólogos alemanes (la Gestalt) de
principios del siglo XX. Para la Gestalt, existen una serie de principios básicos para el agrupamiento de elementos. Vamos a verlos
con un ejemplo para cada uno de ellos. Piensa cómo describirías la escena a otra persona a través de un teléfono.

Principio de Proximidad. Los elementos de una escena se agrupan en muchos casos en función de la separación entre
ellos. En el ejemplo de la figura 10.18, los objetos se agrupan sin ninguna duda por parejas, al estar más próximos.
Pero aunque la proximidad de cada pareja es igual en horizontal y vertical, la simetría y el mayor número de parejas
hace más probable describirlas como agrupadas en dos filas y no en cinco columnas.
Figura 10.18: La escena está formada por dos filas de cinco parejas de óvalos. El principio de proximidad se aplica a las parejas, que forman una
entidad con mayor significado que un óvalo único.

Principio de Semejanza. Cuando la proximidad es igual para todos los elementos, el sistema visual tiende a asociarlos
por semejanza de formas, de color, por simetría, por orientación o por cualquier otra característica. En el ejemplo de la
figura 10.19, el criterio que gana en la primera agrupación es el de formas, pero con la segunda agrupación nos damos
cuenta que el color tiene más importancia que la forma.

00:00 / 00:00

Figura 10.19: La relación de semejanza más fuerte es la de forma, los objetos se agrupan en columnas. Cuando añadimos color, la relación de
semejanza más fuerte ha pasado a ser el color, los objetos se agrupan en filas.

Principio de mejor continuación. Se relacionan entre sí aquellos elementos que parecen seguir una misma línea
simple.
Figura 10.20: Aplicamos el principio de mejor continuación para intentar completar la información que nos parece oculta, pero nuestra interpretación
puede ser errónea.

Como nuestro cerebro ha de interpretar la información, a veces llega a conclusiones erróneas, como podemos ver en el ejemplo
de la figura 10.20 al intentar continuar el trazado de algunas líneas.
Otro ejemplo lo tenemos en la famosa bandera británica (ver fig 10.21), que interpretamos (incluso los nativos) como dos
diagonales rojas del rectángulo. Pues bien, para que parezcan tener continuidad estas diagonales al desaparecer bajo la cruz roja,
los diseñadores tuvieron que desalinearlas:

Figura 10.21: Para que se perciba una buena continuidad de las diagonales rojas, han de estar ligeramente desalineadas. Extraída de
www.jdawiseman.com/papers/union-jack/union-jack.html.

Principio de destino común. Para elementos en movimiento, se relacionan entre sí aquellos que llevan caminos
paralelos. En el ejemplo de la figura 10.22, el desplazamiento en cualquier dirección del triángulo azul y de las tres
bolitas es interpretado de la misma forma, ligando las bolitas para formar también un triángulo.
00:00 / 00:00

Figura 10.22: Siempre que las bolitas tengan el mismo destino en su movimiento, la interpretación es que deben formar parte del mismo objeto, como
el triángulo.

Principio de conclusión o unidad. Entre varios posibles agrupamientos, tiene lugar aquel que conduce a la percepción
de una figura más completa o compacta (ver fig 10.23).

Figura 10.23: Aunque se pueden percibir varias secciones de las circunferencias, el mayor significado se obtiene si la percepción es la de una unidad
de tres circunferencias.

Estos tres últimos principios se agrupan dentro de un «Principio de mejor configuración», ya que tienen como objetivo común
la búsqueda de una organización lo más completa posible de la escena.

3.2. Ilusiones ópticas


El sistema visual busca en la escena, agrupa, probablemente siga un esquema de ensayos y errores sucesivos, descartando
aquellas posibilidades poco claras. Pero siempre pueden ocurrir fallos que nos llevan a una percepción diferente de la escena, lo
que se conoce como ilusiones ópticas.
Una de las más reproducidas es la ilusión del muro o Cafe Wall (ver fig 10.24). La fachada del café St. Michael’s Hill (en
Bristol, Gran Bretaña) estaba adornada con filas de cerámicas de dos colores que presentaban un curioso efecto, ya que al estar
desalineados esos dos colores en vertical, el muro no parecía estar formado por líneas paralelas horizontales.
00:00 / 00:00

Figura 10.24: Arriba: fachada original que da nombre al efecto Cafe Wall, extraída de www.exploratorium.edu/exhibits/cafe_wall/cafe.html. Abajo:
detalle ampliado. Las franjas horizontales no parecen líneas paralelas.

4. VISIÓN DE MOVIMIENTOS
El análisis del movimiento es primordial para el sistema visual, pues resulta necesario conocer y analizar ese movimiento para
interaccionar con nuestro entorno. Por un lado hay que tener en cuenta que los objetos de nuestro alrededor se mueven y por otro
lado nosotros también nos movemos. Estas dos circunstancias provocan movimientos en la imagen retiniana de los objetos que nos
rodean. Dicho análisis se llevará a cabo en el dominio espacio-temporal, ya que en general las escenas reales son distribuciones
espaciales que se mueven. Por simplicidad, vamos a tratar sólo cambios de posición, no cambios de forma, dirección o velocidad.
Generalmente pensamos en movimientos reales, en los que hay un cambio de la posición de un objeto dentro de la escena. Pero
veremos que hay otro tipo de movimiento, que percibimos aunque no haya un desplazamiento real del objeto. Se trata de los
movimientos aparentes.

––––––––––––––––––––––

Hagamos un experimento: sostener un dedo cerca de la nariz (unos 10 cm) y mirar un punto distante; al cerrar alternativamente
cada ojo el dedo parece moverse de un lado a otro. ¿Es un movimiento real? Pensemos ahora en otro ejemplo muy común: el cine
o la televisión. ¿Hay un movimiento real del objeto en la pantalla?

––––––––––––––––––––––

4.1. Planteamiento teórico sobre el procesado del movimiento


El movimiento de un objeto dentro de una imagen 3D se caracteriza por su vector velocidad: la dirección nos indica hacia
dónde se mueve el objeto y el módulo la rapidez con la que lo hace. Este vector velocidad se puede expresar como la suma de sus
componentes en cualquier sistema de ejes.
Dado que el sistema visual se estructura en canales sintonizados a diferentes frecuencias espaciales y temporales, se puede
estudiar el movimiento en un dominio de frecuencias. Cualquier objeto puede descomponerse en frecuencias espacio-temporales,
es decir, se puede calcular su espectro mediante una transformada de Fourier (3D en general). Se puede estudiar entonces el
movimiento viendo cómo responde el sistema visual a dichas sinusoides, lo que nos lleva a considerar las CSFs espacial y
temporal que ya hemos estudiado. Se asume que el sistema visual calculará el movimiento total haciendo la composición de todas
estas componentes.

4.2. Utilidad de la información sobre el movimiento


Vamos a contemplar dos casos diferentes. Por un lado, para un observador estacionario la información se utiliza para conocer el
movimiento de los objetos del entorno. Por otro lado, para un observador que se mueve en un entorno estacionario la información
se utiliza para conocer la posición de los objetos respecto a él. En ambos casos, el propósito final es interaccionar con los objetos
del entorno, independientemente de quién se esté moviendo.
Hay razones por las que resulta importante conocer la velocidad de los objetos, por ejemplo para poder realizar movimientos
oculares de fijación o de rastreo y no precisar de movimientos bruscos (sacádicos) o para conducir un vehículo con seguridad y
evitar colisiones al adelantar. El objetivo es mantener la imagen en la fóvea al menos por dos razones:

primero porque allí es donde tenemos máxima agudeza visual y máxima sensibilidad al contraste,
segundo, mantener las imágenes más o menos estacionarias para que las frecuencias temporales de los detalles más
finos no sean demasiado altas. Si la imagen no es estacionaria, una cierta velocidad implicaría frecuencias temporales
altas para frecuencias espaciales altas y éstas no se verían por encima de la frecuencia de corte temporal, con la
consiguiente pérdida de detalles, o en otras palabras, de calidad de imagen.

Además, la información sobre el movimiento de los objetos ayuda a la percepción de las formas, ya que ayuda a la tarea de
segmentación (identificación de los bordes), lo que es imprescindible para el reconocimiento de las formas.
Para un observador en movimiento, las velocidades de las distintas partes de la imagen retiniana están relacionadas con la
distancia de los objetos correspondientes y con la velocidad del propio observador. Haciendo uso de tal información, el observador
puede controlar la trayectoria de su propio movimiento en aquellas tareas que lo requieran, por ejemplo, para modificar el tiempo
de impacto contra una superficie.
Se puede interpretar que el observador móvil genera un patrón de movimientos (o de velocidades) de los objetos que están en su
campo visual y ese patrón es lo que utiliza de forma dinámica para ajustar su trayectoria. En la figura 10.25 se muestran dos
ejemplos en los que un sujeto se está desplazando horizontalmente hacia el horizonte y verticalmente hacia el suelo. Los estudios
originales de J.J. Gibson fueron realizados con pilotos durante la II Guerra Mundial, ya que los patrones de flujo eran de gran
importancia durante el entrenamiento.

Figura 10.25: Patrón de vectores velocidad para los puntos de una escena, En un caso con el observador desplazándose hacia el horizonte, en el otro
caso con el observador en caída libre (según datos de J. J. Gibson, 1950).

4.3. La limitación del muestreo temporal


Volvemos al ejemplo de la televisión, no tenemos toda la información del movimiento real pero, ¿nos hace falta para percibir el
movimiento aparente y no distinguirlo del real? Este es el gran problema del muestreo.
Muestrear no es otra cosa que recoger parte de la información que nos llega. Lo ideal sería recoger el 100% de la información
pero eso, además de ser imposible, implicaría una capacidad de procesado muchísimo mayor de la que disponemos. Así, al
procesar la información del objeto en movimiento se pierde parte de la información. Para el sistema visual, una imagen espacio
temporal se identifica con un conjunto de imágenes espaciales en diferentes tiempos.
Consideremos para empezar una imagen estática, sin movimiento. Cuando esa imagen se forma sobre un mosaico de detectores
discreto separados una distancia Δd, la imagen se está muestreando espacialmente ya que toda la información que cae entre dos
detectores se pierde. La frecuencia de muestreo espacial es fme=1/Δd. Un problema similar ocurre en el dominio temporal cuando
«tomamos fotografías» de un objeto en movimiento a intervalos de tiempo Δt. La frecuencia de muestreo es fmt=1/Δt.
Muestrear un objeto cualquiera en movimiento es un problema bastante complejo, porque no se trata de hacer un muestreo
espacial de un objeto que depende de t o un muestreo temporal de un objeto que depende de x, sino de hacer un muestreo espacio-
temporal de un espectro de frecuencias espacio-temporales.
Un ejemplo sencillo se ilustra en la figura 10.26, donde recogemos la información de una bolita que se desplaza en un plano de
derecha a izquierda:

00:00 / 00:00

Figura 10.26: Muestreo temporal de un objeto en movimiento. Adaptada de Artigas, 1995.

Un circulo negro se mueve en el plano (x,y) partiendo de una cierta posición inicial (x0,y0) en el instante t0. A partir de este
instante se toman fotografías cada Δt. El resultado de cada fotografía mostraría el circulo en una posición (x,y) diferente que se iría
desplazando en la dirección del movimiento, es decir, el movimiento aparecerá como cambios entre una imagen y la siguiente.
Al reproducir el conjunto de fotogramas (movimiento aparente), si el intervalo temporal entre ellos es el adecuado, la sensación
que produce es que la bolita se ha desplazado de forma suave y continua. En ese caso el movimiento aparente se percibe como el
real y no podríamos distinguir uno de otro. Pero si el intervalo entre fotogramas no es adecuado (por ejemplo las imágenes 1-6-
12), el movimiento que se percibe es a saltos, no da la sensación de un desplazamiento. En este caso el movimiento aparente no
coincide con el real. Podemos ver ambos ejemplos en la animación de la figura 10.27.

00:00 / 00:00

Figura 10.27: Animación donde se muestra la reconstrucción de una escena a partir de dos muestreos, uno da sensación de movimiento real y el otro
no.

Al plantear experimentos sobre la visión de movimientos es interesante que la frecuencia de muestreo sea muy baja (Δt
grandes), en estos casos se ve claramente la diferencia entre la imagen muestreada y la original (así vemos mejor si el objeto, o
nosotros, se ha movido).

4.4. Movimiento real y movimiento aparente


Como ya hemos dicho, un movimiento real implica un cambio de la posición de un objeto dentro de la escena. En los
movimientos aparentes tenemos la percepción de un movimiento cuando no hay ningún objeto que está realmente cambiando de
posición. Puede ocurrir que el objeto percibido esté quieto o que se mueva pero con otro movimiento diferente al percibido por
nosotros.
Vamos a ver varios ejemplos.

Ejemplo 1: De nuevo pensemos en una sinusoide a la que podemos cambiar la frecuencia (por ejemplo un movimiento
circular) y una frecuencia de muestreo fm fija (ver fig 10.28).

00:00 / 00:00

Figura 10.28: Consecuencias del submuestreo: la velocidad percibida puede no coincidir con la original.

La frecuencia del objeto que marca el límite para la correcta percepción del movimiento es la mitad de la frecuencia de
muestreo y se conoce como frecuencia de Nyquist (fN). Si la frecuencia del objeto aumenta por encima de este valor, la percepción
del objeto no se corresponde con la real, es lo que se conoce como aliasing o submuestreo. La frecuencia percibida irá variando
entre la frecuencia de Nyquist y 0 (lo que implica un objeto estático), como aparece en la figura 10.28.
Podemos ver otros dos ejemplos en la animación de la figura 10.29. Supongamos una bolita que sigue un movimiento
oscilatorio que capturamos con dos frecuencias de muestreo diferentes (los círculos vacíos van a representar la captura de la
información). En la primera el muestreo es suficiente y percibimos el movimiento original, pero en la segunda el muestreo es
insuficiente.

00:00 / 00:00

Figura 10.29: Animación del movimiento oscilatorio de una bolita capturado con dos frecuencias de muestreo para ver la diferencia entre la
percepción correcta y el problema del submuestreo.

Ejemplo 2: Veamos otro ejemplo, una hélice de avión, las aspas del ventilador, la rueda de un coche o de un carro…. En todos
estos casos tenemos aspas o radios que hacen de referencia para nuestro sistema visual, pero que no son distinguibles unos de otros
(hemos pintado uno de diferente color en la figura 10.30 para que podamos ver hacia dónde se movería, pero en realidad no
tendremos esa información).

Figura 10.30: Movimiento real horario en el que haremos un muestreo temporal. Los radios no se distinguen por color, salvo para esta explicación.

Supongamos ahora que el muestreo que hacemos (nuestro sistema visual o el dispositivo que recoja la escena), sólo capta las
imágenes 1 y 2 o sólo las imágenes 1 y 6.

––––––––––––––––––––––

Razona cómo interpretarías el movimiento viendo sólo esas parejas de imágenes. ¿Cuál de los dos es un muestreo inadecuado y
cual reproduce el movimiento real?

––––––––––––––––––––––

Si nos planteamos qué ocurre conforme va aumentando la velocidad angular de la rueda, deducimos que tiene lugar un error en
la percepción debido al número limitado de imágenes utilizadas para representar el movimiento (ver fig 10.31). Muchas veces la
frecuencia de giro de los ejes (frecuencia de revolución de la rueda x no ejes) supera la fN, en este caso se percibe como una
frecuencia distinta e incluso con signo cambiado, dando la sensación de que la rueda gira en sentido contrario.

00:00 / 00:00

Figura 10.31: El movimiento percibido depende del muestreo realizado.

Podemos ver otro ejemplo en el siguiente enlace, que nos permite experimentar girando una rueda a diferentes velocidades para
darnos cuenta de los cambios en la percepción que se producen. (Puedes realizar el experimento en tu PC en el siguiente enlace
http://lite.bu.edu/vision-flash10/applets/Motion/Wagon/Wagon.html).

Ejemplo 3:

Este enlace es una grabación del efecto del muestreo. La cámara de video trabaja a 24 fps (fotogramas por segundo) y los
autores generan una onda ‘acuosa’ a 23, 24 y 25 Hz. La frecuencia de muestreo es la de la cámara, es decir 24, por lo que la
frecuencia de Nyquist debe ser la mitad: 12 Hz.Si la onda de agua de la escena tuviese una frecuencia menor de 12 Hz, la
reproducción no se vería alterada. Como la onda de agua se ha construido a mayor frecuencia, en todos los casos va a haber
aliasing y, por lo tanto, errores en la reproducción. Para la onda de 24 Hz, que corresponde al doble de la frecuencia de Nyquist, ya
hemos visto que la frecuencia percibida es nula: el agua no parece moverse. Para 25 Hz el agua se mueve hacia abajo, aunque no
lo hará a la velocidad original. Para 23 Hz la frecuencia percibida hace que el movimiento del agua parezca desafiar a la gravedad.

Ejemplo 4: Un ejemplo típico, es lo que conoce como ilusión de la cascada (figura 10.32). Se trata de un post-efecto de
movimiento que se produce cuando miramos a una superficie blanca después de habernos adaptado mirando cómo cae el agua de
una cascada: “parece que ahora el agua sube hacia arriba”. (Puedes realizar el experimento en tu PC en el enlace
lite.bu.edu/vision-flash10/applets/Motion/Waterfall/Waterfall.html).

Figura 10.32: Efecto cascada. Extraído de lite.bu.edu.

La interpretación de este movimiento aparente es sencilla. Basta con asumir que existen detectores de movimiento «hacia
arriba» y «hacia abajo». La adaptación, mirando el movimiento del agua de la cascada hacia abajo, reduce la sensibilidad de los
detectores de movimiento en ese sentido (los satura). El desequilibrio que se produce entre los detectores se manifiesta al mirar la
superficie estática, con la percepción de la cascada subiendo hacia arriba. Es exactamente lo mismo que ocurre cuando nos
adaptamos a una luz roja y miramos después a una superficie blanca, que se percibe verde (complementario).

Ejemplo 5: Dentro de los movimientos aparentes, el caso mas conocido y estudiado es el denominado efecto Φ (o efecto
estroboscópico), descubierto por Wertheimer en 1912.
Supongamos un círculo de luz que se enciende durante un instante t1. Un tiempo Δt después de que éste se apague, se enciende
otro círculo de luz durante un tiempo t2. Los dos círculos están separados espacialmente una distancia Δx (ver fig 10.33)

Figura 10.33: Objetos para el ejemplo del movimiento aparente estroboscópico o efecto Φ. Ambos círculos se encenderían dentro del mismo recuadro.

Supongamos que los tiempos de encendido son iguales y además muy cortos en comparación con Δt. Sólo nos queda como
variable el intervalo de tiempo Δt entre ambos. En la figura 10.34 podemos ver las siguientes animaciones:

Si Δt es mayor que 200 ms (los valores son orientativos), los estímulos se perciben sucesivamente, o sea, uno después
del otro. No nos cabe duda de que se trata de dos objetos independientes.
Si por el contrario, Δt es menor que 30 ms, los estímulos se perciben simultáneamente, o sea, los dos al mismo
tiempo. Por tanto, se trata de nuevo de dos objetos independientes.
Entre ambas situaciones, en torno a Δt de 60 ms parece que el estímulo se desplaza realmente de un lado al otro, en
este caso la percepción es de un solo objeto. Es, naturalmente, un movimiento aparente: el movimiento Φ.

00:00 / 00:00

Figura 10.34: Movimiento aparente estroboscópico o efecto Φ. Para cierto Δt entre el apagado de una luz y el encendido de la otra, se percibe como
una única luz que se desplaza de una posición a otra.

En 1915, Korte estableció un conjunto de reglas empíricas que gobernarían este efecto, en función de todos y cada uno de los
parámetros comentados anteriormente. Estas reglas se conocen hoy como leyes de Korte. La manera correcta de abordar este
fenómeno y otros similares, es tratarlo como un problema de muestreo espacio-temporal.

4.5. Mecanismos para el análisis del movimiento


El objetivo de un modelo de análisis del movimiento es la identificación de la velocidad del mismo, naturalmente en módulo y
dirección.
4.5.1 Análisis para objetos identificados y localizados
Un sistema general de análisis de movimiento (no necesariamente el sistema visual), podría funcionar así:

1. Identificación un objeto y localización espacial en el instante t1.


2. Localización en el instante t2>t1.
3. Medida de la distancia recorrida, Δx, y división por Δt, o sea, se calcula la velocidad.

La clave es analizar posiciones (previa identificación del objeto) y medir la velocidad. Pues bien, el sistema visual no debe
trabajar así, aunque este método tendría la ventaja de evitar el problema de los objetos que se ocultan en un momento dado detrás
de un obstáculo. Pero si el movimiento es muy rápido, no daría tiempo para realizar tantas operaciones porque necesitamos
invertir muchos recursos en la tarea de identificación, que no es de bajo nivel sino todo lo contrario.
De hecho, el sistema visual debe realizar ya un análisis del movimiento a bajo nivel, como lo demuestran algunos efectos
interesantes:

a. en el «cuadrado de puntos que se mueve», (ver figura 10.35) es el movimiento lo que ayuda a reconocer que los
puntos que se mueven forman un cuadrado y no al revés. Por tanto, estamos detectando un movimiento sin
identificación previa del objeto, y, obviamente, sin localización espacial alguna de ningún objeto.

Figura 10.35. Cuadrado de puntos que se mueven. Una zona cuadrada se repite en cada fotograma ligeramente desplazada respecto al
fotograma anterior. En cada fotograma no la reconocemos, pero al reproducir la secuencia nuestro sistema visual es capaz de localizarla.

b. En la «ilusión de la cascada» (ver fig. 10.32), tenemos sensación de movimiento sin existir cambio alguno de
posición.
c. En el «efecto Φ invertido» (variante del efecto Φ en el que el movimiento aparente es en el sentido opuesto al del
cambio de posición del objeto), se prueba que la sensación de movimiento no se deriva necesariamente de los cambios
de posición del objeto en la imagen retiniana, sino de los cambios espacio-temporales que se producen en la
distribución de luminancias de la imagen retiniana (Extraído de Stuart Anstis Lab).

4.5.2 Análisis del movimiento sin identificación


Esto es en realidad lo que realiza nuestro sistema visual. Se han propuesto distintos modelos, algunos en coordenadas espacio-
tiempo, y otros en un espacio de frecuencias. Los primeros son más sencillos y fáciles de comprender, pero ya hemos visto que el
sistema visual posee canales sintonizados a diferentes frecuencias espaciales y temporales, así que resulta más real trabajar con
modelos en el dominio de frecuencias.

a) Modelos en el dominio espacio-tiempo


El modelo de Reichardt (1961), que podemos ver en la animación de la figura 10.36) ilustra de forma sencilla lo que es un
modelo en el dominio de espacio y tiempo.
00:00 / 00:00

Figura 10.36: Modelo de Reichardt para la detección de movimientos. El retardo que introduce el detector A hace posible que lleguen al mismo tiempo
las señales de A y B. Sólo en ese caso se produce una señal en π. Esta unidad está sintonizada para un movimiento de derecha a izquierda a esa
velocidad particular. Para otra dirección/sentido o velocidad, π no dará respuesta.

Supongamos un punto moviéndose hacia la derecha que pasa por encima del detector A en el instante t=0. Un tiempo después
pasará por encima del detector B. Supongamos que la velocidad de conducción de la señal desde los detectores A y B al
multiplicador (Π) es infinita, pero introducimos un retardador en el camino de A. Si el movimiento es muy rápido llegará antes la
señal de B, si es muy lento llegará antes la señal de A. Claro que lo de rápido o lento estará en función de lo que dure el retardador
que frena la señal en el cable que viene desde A. Si la distancia entre los detectores es Δx, entonces, justo cuando la velocidad del
movimiento es Δx/Δt, donde Δt es el retardador, las dos señales llegarán al mismo tiempo y el multiplicador dará una respuesta
máxima. Esta maquinaria, que se conoce como unidad de Reichardt, constituye pues un detector de movimiento sintonizado para
una cierta velocidad y para un sentido del movimiento particular (hacia la derecha).
Con un par de unidades de Reichardt (ver fig 10.37) se puede construir una unidad más sofisticada que permitiría decidir sobre
el sentido del movimiento [Poggio y Reichardt (1973)].

00:00 / 00:00

Figura 10.37: Unidad de Reichardt para la detección de los dos sentidos de un movimiento a una determinada velocidad.

Los multiplicadores de las dos unidades restan sus respuestas, se interpretará que el movimiento es hacia la derecha o hacia la
izquierda según si la diferencia es positiva o negativa.
A partir de estas simples ideas se han propuesto posteriormente modelos mucho más elaborados [Reichardt (1987), Van Santen
y Sperling (1985)].
¿Tiene este tipo de modelos algún sentido desde el punto de vista fisiológico? Ciertamente si, ya que sabemos que existen
células corticales que justamente tienen la propiedad de ser selectivas para la dirección del movimiento: las células complejas
(sólo parte de ellas).
En la primera edición de su libro (Eye, brain and vision), Hubel, adaptando las ideas originales de Barlow y Levick (1966)
propuso un posible circuito neural que funcionaría básicamente como una unidad de Reichardt (ver fig 10.38). Entre las células
simples y las células complejas habría dos capas de células, las grises y las blancas, que añadirían el retardo y la combinación de
las señales:
00:00 / 00:00

Figura 10.38: Modelo de Hubel, Barlow y Levick. Las células blancas llevarían su señal a la misma célula compleja. La célula blanca anula las señales
si llegan al mismo tiempo. Adaptada de Hubel, 1989.

La idea es relativamente sencilla. Supongamos que entre las células simples y las células complejas existen unas células
intermedias (blancas) que reciben inputs excitatorios de una célula simple e inhibitorios de otra célula simple vía una segunda
célula intermedia (grises), que actúa como un retardador. Los campos receptivos de las dos células intermedias son adyacentes.
Finalmente, varias células intermedias blancas están finalmente conectadas con una célula compleja.
Supongamos que el objeto se mueve de derecha a izquierda. Si la velocidad del movimiento es la adecuada, la célula intermedia
blanca recibirá una excitación justo en el momento en el que está también recibiendo una inhibición de la célula intermedia gris
por cuyo campo receptivo acababa de cruzar el objeto. Ambas señales se cancelan y la célula compleja no recibirá señal alguna.
Pero si, por el contrario, el movimiento es de izquierda a derecha, la inhibición llegará demasiado tarde para evitar que la célula
blanca haya ya enviado señal a la célula compleja. La célula compleja tiene por tanto las propiedades de una célula selectiva a la
orientación, está sintonizada a un movimiento y a una velocidad.

b) Modelos en el dominio de frecuencias


El movimiento también se puede representar y estudiar en un espacio 2D que represente las frecuencias espaciales y
temporales.
En el dominio de frecuencias espacio-temporales, un movimiento de este tipo se representa como un par de puntos debido a la
combinación de signos (+fe,+ft), (-fe,-ft). Si el movimiento fuera con el mismo módulo pero hacia la derecha, el par de puntos
correspondientes estaría situado en el segundo y el cuarto cuadrante. En los ejemplos que se muestran en la figura 10.39, los
puntos corresponden a una red (una componente=un punto), y las líneas a un sólido rígido cuyas componentes se mueven
obviamente a la misma velocidad v: 3 y 2 º/seg a la izquierda (línea discontinua) y a la derecha (línea continua) respectivamente.

00:00 / 00:00

Figura 10.39: Representación gráfica de una red sinusoidal y dos sólidos en movimiento en un espacio de frecuencias.

Los modelos en el dominio de frecuencias espaciales y temporales son matemáticamente mucho mas complicados, por lo que
nos contentaremos con una idea cualitativa sobre como funcionaría un modelo de este tipo para extraer la información de la
velocidad.
Nos apoyaremos para ello en el modelo de Watson y Ahumada (1985). Supongamos un objeto con un cierto espectro espacial.
Supongamos que se mueve con velocidad v a la izquierda. Ya sabemos que este movimiento se representa en el plano de
frecuencias como una línea recta de pendiente v positiva.
Ahora tenemos que asumir algo muy importante, que en el sistema visual existe un cierto número de filtros, cada cual
sintonizado para una banda de frecuencias espaciales y temporales. Trabajaremos con la hipótesis de que la función de sintonizado
espacio-temporal es una gaussiana bidimensional. En este caso la anchura de banda de cada filtro es la misma en frecuencia
espacial que en frecuencia temporal, es decir, los filtros son circulares es el plano (fe, ft). Además, todos los filtros tienen la misma
anchura (esto no es realmente lo que sucede en las células corticales). Con estas ideas, el movimiento considerado se representa
como hemos visto en la figura 10.39 mediante una línea cuya pendiente es la velocidad.
Ya sólo nos queda por admitir que existen patrones de filtros cada cual sintonizado para una determinada velocidad (ver fig
10.40, izquierda). Supongamos para el ejemplo que tenemos 9 filtros que podemos organizar en el plano de frecuencias espaciales
y temporales como una trama de 3x3. Un patrón es un conjunto de repuestas r1.....r9.

00:00 / 00:00

Figura 10.40: Modelo de detección del movimiento de Watson y Ahumada en el espacio de frecuencias. Adaptada de J. Malo.

Por ejemplo, un patrón r1.....r9 sintonizado para la velocidad V3 es aquél en el que los filtros 3-5-7 dan respuesta y el resto no
(ver fig 10.40, derecha). Un pequeño cambio de velocidad puede hacer que los filtros 3 y 7 respondan un poco menos, y si
seguimos cambiando la velocidad en un momento dado comenzarían a responder los filtros adyacentes. De esta forma, tenemos un
continuo de patrones de velocidad y, en definitiva, aquel patrón que dé la máxima correlación con nuestro movimiento será el que
determine cual es la velocidad.

––––––––––––––––––––––

Quedan muchas preguntas sobre la visión de movimientos, pero se escapan a nuestros objetivos.

¿Hay dos mecanismos para analizar movimientos reales y aparentes? No, los fallos de percepción se deben a un
muestreo insuficiente, pero el sistema visual en principio los trata igual.
¿Vemos cualquier tipo de movimiento aparente? Ya hemos dicho que el muestreo es relevante. Además habría que
tener en cuenta los umbrales de desplazamiento y de velocidad, que pueden impedirnos percibir cualquier tipo de
movimiento.

––––––––––––––––––––––

5. INTEGRACIÓN DE LA INFORMACIÓN
Este es el momento de plantearse cómo hace el cerebro para decirnos lo que estamos viendo.
Si cada célula de nuestro cerebro (en la zona relacionada con la visión) analizara la información total de un punto de la escena,
sumar todas las células reproduciría la escena entera. Pero eso requiere muchas células y además que estén especializadas en todo.
Si una zona se dañase, aparecería un escotoma porque sólo faltaría parte de la escena. Pero entonces, ¿qué ocurre con las personas
que tienen una agnosia visual (producida por infarto, tumor etc…)? Estas personas ven la escena completa pero sólo pierden una
parte de la información: color, forma, movimiento…
Ya sabemos que en el córtex primario existen células capaces de detectar ciertas características elementales (frecuencia
espacial, orientación, dirección del movimiento, color, etc). La información que se analiza en estas células es enviada a las áreas
corticales vecinas, que envían sus proyecciones a otras áreas visuales superiores, pero sin referencia a lo que está ocurriendo en la
célula de al lado, es decir, en el punto objeto contiguo.
La primera ventaja de este razonamiento es clara: si las zonas del cerebro están especializadas en parte de la información, no es
necesaria una representación punto a punto de la escena. Se puede comprimir la información comprimiendo el número de células.
Claro que esto lleva a otras preguntas. Podemos plantearnos que si la información de un objeto es dividida para ser analizada,
en algún momento ha de ser puesta en común otra vez. Al mezclar la información que proviene de un mismo objeto, la duda que
surge es cómo se las apaña el cerebro para relacionar los aspectos espaciales y temporales entre ellos. Y si son varios objetos,
¿cómo se distingue la información que pertenece a cada uno?
¿Cómo se une la información para dar la percepción final y total del objeto si está siendo analizada por separado y en áreas
independientes? Podemos pensar que los procesos de análisis son paralelos: si tienen lugar al mismo tiempo, entonces deben
pertenecer al mismo objeto. Asumiendo que la información visual se rompe en diferentes componentes y se procesa en paralelo en
áreas especializadas y de forma independiente, las conexiones entre esas áreas pueden tener lugar en tres direcciones:

hacia delante, de áreas inferiores a superiores (bottom-up),


hacia atrás, volviendo de las áreas superiores a las inferiores (top-down),
conexiones laterales entre áreas de complejidad de procesado equivalentes.

La información se redistribuye y en este segundo paso es donde va a haber una interacción entre esos diferentes aspectos que la
componen. Esta hipótesis de que se produce una ‘retroalimentación’ desde las áreas superiores a las inferiores nos aseguraría que
la información se une en algún punto. De esta forma, la información que pertenece a un mismo objeto acaba junta en algún lugar
del proceso visual, lo que podemos llamar percepción.
Pero también hay pruebas de que existe una jerarquía en el procesado, ya que cierta información tiene mayor importancia que
otra a la hora de tomar decisiones: localización-color-movimiento y orientación.
Por tanto, no puede ser en retina ni en el córtex primario donde objetos enteros se reconocen, no puede ser donde reside la
percepción. Una prueba de ello es la existencia de escotomas y agnosias visuales. Dependiendo del lugar donde se pierdan las
células visuales, puede aparecer un escotoma (se pierde toda la luz de esa parte de la escena, si por ejemplo estuviera en retina o en
el córtex visual primario, donde todavía hay un mapa de la escena) o la agnosia (se pierde la información que se analiza, por
ejemplo el movimiento si se trata de V5, pero no la luz que llegaba de esa parte de la escena, que está siendo analizada en otras
áreas). Las personas con problemas específicos para la realización de ciertas tareas suelen tener alguna lesión precisamente en
niveles superiores de la corteza visual.
Todas las evidencias nos llevan a que es en los niveles superiores del córtex visual donde, en última instancia, la percepción
parece codificada. La percepción parece ser, más que una representación en nuestro cerebro, el resultado de esta integración de la
información en una imagen final y su interpretación. Y nuestra interpretación puede cambiar.
Los resultados de muchas experiencias demuestran que esto ocurre así, por ejemplo:

El área V5 procesa la información de movimiento global de un estímulo con dos componentes: dos redes con
inclinaciones diferentes moviéndose en dirección perpendicular a sus inclinaciones (ver fig 10.41). El estímulo global
se percibe como un único objeto, una trama con una dirección de desplazamiento diferente a las dos componentes
(que sería la suma vectorial de las dos velocidades). El efecto puede comprobarse en el vídeo 10.41. Las células
selectivas a direcciones del córtex primario responden mejor a cada una de estas redes que a la trama resultante de la
superposición. Células de V5 responden mejor a la trama, al movimiento global.

00:00 / 00:00
00:00 / 00:00

Figura 10.41: Dos redes individuales producen respuesta en células de V1, pero el movimiento global sólo produce respuesta en V5. Adaptado de
Stonor y Albright, 1993. Vídeo de M.J. Luque.

Los umbrales de detección de movimientos con redes cromáticas son diferentes a los obtenidos con redes acromáticas.
Esto demuestra que hay una interacción entre la información de movimiento y la de color.
Post-efectos de movimiento: como ya hemos visto en el efecto cascada, se presenta un estímulo moviéndose en un
sentido y después de un intervalo de tiempo se detiene. El observador se adapta al estímulo en movimiento (adapta sus
detectores de movimiento en un sentido) y cuando el estímulo se detiene continúa mirando dicho estímulo estático
pero lo percibe como moviéndose. Las células correspondientes del córtex primario no están activas, pero si que lo
están las células correspondientes de V5.
El área V4 analiza la información de color y el córtex inferotemporal (IT) la de formas complejas, por ejemplo caras
(el córtex estriado responde mejor a barras, bordes y redes). Ambas regiones están muy próximas, pacientes que
sufren prosopagnosia (no reconocen caras) manifiestan frecuentemente acromatopsia (no distinguen tonos).
Experiencias de rivalidad binocular: presentamos por ejemplo dos redes con diferentes orientaciones, una a cada ojo,
con el fin de que aparezca una rivalidad binocular y se produzca una supresión alternante. Los estímulos llegan a la
retina de forma simultánea y cabe pensar que habrá células que sean activadas por un estímulo y simultáneamente
otras por el otro. Pero la percepción final es la de un solo ojo, el que gana en el proceso de rivalidad.
Si estudiamos las células sintonizadas a una de las dos orientaciones (por ejemplo horizontal) y en qué nivel de la
corteza las células se activan, se comprueba que a nivel del córtex primario las células horizontales correspondientes
dan respuesta siempre, independientemente de cuál sea la percepción (con un ojo o con otro). Pero para una célula del
área IT en las mismas condiciones no ocurre esto, sino que sólo se produce respuesta cuando el observador percibe la
orientación a la que está sintonizada (ver fig 10.42).

Figura 10.42: En una experiencia de rivalidad binocular para provocar supresión, la célula de IT activada corresponde a la percepción, mientras que
V1 da respuesta a los dos estímulos. M.J. Luque y M.A. Díez.
Figuras ambiguas: son imágenes con dos posibles percepciones. Las células en niveles inferiores de la corteza
responden a las características físicas del estímulo, mientras que en los centros superiores se refleja cuál de las dos
posibles percepciones experimenta el observador (no consciente o involuntario).

Podemos ver dos ejemplos en la figura 10.43: en el cubo de Necker y la figura reversible cara-copa. Otro gracioso ejemplo
puede verse en el siguiente vídeo.

Figura 10.43: Izq: ilusión cara-copa, extraída de http://dragon.uml.edu/psych/illusion.html. Drcha: cubo de Necker. Nuestra percepción puede cambiar
entre dos objetos o dos profundidades.

Además, hay que tener en cuenta en algún momento de esta etapa final una correlación con la información almacenada en la
memoria. Mediante imágenes por resonancia magnética se puede comprobar que la visualización de una escena mentalmente (una
imagen recordada o por memoria) detecta un patrón de actividades básicamente idéntico que cuando se visualiza la escena
realmente.
Está demostrado que la memoria puede influenciar la percepción, ya que exageramos las características más destacadas de los
objetos cuando tenemos que recordarlos. Es una forma de facilitar el proceso de memorización: los objetos oscuros se recuerdan
más oscuros, los saturados se recuerdan más saturados, etc… Por ejemplo: el color del plátano se recuerda amarillo, sin ninguna
contribución de las pintas marrones características de estos productos en nuestra geografía.

5.1. Teoría de la célula abuela


Cuando estudiamos la organización fisiológica y funcional de las células en los caminos visuales, comprobamos la alta
especialización de las células en las áreas visuales superiores: cada célula respondía a un estímulo más complejo que las del nivel
anterior. Esta es la base para la hipótesis de que el procesado de la información no sea un proceso paralelo sino uno jerarquizado,
que puede resumirse en lo que se conoce como teoría de la célula abuela.
¿Existen células tan especializadas que responden sólo a la cara de tu abuela? No parece que esto sea así, aunque hay
partidarios y detractores de este tipo de teorías.
Por un lado no parece que estas células puedan existir. Cuando a una persona se le pide que visualice una escena mentalmente,
el patrón de actividades de fMRI (imágenes por resonancia magnética) demuestra claramente que hay actividad en los niveles
corticales superiores, pero también en V1. Así pues, las respuestas de las células de V1 ya contribuyen al conjunto de códigos que
constituyen la percepción. Además, el patrón de actividades es básicamente el mismo que cuando el sujeto está visualizando la
escena realmente, lo que demuestra que toda la información, incluyendo forma, color y movimiento, debe ser finalmente integrada
y correlacionada con la información almacenada en la memoria. Parece claro que la cara de tu abuela no es, pues, el resultado de la
respuesta de una única célula.
Por otro lado, se han realizado experimentos en los que se han localizado células que responden sólo a una cara determinada, o
a caras muy parecidas, y no responden a ninguna otra. Estos resultados refuerzan esta teoría, pero quizá es muy estricto hablar de
una única célula abuela y sería más realista hablar de un conjunto muy limitado de células que responderían unas a cierta forma de
cara, otras a cierto color y longitud de pelo, y que al unir sus percepciones dan una respuesta muy específica.

5.2. Toma de decisiones del sistema visual


La última etapa de interpretación de la información que ha de llevarnos a la percepción, debe ser la toma de la decisión final,
una vez analizadas las diferentes partes de la información.
Para tomar sus decisiones respecto a la escena que nos rodea, el sistema visual establece una serie de premisas, ya que son las
situaciones más habituales:

los objetos están al derecho,


son convexos,
la luz viene desde arriba.

Se puede ver un ejemplo de cómo funcionan estas premisas en la ilusión típica Hollow-Mask, que consiste en la percepción del
volumen de una máscara cuando la miramos por ambos lados, tanto el convexo habitual como el cóncavo. Tenemos un ejemplo en
la foto de la figura 10.44 y en el siguiente video.

Figura 10.44: Máscara en su posición original (convexa) y vista por el lado contrario (cóncava). En ambos casos la sensación es de convexidad.
Extraída de www.sciencephoto.com.

Si se interpreta el volumen de la figura en cada posición, nos damos cuenta de que siempre la percibimos como si fuera
convexa, aún cuando estemos en la parte cóncava de la máscara. Nuestro cerebro asigna el volumen habitual en función de las
sombras que se perciben.
Podemos ver un ejemplo de su uso artístico en una escena de la fachada de la Sagrada Familia de Barcelona, conocida como la
Verónica (ver fig 10.45). Fíjate en la cara del Cristo, que ha sido tallada hacia dentro del plano del paño.
Figura 10.45: La cara dentro del paño de la Verónica ha sido tallada cóncava, pero la percibimos convexa. Extraída de en.wikipedia.org/wiki/File:SF_-
_Ver%C3%B3nica.jpg

Normalmente estas premisas conducen a una correcta interpretación de la escena, pero si se produce el caso de llevar a una
decisión equivocada, el sistema visual es suficientemente crítico como para replantearse sus premisas y cambiarlas. En el ejemplo
Hollow-Mask, cuando la máscara se mueve girando y vemos la transición de convexo a cóncavo, nos damos cuenta de nuestro
error de percepción y podemos conscientemente forzar la percepción correcta.
También puede darse el caso de que no comprendamos las decisiones que ha tomado nuestro sistema visual, y esto es debido a
que el cerebro en su conjunto está utilizando información que excede de los límites del sistema visual. Podemos ver un ejemplo en
la ilusión Ames Room en la figura 10.46 y en el vídeo asociado.

Figura 10.46: Habitación de Ames (Ames Room). Si las personas son de tamaño similar, como cabe esperar, hay una incongruencia con el tamaño de
la habitación. Extraída de www.youtube.com/watch?v=qb_X91HU-Pw.

En este ejemplo, la percepción del tamaño de las personas no cuadra con la información de la habitación, no parece haber un
acuerdo. La clave, claro está, es que la habitación no es lo que parece, está construida para engañar a nuestro cerebro y que
parezca una sala cuadrada cuando no lo es. Si analizamos el vídeo con esta nueva información, encontramos las pistas para
descubrir las verdaderas dimensiones.
Y como último ejemplo de estas ilusiones por errores en la interpretación, podemos ver este video que recoge algunas de las
más famosas.

5.3. Atención y percepción


Nuestro sistema visual es limitado y no es capaz de procesar toda la información que recoge. Esto sucede porque la cantidad de
recursos necesaria es demasiado grande para ser llevada a cabo, a pesar de que disponemos de un elevado número de neuronas.
Según los trabajos de Desimone et al. (1995), los objetos deben competir en nuestro sistema visual por la atención y el espacio
de procesado, y esta competición puede verse influenciada por factores cognitivos y automáticos.
Estos factores se pueden dividir en dos categorías, que ya hemos adelantado al hablar de la integración de la información. La
primera se conoce como bottom-up, son los procesos dirigidos a separar figura y fondo, por tanto, basados en propiedades
intrínsecas del estímulo en la escena. La segunda se denomina top-down, son los procesos determinados por la tarea que están
llevando a cabo, y pueden anular los procesos bottom-up.
Por ejemplo: una escena de naranjos, formada por hojas verdes y las propias naranjas. Los procesos bottom-up tienen como
objetivo destacar las naranjas del fondo formado por las hojas verdes. Pero puede que queramos dirigir nuestra atención
precisamente a las hojas verdes, ignorando las naranjas, lo que constituye los procesos top-down.
La atención implica una selectividad perceptual, de forma que los aspectos irrelevantes del objeto o de la escena no son tenidos
en cuenta. De esta forma, centrándonos sólo en los aspectos que por algún criterio consideramos relevantes, el procesado se realiza
de manera mucho más efectiva.
Podemos ver dos ejemplos de la selectividad de la atención en los siguientes vídeos:

Ejemplo 1: Cuenta el número de veces que se pasan la pelota los componentes del equipo blanco
Ejemplo 2: Fíjate si hay algo raro en la escena a lo largo de la conversación.

CUESTIONES
1. Señala si es verdadero o falso el siguiente razonamiento. Para facilitar la distinción de figuras sobre el fondo de una escena,
nuestro sistema visual utiliza los mecanismos de inducción y de asimilación.

a. Verdadero.
b. Falso.

2. Si el objetivo de la percepción es distinguir objetos dentro de la escena, el fenómeno de asimilación:

a. Va en sentido contrario a este objetivo, por lo que no tendrá lugar nunca.


b. Va en sentido contrario a este objetivo, por lo que sólo tendrá lugar si al asimilar parte de la escena provoca que se
diferencie otra parte, es decir, va asociado a una inducción.
c. No presenta ningún problema ya que siempre distinguiremos el objeto de que se trate.

3. En el caso en que actúen varios principios de agrupamiento simultáneamente:

a. Siempre se impondrá el que da una información más completa de la escena, que suele ser el que distingue mayor
número de objetos.
b. El color siempre va a tener mayor importancia que la forma o la proximidad.
c. Se dan todos al mismo tiempo, aunque se contradigan.
d. Si hay un conflicto, no se da ninguno.

4. Señala si es verdadera o falsa la siguiente afirmación: si nunca hemos visto antes el objeto a reconocer, la tarea es tan compleja
que puede resultar imposible.

a. Verdadera.
b. Falsa.

5. A partir de los conceptos de ambos tipos de movimientos, señala las afirmaciones correctas:

a. Todos los movimientos son aparentes, no existe el movimiento real.


b. Movimiento real y aparente son la misma cosa.
c. Sólo tenemos un mecanismo para procesar el movimiento, la diferencia entre real y aparente se debe a un muestreo
más o menos adecuado.
d. Tenemos un mecanismo para cada tipo de movimiento, nuestra retina decide qué mecanismo es el que debe actuar.
e. Un movimiento real sólo puede tener lugar «en directo», visto a través de la tele, cine u ordenador ya es aparente.
6. Señala si es verdadera o falsa la siguiente afirmación: el efecto McCollough demuestra que no tiene lugar una interacción entre
la información de color y la información de orientación de líneas

a. Verdadera.
b. Falsa.

7. La constancia de tamaños es un efecto que puede tener lugar:

a. Para cualquier objeto, aunque no conozcamos su tamaño real.


b. Sólo para objetos conocidos, ya que es necesario estar familiarizados con su tamaño real.
c. Ninguna es correcta.

8. Los fenómenos de inducción y asimilación se definen como:

a. La inducción disminuye las diferencias entre partes de la escena y la asimilación aumenta las diferencias entre
partes de la escena.
b. La inducción aumenta las diferencias entre partes de la escena y la asimilación aumenta las diferencias entre partes
de la escena.
c. La inducción aumenta las diferencias entre partes de la escena y la asimilación disminuye las diferencias entre
partes de la escena.
d. Ninguna es correcta.

9. Podemos afirmar que los principios de agrupamiento dentro de una escena tienen como finalidad común:

a. La búsqueda de una organización lo más completa posible de la escena.


b. La búsqueda del mayor número posible de objetos en la escena.
c. La búsqueda del objeto más grande de la escena.
d. Separar objetos según su color.

10. En la mayoría de las «ilusiones visuales»:

a. Nuestro cerebro sigue las premisas habituales y extrae una percepción que no va a poder modificar
conscientemente para llegar a una interpretación correcta.
b. Nuestro cerebro sigue las premisas habituales y extrae una percepción que va a poder modificar conscientemente.
c. Nuestro cerebro busca las premisas necesarias para que la interpretación sea siempre contraria.
...

11. Métodos no invasivos de diagnóstico clínico

En este capítulo vamos a ver cómo la evaluación de algunas capacidades del sistema visual puede facilitar la tarea del
diagnóstico de ciertas patologías. Para ello es necesario conocer estas capacidades visuales, saber cómo realizar adecuadamente un
experimento visual, establecer un observador patrón de referencia para poder comparar con el sujeto en cuestión, saber realizar un
análisis estadístico, y saber interpretar el resultado del sujeto que se aparta de la normalidad en función del diseño del experimento
realizado.

1. MÉTODOS ÓPTICOS
En este apartado vamos a ver algunos de los métodos ópticos más utilizados.

1.1. Queratometría
La queratometría es una prueba realizada a un paciente en la que se determinan los radios de curvatura corneales. La córnea no
suele ser esférica, sino que presenta una diferencia de curvatura que determina el astigmatismo corneal. El queratómetro permite
medir la curvatura corneal en los llamados meridianos principales, que se corresponden con los meridianos de máxima y mínima
potencia. La potencia del astigmatismo corneal se puede estimar muy fácilmente a partir de los radios de curvatura (r1c=8 mm, P1c=
(n’-n)/r1c=(0,3771)/0,008=47,14D).
El queratómetro es el aparato para medir estos radios de curvatura y es un elemento habitual en cualquier gabinete de
Optometría (ver fig 11.1). El funcionamiento del queratómetro se basa en el análisis de las imágenes de Purkinje en la primera
superficie corneal. El tamaño de las imágenes correspondientes a dos test luminosos («miras») reflejadas en el ojo, dependerá de la
curvatura corneal. Determinando el tamaño, se puede conocer el radio de curvatura.

Figura 11.1. Izquierda: Queratómetro de Javal (www.ophthalworld.de). Derecha: Queratómetro de Helmholtz


(www.optivision2020.com/keratometer.html). En el primer de ellos se aprecian las dos miras laterales y el telescopio central que recoge las imágenes.

1.2. Topografía
La topografía corneal es un método de exploración de la córnea mas completo que permite determinar un mapa de alturas de la
superficie corneal completa. Los topógrafos corneales (ver fig 11.2) generalmente están basados en el llamado disco de Plácido:
una serie de círculos concéntricos que se proyectan sobre la córnea. Se recoge la imagen de estos círculos y a partir de las
deformaciones de los círculos en la imagen se calcula mediante un software el mapa completo de la superficie corneal. El estudio
de la topografía, además de determinar los radios y dirección del astigmatismo permite diagnosticar alteraciones morfológicas
locales como el queratocono. Actualmente el topógrafo se utiliza de manera rutinaria en el estudio previo de la cirugía refractiva.

Figura 11.2. Izquierda: Topógrafo corneal (www.oculus.de). Derecha: Mapa de curvaturas (www.optilaser.com.ni). Los colores cálidos indican una
mayor curvatura. Como puede apreciarse, se trata de un ojo astigmático con mayor curvatura en la dirección vertical.

1.3. Oftalmoscopía
Es la técnica por excelencia para el examen del fondo ocular o parte posterior del interior del globo ocular (incluye la retina con
la fóvea y el disco óptico, la coroides y los vasos sanguíneos). En la oftalmoscopía directa este examen se lleva a cabo mediante la
proyección de un haz de luz a través de la pupila, para observar la parte posterior del globo ocular.
El oftalmoscopio directo es un instrumento de tamaño pequeño que incluye un mango y un cabezal (ver fig 11.3). El cabezal va
provisto de una rueda de accesorios (lentes y filtros) que se anteponen al ojo a examinar. Estas lentes se emplean para variar el
aumento de la imagen, mientras que los filtros permiten mejorar la visualización en condiciones determinadas.
La oftalmoscopía se practica como parte de un examen físico de rutina o de un examen ocular completo con el fin de detectar y
evaluar los síntomas de ciertas patologías. Para la retina sana existe una apariencia estándar o normal, mientras que los resultados
anormales pueden revelar enfermedades oculares, como opacidades en el cuerpo vítreo, desprendimientos de retina, problemas del
nervio óptico, degeneraciones maculares, glaucoma, etc. También se pueden detectar hipertensión arterial y muchas enfermedades
sistémicas.
Una variante de la oftalmoscopía es la retinografía, que consiste en fotografiar el fondo de ojo del paciente (ver fig 11.3). Esta
técnica proporciona la misma información de partida que la oftalmoscopía (una imagen de fondo de ojo). Sin embargo, al poder
guardar la imagen, se puede estudiar la evolución en el tiempo de las lesiones detectadas. Actualmente se están utilizando
retinógrafos no midriáticos.
Figura 11.3. Izquierda: Oftalmoscopio directo (www.medicalexpo.es). Derecha: Excavaciones de nervio óptico, del Atlas de Oftalmoscopía de R.
Liebreich (www.oftalmo.com).

2. MÉTODOS NO ÓPTICOS
En este apartado vamos a ver con detenimiento algunos de los métodos no ópticos más utilizados para el diagnóstico del
sistema visual.

2.1. Función de Sensibilidad al contraste (CSF)


La curva de sensibilidad al contraste ya ha sido estudiada ampliamente en capítulos anteriores. La CSF evalúa cómo transmite
nuestro sistema visual el contraste para diferentes frecuencias, es decir, es una medida de la calidad del sistema visual.
La medida de la CSFe puede ser útil para la detección o el seguimiento de algunas patologías, proporcionando más información
que la simple medida de la agudeza visual del paciente.

Los pacientes de esclerosis múltiple, neuritis óptica, glaucoma, Parkinson, diabetes, ambliopías, presentan pérdidas en
la CSFe.
Las lesiones en la mácula producen pérdidas de sensibilidad en bajas frecuencias, mientras que la pérdida en agudeza
visual es mínima.
Por otra parte, en contactología la medida de la sensibilidad al contraste resulta una importante prueba diagnóstica.
Con lentes de contacto, la CSFe permite evaluar problemas de adaptación, potencia inadecuada, pérdida de calidad
visual por deterioro de las lentes, etc.

A continuación podemos ver otros ejemplos de pérdidas en esta curva, relacionados con diversas patologías. En la figura 11.4 se
muestra, arriba, las CSFs de un paciente con esclerosis múltiple y otro sospechoso de glaucoma, donde se observa una bajada de la
sensibilidad en frecuencias intermedias. En la parte inferior se muestra un paciente con un adenoma hipofisario antes y después de
la intervención, donde vemos que ha recuperado la caída en frecuencias intermedias.
Figura 11.4. Arriba: Curvas de sensibilidad al contraste para un paciente con esclerosis múltiple y un sospechoso de glaucoma. Abajo: Curvas antes y
después de la cirugía de un paciente con un adenoma hipofisario. Según datos de Ginsburg, extraídas de Artigas, 1995.

La CSFe no sólo puede indicarnos el estado de nuestra visión de contraste acromática. Diseñando los estímulos
convenientemente es posible estudiar los canales cromáticos (parvo y konio) de manera aislada. Para ello, tendremos que
seleccionar las bandas de la red o rojo-verde o azul-amarillo. En el caso del glaucoma, por ejemplo, aparece un defecto tipo tritán
que puede ser detectado de manera precoz mediante el estudio de la curva de sensibilidad al contraste azul-amarillo.
Al igual que ocurría con la función de sensibilidad al contraste espacial, la temporal también permite la detección y seguimiento
de algunas patologías. En la figura 11.5 podemos ver un ejemplo de tumor de la pituitaria, con una disminución de toda la curva
pero sólo una ligera disminución de la FCF.
Figura 11.5: Disminución de la sensibilidad al contraste temporal para un paciente con tumos en la pituitaria. La variación en la frecuencia de corte
apenas es relevante, comparada con el resto de la curva. Según datos de Gutowski, Heron y Scase, 1997.

2.2. Curva de adaptación a la oscuridad


La curva de adaptación a la oscuridad es una de las pruebas de la existencia de dos sistemas diferentes y más o menos
independientes dentro de la retina, una específica para visión escotópica y otra para visión fotópica.

Figura 11.6. Curva estándar de adaptación a la oscuridad, y curva correspondiente a un sujeto con patología que no tiene sensibilidad en bastones. M.J.
Luque.

Una curva de adaptación a la oscuridad anormal puede indicar un comportamiento anómalo de parte del sistema visual (ver fig
11.6). Por ejemplo, lo que le ocurriría a un sujeto que careciese de un sistema de fotodetectores, o que tuviese una anomalía en el
camino visual mediado por esos fotodetectores.

2.3. Campimetría
Consiste en el estudio de la respuesta a la presentación de una serie de estímulos luminosos en diferentes puntos de la retina.
Existen varios tipos de campimetrías, en función de cuántos puntos se estudian, con qué distribución espacial se analizan y cuál es
el estímulo luminoso empleado. El diseño de la prueba determinará qué parte del sistema visual se está estudiando.
La aplicación clásica es la de la medida del campo visual, que permite diagnosticar cualquier pérdida de campo, sea en los
límites o en un hemisferio o la aparición de escotomas, que quedan patentes en las figuras de resultados mediante códigos de
colores para la sensibilidad (ver fig 11.7).

Figura 11.7. Progresión temporal de un glaucoma sin tratamiento. La figura representa un mapa de la retina centrada sobre la fóvea. Cuanto más
oscuros son los grises, mayor es la pérdida de sensibilidad. Extraída de www.aafp.org/afp/2003/0501/p1937.html.

Cuando se utilizan estímulos con determinadas frecuencias espaciales y temporales, o con variaciones cromáticas, también se
pueden estudiar los caminos visuales magno, parvo y konio.
En la campimetría cromática tradicionalmente se han utilizado filtros de color antepuestos a la fuente luminosa que genera el
estímulo. Actualmente se utilizan LEDs, de forma que sólo es posible utilizar la cromaticidad de la lámpara de fabricación. El
principal problema de este tipo de campimetrías es la correcta caracterización fotocolorimétrica, necesaria para poder realizar
comparativas de resultados.
Una de las técnicas más empleadas en la actualidad para la detección precoz del glaucoma es la campimetría azul-amarillo. Esta
técnica permite estudiar el camino koniocelular. El fondo se utiliza de color amarillo para blanquear (saturar) la respuesta de conos
rojos y verdes, pero apenas tiene influencia en la respuesta de los conos azules. El estímulo de color suele ser de 440 nm, para dar
respuesta máxima en los conos azules y, por tanto, en las células ganglionares conectadas a ellos. Este tipo de campimetría ha
demostrado ser más eficaz que la campimetría acromática en la detección precoz. En el ejemplo de la figura 11.8 vemos la
diferencia entre estos dos tipos de campimetría: mientras que en la tradicional no aparecían ligeras pérdidas de campo en el quinto
año, en el primer año ya se había detectado el glaucoma mediante la campimetría azul-amarillo.
Figura 11.8. Resultados para un mismo paciente de la campimetría azul-amarilla (SWAP) y la campimetría convencional W/W (SAP) a lo largo de
cinco años de evolución. Como se aprecia por las zonas negras de baja sensibilidad, el poder diagnóstico es muchísimo mayor para la campimetría
azul-amarilla. Según datos de Demirel y Johnson, 2001.

Se pueden utilizar otras combinaciones de color entre estímulo y fondo con el fin de detectar pérdidas de sensibilidad. Por
ejemplo la campimetría rojo-blanco se utiliza para detectar pérdidas de sensibilidad de los conos, ya que los bastones son ciegos al
extremo rojo del espectro.
A continuación, en las figuras 11.9 y 11.10 vamos a mostrar ejemplos que ilustran cómo una determinada pérdida funcional
(afectando especialmente al mecanismo azul-amarillo en este caso) se puede poner de manifiesto más fácilmente usando un
adaptador particular. Aunque los resultados corresponden a medidas en fóvea, estas curvas pueden ser la base del diseño de
campimetrías particulares.
En el ejemplo de la figura 11.9 vemos los resultados de sensibilidad sobre fondo blanco con un estímulo parpadeante. Mientras
que para el sujeto normal se aprecian tres picos en la curva, que indican una detección cromática, el sujeto con atrofia óptica
presenta un solo pico típico de una detección acromática.
Figura 11.9. Sensibilidad sobre fondo blanco en función de la longitud de onda, para un sujeto normal y otro con atrofia de disco óptico. Extraída de
Cronly-Dillon, 1991.

En el ejemplo de la figura 11.10 vemos los resultados de sensibilidad sobre fondo amarillo. El sujeto con atrofia óptica presenta
una pérdida severa de sensibilidad en las bajas longitudes de onda y una menor en las altas longitudes de onda.

Figura 11.10. Sensibilidad sobre fondo amarillo en función de la longitud de onda, para un sujeto normal y otro con atrofia de disco óptico. Extraída de
Cronly-Dillon, 1991.

2.4. Anomaloscopios
El Anomaloscopio se debe a W. Nagel, fisiólogo y oftalmólogo alemán, que diseñó el primero de estos aparatos en 1907. Desde
entonces se han desarrollado distintos modelos, que difieren en los colores empleados en la mezcla y la manera de obtenerlos, pero
básicamente el principio de su funcionamiento es el mismo.
Un anomaloscopio consiste en un telescopio mediante el que se observa un campo visual con un tamaño comprendido entre 1 y
2 grados. Este campo está dividido verticalmente en dos mitades o semicampos (ver fig 11.11). La tarea del observador consiste en
realizar una igualación cromática entre los semicampos izquierdo y derecho. El principio del anomaloscopio se basa en el empleo
de estímulos de color que están siempre situados sobre una misma recta de confusión.

Figura 11.11. Diferentes modelos de anomaloscopios: Izquierda: HMC de Oculus (www.oculus.de/es/productos/equipos-de-test-visual/hmc-


anomaloskop), Derecha: Avico. En ambos modelos la tarea del observador consiste en modificar el color de uno de los dos semicampos, hasta que lo
percibe igual al otro.

● Anomaloscopios Rojo-Verde
Para la detección de alteraciones rojo-verde, se dispone en un semicampo un amarillo monocromático (589 nm), y en el otro
semicampo se realiza la mezcla aditiva de rojo (670 nm) y verde (546 nm) hasta llegar a igualar ambos estímulos. Esta igualación
colorimétrica se conoce como la ecuación de Rayleigh.

● Anomaloscopios Azul-Amarillo
Para detectar alteraciones en el mecanismo azul-amarillo, se iguala un verde azulado con la mezcla de verde y azul (para esta
nueva igualación colorimétrica se utilizan las ecuaciones de Engelking-Trendelenburg [470+517=490] y de Moreland
[436+490=480+580test]), o también se puede hacer la igualación de un acromático por mezcla de azul y amarillo (ec. de Pickford-
Lakowski). En la detección de estas anomalías (tipo tritán) la mezcla resulta más crítica, ya que interfieren la variabilidad entre
unas personas y otras del pigmento macular (amarillo), y los efectos del amarilleamiento del cristalino con la edad.
Como la enorme mayoría de las alteraciones ocurren en el canal rojo-verde, nos limitaremos a estudiar éstas. Con el
anomaloscopio, la mayor parte de observadores iguala dentro de un pequeño rango de variación, estableciéndose un criterio de
normalidad o de población normal para la visión del color. Las personas que se salen de este criterio, serán los anómalos y
deficientes cromáticos:

Los protanómalos igualan colocando mucho rojo en la mezcla, mientras que los deuteranómalos igualan colocando
mucho verde en la mezcla.
Los protanopes y deuteranopes, igualan colocando cualquier proporción de rojo-verde.

Es posible distinguir tricrómatas anómalos de dicrómatas, ya que el ajuste de la luminancia no será el mismo y el rango de
igualación tampoco. Si representamos la proporción de luminancias R/G frente a la luminancia del amarillo Y, vemos que los
protanopes igualan la luminancia siguiendo una recta de igual pendiente que sus correspondiente anómalos, los protanómalos,
mientras que los deuteranopes igualan siguiendo la pendiente de los deuteranómalos. Los anomaloscopios representan el único
sistema capaz de diferenciar entre estas dos categorías, anomalías y deficiencias (estudiando el rango de colores que son capaces
de igualar, los anómalos un rango mayor que los normales y los defectivos todo el rango).
También existen otros anomaloscopios, basados en diferentes principios, como el anomaloscopio tipo OSCAR, o
anomaloscopio de sustitución silenciosa. En este caso se alterna rojo y verde a una frecuencia fija de 16 Hz, de manera que la
apreciación de parpadeo depende de la relación de luminosidad entre ambos colores. El observador regula la proporción de mezcla
hasta minimizar el parpadeo. Cuando la sensación de parpadeo es mínima, supone que se ha igualado la sensación de luminancia.

2.5. Tests Pseudoisocromáticos


Las pruebas pseudoisocromáticas (por ejemplo las láminas de Ishihara o las láminas SPP2, ver fig 11.12), consisten en patrones
de puntos coloreados, a menudo de tamaños variados, en los cuales el observador debe distinguir un símbolo destacando sobre el
fondo.

Figura 11.12. Láminas pseudoisocromáticas: Arriba: láminas de Ishihara, Abajo: láminas SPP2. En la figura de la derecha un observador normal ve un
8 mientras que un anómalo o deficiente rojo-verde verá un 3. El patrón de puntos circulares evita que exista un posible reconocimiento de la figura por
los bordes.

Los colores empleados para la figura y el fondo son colores situados sobre una misma recta de confusión, de manera que
mientras el observador normal los distingue perfectamente sobre el fondo, el anómalo o defectivo cromático correspondiente no es
capaz de hacerlo.
Veamos un ejemplo, supongamos que queremos diseñar una lámina para detectar deficiencias de tipo protán, es decir,
protanómalos y protanopes. En primer lugar, dibujamos un patrón de puntos, de manera que no sea posible distinguir la figura del
fondo. Un buen recurso es recurrir a un patrón de puntos de diferentes tamaños.
A continuación seleccionamos dos colores de una recta de confusión del protanope, de manera que uno lo asignamos al fondo, y
otro al objeto. Un observador normal distinguirá la figura, pero un anómalo o un deficiente protán será incapaz de hacerlo.
Es evidente que el diseño debe ser correcto para no facilitar al paciente más información que la de color. Al elegir colores
diferentes para el fondo y el test, puede llevar asociado un cambio de luminosidad entre ambos que permitiría reconocer el
optotipo. Se deben diseñar las diferentes partes de la lámina de forma que incluyan pequeñas variaciones aleatorias de luminosidad
con el fin de que el paciente no reconozca el optotipo más que por el cambio de color.
Las láminas pseudoisocromáticas son pruebas muy sencillas que no requieren casi infraestructura, por lo que son las más
empleadas habitualmente como pruebas clínicas. Sin embargo, presentan serias limitaciones, ya que:

La iluminación es un factor determinante. Si el test no se administra bajo la iluminación original indicada para el
diseño, la percepción de los colores no será la misma, y por lo tanto no corresponden a la misma línea de confusión.
La práctica totalidad de estos tests se diseñan para ser observados bajo iluminante blanco (C o D65).
No se trata de un test cuantitativo. Se puede, en todo caso, determinar el tipo de defecto, pero no se puede cuantificar.
Las láminas amarillean con el tiempo (aunque hoy por hoy, estos test también están en formato informático, aunque en
este caso el problema se traslada a la correcta reproducción del color en pantalla).

2.6. Tests de ordenación


Las pruebas de ordenación también juegan con los colores de confusión de los anómalos y defectivos. En este caso, se trata de
ordenar secuencialmente una serie de fichas coloreadas, pidiéndole al paciente que coloque siempre la ficha que más se parece a la
anterior. La prueba resulta más difícil que el test de Ishihara, pero también presenta mayor capacidad diagnóstica.
Figura 11.13. Test de discriminación cromática FM-100 Hue.

Las pruebas de ordenación más conocidas son los llamados test de Farnsworth-Munsell, en sus versiones de 28 tonos (FM28-
Hue) y de 85 tonos (FM100-Hue, ver fig 11.13). Estos tests están formados por fichas de color correspondientes a los colores de
un círculo completo de tono en el atlas Munsell, de manera que todas ellas presentan el mismo nivel de saturación y de claridad.
Al tratarse de tests diseñados sobre soporte físico, es relevante el iluminante bajo el que se observan las piezas. La práctica
totalidad de este tipo de pruebas se diseña para ser vista bajo iluminante blanco (C o D65). Otro iluminante cambia la percepción
de los colores, perdiendo así la fiabilidad de los resultados.
Si representamos estos colores en el diagrama CIE1931xy (ver fig 11.14) vemos que quedan situados sobre una elipse, si ahora
rodeamos esta elipse por las correspondientes rectas de confusión de protán, deután y tritán (tangentes a dicha elipse), ocurre que
cada uno de ellos confundirá los colores próximos a esas líneas de confusión, y tendrá dificultades para realizar la ordenación de
fichas que se le pide (Protan: 17, 64; Deutan: 15, 58; Tritan: 5, 45.5). El análisis de los errores cometidos indica el tipo y grado de
la alteración del paciente.
Figura 11.14. Disposición de las 85 fichas del test FM-100 en el diagrama cromático CIExy. Extraída de webvision.med.utah.edu/book/part-viii-gabac-
receptors/color-perception.

Las fichas se deben situar a 50 cm del observador, de manera que subtiendan un ángulo de 1.5º. La tarea del observador
consistirá en ordenarlas siguiendo un continuo de variación de tono, es decir, se coloca la primera y seguidamente el observador
debe colocar la que más se le parece, y así sucesivamente hasta completar el círculo de color. Realmente, el círculo de color se
divide en cuatro sectores, que corresponden a las cuatro cajas de fichas que pueden verse en la figura 11.13.
Para registrar e interpretar los resultados, cada ficha va numerada por la parte inferior. La secuencia de ordenación se representa
en un diagrama radial (ver fig 11.15), de manera que la confusión entre colores define un eje de ordenación en una dirección
determinada que indica el tipo de deficiencia. La amplitud de los picos muestra el grado de severidad, pero no distingue anómalos
de defectivos.
Figura 11.15. Diagrama radial de representación de resultados para el test FM-100. Los radios coloreados marcan los ejes de confusión protán (rojo),
deután (verde) y tritán (azul).

En el caso de las versiones con menor número de fichas coloreadas la gravedad del defecto se define por el número de errores
cometidos, mientras que en el FM100-Hue el análisis es más completo. En este caso, se calcula el «error» cometido para cada
ficha en función de la diferencia numérica con las fichas anterior y posterior.
Ejemplo: Supongamos que un sujeto ha realizado la siguiente ordenación: 1,2,3,5,4,8,7.
Puntuación para la ficha 2: (2-1)+(3-2)=2 (normal)
Puntuación para la ficha 3: (3-2)+(3-5)=3 (normal)
Puntuación para la ficha 5: (5-3)+(5-4)=3 (normal)
Puntuación para la ficha 4: (4-5)+(4-8)=5 (no normal)
Puntuación para la ficha 8: (8-4)+(8-7)=5 (no normal)
La diferencia, en valor absoluto, indica el grado o intensidad de la desviación cometida (determina la anchura de los picos). Una
ficha bien colocada siempre puntúa 2, por lo que para calcular correctamente los errores de ordenación se debe restar ese valor
para las 85 piezas del test. Eso es lo que se conoce como Total Error Score (TES). Para cada edad el rango de TES varía, como
podemos ver en la figura 11.16:
Figura 11.16. Rangos de TES en función de la edad, según datos de Kinnear y Sahraie, 2011.

Además, si se considera por separado las fichas en los ejes rojo-verde (13-33 y 55-75) y azul-amarillo (1-12, 34-54 y 76-85),
también hay diferencias con la edad. Kinnear define errores parciales para cada eje, que denomina conjuntamente como PTES y
que podemos ver en la figura 11.17:
Figura 11.17. Rangos del TES y de los PTES R-G y B-Y en función de la edad y en función del eje cromático, según datos de Kinnear y Sahraie, 2011.

Como se aprecia en la figura, la sensibilidad azul-amarillo es habitualmente peor que la rojo-verde, y se deteriora más
rápidamente con la edad.
En la figura 11.18 se muestran tres ejemplos típicos de resultados correspondientes a anomalías tipo protán, deután y tritán
respectivamente. Como puede verse, las zonas en que se produce la confusión de ordenación para protán y deután son muy
parecidas, por lo que a veces puede ser difícil la clasificación, la experiencia del clínico que realice la medida será determinante.
En todo caso, los resultados de diferentes pruebas pueden llevar a diagnósticos diferentes. Será el clínico el que establecerá la
prioridad y fiabilidad de dichos resultados.

Figura 11.18. Resultados correspondientes a anomalías tipo protán, deután y tritán respectivamente.

CUESTIONES
1. El queratómetro mide:
a. El astigmatismo de la primera superficie de la córnea.
b. El astigmatismo total del ojo.
c. El astigmatismo debido al cristalino.
d. Todas son falsas.

2. Señala la afirmación correcta sobre el topógrafo corneal:

a. Se basa en el disco de Plácido.


b. Mide el mapa de alturas de la superficie corneal.
c. Mide un área más amplia que el queratómetro.
d. Todas son ciertas.

3. Señala la afirmación correcta sobre el oftalmoscopio directo:

a. Permite evaluar la existencia y progresión del glaucoma.


b. No es válido para evaluar el glaucoma.
c. No es válido para evaluar el fondo de ojo normal.

4. En la CSF, una pérdida marcada en las medias frecuencias, puede deberse a:

a. Mala agudeza visual.


b. Adenoma intracraneal.
c. Las dos son correctas.

5. Para evaluar la progresión del glaucoma cuál de estas técnicas es la más apropiada:

a. Campimetría W/W.
b. Campimetría azul/amarillo.
c. Topografía.
d. Anomaloscopía Nagel.

6. El anomaloscopio con la igualación Engelking-Trendelenburg permite discriminar:

a. Todas las anomalías y deficiencias cromáticas.


b. Anomalías y deficiencias rojo-verde.
c. Anomalías y deficiencias azul-amarillo.

7. Discriminar con un anomaloscopio entre un protanope y un deuteranope:

a. Es posible variando la luminancia.


b. Es posible analizando la dirección rojo-verde y la azul-amarillo.
c. Es posible mediante el aumento del parpadeo del estímulo.

8. En las láminas pseudoisocromáticas es muy importante que el borde de separación entre figura y fondo esté muy bien marcado.

a. Verdadero.
b. Falso.
c. Es irrelevante.

9. El test de ordenación FM-100 consta de cien fichas de colores diferentes que deben ordenarse siguiendo una variación continua
de tono.

a. Verdadero
b. Falso, son 85 fichas
c. Falso, son 28 fichas

10. Las fichas de color del test FM 100:

a. Tienen todas la misma claridad.


b. Tienen todas la misma saturación y claridad.
c. Tienen todas la misma saturación, claridad y tono.
...

Respuestas Correctas

CAPÍTULO 1
1-a, 2-b,d, 3-e, 4-c, 5-b, 6-magno-bipolares-pequeño-magnocelular-parvo-konio, 7-retina-estímulo luminoso-excitación-
inhibición, 8-b, 9-no antagónico-excitatorio-inhibitorio-tamaño, 10-d, 11-a2,b4,c3,d1, 12-1,2-sistema magnocelular-3,4,5,6-
sistema parvocelular, koniocelular 13-b,d, 14-b,c,d, 15-a4,b1,c6,d2,e5,f3, 16-b,e, 17-a,b,c,d,f, 18-a,c,f.

CAPÍTULO 2
1-d, 2-b, 3-a, 4-b, 5-a, 6-a, 7-b, 8-c, 9-d, 10-d.

CAPÍTULO 3
1-b, 2-b, 3-b,c,e, 4-b, 5-a, 6-b, 7-a, 8-c, 9-b,c, 10-a.

CAPÍTULO 4
1-b, 2-a, 3-d, 4-b, 5-b, 6-b, 7-a,d, 8-c, 9-d, 10-c.

CAPÍTULO 5
1-a3,b2,c1, 2-c, 3-a3,b2,c1, 4-c, 5-b, 6-b, 7-Aubert-Abney, tono, croma, longitud de onda dominante, blanco, tono, 8-c, 9-c, 10-
b.

CAPÍTULO 6
1-c, 2-f, 3-f, 4-d, 5-c, 6-a, 7-b, 8-a, 9-a, 10-a.

CAPÍTULO 7
1-Jameson y Hurvich, amarillo y rojo, rojo, amarillo, 2-b,d, 3-c,d, 4-b, 5-d, 6-b, 7-e,f, 8-d, 9-a, 10-c.

CAPÍTULO 8
1-c,d, 2-c,d, 3-c,d, 4-b, 5-b, 6-c, 7-c, 8-b, 9-b, 10-a.

CAPÍTULO 9
1-c, 2-b,c,e, 3-a, 4-d, 5-a, 6-a, 7-c, 8-c,d, 9-d, 10-b,c.

CAPÍTULO 10
1-a, 2-b, 3-a,b, 4-a, 5-c,e, 6-b, 7-b, 8-c, 9-a, 10-b.

CAPÍTULO 11
1-a, 2-d, 3-a, 4-b, 5-b, 6-c, 7-a, 8-b, 9-b, 10-b.
...

Referencias

LIBROS
ARTIGAS J.M., CAPILLA P., FELIPE A., PUJOL J. Óptica fisiológica. Psicofísica de la visión. Madrid: Interamericana Mc Graw-Hill
(1995).
ARTIGAS J.M., CAPILLA P., PUJOL J. coords. Tecnología del color. Publicacions de la Universitat de València. (2002).
CAPILLA P., A RTIGAS J.M., PUJOL J. coords. Fundamentos de colorimetría. Publicacions de la Universitat de València. (2002).
CRONLY-DILLON J.R. Ed. Vision and Visual Dysfunction. Macmillan Press (1991).
DE VALOIS K. Seeing. Academic Press. (2000).
FAIRCHILD M.D. Color Appearance Models. 2nd ed. New York: Addison-Wesley (2005).
GEGENFURTNER K.R., SHARPE L.T. Color vision. From genes to perception. Cambridge University Press (1999).
HUBEL D.H. Eye, brain and vision. Scientific American Library (1995).
HUNT R.W.G The Reproduction of Colour. 5th Ed. Kingston-upon-Thames: Fountain Press, (1995).
KAISER P.K., BOYNTON R.M. Human Colour Vision. 2nd Ed. Optical Society of America, (1996).
LE GRAND Y. Óptica Fisiológica. Vol. I. Ed. Amigos de las Escuelas de Óptica (1991).
POKORNY J. et al. Committe on Vision. Assembly of Behavioral and Social Sciences, National Research Council. Procedures for
Testing Color Vision. Report of Working Group 41. Academy Press, (1981).
POKORNY J., SMITH V.C., VERRIEST G., PINCKERS A.J.L.G. Congenital and Acquired Colour Vision Defects. London: Grune-
Stratton, (1979).
PONS MORENO A.M., Martínez Verdú F.M. Fundamentos de visión binocular. Publicacions de la Universitat d’Alacant,
Publicacions de la Universitat de València. (2004).
SCHWARTZ S.H. Visual Perception. A clinical orientation. 2nd Edition. MacGraw-Hill, (1999).
SPILLMANN L., WERNER J.S. Visual Perception: The Neurophysiological Foundations. New York: Academic Press, (1990).
TOVÉE M.J. An introduction to the visual system. Cambridge University Press (2008).
VALBERG A. Light vision color. John Wiley & Sons. (2005).
VIQUEIRA PÉREZ V., MARTÍNEZ VERDÚ F.M., DE FEZ SAIZ M.D. Óptica fisiológica: modelo paraxial y compensación óptica del ojo.
Publicaciones de la Universidad de Alicante. (2003).
WANDELL B.A. Foundations of Vision. Sunderland: Sinauer Associates (1995).
WYSZECKI G., STILES W. S. Color Science. Concepts and methods, quantitative data and formulae. 2nd ed., Wiley, New York,
(1982).

WEB
Color science (http://www.midnightkite.com/color.html)
Color vision demonstration (http://irtel.uni-mannheim.de/cvd.html)
Colour and vision research laboratory (http://www.cvrl.org/)
Illusions gallery (http://dragon.uml.edu/psych/illusion.html)
Illusionsworks (http://www.illusionworks.com/)
Munsell color science laboratory (http://irtel.uni-mannheim.de/cvd.html)
Project LITE, Boston University (http://lite.bu.edu/)
Psychological tutorials and demonstration (http://psych.hanover.edu/Krantz/tutor.html)
Purves-lab (http://www.purveslab.net/seeforyourself/)
Sensation and perception tutorials (http://psych.hanover.edu/Krantz/sen_tut.html)
The joy of visual perception (http://www.yorku.ca/eye/thejoy.htm)
The visual perception course. D. Thomson
Vischeck (http://www.vischeck.com/)
Webvision. The organization of the retina and visual system (http://retina.umh.es/Webvision/index.html)
Viperlib (http://viperlibnew.york.ac.uk/)
Color Vision (http://www.handprint.com/HP/WCL/color1.html)

ICONOS
http://www.iconarchive.com/
http://www.doublejdesign.co.uk/
http://mazenl77.deviantart.com/

Você também pode gostar