De las muchas características que podemos asociar a la fotografía, su capacidad descriptiva es quizás la más antigua, la cualidad de reflejar la realidad de una manera precisa hasta límites que superan nuestra propia percepción.
Siendo estrictos, esa realidad no está exenta de interpretaciones. La imagen final ha tenido que atravesar unas cuantas trabas hasta llegar a su resultado final: inversión vertical y lateral, interpolar todas las pequeñas venas que atraviesan el sistema óptico y rectificar la nitidez de varias áreas que son interpretadas por el cerebro para devolvernos en tiempo real aquello que llamamos realidad. Una acotación visual que comprende una gama de brillo y longitudes de onda determinadas. Sobre este espacio hemos configurado nuestros dispositivos fotográficos, emulando lo mejor posible esa experiencia.
No en vano, el daguerrotipo puede presumir de ser uno de los procesos con mayor resolución por superficie sensible de toda la técnica fotográfica, ya sea analógica o digital. Tener esa cualidad siendo el primer proceso fotográfico que generaba un positivo directo de toma tiene mérito. De hecho, el límite de registro lo acotan más los elementos ópticos que generan la imagen o los instrumentos que usamos para observarlos.
En esta nueva serie de largo recurrido vamos a mezclar todo tipo de cámaras, sensores, ópticas y técnicas sin importar su origen analógico o digital. Tampoco seremos puristas respecto a los procesos de edición: usaremos todas las herramientas a nuestro alcance para obtener la imagen más precisa posible.
Sumando fotos
No es necesario recurrir a la tan en boga “inteligencia artificial” o el “big data” para comprender que las soluciones aportadas por las nuevas tecnologías –y no tan nuevas– parten de las mismas premisas. En 1856 el fotógrafo inglés Gustave Le Gray lidiaba con los eternos problemas de latitud intentando embutir en la misma imagen cielo y mar hasta que llegó a la conclusión que esa relación de contraste superaba con mucho las posibilidades de su material sensible.
La solución fue múltiple, literalmente. Tras encerar sus negativos de papel para aumentar su transparencia dividió sus marinas en las dos áreas de brillo principales: una de las fotos registraría los tonos correspondientes al cielo sin quemar las altas luces, empastando las sombras. Una segunda toma se aplicaría en el esquema contrario: recogería el detalle de las sombras con todos sus matices a costa de quemar el cielo. La imagen final que todos conocemos y que forma parte de la historia de la fotografía, es una combinación de esas dos imágenes, fusionando ambos negativos bajo un solo positivo, consiguiendo detalle en cielo y mar, ampliando la escasa latitud de los materiales mediante esta técnica de fotocombinación.

Y así, sin demasiadas estridencias, nació el HDR… las versiones posteriores que simulan la estética de la ilustración con aerógrafo de los transportes de los feriantes de los noventa u otras atmósferas extraterrestres con múltiples soles simultáneos no son culpa de la tecnología. Las modas son siempre responsabilidad de las personas que las encumbran, no de los dispositivos que las hacen posibles.
Coetáneo a Le Gray, el fotógrafo pictorialista Oscar Gustav Reijlander llegó a combinar más de 30 negativos para representar Los dos caminos de la vida. En este caso la suma justifica aquí el proceso de construcción de la imagen, las capas –antes de Photoshop– de una alegoría que le supuso una compleja polémica al chocar frontalmente con la doble moral victoriana.

Y es que sumar fotos es una excelente opción para superar las limitaciones impuestas por la tecnología del momento. Antes y ahora, se combinan imágenes para obtener fotografías que amplíen la latitud del equipo de captura (HDR). De idéntica manera podemos tomar la decisión de juntar varias imágenes para aumentar la resolución nativa hasta superar el Gigapíxel, una técnica a la que le dedicaremos una entrega específica.
¿Hiperfocal o apilamiento de enfoque?
En este artículo sumaremos fotos para alcanzar una meta diferente: obtener la mayor nitidez desde el primer plano hasta el último, sin recurrir a cálculos de hiperfocal o siendo más correctos: entendiendo bien sus limitaciones actuales.
La lógica evolución de los sensores digitales y su paulatino incremento de resolución hace necesario volver a revisar las técnicas fotográficas que hemos aprendido en los manuales clásicos. Que nadie se asuste, no vamos a inventar la rueda, en esencia todos los principios teóricos siguen vigentes pero las exigencias han cambiado. A mejores sensores y ópticas, con mayor resolución y capacidad de registro respectivamente, más evidentes serán las fisuras del sistema. Allí dónde un set de trabajo de menor calidad disimulaba unos resultados correctos, ahora, con esa capacidad de describir hasta el último detalle, muestra todas sus imperfecciones.
Ya hablamos largo y tendido sobre la profundidad de campo efectiva, círculos de imagen y diafragmas de trabajo dependiendo del formato de sensor escogido en nuestra serie dedicada a la fotografía de calle. Retomamos el problema que allí abocetamos sobre los límites de la profundidad de campo teórica relacionada con la resolución final de la imagen y nuestra agudeza visual para tratarlo aquí con mayor profundidad.
Repasando fundamentos básicos, las tres variables que configuran la profundidad de campo son la distancia focal, el diafragma de trabajo y la distancia entre el sujeto/objeto a fotografiar y el plano focal. Las normas siguen siendo las mismas que constan en todos los manuales:
- A mayor distancia focal, menor profundidad de campo.
- A diafragmas más cerrados, mayor profundidad de campo.
- A menor distancia entre escena y plano focal, menor profundidad de campo.
Sobre estos tres ejes se ha explicado de manera tradicional la profundidad de campo, pero a tenor del escenario tecnológico que nos rodea, parece necesario sumarle una premisa más, que es esencial cuando trabajemos con equipos de alta resolución.
- A mayor resolución y/o tamaño de la imagen, menor profundidad de campo efectiva.
En realidad, esta condición no es nueva: todo aquel que haya observado la misma imagen a diferentes escalas podrá observar esta variable. Los círculos de imagen, culpables del efecto visual que llamamos profundidad de campo, generan sensación de nitidez en proporción a su tamaño relativo y nuestra propia agudeza visual. En una copia de menor tamaño –pongamos, por ejemplo, el omnipresente 10×15 cm– el círculo de imagen es tan minúsculo que tendremos una sensación de profundidad de campo optimizada, mientras que esa misma imagen ampliada a 100×150 cm mostrará claros indicios de desenfoque en aquellas zonas fuera de foco que supuestamente debiéramos ver nítidas por los cálculos de profundidad de campo.
Aterrizando la teoría en ejemplos contemporáneos, escogemos un equipo de alta resolución bajo un sensor de formato 24×36 mm de última generación de 45 Mpx –Canon EOS R5– y la óptica macro Laowa 85 mm f/5,6 2x Ultra Macro APO capaz de exprimir cada píxel de información. Una óptica dedicada a la fotografía de aproximación con una ratio de ampliación 2:1 sin necesidad de accesorios adicionales. Hasta la fecha, se trata del objetivo macro más pequeño del mercado para formato 24×36 mm con dicha capacidad de ampliación. Su peso apenas supera los 300 gramos en la montura RF de Canon usada.

En terreno óptico, tres elementos de extra baja dispersión ayudan a mitigar la aberración cromática; por su parte, el empleo del enfoque interno, logra que el comedido tamaño del objetivo no varíe. Independientemente de la posición de las lentes y el plano que esté enfocando, la óptica siempre tendrá la misma dimensión externa.

Para analizar su rendimiento vamos a hacer un viaje de ida y vuelta entre teoría y práctica. En la tabla MTF adjunta podemos ver como el contraste a f/5,6 es excelente y su detalle bastante homogéneo desde centro a la esquina, cayendo con suavidad en las esquinas.

El bodegón planteado supone un importante reto dado que tiene en contra las tres, cuatro leyes fundamentales que otorgan profundidad de campo:
- La focal usada es un tele corto –85 mm– que si bien ayuda a no distorsionar geométricamente los objetos a esa distancia de toma, reduce considerablemente la profundidad de campo disponible.
- Escogemos como diafragma de trabajo f/5,6 por su excelente en rendimiento óptico, a pesar de que en este diámetro de iris los círculos de imagen de las áreas no enfocadas se proyectan en un gran tamaño, evidenciando un foco selectivo.
- Los objetos por fotografiar están muy cerca del plano focal, por lo que la profundidad de campo es mínima.
- Por último, el sensor dispone de 45 Mpx de resolución que además pretendemos revisar al 100% del archivo en una pantalla, por lo que cualquier defecto será visible y, todavía más importante: siguiendo el razonamiento anterior, a esta escala los círculos de imagen tendrán un mayor tamaño que en una fotografía de menor resolución, por lo que tendremos menor profundidad de campo efectiva.
Enfocando a f/5,6 en el primer plano de nuestro bodegón, la imagen muestra un notable foco selectivo con máxima nitidez en el área de enfoque y grandes masas desenfocadas en transición hacia el fondo.
Si hacemos el movimiento contrario, desplazar el enfoque hasta el último plano posible en este encuadre, obtenemos el efecto contrario. El plano del fondo se describe a la perfección y el resto aparece totalmente desenfocado.
La solución clásica pasaría por cerrar diafragma y ubicar con cálculos de hiperfocal el plano que permita obtener la profundidad de campo suficiente para tener sensación de nitidez un tercio por delante del punto de enfoque y dos tercios por detrás del mismo. En el caso que nos ocupa, esta solución está lejos de ser la mejor por dos grandes inconvenientes.
En primer lugar, aún cerrando diafragma y ubicando una distancia de enfoque intermedia que facilite por hiperfocal la profundidad de campo efectiva en todos los planos… no la obtendremos totalmente dado que incumplimos varias de las premisas esenciales. Los círculos de imagen seguirán siendo de un tamaño generoso y, por ende, no tendremos la profundidad de campo necesaria para abarcar con sensación de nitidez todos los planos de la imagen propuesta.

En segundo término, al cerrar el diafragma a su valor mínimo –f/22– el iris es tan minúsculo que la luz se rompe –literalmente– al atravesarlo y genera difracción, lo que en la práctica se traduce en una pérdida de nitidez y contraste muy acusada. Por norma, no es recomendable usar los valores de diafragma más cerrados por esta causa, y aunque existen fórmulas sencillas para establecer los límites de la difracción por cada distancia focal, entendemos que no tiene mucho sentido pagar por una óptica macro dedicada para usarla de esta manera, mermando su calidad general.
En un mundo ideal, querríamos usar el diafragma de mayor nitidez centro-esquina de todo el abanico de posibilidades que nos ofrezca la óptica y además quisiéramos obtener nitidez real, la que desarrollan los haces de luz cuando se juntan en nuestro plano focal –área de enfoque– y no la sensación de nitidez que otorgan unos pequeños círculos de confusión que se proyectan delante o detrás de este punto… lo que conocemos comúnmente como profundidad de campo.

Apilamiento de enfoque
La solución, como ya vimos en el inicio de este artículo, es tan antigua como la propia historia de la fotografía. Sumaremos diferentes imágenes para combinar lo mejor de cada una de ellas en una única imagen final. En esencia la estrategia es la misma, lo único que cambia es la tecnología encargada del proceso.
Desglosado por pasos, el flujo de trabajo comprende dos grandes áreas: toma y procesado. En la fase de toma es importante recordar que todas las imágenes tienen que contar con la misma composición y esto aunque parece obvio no es tan sencillo como poner un trípode, sin más.

Todos los objetivos son el resultado de una compleja relación de compromiso entre tamaño/peso/precio y prestaciones. Al eliminar de la ecuación el sistema de autofoco, la óptica empleada puede ofrecer un tamaño y peso excepcional. De hecho, sacrificar el AF en aras de ganar portabilidad y abaratar el precio parece un constante en Laowa.

Lamentablemente, ningún objetivo es perfecto y este no iba a ser una excepción. Su capacidad de ampliación 2:1 y relación calidad/precio es tentadora –ronda los 500 euros–, pero al ser un objetivo pensado para uso mayoritariamente fotográfico, al cambiar los planos de enfoque entre las distintas imágenes hemos detectado una respiración de foco evidente, algo que no suele ocurrir con los objetivos profesionales diseñados específicamente para uso videográfico.

Este ligero cambio de encuadre, debido una modificación interna de su focal al enfocar en diferentes planos, hace que las primeras imágenes no tengan exactamente la misma composición que las últimas, cambiando la escala de algunos objetos. Si a este inconveniente le sumamos el enorme desenfoque de las áreas no enfocadas, podemos entender que fundir todas las capas no será tarea sencilla.

El manual del apilador de enfoque profesional nos recomendaría usar para estos menesteres ópticas muy corregidas en términos de respiración de foco, aquellas pensadas para usos cinematográficos. Por ello, entre otras cuestiones relacionadas con la precisión y la imposición de no usar correcciones vía firmware, el elevado precio que suelen tener todas las óptica de Cine. Revisando el catálogo de Laowa, sería interesante realizar otra prueba adicional con el Laowa 25 mm f/0,95 APO para MFT que se acaba de anunciar destacando su poca respiración de foco. No obstante, perderíamos la posibilidad de usar una versión con montura RF de Canon y su capacidad macro… está claro, en óptica no se puede tener todo.
En la fase de procesado hemos optado por probar dos vías: Adobe Photoshop y el programa específico para realizar apilamientos de enfoque Zerene Stacker. El primero suele funcionar bien si la imagen no es muy compleja pero en cuanto tengamos máscaras de capa muy elaboradas Zerene suele acertar más en las áreas a tapar y descubrir entre las diferentes imágenes.

La unión hace la fuerza
De un tiempo a esta parte, la fotografía computacional parece la frase de moda y no es para menos. Eludiendo esnobismos y otras opiniones un tanto ridículas sobre el futuro de la fotografía de mano de los gurús de cartón piedra de Linkedin, es evidente que la tecnología se hará hueco allí donde se necesite para solucionar los problemas de cada contexto. En fotografía, las limitaciones cada vez son menores pero ocasiones chocamos con los mismos escollos: resolución, latitud, gama / calidad de color y profundidad de campo parecen umbrales a superar. A veces un solo dispositivo y toma no serán capaces de resolver la escena y ahí es donde la suma e interpretación de lotes de imágenes tiene su mayor virtud.
Seguiremos ahondando estas cuestiones en las próximas entregas de esta serie, construyendo una fotografía cada vez más impura e híbrida, fruto del contexto tecnológico que la rodea.