El fotógrafo Chase Jarvis dijo acertadamente que la mejor cámara fotográfica es la que llevas contigo. Y por eso, los smartphones comenzaron a remplazar rápidamente a las cámaras compactas, aunque que la calidad de sus instantáneas fuese mucho peor en comparación. El móvil siempre está en tu bolsillo, listo para captar cualquier escena que llame tu atención, a medida que la calidad de las fotos mejoraron, su adopción creció exponencialmente.
De hecho, los fabricantes de cámaras compactas pasaron de vender más de 120 millones de unidades en 2010 a menos de 20 millones cada año desde 2018. Las pocas que se siguen vendiendo son los modelos de alta gama, que cuentan con prestaciones inimitables para un teléfono. Hasta que lo hagan.
Aquellos que posean unos mínimos conocimientos de fotografía estarán frunciendo el ceño tras leer esta última frase, y con razón. Un sensor más pequeño que el botón de una camisa jamás podrán captar la misma luz que el de una cámara DSLR. Tampoco podrá ofrecer la versatilidad que brindan los diferentes juegos de objetivos y lentes que pueden utilizarse en una cámara profesional. Es física, y ni Apple ni Samsung, por muy abultados que tengan los bolsillos, pueden quebrantar sus leyes.
Pero hoy en día, en la época de lo digital y de las redes sociales, lo más importante no es lo que es, sino lo que parece ser. Y es aquí donde entra en juego la fotografía computacional y la inteligencia artificial para romper, aparentemente, las leyes de la física en la cámara de tu iPhone
Por qué las cámaras de los smartphones ya son más software que hardware
Las cámaras de los smartphones ya han logrado llegar al estándar de calidad esperado por las compactas digitales, y la mayoría de nosotros no esperábamos mejoras sustanciales debido a las inquebrantables barreras físicas expuestas antes. Pero gracias a la fotografía computacional, los últimos iPhone, Samsung Galaxy y Google Pixel toman instantáneas que parecen sacadas de una cámara profesional. De ahí el apodo “Pro” que algunos modelos tienen.
Cada vez que se toma una fotografía con el iPhone 14 Pro, el teléfono hace una captura de la escena con cada lente y luego recrea la imagen con la información de cada una de ellas. Apple denomina a este proceso Deep Fusion, y es una versión avanzada de la técnica HDR. Una que logra que todas las partes de la escena estén iluminadas y sin perder ni un ápice de detalle. Esto permite a cualquier persona tomar fotografías que parecen de portada de revista, pero también cuausan que luzcan muy artificiales.
El objetivo de una cámara tradicional (al igual que el ojo humano), solo puede captar la luz a través de un único tamaño de apertura en un instante concreto. Sin embargo, con la cámara del iPhone Pro los rostros salen iluminados incluso a contraluz y los cielos parecen sacados de un videojuego.
Las cámaras del iPhone, o cualquier otro smartphone de alta gama, ya son más software que hardware. Ya no hay diales de velocidades ni anillo de enfoque, solo apuntar y disparar. El dispositivo móvil se encarga de convertirte en un auténtico reportero del National Geographic o un fotógrafo de Vogue. Cada imagen es procesada y alterada sin que te des cuenta, intentando alcanzar un ideal que ni nuestros ojos pueden captar.
Tal es el avance computacional en el caso del iPhone, que la pantalla solo te mostrará la escena tal y como la ven tus ojos, justo hasta que hagas la captura. Después, con la fotografía ya hecha, verás la versión idílica y mejorada made in Apple. Este proceso, además de ser transparente para el usuario, se muestra como irreversible. Pero a la mayoría de los consumidores les gusta. No quieren fotografías fidedignas, sino espectaculares.
Pero en realidad, la fotografía nunca fue realista
Para algunos puretas, las fotografías que toma la cámara del iPhone serán irreales, quizá estén muy saturadas o tengan evidentes fallos en el procesado y preferirían que su cámara fuese menos «inteligente». Lo cierto es que este debate es inherente a la propia fotografía como actividad y como expresión artística. Ya desde su invención, algunos intelectuales alertaron de lo peligroso que era que el arte se arrodillara ante la realidad exterior. Porque para los artistas, como dijo Nabokov, la "realidad" solo tiene sentido cuando está entrecomillada.
La fotografía no podía ser un arte y era peligrosa, creían, porque nos priva de la intención del pintor, que es el único que nos puede hacer ver aquello que jamás podrá percibir un aparato mecánico. Sin embargo, la fotografía no acabó con la pintura, sino que la liberó. Ya nadie más tuvo que tirar su tiempo a la basura retratando fielmente personas o paisajes. El Impresionismo es, en parte, la celebración de esta liberación: la fotografía retrataría la realidad como el público la ve y la pintura la como el artista la siente.
Pronto se vio que no existía tal distinción, y que una lente tampoco es imparcial porque está dirigida por el ojo de una persona. La fotografía también era arte, y se convirtieron en un poderoso medio para transmitir ideas, influir en el comportamiento ajeno o retratar mejor que los pinceles la condición humana tal y como la disfrutamos y padecemos.
¿Por qué no pintar las fotografías?
Si la fotografía bebe de la pintura, y esta de aquella, ¿por qué no elevar las capacidades de las cámaras con algoritmos que no solo controlen la exposición y las tonalidades, sino que pinten sobre ellas también? Los avances en inteligencia artificial más sorprendentes van por ahí. Dall-E, Midjourney o Stable Diffusion son capaces de generar o modificar imágenes a través de comandos en lenguaje natural.
Esto permite crear diseños y pinturas digitales en segundos, y su sorprendente habilidad y rapidez ya han suscitado pasiones y temores. No son pocos los ilustradores digitales que han expresado sus inquietudes. Tienen miedo a que un robot los reemplace como las cámaras lo hicieron con los pintores de tres al cuarto.
Pero no tiene una utilidad meramente artística, también puede mejorar las fotografías. Es capaz, gracias a sus algoritmos que transforman cualquier problema en una predicción matemática, de rescatar imágenes desenfocadas o de hacer zoom en ellas sin perder nitidez.
Sí, igual que en la serie CSI, que tanta gracia nos hacían a los que sabíamos un poco de informática. Era ciencia ficción, porque de donde no hay no se puede sacar. Faltaba la información necesaria para ampliar una fotografía y que no perdiera nitidez. Pero ahora contamos con algoritmos y técnicas capaces de hacer una aproximación muy lograda sobre cómo luciría una imagen a mayor resolución o si no estuviera mal enfocada.
Este proceso no sería fotografía computacional, sino generación de imágenes mediante inteligencia artificial. Funciona replicando nuestro cerebro. Si vemos una fotografía borrosa de una mariquita, nuestra mente puede imaginar cómo luciría bien enfocada. Ahora los ordenadores también pueden, ofreciéndonos la versión mejorada en unos pocos segundos.
La cámara de los últimos smartphones de Smasung no capturan lunas, sino que las genera
Samsung ya he empezado a aplicar estas técnicas, según han podido averiguar sus propios usuarios, desatando la polémica en Reddit en un hilo sobre las fotografías que es capaz de realizar el nuevo Galaxy S23 Ultra de la luna. "Parecen falsas", dicen varios poseedores del terminal.
Lo parecen porque, en realidad, lo son. El impresionante zoom está ayudado de una red neuronal entrenada con miles de fotografías de alta calidad de la luna para que, cuando el usuario tome una instantánea, un algoritmo añada la textura y detalles de nuestro satélite natural, que sabe que están ahí, pero que el objetivo por sus limitaciones físicas no ha podido capturar.
El fabricante ha mencionado que sus algoritmos usan fotografías representativas de lo que el ojo humano puede captar. Así que, en realidad, no está mintiendo como algún usuario está concluyendo, al decir que los algoritmos no están mejorando la fotografía. Sino que directamente la está generando ella misma. "Las fotos de la luna de los Galaxy son falsas. El marketing de Samsung es engañoso. Está agregando detalles donde no los hay", dice el usuario que inició el debate.
Sea engañoso o no, la fotografía es espectacular, que es lo que quiere el consumidor. Los que quieran manejar la cámara de forma tradicional siempre podrán contar con el modo RAW.
Estas técnicas podrán adoptarse en más ámbitos y por otros fabricantes. Podría extraer la información del rostro de su dueño a través de la cámara trasera y mejorar todas las fotografías hechas con la de los selfis. También introducir nuevos filtros que cambien por completo la iluminación de la escena para transformar, por ejemplo, un cuarto de baño por un callejón iluminado por neones. O hacer que una imagen sacada en la oficina tenga los tonos de una tomada en un atardecer junto al mar.
Para Apple, Samsung y Google es muy sencillo entrenar estos algoritmos. Tienen la capacidad de aprender de todas las fotografías subidas a internet y las que tomarán sus usuarios. Ninguna imagen saldrá desenfocada, ni sobreexpuesta. Todas serán perfectas y maravillosas.
Pero, si cualquier fotografía sale espectacular y perfecta, jamás nos sorprenderemos por ver una de ellas.