Campo y ciudad: tan cerca y tan lejos a la vez

Es cierto que en Madrid no puedo ver salir el sol por el mar y que para visitar rincones especiales me toca hacer unos cuantos kilómetros; pero con un mínimo de sensibilidad también se le puede encontrar el encanto a todo aquello que nos rodea allá donde nos encontremos.

Espigas

Además de que los campos están ahora preciosos por la llegada de la primavera y su delicada luz, me encanta el contraste existente entre los prados de tonos ocres que abundan por la zona y la ciudad de Madrid: tan cerca y tan lejos a la vez.

Campo y ciudad

Por cierto, comentar que estas dos imágenes están captadas a primera hora de la mañana con la Olympus E-PL1 y el 40-150mm que me compré hace unos meses; y viendo el resultado ya estoy deseando pasar por allí al atardecer con mi D300 y el 80-200 f/2.8 que reservo para las ocasiones especiales.

Anuncios

Cómo interpretar las curvas MTF de los objetivos

Buscando información sobre un objetivo concreto puede que os hayáis encontrado alguna vez con una gráfica un poco enrevesada que se supone debería ayudar a valorar de un simple vistazo las características ópticas del modelo en cuestión pero cuya interpretación a veces acaba por convertirse en un auténtico galimatías; y es que hoy vamos a hablar de las curvas MTF.

Review Nikon 16-85 VR

Pérdidas de calidad

En un mundo ideal, los objetivos se limitarían a proyectar lo que “ven” sobre el sensor de la cámara sin ningún tipo de distorsión óptica ni aberración cromática. Sin embargo, esto no es posible y todo objetivo introduce en mayor o menor medida una cierta pérdida de calidad que también afectará al contraste y a la resolución.

De hecho, os habréis dado cuenta de que a veces las esquinas de las imágenes aparecen algo más difuminadas que la zona central; y precisamente esa pérdida de definición y contraste es lo que refleja una gráfica de este tipo. Pues bien, el problema es que en muchas ocasiones estas curvas MTF (de Modulation Transfer Function) lejos de ayudar al común de los mortales le confunden todavía más; ya que al aparecer varias líneas de diferentes colores la cosa no parece estar muy clara que digamos. Sin embargo, enseguida vamos a ver que el tema es más sencillo de lo que parece.

Trabajando sobre un ejemplo real

Vamos a usar para explicar todo esto la curva MTF del recién aparecido Nikon AF-S 85mm f/1.4 G (tele corto de gran apertura diseñado sobre todo para retratos) cuyo imponente aspecto tenéis a continuación:

Las curvas MTF son empleadas por todos los fabricantes de ópticas y son muy similares (por no decir iguales) en todos los casos; pero este artículo lo voy a centrar en las publicadas por Nikon debido a que es la marca de mi equipo fotográfico y por tanto es la que mejor conozco.

La apertura empleada

Las curvas MTF se suelen dar para la máxima apertura del objetivo, que es donde peores resultados vamos a obtener (siempre os digo que cerrando un poco el diafragma podéis obtener mayor nitidez en vuestras fotografías). También hay fabricantes que dan diferentes gráficas hechas a varias aperturas; pero como siempre sucede que los peores resultados en cuanto a nitidez y pérdida de contraste se obtienen a plena apertura, lo más útil es ponernos en el caso más desfavorable y ser conscientes de que a medida que vayamos cerrando el diafragma la cosa irá mejorando.

AF-D Nikkor 50mm 1:1.8 (III)
Los ejes de la gráfica

En una gráfica MTF hay dos ejes: el vertical indica el contraste de la imagen, siendo máximo en su parte superior y mínimo en la inferior; mientras que el horizontal indica la distancia al centro de la fotografía en milímetros.

Como os decía, el eje vertical indica el contraste de la imagen, siendo del 100% en su parte superior y del 0% en la inferior. Por lo tanto, en términos generales, cuanto más alta vaya la línea de la gráfica mejores características tendrá sobre el papel la óptica analizada. Habitualmente se considera como excelente un valor por encima del 80% y como bueno si está por encima del 60%. Por debajo de este último valor la pérdida de nitidez va a empezar a ser apreciable a simple vista.

En cuanto a la distancia al centro de la imagen (representada en el eje horizontal) la cosa es bastante simple. El extremo izquierdo de la gráfica representa el centro exacto de la imagen, mientras que el derecho será una de las esquinas de la misma, que es donde va a haber una caída más brusca del contraste en la mayor parte de las ópticas.

Las diferentes líneas

En lo que a las líneas se refiere, como podéis ver en el ejemplo que estamos empleando las hay de dos tipos y colores: continuas y punteadas tanto en rojo como en azul.

La nomenclatura de la parte inferior (S10, M10, S30 y M30) no es muy clarificadora; y aunque tiene su sentido, lo que voy a hacer es explicaros cómo interpretar la gráfica de un modo bastante simple:

Las líneas de color rojo indican un muestreo a 10 líneas por milímetro (lpmm); lo que representa un detalle medio que es el predominante en una fotografía y el que mejor capta nuestro ojo de un simple vistazo. Por su parte, las líneas azules indican un muestreo a 30 lpmm que pone a prueba la capacidad de resolución de la imagen, ya que en este caso se trata de un detalle muy fino.

Lechuza

Por tanto las líneas rojas nos dan idea del contraste general que es capaz de lograr la óptica; mientras que las líneas azules nos dan idea de la capacidad de resolución del objetivo. Parámetro este último muy importante si nos compramos una cámara equipada con un sensor de una densidad de pixels tremenda; ya que si el objetivo no es capaz de ofrecer la resolución que el sensor necesita nos vamos a encontrar con patrones extraños de ruido (Moiré) y otros defectos ópticos que no son objeto de esta entrada.

¿Por qué hay una línea rayada y otra continua de cada color?

El hecho de que haya dos líneas de cada color indica que en una de ellas el sampleo se ha hecho a 45º con respecto a la horizontal y en la otra a 135º. Esto nos va a venir muy bien para intuir el bokeh que es capaz de ofrecer la óptica; ya que idealmente las dos líneas de cada color deberían de ser coincidentes y en ese hipotético caso el bokeh sería perfecto (suave, progresivo, sin bordes marcados…). Por el contrario, si las líneas de cada color llevan trayectorias muy diferentes nos vamos a encontrar un bokeh “nervioso” o deformado, no resultando demasiado agradable a la vista.

Luces de selenio

Extrapolando la información a los cuatro cuadrantes

Por tanto, lo que la gráfica está representando es la resolución de uno de los cuatro cuadrantes de la imagen; pero al existir simetría tanto vertical como horizontalmente podemos aplicar estos datos a todo el encuadre, ya que la información de los otros tres cuadrantes es exactamente la misma sólo que reflejada como muestra la siguiente gráfica que he confeccionado:

Lo que tenéis sobre este párrafo es una especie de representación de la definición del objetivo aplicada a toda la imagen. Como veis, serían las esquinas de la fotografía las zonas de la imagen más afectadas por la pérdida de nitidez y contraste; siendo el muestreo a 10 lpmm más o menos estable en todo el encuadre pero notándose cierta pérdida de calidad cuando hacemos el análisis a 30 lpmm debido a la mayor exigencia de resolución. Obviamente esta gráfica que os presento no es nada científico; pero es para dejaros claro que la información que nos dan es extrapolable a los cuatro cuadrantes de la imagen.

Por cierto, a estas alturas del artículo ya os habréis dado cuenta de por qué una óptica diseñada para formato 35mm (FX en Nikon) rinde también en cámaras equipadas con sensores APS-C, ¿verdad? Al fin y al cabo, lo que estamos haciendo en tal caso es emplear solamente la zona central del objetivo, que es donde mejor rendimiento ofrece.

Ferias y Fiestas Alcalá 2010

Otros ejemplos de curvas MTF

Después de todo lo visto, os habrá quedado claro que la situación ideal sería aquella en la que las líneas de las gráficas fueran completamente planas y todas ellas estuvieran en la parte superior de la gráfica porque esto implicaría que no hay pérdidas de contraste ni definición en todo el encuadre. Y aunque esto es algo imposible de diseñar porque todo sistema óptico implica una cierta pérdida de calidad por leve que sea, hay algunos objetivos cuyas gráficas resultan tan espectaculares como su precio.

Fijaos por ejemplo en las curvas MTF de un Nikon AF-S 600mm f/4 G VR (8600 euros) e imaginad la nitidez y la calidad que es capaz de ofrecer.

En cualquier caso, hay que tener en cuenta que los objetivos de gran apertura suelen viñetear bastante cuando abrimos su diafragma al máximo y debido a ello sus curvas MTF pueden parecer un tanto “pobres”. Sin ir más lejos, el conocido Nikkor AF-S 50mm f/1.4 G (370 euros) tiene una curva que no es ni mucho menos para tirar cohetes; pero es ahí cuando debemos de ser conscientes de que es un objetivo que rinde muy bien cerrando el diafragma un par de pasos y sólo debemos emplearlo a plena apertura bajo ciertas circunstancias.

Por contra, el Nikon AF-S DX 35mm f/1.8 G (200 euros) mantiene más o menos bien el tipo disparando a plena apertura como podéis apreciar en su gráfica y de ahí que las fotos realizadas con él siempre tengan un toque que a mí particularmente me gusta mucho; especialmente disparando a f/2.8; apertura a la cual el desenfoque siegue siendo acusado y las líneas de la gráfica seguramente aparezcan bastante más planas que a f/1.8.

Supongo que os habréis dado cuenta de que en todos los casos la gráfica MTF viene dada para sensores de 35mm (fijaos que el eje horizontal llega hasta los 22mm; que es más o menos la mitad de la diagonal de unos de esos sensores), de modo que aunque el objetivo esté diseñado para cámaras con sensor APS-C igualmente se expresa el rendimiento en todos los objetivos de la misma manera.

Quiere esto decir que en realidad la gráfica para esta última óptica debería de llegar sólo hasta los 15mm de longitud, ya que aproximadamente esa es la distancia que hay en un sensor APS-C entre el centro del mismo y una de las esquinas. Por tanto, la gráfica “útil” del Nikon AF-S DX 35mm f/1.8 G una vez recortada apropiadamente quedaría del siguiente modo:

Como podéis apreciar, la ganancia de rendimiento de un objetivo diseñado para formato completo al ser empleado en una cámara APS-C es más que evidente; ya que la caída más brusca de rendimiento suele tener lugar en esa zona exterior que diferencia ambos tipos de sensores. De hecho, si miráis la gráfica del 85mm del que hablábamos al principio del artículo y hacéis un corte imaginario por los 15mm os daréis cuenta de que las líneas de la gráfica quedan casi completamente planas.

Nada más que datos técnicos

De cualquier modo, todo esto está muy bien sobre el papel y nos puede ayudar a decidirnos por una u otra óptica antes de ir a la tienda. Sin embargo, la nitidez depende de muchos otros factores; y de nada servirá el más caro de los objetivos si por sistema disparamos a f/22 o tenemos un pulso tembloroso que arruina cualquier foto que no haya sido disparada a pleno sol. Los datos técnicos son muy útiles y a mí, como ingeniero, me llaman mucho la atención; pero en el mundillo de la fotografía lo más importante es sacarle partido a lo que tenemos y centrarnos tan sólo en sentir lo que nos rodea.

El lienzo de arena

Más información

Modulation Transfer Function (Ken Rockwell)

Understanding MTF (Luminous landscape)

Listado de objetivos Nikon para consulta de características (foro Nikonistas)

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

El derecheo del histograma

Aunque esto que os voy a contar hoy no es nada nuevo (las primeras referencias al tema aparecen en 2004) la técnica del derecheo del histograma me resulta especialmente interesante por ser algo que aúna mi afición por la fotografía con los conocimientos técnicos de electrónica que adquirí en la carrera de ingeniería técnica industrial.

De hecho, hay abundante información sobre este asunto en diversos lugares de Internet, siendo el origen de esto un artículo publicado en la web The Luminous Landscape titulado Expose (to the) right, que abreviadamente se conoce pos sus siglas ETTR. A partir de ahí diversas webs y foros se han ido haciendo eco del tema, tanto en inglés como en castellano; por lo que mi contribución al asunto, como os decía, no es novedosa aunque sí que pretendo simplificar un poco las cosas para demostraros una vez más que en fotografía hay muchos modos de captar lo que nos rodea y ninguno es mejor o peor que el resto en términos universales. Cada metodología tiene sus ventajas e inconvenientes; eso es todo.

Luis en multiángulo

Eso sí, me gustaría dejar claro desde el principio que esta técnica no es demasiado útil en la mayoría de situaciones, y su empleo es más como “cosa curiosa” o algo instructivo que como un concepto realmente práctico. Desde luego, a mí no se me ocurriría ponerme a derechear cuando estoy en algún sitio haciendo fotos a todo lo que me llama la atención o en circunstancias de disparo complicadas como iluminación cambiante, sujetos en movimiento…

En general, el exposímetro de la cámara (encargado de medir la luz de la escena) hace en la mayoría de las ocasiones un trabajo estupendo y podemos confiar tranquilamente en que el cálculo de la exposición va a ser el más adecuado para lo que pretendemos fotografiar; pero si un día tenéis tiempo y ganas de aprender, ponerse a trastear con esto del derecheo del histograma puede ser un buen modo de ampliar vuestra “cultura fotográfica”.

Por lo tanto, aunque me temo que el artículo va a ser largo y bastante teórico, me voy a centrar en contar la teoría del derecheo del histograma con un lenguaje claro y conciso que os haga ver que aunque se base en una serie de principios bastante técnicos, en realidad se trata de algo muy sencillo de entender.

Recordando lo que es un histograma

Antes de meternos “en faena” es conveniente tener claro lo que es un histograma. Para profundizar en el tema podéis echarle un vistazo a la entrada que publiqué hace un par de meses en la que os hablaba de su enorme utilidad; pero para resumirlo un poco se puede decir que el histograma consiste en una representación gráfica de los valores de luminosidad que toman los pixels de una fotografía distribuidos de tal modo que a la derecha estará el blanco puro (RGB = 100% 100% 100%) y a la izquierda el negro (RGB = 0% 0% 0%).

Histograma habitual de una fotografía cualquiera

Por tanto, la utilidad del histograma es que nos permite conocer de un vistazo y sin depender de ningún tipo de calibración del monitor o condiciones de iluminación exterior la exposición de la fotografía que acabamos de hacer. Un pequeño detalle que representa una de las mayores ventajas a la hora de hacer fotografías con una cámara digital frente a una analógica.

Sensor digital vs. película analógica

Aunque el funcionamiento de una cámara digital se basa en los mismos principios básicos por los que se rigen las cámaras de película analógica desde hace varias décadas, hay una diferencia fundamental, que es el comportamiento de ambos componentes frente a la luz captada.

· Película analógica:

Werlisa club 35

En el caso del carrete se puede sobreexponer ligeramente el negativo porque antes de llegar a la saturación del mismo hay una zona en la que el comportamiento ante la luz captada deja de ser lineal para pasar a ser casi asintótico; es decir, que hay que pasarse bastante de exposición para llegar a saturar por completo la película, y gracias a ello cuesta alcanzar ese “punto de no retorno” más allá del cual habremos incurrido en el mayor pecado que se puede cometer en fotografía: perder información durante la captura. Digamos que con una luminosidad media el comportamiento del negativo es más o menos lineal; pero a partir de cierto punto presenta una cierta resistencia a la saturación que es la que nos va a permitir esa ligera sobreexposición sin arriesgar la integridad de la imagen.

· Sensor digital:

Puesto que los sensores digitales en esencia no son más que un ADC (conversor analógico-digital) estos van a reaccionar de forma completamente lineal ante la luz hasta llegar sin previo aviso al punto de su saturación que, como vimos en la entrada que hablaba sobre zonas quemadas en una imagen, no es más que aquella situación en la que el sensor no es capaz de almacenar más información en al menos uno de los tres canales correspondientes a los colores fundamentales en fotografía (rojo, verde y azul).

Es decir, que mientras estemos dentro del rango de funcionamiento del sensor, una señal el doble de luminosa que otra dará una señal digital proporcional a su salida; pero si la señal de entrada sobrepasa el valor máximo admisible, la señal digital tomará el valor máximo posible dando lugar al temido blanco puro que indica que hemos quemado una zona de la fotografía. Esto es algo que comprenderéis a la perfección viendo la siguiente gráfica.

Función de transferencia de un ADC de 12 bits. En función del valor de la señal continua de entrada, a la salida tenemos un valor digital concreto. Vref marca el punto de saturación a partir del cual la señal de salida será siempre la misma originando la pérdida de datos.

Para entender todo esto mejor, vamos a suponer que tenemos una cámara digital capaz de captar con detalle siete pasos de diafragma (un paso de diafragma, también denominado EV, significa un cambio del doble o la mitad en la cantidad de luz capturada). Esto se traduce en que entre las áreas más oscuras y más claras de la fotografía va a haber como máximo una diferencia de luminosidad de 2⁷, lo que significa que las zonas más claras pueden llegar a serlo 128 veces más que las más oscuras. Es algo que se puede explicar de un modo mucho más técnico; pero vamos a tratar de hacerlo de forma sencilla y asequible.

Por otra parte, hay que tener en cuenta que el sensor va a ser capaz de capturar los detalles de la iluminación con una profundidad de 12 bits. La cámara internamente trabaja a 12 o 14 bits; pero lo normal es que el RAW se grabe a 12 bits en las cámaras más habituales y a 14 bits en las cámaras profesionales. Por supuesto, si grabamos las imágenes directamente en formato JPG sólo tendremos 8 bits de resolución; pero es que para aplicar la técnica del derecheo del histograma es absolutamente imprescindible trabajar en formato RAW para garantizar la integridad de los datos que estamos capturando.

Pues bien, esos 12 bits en los que ha sido codificada la información del fichero RAW nos va a dar un total de 2¹² = 4096 niveles diferentes a la hora de digitalizar los datos capturados. Ahora bien, por su funcionamiento interno, la electrónica encargada de estas tareas no se va a limitar a repartir esos 4096 niveles equitativamente entre los siete diafragmas; sino que lo hará de tal modo que al diafragma más claro le asignará 2048 (la mitad de todos los niveles disponibles), al siguiente 1024, al siguiente 512… y así sucesivamente hasta que al séptimo diafragma (el correspondiente a los tonos más oscuros) se le van a asignar tan sólo 32 niveles.

Por lo tanto, queda claro que en los tonos más claros de la imagen se va a almacenar mayor cantidad de información, y es por esto por lo que, en general, con una cámara digital vamos a poder recuperar datos de las zonas más claras de la fotografía siempre que disparemos en formato RAW. De hecho, en el caso de que tengamos una imagen ligeramente sobreexpuesta, siempre que no hayamos abrasado por completo alguna zona, vamos a poder ajustar los niveles de tal modo que vamos a obtener al final una imagen correctamente expuesta. Sin embargo, en el caso de una acusada subexposición, el aclarado de las zonas en sombra va a resultar en una generación de ruido considerable debido a la falta de detalle en esos tonos más oscuros tal y como vamos a ver a continuación.

¿De dónde proviene el ruido de una fotografía digital?

El ruido que os comento presente en las zonas más oscuras de las fotografías viene dado porque al haber un rango menor de niveles con los que digitalizar la luz que le llega al sensor, la conversión no es tan fina como debería y da lugar a imperfecciones que no aparecen cuando nos manejamos con muchos más niveles disponibles como sucede en los tonos más claros.

De hecho, los pixels de colores que aparecen como ruido en una fotografía no son otra cosa que puntos con valores pseudoaleatorios de luminosidad debido a que no se ha digitalizado correctamente la cantidad de luz que ha llegado hasta los fotocaptores del sensor. Algo que podemos ver claramente en la siguiente captura de una zona oscura de una fotografía subexpuesta cuya exposición he incrementado cuatro pasos en Adobe Lightroom:

Subexposición aclarada por software cuatro pasos

Sin embargo, puesto que al capturar los tonos más claros en una imagen la precisión es mayor, al aclarar los tonos esos mismos cuatro pasos en un RAW correctamente expuesto nos vamos a encontrar con una ausencia de ruido casi total como muestran las dos imágenes siguientes que corresponden a zonas de la fotografía que eran de color negro antes del incremento:

Exposición correcta aclarada por software cuatro pasos

Exposición correcta aclarada por software cuatro pasos

Para poner un ejemplo relacionado con cosas tangibles, imaginad que tenéis que clasificar a la población de una ciudad en función de su edad: si sólo tenéis posibilidad de hacerlo en tres grupos tendréis gente de muy diversos años dentro de un mismo grupo (ruido) mientras que si podéis clasificarlos en quince tramos de edades diferentes, dentro de cada grupo todo será mucho más homogéneo. Pues más o menos esto es lo que provoca el ruido en los tonos oscuros de las fotografías y la ausencia del mismo en las zonas más claras.

Obviamente, al subir la sensibilidad ISO de la cámara los errores al digitalizar la señal analógica se van a amplificar y por eso empeora la relación señal / ruido. Por lo tanto, debemos tener especial cuidado en obtener una imagen inicial correctamente expuesta en caso de disparar con una sensibilidad elevada tal y como vimos en la entrada que hablaba de este delicado tema.

Derecheando el histograma

Como os decía al hablar del histograma, los tonos claros se representan en la parte derecha del mismo y los oscuros a la izquierda. Por tanto, ya os estaréis imaginando que el concepto de derechear consiste en tratar de aclarar la imagen lo máximo posible (el histograma se cargará hacia la parte derecha) pero siempre sin llegar a quemarla para así disponer de la máxima información posible a la hora de capturar los colores.

De hecho, la técnica no es más que eso; aunque la forma de lograrlo va a variar considerablemente en función del tipo de iluminación de lo que queramos fotografiar. En este caso nos vamos a centrar en escenas en las que no haya variaciones demasiado grandes de iluminación, de modo que el histograma resultante sea más o menos estrecho; pues en caso de fuertes contrastes, aunque midamos en las luces más altas, los tonos oscuros se nos van a ir irremediablemente a la parte izquierda y tendremos poco margen para la modificación posterior de los niveles. Un ejemplo de estas escenas con zonas muy claras y muy oscuras al mismo tiempo es la imagen que tenéis a continuación, donde la nieve es prácticamente blanca y la ropa de mi hermano es negra casi por completo dando lugar a un histograma muy amplio.

Jump! (they say)

En la gran mayoría de las situaciones, la cámara va a exponer por defecto de tal modo que el histograma va a quedar más o menos centrado en la pantalla, así que para derechear el histograma lo que debemos hacer es compensar esta exposición positivamente de tal modo que la imagen resultante quede más clara de lo habitual pero sin llegar a quemarla. La teoría original dice que el procedimiento a emplear consiste en emplear medición puntual, medir en las luces más altas de la escena (la zona más clara) y a continuación compensar la exposición positivamente dos pasos, lo que en teoría hará que esta zona se quede justo al borde del quemado pero sin llegar a él.

Lo que pasa es que este método es demasiado rígido y además varía en cada cámara y para cada escena; por lo que debemos ser flexibles y compensar más o menos en función de los resultados que vayamos obteniendo. En todo caso, puesto que perseguimos ajustar el histograma a la parte derecha de la gráfica (pero sin llegar a tocar dicho extremo) también podemos disparar en modo manual hasta obtener el resultado deseado. Es decir, que no hay por qué cegarse en emplear medición puntual y poner la compensación en +2; sino que debemos ser flexibles y adaptarnos a las limitaciones de nuestro equipo y a las condiciones de iluminación existentes. Como de costumbre, lo mejor es ir probando para ver qué es lo que mejor se adapta a nuestra forma de trabajar, y de ahí la importancia de practicar mucho “sobre el terreno”.

Un ejemplo práctico

Hace unos días estuve por los márgenes del río Henares a su paso por el barrio de Nueva Alcalá tratando de obtener un ejemplo claro que me sirviera para ilustrar esta técnica que hoy os comento, de modo que me armé de paciencia y busqué un lugar que me permitiera captar una escena que diera lugar a un histograma lo suficientemente derecheado como para demostraros todo lo que esconde una fotografía en apariencia inservible. Por cierto, aprovecho para comentaros que haciendo click en las fotografías podéis acceder a una versión a más resolución de las mismas y así apreciar mejor los detalles de las mismas.

Histograma correspondiente a la imagen original, donde se puede ver que la mayor parte de los pixels están en la parte derecha del mismo pero sin llegar a saturar ninguna zona

Como podéis apreciar a simple vista, la fotografía está claramente sobreexpuesta y en condiciones normales se iría directamente a la papelera. Lo que ocurre es que mirando con detenimiento su histograma veréis que no existen zonas quemadas, por lo que podemos considerar que el derecheo ha sido correctamente llevado a cabo. Lo que debemos hacer entonces es cargar esta imagen RAW en nuestro revelador favorito (Capture NX, Adoble Lightroom, Photoshop + ACR…) y ajustar los niveles de exposición, brillo, contraste, intensidad, etc para obtener una imagen con una rica variedad cromática.

Modificando los niveles del RAW anterior hemos conseguido "estirar" el histograma hasta ocupar la totalidad de la gráfica, dando lugar a una imagen con una gran riqueza cromática

Si os fijáis en la imagen una vez ajustada veréis que además de haber obtenido una tonalidad y un colorido muy semejantes a los que nos hubiera dado la cámara empleando el valor por defecto usando la medida del exposímetro integrado, en las zonas más oscuras hay una ausencia de ruido total debido a que en la imagen anterior esas zonas no eran negras; sino de unos tonos medios que se guardaron con más precisión debido a lo que comentábamos anteriormente sobre la forma de trabajar de los conversores ADC.

De hecho, en la riqueza cromática no va a haber una gran diferencia en comparación con una exposición calculada de forma automática por la cámara, estando la única ventaja del derecheo en la disminución del ruido en las zonas oscuras de la fotografía.

Para ilustrar con otro ejemplo todo esto aquí tenéis una captura tomada directamente de Adobe Lightroom (haciendo click sobre ella podréis verla a su resolución nativa) para que veáis la gran diferencia entre la imagen original en la parte izquierda y la resultante tras unos minutos de ajuste de parámetros y niveles. Como veis, lo que en un principio parece una fotografía sobreexpuesta y carente de detalle, en realidad esconde dentro de ella una riqueza cromática que podremos aprovechar si disparamos en RAW y sabemos manejar mínimamente nuestro programa de edición digital.

Conclusiones

Una vez repasado y asimilado todo el proceso del derecheo del histograma he de advertiros que el resultado final después de ajustar el RAW original no es muy diferente al que obtendríamos mediante la exposición normal calculada por la propia cámara, y por eso os decía que esta técnica, aunque curiosa y resultona, no acaba de ser una opción viable para emplear continuamente en nuestras fotografías: aparte de correr el riesgo de quemar sin remedio las luces más altas de la escena, el nivel de compensación necesario para derechear el histograma correctamente variará considerablemente entre unas escenas y otras, de modo que el único modo de hacerlo bien será a base de tiempo, pruebas y errores. Un trío que no siempre podemos permitirnos a la hora de salir a hacer fotos.

Ramas desnudas

No obstante, sí que es cierto que comprendiendo bien las bases en las que se basa la técnica del derecheo habremos aprendido conceptos sobre la captura digital de imágenes de los que no se suele hablar demasiado. Ya sabéis que siempre he pensado que conocer bien nuestro equipo nos ayudará a conseguir mejores imágenes; y esto que hemos visto hoy no es otra cosa que una incursión más o menos profunda en el funcionamiento interno de una cámara digital.

De cualquier modo, si queréis extraer una conclusión práctica de este largo artículo, esta podría ser que entre subexponer y sobreexponer es mejor la segunda opción; pero siempre teniendo cuidado en no llegar a quemar nada. Luego todo es cuestión de postproceso.

Más información

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

¿Qué significa que una fotografía digital está quemada?

Seguro que más de una vez habéis escuchado (ya sea comentando alguna fotografía con alguien o leyendo algún foro sobre el tema) que “el cielo de tal o cual foto está quemado” o que “se han quemado las luces altas”. Si al escuchar expresiones como estas os quedáis con cara de no saber de qué va el tema voy a intentar explicaros con brevedad y concisión qué es lo que ha ocurrido.

¿Cómo se representan los colores en una fotografía digital?

Cualquier color del espectro visible se puede obtener mediante una combinación de los colores primarios (rojo, verde y azul; más comúnmente expresados con sus iniciales en inglés RGB). La cantidad de cada uno de estos tres colores se puede representar de diversos modos, pero para no liar más las cosas vamos a trabajar en porcentajes, que es como expresa estos parámetros el fantástico Adobe Lightroom 2.

paleta

Comenzaremos observando que los tonos primarios vendrán dados por su correspondiente valor RGB al 100% y el resto al 0%. El rojo será RGB=100%, 0%, 0% (a partir de ahora obviaré los símbolos de porcentaje, ¿OK?  😉 ), el verde será RGB=0, 100, 0 y el azul será RGB= 0, 0, 100. Como veis, estos tres valores son una especie de “paleta virtual” en la que podemos mezclar los tonos primarios que conforman los píxeles de cualquier monitor tal y como comenté en una entrada de hace ya unos meses.

Recordaréis que en el colegio nos enseñaron que el negro es la ausencia de color, por lo que este tono se representará con los colores RGB=0, 0, 0. Del mismo modo, el color blanco puro no es otra cosa que la mezcla de los tres colores primarios a su máximo valor; algo que expresaremos como RGB=100, 100, 100. Por otra parte, los tonos grises vendrán dados por valores idénticos de los tonos primarios (RGB=20, 20, 20 para un gris oscuro, RGB=75, 75, 75 para otro mucho más claro…).

Pues bien, ya os estaréis imaginando cómo funciona todo el invento de representar los colores: otorgando un valor entre 0 y 100 a cada uno de los tres colores primarios, así que vamos a ver cómo nos afecta todo eso a la hora de hacer una fotografía digital.

El rango dinámico

Las cámaras digitales tienen una limitación a la hora de representar una escena compuesta por luces y sombras llamada rango dinámico. El rango dinámico no es otra cosa que la máxima diferencia que la cámara puede captar entre la zona más oscura de una fotografía y la más clara. Esa diferencia, por lo general, es más grande cuanto más alto es el escalón que la cámara ocupa en la gama del fabricante; pero a rasgos generales se puede decir que las cámaras réflex tienen un rango dinámico bastante más alto que las compactas y las bridge por el tamaño y la calidad de los sensores que emplean.

Un rango dinámico elevado nos va a permitir, por ejemplo, realizar un retrato de alguien que está situado en la sombra sin que el cielo se quede completamente blanco o sacar un cielo lleno de nubes sin que el suelo quede demasiado oscuro. Sin embargo, esa misma situación en una cámara con escaso rango dinámico va a hacer que en cuanto haya una cierta diferencia de iluminación entre el sujeto y el fondo tengamos que elegir entre sacar oscuro al retratado y correctamente expuesto el fondo o conseguir un rostro correctamente iluminado y un fondo “quemado” (ya tenemos aquí la famosa palabrita).

Luces, sombras y barrotes

En esta fotografía hay luces y sombras; pero no hay zonas quemadas porque la diferencia entre unas y otras no es demasiado elevada. No hemos excedido el rango dinámico de la cámara.

¿Pero lo que se quema no queda negro?

Bueno, un bosque o una pila de papel sí; pero en el caso de la fotografía, lo que queremos decir cuando una zona se nos ha quemado es que hemos llegado al límite superior de los canales RGB (100, 100, 100); algo que se puede ver echando un vistazo al histograma de la imagen tanto en la propia cámara como en nuestro programa de retoque digital favorito porque cuanto más alta es la barra pegada al límite derecho del mismo más píxels “quemados” habrá en la imagen. Es lo mismo que sucede cuando estamos grabando un sonido y excedemos la capacidad de captación del micrófono porque estamos hablando demasiado alto: perdemos información al estar saturando el sensor.

Si nuestra zona completamente blanca no lo fuera tanto (imaginad por ejemplo que en vez de 100, 100 ,100 fuera 99.5, 98.7, 99.8) tendríamos toda la información necesaria de los tres canales y podríamos tratarla con los algoritmos de nuestro programa de retoque fotográfico habitual; pero en el momento que los tres datos están al 100% (también perderemos información si saturamos tan sólo uno de los tres, pero vamos a suponer que los saturamos todos) sólo sabemos que la luz en esa zona era excesiva para el sensor de la cámara y hemos excedido su límite; pero puede ser por sólo un poquito o porque en esa zona de la fotografía brillaba una luz más potente que la del sol. Precisamente por eso decimos que hemos perdido información y es imposible saber la intensidad de la luz en ese punto. Vamos a verlo con un ejemplo:

NOTA: podéis hacer click sobre las imágenes de ejemplo para que se abran a su tamaño original en una nueva ventana/pestaña y así poder los detalles que os comento al pie de las mismas.

Fotografía en la que buena parte del cielo se ha quemado. Fijáos en el histograma de la derecha y en los valores medidos sobre la zona más brillante del cielo: los tres canales RGB están al 100%

Fotografía en la que buena parte del cielo se ha quemado. Fijaos en el histograma de la derecha y en los valores medidos sobre la zona más brillante del cielo: los tres canales RGB están al 100%

Mal remedio tiene una zona completamente quemada a la hora de corregir niveles en una fotografía digital (y en este punto aprovecho las bondades de disparar en RAW para este tipo de labores). Se podrá oscurecer, pero como no sabemos el porcentaje de cada color que había originalmente, ese blanco puro se convertirá en un tono de gris más oscuro cuanto más rebajemos la luminosidad; pero claro, tal vez en la escena original esa luz no era gris sino que tenía una cierta componente azulada que nos hemos cargado al saturar los tres canales del sensor.

Fijaós en que al oscurecer la fotografía en general, las partes completamente quemadas del cielo siguen igual de blancas (las nubes) y el azul ha quedado de un tono muy extraño (señal de que el canal de ese tono estaba saturado)

Fijaós en que al oscurecer la fotografía en general, las nubes (que estaban completamente quemadas) siguen igual de blancas en algunas zonas y lo que era azul claro ha quedado de un color muy poco natural (señal de que el canal de ese tono estaba saturado)

Cómo evitar “el incendio”

A la hora de hacer una fotografía es importante darse cuenta de los contrastes de luz que hay en la escena. Si toda la imagen está uniformemente iluminada (aunque sea con gran intensidad) no habrá problema, pues sólo tendremos que ajustar los parámetros del disparo para que no llegue demasiada luz hasta el sensor ya sea cerrando el diafragma, reduciendo el tiempo de exposición…

Del mismo modo, si la iluminación es uniforme pero escasa tendremos que utilizar los recursos que tenemos a mano para conseguir que la fotografía quede correctamente expuesta (abrir el diafragma lo máximo posible, aumentar la sensibilidad ISO, incrementar el tiempo de exposición…).

El problema es que ambas situaciones son completamente contrapuestas, por lo que en caso de una escena con zonas muy iluminadas y otras a la sombra vamos a tener que elegir un compromiso entre los dos casos antes vistos si no queremos arruinar la imagen. No siempre es sencillo; y puestos a elegir es mejor medir la luz en las zonas más brillantes (aquí sería útil emplear el modo de medición puntual) quedando las sombras demasiado oscuras antes que exponer correctamente las sombras quedando las luces completamente “quemadas”. Si conseguimos que en la fotografía no haya ninguna zona en el límite del 100% podremos subir y bajar la exposición de tal modo que todos los tonos quedarán equilibrados; no como en el caso del ejemplo que vimos anteriormente.

Fotografía sin zonas quemadas. La exposición ha quedado equilibrada entre las zonas de luces y de sombras.

Fotografía sin zonas quemadas. La exposición ha quedado equilibrada entre las zonas de luces y de sombras.

Al bajar la exposición de la fotografía todos los colores quedan equilibrados porque no había zonas saturadas

Al bajar la exposición de la fotografía todos los colores quedan equilibrados porque no había zonas saturadas

Por el mismo motivo podremos subir bastante la exposición de la fotografía manteniendo el equilibrio tonal original

Por el mismo motivo podremos subir bastante la exposición de la fotografía manteniendo el equilibrio tonal

La importancia de la práctica

De cualquier modo, el único modo de salvar los muebles en este tipo de situaciones es practicar lo máximo posible y conocer bien las posibilidades de nuestra cámara para, llegado el caso, conseguir una imagen de la que poder sentirnos orgullosos. No siempre es sencillo, pero con un poco de paciencia los resultados son más que satisfactorios.

Las iluminaciones uniformes son muy útiles para sacar una fotografía bien expuesta sin complicarnos demasiado la vida, pero hay que reconocer que los juegos de luces y sombras pueden dar lugar a imágenes muy bonitas; por lo que merece la pena intentar sacar provecho de esos contraluces que a veces aparecen en los más insospechados rincones.

De cualquier modo, me gustaría daros una última indicación: la luz a primera hora de la mañana y a última de la tarde no sólo es mejor porque al ser casi perpendicular al motivo a fotografiar realza su volumen, sino que también, al tener menos intensidad, reduce bastante la diferencia entre las luces y las sombras; algo que nos va a facilitar mucho las cosas a la hora de conseguir una buena fotografía.

Ya no me asomo a la reja

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

El síndrome reflexivo

Me he tomado la libertad de denominar síndrome reflexivo a algo que me está ocurriendo desde hace unas semanas con respecto a mi afición por la fotografía. No es nada que me haya pillado por sorpresa, pues ya había leído por ahí cosas sobre este tema alguna que otra vez y sé que aparece prácticamente en todos los usuarios de cámaras compactas que han dado el salto a la réflex, pero no deja de sorprenderme que aquello que hace cosa de cuatro meses creía imposible al final ha acabado sucediendo.

Nikon D40 + Nikkor 50mm 1.8D

La cosa es bien simple: consiste ni más ni menos en que cuando te habitúas a utilizar la cámara réflex, el día que coges de nuevo la compacta te parece que es de juguete. En mi caso, hace poco me la llevé al trabajo y al regresar a casa me fui a dar una vuelta con ella en el bolsillo. Hice alguna que otra foto (ninguna era gran cosa, la verdad) pero al sostenerla en las manos la sentía tan pequeña y ligera que no podía evitar sentir una extraña sensación.

Además, me empecé a preguntar una serie de cosas mientras la utilizaba: ¿Dónde está mi anillo de zoom? ¿Por qué tarda tanto en enfocar? ¿Cómo es que el obturador no hace ningún ruido al disparar? ¿Por qué el visor es tan oscuro?…

Y encima, para redondear del todo la experiencia, al llegar a casa y descargar las fotografías en el ordenador aluciné al comprobar la pérdida de definición y el elevado nivel de ruido que aparece en las fotografías de esta pequeña cámara comparada con la réflex.

Supongo que algunos de vosotros pensaréis que soy idiota o algo así, pero os aseguro que de un tiempo a esta parte me cuesta horrores hacer fotos con una compacta; y del mismo modo que antes la llevaba siempre en el bolsillo “por si veía alguna escena chula para fotografiar”, ahora en muchas ocasiones me cojo la bolsa de fotografía y me voy con la réflex de paseo pensando que “como vea una foto chula, con la compacta va a perder mucho”.

Y ya sé que esto parece chocar contra lo que os decía recientemente acerca de que ha de primar más el arte en una fotografía que la técnica; pero, qué queréis que os diga: lo que ocurre es que me he habituado hasta tal punto a disparar con la réflex que se me hace muy raro tratar de fotografiar algo con otro tipo de cámara.

¡Qué cosas, oiga!

Los filtros UV como protección para los objetivos fotográficos

Después de leer mil argumentos a favor y en contra de emplear filtros UV en los objetivos para las cámaras réflex, al final me he animado a dar el paso comprando cuatro de ellos para colocarlos en mis ópticas, así que no iba a dejar pasar la oportunidad de compartir mis impresiones con vosotros  😉

¿Qué es un filtro UV y para qué sirve?

Los filtros UV son círculos de cristal completamente transparentes que se colocan “a rosca” en la parte frontal del objetivo y filtran la luz ultravioleta: una radiación invisible al ojo humano pero que en los tiempos de la fotografía analógica daba un cierto tono azulado a las fotografías de paisaje. Hoy en día, las cámaras digitales ya llevan un filtro ultravioleta delante del propio sensor, pero estos elementos se siguen empleando actualmente como forma de protección del objetivo ante suciedad, golpes y arañazos.

Hasta ahora no he tenido ningún problema de este tipo con mis objetivos, pero también esto es porque hasta el momento sólo he hecho fotografía “de bajo riesgo”. Sin embargo, pensad en fotos tomadas en la cuneta de una carretera al paso de coches de rallye donde una chinita lanzada podría romper el elemento frontal del objetivo o un retrato en la orilla de la playa donde una simple gota de agua salda puede dejar marcado para siempre el recubrimiento especial de la lente.

Filtro UV

Mi Nikkor 50mm 1.8D con su filtro UV recién colocado

¿Cómo se colocan los filtros UV?

La forma de poner este tipo de filtros consiste en limpiar la lente frontal del objetivo con una meticulosidad absoluta así como la parte interna del filtro. Estaremos un buen rato dejando ambas superficies completamente inmaculadas de polvo y huellas con ayuda de un paño de microfibra y una pera de aire.

Cuando al fin hayamos logrado nuestro propósito colocaremos el filtro de tal modo que a partir de ese momento lo único que habrá que limpiar es la lisa superficie exterior del filtro protector; algo mucho más sencillo que los recovecos de la lente frontal de un objetivo en los que siempre suelen colarse partículas de polvo que luego no hay quien saque de ahí. Además, así nos evitamos el tener que estar todo el tiempo pasando el paño de microfibra para limpiar la lente frontal con el riesgo de arañarla si por lo que sea hay algún granito de arena que restregaríamos por su delicada superficie.

No obstante, lo que me tiraba un poco para atrás a la hora de emplear los filtros era la posibilidad de perder algo de calidad de imagen; cosa que no ha ocurrido después de haber estado probándolos durante unos días en multitud de condiciones (día, noche, con el sol de frente, en distancias focales cortas y largas, con diversas aperturas…).

Demostración práctica

Sirvan como ejemplo práctico estos dos recortes de sendas fotografías que realicé hace un rato en las que disparo con el 18-55 colocado en su distancia más corta apuntando al sol. Como veis, no hay cambios apreciables entre las dos imágenes (no hay viñeteo y el “flare” que aparece en la esquina superior derecha es exactamente igual en ambas) así que la inclusión del filtro no parece mermar la calidad de imagen en términos generales.

De todos modos, os advierto que la calidad general de ambas imágenes es, como podéis comprobar, patética; pero lo que pretendía con ellas era “forzar” la peor situación luminosa posible para ver si aparecían defectos ópticos. Fotografiar al cielo de forma que salga el sol en una esquina es una forma de conseguir una fotografía mala con ganas, pero también es el mejor modo de comprobar si el filtro empeora las cosas o no. Y si no las empeora en esto, no las empeorará jamás :mrgreen:

Fotografiando el sol sin filtro UV

Fotografiando el sol SIN filtro UV

Fotografiando el sol con filtro UV

Fotografiando el sol CON filtro UV (¿alguien es capaz de apreciar alguna diferencia?)

Algunos recortes de fotografías sin filtro y con él

Os pongo a continuación algunos recortes de fotografías sin ningún tipo de procesado realizadas con cuatro objetivos diferentes y la ayuda de un trípode para ver con más detalle las diferencias entre usar filtro UV y no usarlo en condiciones de iluminación muy desfavorables (sol muy fuerte casi de frente y con sus rayos dando de lleno en el objetivo). De cualquier modo, podréis comprobar que las diferencias son mínimas y estamos hablando de coger una lupa y mirar un trocito de la fotografía ampliado prácticamente a escala 1:1. Además, hay que tener en cuenta que la cámara tenía que volver a enfocar tras colocar el filtro, por lo que alguna leve diferencia en el enfoque puede venir dada por este motivo así como por las posibles variaciones de la iluminación entre ambas tomas. Para que veáis las diferencias “reales” os pongo también las imágenes completas.

NOTA: En todos los casos la primera fotografía está disparada SIN filtro y la segunda CON el filtro UV colocado.

18-55 @18mm

Fotografías completas

090404_028-2

090404_030-2

Recortes

090404_0282

090404_030

El empleo del filtro UV en este objetivo hace que aparezca un ligero flare en el centro de la imagen, como se puede apreciar en la segunda toma. De cualquier modo, he llevado el filtro colocado en el objetivo durante toda una semana haciendo más de 200 fotografías y esta es la única en la que se aprecia su uso, por lo que deduzco que “en el mundo real” no tiene influencia alguna sobre la fotografía resultante.

55-200 @200mm

Fotografías completas

090404_032-2

090404_036-2

Recortes

090404_032

090404_036

Se aprecia una leve pérdida de contraste si ampliamos al 100% esta zona de la imagen. Algo absolutamente inapreciable en la fotografía completa. Hay que tener en cuenta también que estamos empleando la máxima distancia focal del objetivo (200mm).

50mm 1.8D

Fotografías completas

090404_037-2

090404_039-2

Recortes

090404_037

090404_039

Es imposible encontrar ninguna diferencia entre las dos imágenes ni tan siquiera ampliando alguna zona en concreto.

35-70 @52mm

Fotografías completas

090404_040-2

090404_042-2

Recortes

090404_040

090404_042

Aquí es donde uno se da cuenta de que las dos décadas que separan al objetivo anterior y éste se tienen que notar de alguna manera; pero aunque el contraste de la imagen en general no es demasiado bueno, hay que hacer notar que no existen diferencias apreciables entre el uso o no del filtro UV.

Conclusión

Bueno, pues hasta aquí esta pequeña charla instructiva sobre filtros UV empleados como protección en los objetivos. A modo de conclusión os recomiendo que os compréis uno (ojo, que siempre hay clases no vayáis a los más baratos; unos decentes de diámetro 52mm os pueden costar unos 15€) o se lo pidáis a un amigo y lo probéis, pues tenéis poco que perder y mucho que ganar.

PD: a modo de “bonus” os dejo a continuación un vídeo que he grabado recientemente en el que podéis ver cómo se coloca el filtro en el objetivo y qué cosas debemos tener en cuenta a la hora de hacerlo. Es un modo de mostrar en imágenes lo que os he escrito en los párrafos anteriores  😉

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

¿Qué es y cómo se utiliza un filtro polarizador?

Las lentes polarizadas siempre me han llamado la atención: hace ya tiempo publiqué en este mismo blog un artículo sobre gafas de sol de este tipo y hoy me gustaría centrarme en un elemento indispensable en fotografía y que tiene más utilidades de las que en principio se podría pensar: los filtros polarizadores circulares.

filtropola

Para ahorrarnos un buen rato de charla sobre los fundamentos de una lente polarizada os recomiendo que le echéis un vistazo a la entrada que os comentaba antes sobre las gafas polarizadas. El enlace es el siguiente: El maravilloso mundo de las gafas de sol polarizadas. En ella podréis ver qué ventajas tienen las gafas polarizadas sobre las “normales” e incluso visualizar un vídeo que muestra los inconvenientes que nos podemos encontrar a la hora de mirar ciertas pantallas con ellas. Una vez puestos al día sobre cómo funciona y qué efectos tiene una lente polarizada nos vamos a centrar en el filtro fotográfico que tiene esa mágica cualidad: el polarizador.

Un filtro polarizador consta de dos partes: una fija que se enrosca en el objetivo de la cámara y otra móvil que podemos girar para buscar el ángulo adecuado, pues el resultado final va a ser completamente distinto en función del ángulo que demos al polarizador como luego veremos con unas imágenes ilustrativas.

El filtro polarizador nos va a permitir bloquear la luz que venga en una determinada dirección; y en base a esto vamos a obtener dos aplicaciones prácticas a este pequeño pero utilísimo elemento.

1. El efecto más característico en un polarizador es el realce del cielo y el aumento de contraste de las nubes. Si hacemos una fotografía de paisaje en la que queramos dar protagonismo a un cielo con claros y nubes, este tipo de filtro va a ser nuestro mejor amigo, pues vamos a bloquear la luz que viene del cielo dejando el resto intacto de tal modo que las nubes parecerán mucho más blancas y el azul mucho más oscuro. Vamos a ver un ejemplo práctico:

Utilizando un filtro polarizador (VIII)

Cielo sin polarizador

Utilizando un filtro polarizador (IX)

Cielo con polarizador

2. La segunda utilidad del filtro polarizador se basa en el hecho de que la luz se polariza fuertemente al reflejarse en superficies lisas. Gracias a esto vamos a poder emplear este pequeño artilugio para eliminar molestos reflejos de ventanas, chapas y demás elementos planos. Vamos a ver un par de ejemplos ilustrativos:

En el primero de ellos tenemos unos coches aparcados a plena luz del día que ofrecen unos feos reflejos de los edificios que hay en las proximidades.

Usando un filtro polarizador (I)

Coches aparcados fotografiados sin polarizador

Si utilizamos el filtro polarizador vamos a poder eliminar los reflejos de uno de los planos; en este caso el más visible, que es del los techos de los vehículos.

Usando un filtro polarizador (II)

Podemos eliminar los reflejos del techo con el polarizador

Con un simple giro de 90º del polarizador vamos a eliminar el reflejo del lateral de los vehículos (se puede apreciar con claridad en la luna tintada de la furgoneta).

Usando un filtro polarizador (III)

Con un giro del polarizador podemos eliminar los reflejos de los laterales

En cristales también vamos a poder eliminar esos molestos reflejos, de tal modo que el vidrio parezca realmente vidrio. Fijaos en los dos siguientes ejemplos ilustrativos:

Usando un filtro polarizador (IV)

Molestos reflejos en las ventasnas al hacer la fotografía sin polarizador

Usando un filtro polarizador (V)

Con el polarizador la cosa mejora bastante

Del mismo modo que podemos eliminar reflejos de cristales y chapas, también lo podemos hacer de una superficie tan deslumbrante como el agua. Ya os decía en la entrada de las gafas de sol que los cristales polarizados están prohibidos en los concursos de pesca, y con el ejemplo que os muestro a continuación entenderéis a la perfección por qué es así:

En la primera imagen nos encontramos con que la superficie del agua refleja tanta luz que apenas nos deja ver el fondo de la misma.

Usando un filtro polarizador (VII)

La superficie del agua sin emplear un polarizador refleja demasiada luz

Sin embargo, podemos echar mano de nuestro filtro polarizador para, dándole el ángulo adecuado, eliminar gran parte del reflejo y ver el fondo perfectamente. En el ejemplo que os he puesto no se puede eliminar completamente el reflejo porque el agua está en constante movimiento, pero en una superficie lisa como un cristal el reflejo quedaría bloqueado prácticamente al completo.

Usando un filtro polarizador (VI)

Empleando el polarizador vamos a bloquear el reflejo que viene de la superficie y podremos ver el fondo con claridad

Como veís, los filtros polarizadores son de gran utilidad para ciertos tipos de fotografías. La pega que tienen es que oscurecen bastante la fotografía, de tal modo que tendremos que aumentar el tiempo de exposición, abrir más el diafragma o subir la ISO con la que disparamos tal y como os comenté hace tiempo en una entrada que trataba de explicar cuatro principios básicos de fotografía.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia