Diesel con ralentí inestable y humo blanco en frío: calentador(es) averiado(s)

No se puede hablar; y es que si antes os digo que en cuatro años y 160000 Km no he tenido ni una sola avería con mi coche, antes me toca pasar por el taller. Por suerte no ha sido nada serio y lo que me gustaría es dejar aquí constancia de la experiencia porque creo que puede ser de utilidad para alguien más. De hecho ya hace años escribí sobre un problema con el arranque en días de lluvia que tuve con un antiguo coche de gasolina y bastantes personas me lo han agradecido en los comentarios.

Sin estrenar

Los síntomas

Todo comenzó cuando hace un par de semanas, de un día para otro, al arrancar el coche por las mañanas, durante los 30 primeros segundos notaba que pegaba unas sacudidas más o menos fuertes junto a un ralentí inestable y que por el escape soltaba una buena bocanada de humo blanco con un fuerte olor a gasoil. Un amigo mío solía decir (frase que me encanta) “Es un diésel; no va a echar flores por el escape” pero aquello era demasiado y además era muy diferente a lo que estaba acostumbrado desde que estrené el coche. En inviernos anteriores he arrancado el coche incluso a siete grados bajo cero y no hacía eso que estaba haciendo en los últimos días.

La cosa es que una vez que pasaba ese medio minuto (más o menos) que os comentaba, el coche iba perfectamente. Del mismo modo, si parabas el coche y lo arrancabas al cabo de tres horas éste iba suave como la seda desde el primer instante. Por lo tanto, el problema se daba cuando el motor se encontraba completamente frío. ¿Y qué es lo que actúa en un diésel sólo cuando el motor está totalmente frío? Exacto: los precalentadores.

Precalentador

¿Qué son los precalentadores?

Para los que no lo sepáis, los precalentadores (o calentadores a secas) son una especie de bujías que llevan los coches con motor diésel cuya punta va introducida en la cámara de combustión de los cilindros y que se ponen al rojo vivo cuando damos al contacto del coche antes de arrancar en frío para ayudar a la combustión. De ahí la importancia de esperar esos segundos hasta que se apagan las luces de chequeo del cuadro de mandos antes de girar por completo la llave para accionar el motor de arranque.

Comentaros que en un motor diésel, a diferencia con uno de gasolina, el combustible se inflama por compresión a alta temperatura no existiendo ningún tipo de chispa que provoque la ignición como ocurre en los motores que funcionan con gasolina. De ahí la importancia de la temperatura en la cámara de combustión para el correcto funcionamiento del proceso.

Bueno, como os decía, aunque suponía que eran los calentadores tampoco tenía la certeza absoluta porque hay otros elementos de un moderno coche turbodiesel que provocan síntomas muy similares: una válvula EGR llena de carbonilla, un inyector dañado, una mala lectura del caudalímetro… Lo que ocurre es que ninguna de esas otras cosas me encajaban por el sencillo motivo de que el coche una vez que calentaba el motor unos grados iba como la seda y el consumo seguía siendo exactamente el mismo que el día que lo estrené.

Decidido a cambiar los calentadores por mi mismo (con un simple polímetro se puede ver en qué estado están midiendo su resistencia ohmica, que debería de dar menos de 2 Ohm) busco documentación sobre dónde están situados en mi modelo de motor y observo que se trata de una operación más delicada de lo que parece: pese a que en principio es una labor sencilla, hay multitud de casos de personas que han intentado sacar los calentadores sin la herramienta y experiencia necesarias y han acabado partiendo uno de ellos por hacer el bruto, dando lugar a un desmontaje de culata que sale por unos cuantos cientos de euros para poder sacar la mitad del calentador que se queda dentro del bloque motor.

opel-corsa-motor

Visita al taller

Total, que como ya estoy mayor para sustos, decido ir al taller de mi barrio donde les comento el tema de las sacudidas y el humo blanco a primera hora de la mañana y también apuntan a que la causa más probable son los calentadores. Esa misma tarde me llaman y me comentan que, efectivamente, tengo dos calentadores en mal estado y que están con el coche arrancado esperando a que el bloque motor coja temperatura para que así dilate un poco y poder sacarlos sin problemas. Me dicen que me cambiarán los cuatro pese a que los otros dos están bien, cosa con la que estoy totalmente de acuerdo, ya que por la omnipresente ley de Murphy a los diez días fallaría uno de los otros dos (o posiblemente los dos a la vez).

Una vez que me entregan el coche lo aparco y cuando a la mañana siguiente arranco el motor veo que vuelve a ir como la seda desde el primer instante y que no hay ni rastro de humo blanco ni nada parecido, de modo que empiezo el día con alegría (nótese la rima inspirada en la obra de Leticia Sabater).

Conduciendo por Madrid

¿Qué ocurría?

Supongamos que tenemos un calentador que no funciona. En ese caso cuando el motor está totalmente frío (supongamos que el bloque está a 5 grados) y damos al contacto, la cámara de combustión de tres de los cuatro cilindros se pondrán por ejemplo a 40 grados gracias a la acción de sus respectivos calentadores mientras que la del cuarto se quedará a esos 5 grados que hay en el ambiente.

Cuando se produce el arranque y comienza el sube-baja de los cilindros y la entrada del combustible, en los tres cilindros que están a mayor temperatura la mezcla explotará sin problemas mientras que en el cuarto no habrá combustión durante los primeros ciclos (hasta que el cilindro vaya cogiendo temperatura por su movimiento) lo que dará lugar al ralentí inestable porque el ciclo del motor está “cojo” y a la expulsión por las válvulas de escape de la mezcla de aire y gasoil sin quemar en forma de humo blanco pestoso.

Por eso, si el motor tenía algo de calor residual no se apreciaba problema alguno, ya que la temperatura en los cuatro cilindros era lo suficientemente elevada como para no requerir de la entrada en funcionamiento de los calentadores al arrancar. Del mismo modo, si hubiera sido verano lo más seguro es que ni me hubiera dado cuenta de la avería de los calentadores, ya que he leído que en este modelo de motor por encima de 20 grados no actúan.

090109_2_064

Como os decía al principio, se trata de una avería sencilla de diagnosticar si se aplica la lógica y sabemos cómo es la secuencia de arranque del coche; pero aun así me gusta comentaros estas cosas porque sé que algún día esto que hoy he escrito le será de utilidad a alguien. Ya lo veréis.

¡Nos leemos!

Anuncios

Torre Bellver by night

Hacía bastante tiempo que no salía a hacer fotografías nocturnas. Si mal no recuerdo, la última vez fue hace cosa de un año en Torre la sal y desde entonces el trípode (ese elemento por el que tan poco afecto siento) ha estado guardado en un armario de mi casa.

Sin embargo, no sé muy bien por qué, la otra noche me entraron ganas de hacer una foto a medianoche, de modo que cogí el coche y me acerqué a un paraje entre Oropesa y Benicassim dispuesto a captar con mi cámara la poca luz que había.

Torrebellver by night

Lo que veis en primer plano son las casas de una lujosa zona de urbanizaciones pertenecientes todavía a Oropesa y ya al fondo se extiende todo el litoral de Benicassim y Castellón, que seguiría más allá del margen izquierdo del encuadre.

Ya aprovechando la temática de la entrada, me gustaría comentar que contrariamente a lo que alguno podría pensar, para las fotografías nocturnas debemos emplear la sensibilidad ISO más baja posible, ya que al haber predominio de todos negros el ruido sería muy evidente si empleamos ISOs muy altos. Recomiendo leeros un par de artículos (uno y dos) que publiqué hace tiempo si no tenéis muy claro lo de la relación entre exposición, ruido y sensibilidad en la fotografía digital.

Por lo demás, la cosa no consiste más que en plantar el trípode en un lugar donde no moleste, poner la exposición en modo manual, encuadrar a nuestro gusto, enfocar a algún elemento medianamente visible, hacer un par de pruebas hasta dar con la exposición correcta (en este caso es ISO 200, 30″ y f/13), disparar la foto definitiva haciendo uso del temporizador de la cámara para evitar vibraciones y… ¡Voilà, c’est fini!

El difícil equilibrio entre resolución y sensibilidad en los sensores digitales

Cuando hace unos días me explayaba sobre el tema de la sucesión de la D90 os comenté que en lugar de elevar la resolución del sensor que equipará la nueva cámara preferiría que los ingenieros de Nikon se centraran en potenciar la calidad de imagen y la contención del ruido a sensibilidades elevadas.

Tal vez alguno de vosotros sé esté preguntando por qué no podemos tener las dos cosas, de modo que he pensado en escribir este artículo para tratar de explicaros de una forma sencilla el motivo por el cual a la hora de diseñar el sensor de una cámara digital hay que buscar un compromiso entre resolución y sensibilidad al no ser posible (al menos con los medios actuales) tener ambas cosas a la vez.

Recordando cómo capta la luz el sensor de la cámara

La tienda de Alcalá

En su momento ya hablamos sobre el modo en el que están dispuestos los fotocaptores que conforman la superficie del sensor y que son los encargados de transformar la luz incidente en impulsos eléctricos; así que hoy vamos a hablar a un nivel más general para ver de qué depende la generación de ruido en la imagen final.

Aunque luego se aplicarán algoritmos de reducción de ruido ya sea en la propia cámara o en nuestro programa de edición de imágenes habitual para generar la imagen, vamos a hablar sobre los datos “en bruto” para comprender qué es lo que capta exactamente el sensor y por qué aparece ruido en esos datos.

El ruido en la imagen

La generación del ruido en una u otra cámara empleando la misma sensibilidad ISO depende fundamentalmente del tamaño de los fotocaptores que conforman la superficie del sensor. Parámetro que podemos estudiar mediante la densidad de pixels (vamos a adoptar el criterio de que un fotocaptor es un píxel) por centímetro cuadrado o directamente por el tamaño del mismo expresado en micrómetros (μm); y puesto que creo que es más descriptivo imaginar un cuadrado de un centímetro de lado emplearé la primera forma para hacer las comparaciones necesarias.

Una ducha

Vamos a ver la densidad de fotocaptores en diversos tipos de sensores para luego tratar de explicar de dónde proviene el ruido generado:

  • Sensor Full Frame (36 x 24 mm) de 12 Mpixels: 1.4 MP / cm²
  • Sensor Nikon DX (24 x 16 mm) de 6 Mpixels: 1.6 MP / cm²
  • Sensor Full Frame de 24 Mpixels: 2.8 MP / cm²
  • Sensor Canon APS-C (22 x 15 mm) de 10 Mpixels: 3.1 MP / cm²
  • Sensor Nikon DX de 12 Mpixels: 3.3 MP / cm²
  • Sensor 4/3 (17 x 13 mm) de 12 Mpixels: 5.1 MP / cm²
  • Sensor Canon APS-C de 18 Mpixels: 5.4 MP / cm²
  • Sensor de 1/2.33″ (6.1 x 4.6 mm; habitual en compactas) de 14 Mpixels: 50 MP / cm²

Como veis, la diferencia en el número de pixels embutidos en un centímetro cuadrado puede llegar a ser notable entre unos sensores y otros; y puesto que cuanto más baja sea la densidad de fotocaptores mejores resultados vamos a obtener, no parece una buena idea de cara a la calidad final de la imagen fabricar sensores de pequeño tamaño con una resolución desmesurada (es lo que está ocurriendo con algunas cámaras compactas de reciente aparición). No va a ser lo mismo tener 1.4 millones de fotocaptores en un área del tamaño de la uña del dedo meñique a meter cincuenta millones de ellos en la misma superficie.

Una comparación clarificadora

Podéis imaginar que cada fotocaptor es un pozo en el que se meten los fotones cuando se abre el obturador de la cámara y así la electrónica interna puede saber cuánta luz alcanza la superficie del sensor sin más que contar el número de fotones que han caído en el pozo. Evidentemente, cuanto mayor sea el diámetro de este pozo más fotones se van a introducir en él y más precisa será la medida de la luz así como la fidelidad de la fotografía con respecto a lo que ven nuestros ojos.

Patio trilingüe (VII)

Cuando en la imagen obtenemos un tono negro puro es porque no se ha introducido ni un sólo fotón en el pozo correspondiente, mientras que cuando tenemos una zona de la foto quemada (completamente blanca) es porque los pozos correspondientes han superado su capacidad máxima de guardar fotones y se han “desbordado”. Cualquier tono intermedio entre el blanco y el negro viene dado por la cantidad de fotones que han entrado en el pozo durante la exposición de la fotografía.

Por cierto, me gustaría aprovechar para comentaros que este tema fue tratado más en profundidad en el artículo que habla sobre el derecheo del histograma, ya que dicha técnica se basa precisamente en el modo de funcionamiento de los conversores A/D que son, precisamente, los circuitos electrónicos encargados de contar los fotones como os comentaba en el párrafo anterior.

Continuando con la explicación, lo que sucede cuando se cierra el obturador es que se cuentan los fotones de cada pozo y esa cifra pasa a la electrónica de la cámara que mediante otra serie de parámetros (balance de blancos, nitidez, espacio de color…) conformará la imagen final. Si estamos empleando el ISO base de la cámara la cifra se mantiene intacta para calcular los valores de luminosidad en la imagen final, pero si estamos empleando una sensibilidad superior la cifra se multiplicará por el factor correspondiente de tal modo que estaremos amplificando digitalmente la señal digital de la cuenta de los fotones. Si la ISO base de la cámara es 200, usando una sensibilidad de 400 estaremos multiplicando por dos. Si empleamos ISO 3200 estaremos multiplicando por 16…

Puntos

La importancia del tamaño del fotocaptor

Pues bien, imaginad que tenemos una de esas cámaras en las que el tamaño de los fotocaptores es bastante amplio (el mejor caso posible de los que hemos visto antes es un sensor FF de 12 Mpixels). Para seguir con nuestra metáfora vamos a imaginar que en cada uno de esos pozos caben 100 fotones. Del mismo modo, vamos a imaginar que el minúsculo sensor de una compacta de 14 Mpixels se compone de pozos tan pequeños que en cada uno de ellos entra un máximo de 5 fotones. Es evidente que no es lo mismo cubrir una misma superficie de terreno con pocos pozos pero muy amplios (sería el caso de un sensor con una densidad de pixels baja, donde cada pozo sería como una piscina) o con muchos de ellos pero de un tamaño muy reducido (que es lo que sucede con los sensores de pequeño tamaño y mucha resolución, donde los pozos son en realidad cubos).

Como podréis suponer, la precisión a la hora de medir la luz en uno u otro sensor va a ser muy diferente, teniendo un comportamiento mucho más afinado el primero de ellos por su mayor precisión a la hora de medir la luz que ha incidido sobre cada fotocaptor. Pero sobre todo, esa mayor precisión se pone de manifiesto a la hora de subir la sensibilidad, ya que cuanto más precisa sea la medición de la luz incidente, más podremos multiplicar el resultado sin desviarnos de la medida real.

Paseantes de la calle Mayor

De hecho, el ruido no son más que medidas anómalas en algunos de los pozos. Si los fotocaptores tienen un buen tamaño, los errores de medida serán pequeños y por tanto apenas tendremos ruido. Sin embargo, en el caso de fotocaptores de escaso tamaño puede haber errores considerables que se incrementarán notablemente cuanto más amplifiquemos digitalmente la señal.

Una aplicación real de todo lo anterior

Un ejemplo práctico de todo esto que os he contado hoy lo tenéis en lo más alto del actual catálogo de Nikon: a mediados de 2007 la firma japonesa presentó su primera cámara con sensor Full Frame, la D3, que daba muy buen rendimiento a ISOs elevados a costa de contar “sólo” con 12 Mpixels de resolución. Unos meses después Nikon evolucionó la D3 en dos ramas diferentes: por un lado la D3x, que aumentaba la resolución del sensor hasta los 24 Mpixels orientando la cámara hacia el trabajo en estudio (donde la iluminación la controlamos nosotros) y por otra la D3s, que mantiene los 12 Mpixels de la D3 original pero es capaz de emplear unas sensibilidades ISO brutales debido a la optimización del sensor para labores de fotoperiodismo donde no siempre hay suficiente luz como para trabajar a gusto.

Carrusel nocturno

Resumiendo

Si tenemos un sensor con una densidad de pixels muy alta (pequeño tamaño y/o gran resolución) los fotocaptores van a ser de pequeño tamaño y no van a poder captar demasiada luz perdiendo precisión a la hora de digitalizarla. Precisamente debido a estos errores de muestreo es por lo que se va a generar un cierto nivel de ruido que será más visible cuanto más forcemos la sensibilidad del sensor seleccionando un valor ISO superior, ya que lo que estaremos haciendo es amplificar digitalmente esta señal junto con su error asociado.

Debido a que los sensores Full Frame disponen de una superficie que duplica a la de un sensor APS-C, a no ser que cuenten con una resolución brutal, van a tener una densidad de fotocaptores bastante baja que va a garantizar a las cámaras equipados con ellos un comportamiento ejemplar en condiciones de poca luz así como al emplear sensibilidades ISO elevadas.

Fuente de aguadores

Los algoritmos de reducción de ruido así como el avance de la electrónica en general ayudan a que al final del proceso de generación de la imagen el ruido disminuya en mayor o menor grado, pero jamás podremos pedir un buen rendimiento en condiciones de luz deficiente al minúsculo sensor de una compacta en el que se han embutido más de diez millones de fotocaptores sobre una superficie poco mayor que la de cualquiera de las letras que conforman este texto.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

La sucesora de la Nikon D90 está a punto de presentarse

La D90 es la cámara estrella de Nikon tanto a nivel de ventas como de relación calidad / precio. Además, hay que tener en cuenta que se trata del modelo que se sitúa justo entre la gama de iniciación (D3000 y D5000) y la gama profesional (D300s, D700 y la familia D3) de la marca. Un modelo que está a punto de ser sustituido por una cámara de la que todavía no se sabe nada de manera oficial pero por la que ya están preguntando muchos usuarios convencidos de que será un nuevo superventas dentro del mundo de la fotografía digital.

Este importante lugar dentro del catálogo de la firma japonesa ha sido ocupado ya por tres generaciones de cámaras que siempre han recibido muy buenas críticas y han sido especialmente importantes a la hora de crear una buena imagen de marca de cara a la prensa especializada y, sobre todo, al público; de tal modo que vamos a repasar las principales características de estos modelos.

· D70 / D70s

La primera cámara de Nikon encargada de enlazar la gama de aficionado y la profesional fue la D70; precisamente el modelo que se compró mi amigo Joe hace ya seis años y que me hizo ver que la fotografía digital estaba dando pasos de gigante en muy poco tiempo.

Presentada a principios de 2004 fue la primera cámara réflex relativamente asequible que Nikon sacaba a la venta y a nivel de especificaciones contaba con un sensor CCD de 6.1 Mpixels (curiosamente el mismo que emplea mi actual D40), 5 puntos de enfoque, ISO 200 – 1600, pantalla de 1,8″ con 130000 pixels y capacidad de disparo en ráfaga a 3 fps.

La D70 fue reemplazada al cabo de un año por la D70s, que era básicamente la misma cámara pero contando con una pantalla de 2″ (aunque con el mismo número de pixels que su predecesora) así como con una nueva batería de mayor capacidad.

· D80

La D80 se presentó en Agosto de 2006 y supuso una evolución con respecto a la anterior por su sensor CCD de 10.2 Mpixels, 11 puntos de enfoque, ISO 100 – 1600 (aunque también cuenta con ISO 3200 forzado), pantalla de 2.5″ con 230000 pixels y disparo en ráfaga a 3 fps.

Su salida al mercado fue especialmente importante para Nikon porque en ese momento todas las marcas estaban volcadas en el mercado digital y pugnaban por captar nuevos usuarios así como fidelizar a los que habían empleado cámaras analógicas en el pasado. De este modo, la D80 pretendía ser un modelo lo suficientemente atractivo como para que los neófitos se animaran a dar sus primeros pasos con una réflex pero que también resultara en cierto modo conservadora para que los usuarios ya veteranos en el mundillo de la fotografía se sintieran cómodos con ella en las manos.

· D90

La D90 se presentó en Agosto de 2008; exactamente dos años después que la D80, y entre sus características técnicas destaca por tener un sensor CMOS de 12.3 Mpixels, 11 puntos de enfoque, ISO 200 – 3200 (100 – 6400 forzado), pantalla de 3″ con 920000 pixels y disparo en ráfaga a 4.5 fps.

Sin embargo, lo que más fama dio a la D90 fue la opción de usar Live View (composición de la imagen utilizando la pantalla de la cámara en lugar del visor óptico) y sobre todo su posibilidad de grabar vídeo, ya que fue la primera réflex que implementó esta característica; si bien la duración de los clips está limitada a 5 minutos empleando 720p y 20 minutos utilizando resoluciones inferiores. De cualquier modo la grabación de vídeo en la D90 tiene más limitaciones, ya que el sonido es mono, el enfoque ha de ser manual y en movimientos rápidos vamos a comprobar como la imagen hace efectos extraños debido a un fenómeno llamado rolling shutter.

Durante los dos años que lleva en el mercado se han distribuido millones de unidades de este modelo en concreto y desde el primer día ha figurado en los primeros puestos de ventas en lo que a réflex digitales se refiere. Como os decía al principio del artículo, la D90 es uno de los pilares de Nikon a nivel global y por ello hay tanta expectación sobre su renovación.

¿Y ahora qué?

Hay muchas incógnitas sobre la cámara que reemplazará a la D90, pero lo único que se sabe a ciencia cierta es que no se llamará D100 porque una de las primeras réflex digitales de Nikon ya se usó este nombre. Hay quien dice que se denominará D95, aunque viendo que las cámaras de gama baja de Nikon ahora se nombran de una forma completamente diferente a la que estábamos acostumbrados, no me extrañaría que el cambio también afectara a este próximo modelo.

De hecho mi teoría es que si la sucesora de la D40 es la D3000 y la sucesora de la D60 es la D5000, siguiendo esta metodología la sucesora de la D90 debería de llamarse D8000. Ya veremos dentro de un tiempo si esto que os digo es correcto o me he columpiado considerablemente, pero no se me ocurren muchas más opciones teniendo en cuenta lo que ya ha empleado Nikon en su sistema de nomenclatura.

Lo que está claro es que su fecha de presentación está próxima porque el ciclo de vida de las cámaras es esta gama es de dos años y en el caso de la D90 se cumplen el mes que viene, de modo que hay muchas papeletas para que la nueva cámara se anuncie en pocas semanas. Además, en el mes de Septiember se celebrará la feria Photokina; y si la presentación no ha tenido lugar antes, es más que probable que ese sea el acontecimiento escogido por Nikon para la puesta de largo del nuevo modelo.

En lo que respecta a los aspectos técnicos, hay insistentes rumores que dicen que se eliminará el motor de enfoque en el cuerpo que hasta ahora todas las cámaras de esta gama han tenido. Ninguno de los modelos de gama básica comercializados desde hace ya cuatro años posee motor de enfoque integrado en el cuerpo, por lo que no sería de extrañar que a partir de este momento la medida se fuera extendiendo por la gama media para dejar (al menos de momento) que sean las máquinas profesionales las que conserven el enfoque automático al utilizar en ellas objetivos antiguos.

A mí es una medida que no me acaba de gustar porque hay objetivos antiguos muy buenos cuyo enfoque se realiza mediante el acoplamiento mecánico del ya veterano sistema AF y que, por tanto, no enfocarán en todas estas cámaras que están prescindiendo del motor integrado. Sin embargo, hay que admitir que la desaparición del motor de enfoque no es más que la lógica evolución de la tecnología, ya que el sistema AF-S presenta numerosas ventajas con respecto al veterano AF.

Montura AF

Montura AF (fijaos en el "tornillo" de la parte inferior para variar el enfoque)

Aprovecho para recordaros que enfocar a mano no plantea grandes problemas en objetivos de escasa distancia focal gracias a su generosa profundidad de campo, pero empleando un teleobjetivo para retratar cosas en movimiento va a ser casi imposible conseguir un enfoque manual preciso y de ahí que no sea recomendable hacerse con una óptica que no sea motorizada si contamos con un cuerpo sin motor de enfoque propio.

También se supone que el relevo de la D90 contará con un modo de vídeo avanzado que permita el enfoque continuo así como la variación de la exposición durante la grabación, resolución 1080p a 30 fps sin límite de tiempo de grabación… Dado que la D90 fue la primera réflex en grabar vídeo, sería lógico que su heredera hiciera de este aspecto uno de sus puntos fuertes de modo que le permita recuperar el terreno en el campo del vídeo con respecto a Canon, que se ha puesto las pilas en los últimos meses (se nota su amplia experiencia en videocámaras) y sus réflex más recientes poseen unos modos de grabación de vídeo mucho más avanzados que los de Nikon.

Por otra parte hay quien asegura que este nuevo modelo incorporará un sensor Full-Frame, pero esto es algo que yo descartaría por completo dado que ese nicho de mercado ya está ocupado por la D700 y supondría la convergencia de dos de los modelos de más éxito dentro del catálogo Nikon actual; cosa que no tiene ningún sentido tal y como está diseñada la estructura de los diferentes modelos disponibles.

El sensor CMOS que equipa la Nikon D90

El formato DX tiene cuerda para rato (prueba de ello es que en los últimos meses se han presentado varias ópticas exclusivas para dicho formato por parte de la marca) de modo que apostaría fuerte a que el reemplazo de la D90 cuenta con un sensor de tipo APS-C, continuando el formato Full Frame siendo exclusivo de las cámaras Nikon de gama profesional.

Lo que me gustaría encontrar en la sucesora de la D90

Confieso que llevo un tiempo pensando en sustituir mi D40 por un modelo más actual. En principio estaba pensando en una D90, pero me he dado cuenta de que estando a punto de ser renovada no parece buena idea precipitarse y lamentar dentro de un par de meses no haber esperado a ver qué iba a ofrecer su encarnación. Como ya sabréis, la D90 es mi cámara favorita dentro del catálogo actual de Nikon, pero dos años en el mundillo de la electrónica de consumo es mucho tiempo y estoy seguro de que veremos algún avance interesante.

A fin de cuentas, en el caso de que lo presentado por la marca no cumpla mis expectativas, siempre habrá tiempo de salir corriendo hacia una tienda de fotografía y hacerse con alguna de las D90 que quedarán en los almacenes antes de que sea descatalogada por completo. Y aun así tampoco será necesario darse excesiva prisa, sobre todo teniendo en cuenta que he visitado tiendas en las que a día de hoy todavía se pueden encontrar cámaras como la D80 o la D200 de primera mano.

Hay un aspecto que me interesa notablemente y que ha ido mejorando generación tras generación, por lo que en esta ocasión no creo que se de un paso atrás: el rendimiento a ISOs altos. La generación de ruido a sensibilidades elevadas es algo que me gusta tener controlado, y aunque esto es algo que va a depender en buena medida de cómo expongamos la fotografía, si partimos de un sensor capaz de manejar bien este parámetro tendremos mucho terreno ganado.

No quiero un sensor de chorrocientos mil megapixels porque al final lo único que se consigue con esto es mayor difracción, menor sensibilidad, que se hagan más evidentes los defectos ópticos de los objetivos y unos archivos RAW de gran tamaño que convierten en lento a un ordenador de última generación y llenan en pocos disparos las tarjetas de memoria. De hecho, si la resolución del sensor se mantuviera en los mismos 12.3 Mpixels actuales pero se comportara todavía mejor en condiciones de poca iluminación para mí sería ideal. Sin embargo, supongo que el sensor subirá de resolución hasta los 14 ó 15 Mpixels por decisiones de marketing y, pese a lo que afirman algunos, seguirá siendo de formato APS-C porque el mercado de las cámaras de tamaño contenido equipadas con sensor Full Frame ya está cubierto con la D700.

En cuanto a lo del motor de enfoque en el cuerpo, me gustaría que se mantuviera por la compatibilidad con ópticas antiguas, ya que a veces se ven algunas a la venta en foros de segunda mano a muy buenos precios (con un Nikon AF 80-200 f/2.8 haría maravillas) pero aun así en el caso de que lo eliminaran no me llevaría un gran disgusto ya que entiendo que el acoplador mecánico supone un lastre del pasado que aumenta el peso, el tamaño y el consumo de la cámara. Además, todas las ópticas que salen al mercado actualmente ya cuentan con su propio motor de enfoque, por lo que parece claro que el futuro pasa por la eliminación del motor en las cámaras y eso es algo que debemos de asumir lo antes posible.

Autoretrato

Del mismo modo, por el tipo de fotografía que suelo hacer, la velocidad en ráfaga me da exactamente igual y la resolución de la pantalla es más que suficiente, de modo que con mantener las especificaciones del modelo actual en esos aspectos me daría por satisfecho. El sistema de enfoque de 11 puntos ya tiene un tiempo (de hecho es el mismo que llevaba la D80) por lo que supongo que recibirá alguna mejora; aunque no creo que llegue a los 51 puntos que posee la D300s y las máquinas tope de gama equipadas con sensores FF. Por lo demás, las prestaciones de vídeo me dan lo mismo puesto que es una disciplina en la que soy bastante inútil.

Rumore, rumore…

Como veis el asunto de la renovación de la D90 da para muchos párrafos; y aunque yo no creo que toque mucho más el tema hasta que la compañía no diga nada de forma oficial, si queréis estar al tanto de noticias y rumores sobre la aparición de esta nueva réflex de Nikon (así como de otros muchos modelos) podéis pasaros de vez en cuando por la web de Nikon Rumors en la que sus responsables se hacen eco de todo cuanto llega a sus oídos sobre posibles nuevos modelos, patentes, promociones y demás historias no confirmadas que tengan que ver con la marca japonesa.

Es cierto que hay épocas en las que no se produce demasiado movimiento en la página; pero durante las semanas que preceden a la presentación de algún modelo se convierte en un torrente de entradas cuyos contenidos a veces se convertirán en realidad pasado un tiempo y otros quedarán como extrañas invenciones que nunca se sabrá de dónde salieron.

¿Merecerá la pena?

En definitiva, si la sustituta de la D90 ofrece características que crea que me pueden ayudar a hacer mejores fotografías entonces no dudaré en hacerme con una. Sin embargo, si al final todo se reduce a más resolución y prestaciones de vídeo avanzadas seguiré con mi D40 hasta que me sienta realmente limitado por ella o bien su obturador diga que ya no es capaz de hacer ni un disparo más.

En fotografía, un equipo moderno ayuda a la hora de captar ciertas imágenes; pero no es menos cierto que hay gente que con una cámara de enfoque manual, sin medición matricial de la luz y sin ningún tipo de automatismo ha captado imágenes que están en la memoria colectiva de toda la humanidad. Eso es algo que deberíamos de tener muy en cuenta cuando nos quejamos de que nuestra cámara sólo tiene once puntos de enfoque.

Nikon EM (1979)

Al fin y al cabo, lo más importante a la hora de hacer una foto eres tú.

El derecheo del histograma

Aunque esto que os voy a contar hoy no es nada nuevo (las primeras referencias al tema aparecen en 2004) la técnica del derecheo del histograma me resulta especialmente interesante por ser algo que aúna mi afición por la fotografía con los conocimientos técnicos de electrónica que adquirí en la carrera de ingeniería técnica industrial.

De hecho, hay abundante información sobre este asunto en diversos lugares de Internet, siendo el origen de esto un artículo publicado en la web The Luminous Landscape titulado Expose (to the) right, que abreviadamente se conoce pos sus siglas ETTR. A partir de ahí diversas webs y foros se han ido haciendo eco del tema, tanto en inglés como en castellano; por lo que mi contribución al asunto, como os decía, no es novedosa aunque sí que pretendo simplificar un poco las cosas para demostraros una vez más que en fotografía hay muchos modos de captar lo que nos rodea y ninguno es mejor o peor que el resto en términos universales. Cada metodología tiene sus ventajas e inconvenientes; eso es todo.

Luis en multiángulo

Eso sí, me gustaría dejar claro desde el principio que esta técnica no es demasiado útil en la mayoría de situaciones, y su empleo es más como “cosa curiosa” o algo instructivo que como un concepto realmente práctico. Desde luego, a mí no se me ocurriría ponerme a derechear cuando estoy en algún sitio haciendo fotos a todo lo que me llama la atención o en circunstancias de disparo complicadas como iluminación cambiante, sujetos en movimiento…

En general, el exposímetro de la cámara (encargado de medir la luz de la escena) hace en la mayoría de las ocasiones un trabajo estupendo y podemos confiar tranquilamente en que el cálculo de la exposición va a ser el más adecuado para lo que pretendemos fotografiar; pero si un día tenéis tiempo y ganas de aprender, ponerse a trastear con esto del derecheo del histograma puede ser un buen modo de ampliar vuestra “cultura fotográfica”.

Por lo tanto, aunque me temo que el artículo va a ser largo y bastante teórico, me voy a centrar en contar la teoría del derecheo del histograma con un lenguaje claro y conciso que os haga ver que aunque se base en una serie de principios bastante técnicos, en realidad se trata de algo muy sencillo de entender.

Recordando lo que es un histograma

Antes de meternos “en faena” es conveniente tener claro lo que es un histograma. Para profundizar en el tema podéis echarle un vistazo a la entrada que publiqué hace un par de meses en la que os hablaba de su enorme utilidad; pero para resumirlo un poco se puede decir que el histograma consiste en una representación gráfica de los valores de luminosidad que toman los pixels de una fotografía distribuidos de tal modo que a la derecha estará el blanco puro (RGB = 100% 100% 100%) y a la izquierda el negro (RGB = 0% 0% 0%).

Histograma habitual de una fotografía cualquiera

Por tanto, la utilidad del histograma es que nos permite conocer de un vistazo y sin depender de ningún tipo de calibración del monitor o condiciones de iluminación exterior la exposición de la fotografía que acabamos de hacer. Un pequeño detalle que representa una de las mayores ventajas a la hora de hacer fotografías con una cámara digital frente a una analógica.

Sensor digital vs. película analógica

Aunque el funcionamiento de una cámara digital se basa en los mismos principios básicos por los que se rigen las cámaras de película analógica desde hace varias décadas, hay una diferencia fundamental, que es el comportamiento de ambos componentes frente a la luz captada.

· Película analógica:

Werlisa club 35

En el caso del carrete se puede sobreexponer ligeramente el negativo porque antes de llegar a la saturación del mismo hay una zona en la que el comportamiento ante la luz captada deja de ser lineal para pasar a ser casi asintótico; es decir, que hay que pasarse bastante de exposición para llegar a saturar por completo la película, y gracias a ello cuesta alcanzar ese “punto de no retorno” más allá del cual habremos incurrido en el mayor pecado que se puede cometer en fotografía: perder información durante la captura. Digamos que con una luminosidad media el comportamiento del negativo es más o menos lineal; pero a partir de cierto punto presenta una cierta resistencia a la saturación que es la que nos va a permitir esa ligera sobreexposición sin arriesgar la integridad de la imagen.

· Sensor digital:

Puesto que los sensores digitales en esencia no son más que un ADC (conversor analógico-digital) estos van a reaccionar de forma completamente lineal ante la luz hasta llegar sin previo aviso al punto de su saturación que, como vimos en la entrada que hablaba sobre zonas quemadas en una imagen, no es más que aquella situación en la que el sensor no es capaz de almacenar más información en al menos uno de los tres canales correspondientes a los colores fundamentales en fotografía (rojo, verde y azul).

Es decir, que mientras estemos dentro del rango de funcionamiento del sensor, una señal el doble de luminosa que otra dará una señal digital proporcional a su salida; pero si la señal de entrada sobrepasa el valor máximo admisible, la señal digital tomará el valor máximo posible dando lugar al temido blanco puro que indica que hemos quemado una zona de la fotografía. Esto es algo que comprenderéis a la perfección viendo la siguiente gráfica.

Función de transferencia de un ADC de 12 bits. En función del valor de la señal continua de entrada, a la salida tenemos un valor digital concreto. Vref marca el punto de saturación a partir del cual la señal de salida será siempre la misma originando la pérdida de datos.

Para entender todo esto mejor, vamos a suponer que tenemos una cámara digital capaz de captar con detalle siete pasos de diafragma (un paso de diafragma, también denominado EV, significa un cambio del doble o la mitad en la cantidad de luz capturada). Esto se traduce en que entre las áreas más oscuras y más claras de la fotografía va a haber como máximo una diferencia de luminosidad de 2⁷, lo que significa que las zonas más claras pueden llegar a serlo 128 veces más que las más oscuras. Es algo que se puede explicar de un modo mucho más técnico; pero vamos a tratar de hacerlo de forma sencilla y asequible.

Por otra parte, hay que tener en cuenta que el sensor va a ser capaz de capturar los detalles de la iluminación con una profundidad de 12 bits. La cámara internamente trabaja a 12 o 14 bits; pero lo normal es que el RAW se grabe a 12 bits en las cámaras más habituales y a 14 bits en las cámaras profesionales. Por supuesto, si grabamos las imágenes directamente en formato JPG sólo tendremos 8 bits de resolución; pero es que para aplicar la técnica del derecheo del histograma es absolutamente imprescindible trabajar en formato RAW para garantizar la integridad de los datos que estamos capturando.

Pues bien, esos 12 bits en los que ha sido codificada la información del fichero RAW nos va a dar un total de 2¹² = 4096 niveles diferentes a la hora de digitalizar los datos capturados. Ahora bien, por su funcionamiento interno, la electrónica encargada de estas tareas no se va a limitar a repartir esos 4096 niveles equitativamente entre los siete diafragmas; sino que lo hará de tal modo que al diafragma más claro le asignará 2048 (la mitad de todos los niveles disponibles), al siguiente 1024, al siguiente 512… y así sucesivamente hasta que al séptimo diafragma (el correspondiente a los tonos más oscuros) se le van a asignar tan sólo 32 niveles.

Por lo tanto, queda claro que en los tonos más claros de la imagen se va a almacenar mayor cantidad de información, y es por esto por lo que, en general, con una cámara digital vamos a poder recuperar datos de las zonas más claras de la fotografía siempre que disparemos en formato RAW. De hecho, en el caso de que tengamos una imagen ligeramente sobreexpuesta, siempre que no hayamos abrasado por completo alguna zona, vamos a poder ajustar los niveles de tal modo que vamos a obtener al final una imagen correctamente expuesta. Sin embargo, en el caso de una acusada subexposición, el aclarado de las zonas en sombra va a resultar en una generación de ruido considerable debido a la falta de detalle en esos tonos más oscuros tal y como vamos a ver a continuación.

¿De dónde proviene el ruido de una fotografía digital?

El ruido que os comento presente en las zonas más oscuras de las fotografías viene dado porque al haber un rango menor de niveles con los que digitalizar la luz que le llega al sensor, la conversión no es tan fina como debería y da lugar a imperfecciones que no aparecen cuando nos manejamos con muchos más niveles disponibles como sucede en los tonos más claros.

De hecho, los pixels de colores que aparecen como ruido en una fotografía no son otra cosa que puntos con valores pseudoaleatorios de luminosidad debido a que no se ha digitalizado correctamente la cantidad de luz que ha llegado hasta los fotocaptores del sensor. Algo que podemos ver claramente en la siguiente captura de una zona oscura de una fotografía subexpuesta cuya exposición he incrementado cuatro pasos en Adobe Lightroom:

Subexposición aclarada por software cuatro pasos

Sin embargo, puesto que al capturar los tonos más claros en una imagen la precisión es mayor, al aclarar los tonos esos mismos cuatro pasos en un RAW correctamente expuesto nos vamos a encontrar con una ausencia de ruido casi total como muestran las dos imágenes siguientes que corresponden a zonas de la fotografía que eran de color negro antes del incremento:

Exposición correcta aclarada por software cuatro pasos

Exposición correcta aclarada por software cuatro pasos

Para poner un ejemplo relacionado con cosas tangibles, imaginad que tenéis que clasificar a la población de una ciudad en función de su edad: si sólo tenéis posibilidad de hacerlo en tres grupos tendréis gente de muy diversos años dentro de un mismo grupo (ruido) mientras que si podéis clasificarlos en quince tramos de edades diferentes, dentro de cada grupo todo será mucho más homogéneo. Pues más o menos esto es lo que provoca el ruido en los tonos oscuros de las fotografías y la ausencia del mismo en las zonas más claras.

Obviamente, al subir la sensibilidad ISO de la cámara los errores al digitalizar la señal analógica se van a amplificar y por eso empeora la relación señal / ruido. Por lo tanto, debemos tener especial cuidado en obtener una imagen inicial correctamente expuesta en caso de disparar con una sensibilidad elevada tal y como vimos en la entrada que hablaba de este delicado tema.

Derecheando el histograma

Como os decía al hablar del histograma, los tonos claros se representan en la parte derecha del mismo y los oscuros a la izquierda. Por tanto, ya os estaréis imaginando que el concepto de derechear consiste en tratar de aclarar la imagen lo máximo posible (el histograma se cargará hacia la parte derecha) pero siempre sin llegar a quemarla para así disponer de la máxima información posible a la hora de capturar los colores.

De hecho, la técnica no es más que eso; aunque la forma de lograrlo va a variar considerablemente en función del tipo de iluminación de lo que queramos fotografiar. En este caso nos vamos a centrar en escenas en las que no haya variaciones demasiado grandes de iluminación, de modo que el histograma resultante sea más o menos estrecho; pues en caso de fuertes contrastes, aunque midamos en las luces más altas, los tonos oscuros se nos van a ir irremediablemente a la parte izquierda y tendremos poco margen para la modificación posterior de los niveles. Un ejemplo de estas escenas con zonas muy claras y muy oscuras al mismo tiempo es la imagen que tenéis a continuación, donde la nieve es prácticamente blanca y la ropa de mi hermano es negra casi por completo dando lugar a un histograma muy amplio.

Jump! (they say)

En la gran mayoría de las situaciones, la cámara va a exponer por defecto de tal modo que el histograma va a quedar más o menos centrado en la pantalla, así que para derechear el histograma lo que debemos hacer es compensar esta exposición positivamente de tal modo que la imagen resultante quede más clara de lo habitual pero sin llegar a quemarla. La teoría original dice que el procedimiento a emplear consiste en emplear medición puntual, medir en las luces más altas de la escena (la zona más clara) y a continuación compensar la exposición positivamente dos pasos, lo que en teoría hará que esta zona se quede justo al borde del quemado pero sin llegar a él.

Lo que pasa es que este método es demasiado rígido y además varía en cada cámara y para cada escena; por lo que debemos ser flexibles y compensar más o menos en función de los resultados que vayamos obteniendo. En todo caso, puesto que perseguimos ajustar el histograma a la parte derecha de la gráfica (pero sin llegar a tocar dicho extremo) también podemos disparar en modo manual hasta obtener el resultado deseado. Es decir, que no hay por qué cegarse en emplear medición puntual y poner la compensación en +2; sino que debemos ser flexibles y adaptarnos a las limitaciones de nuestro equipo y a las condiciones de iluminación existentes. Como de costumbre, lo mejor es ir probando para ver qué es lo que mejor se adapta a nuestra forma de trabajar, y de ahí la importancia de practicar mucho “sobre el terreno”.

Un ejemplo práctico

Hace unos días estuve por los márgenes del río Henares a su paso por el barrio de Nueva Alcalá tratando de obtener un ejemplo claro que me sirviera para ilustrar esta técnica que hoy os comento, de modo que me armé de paciencia y busqué un lugar que me permitiera captar una escena que diera lugar a un histograma lo suficientemente derecheado como para demostraros todo lo que esconde una fotografía en apariencia inservible. Por cierto, aprovecho para comentaros que haciendo click en las fotografías podéis acceder a una versión a más resolución de las mismas y así apreciar mejor los detalles de las mismas.

Histograma correspondiente a la imagen original, donde se puede ver que la mayor parte de los pixels están en la parte derecha del mismo pero sin llegar a saturar ninguna zona

Como podéis apreciar a simple vista, la fotografía está claramente sobreexpuesta y en condiciones normales se iría directamente a la papelera. Lo que ocurre es que mirando con detenimiento su histograma veréis que no existen zonas quemadas, por lo que podemos considerar que el derecheo ha sido correctamente llevado a cabo. Lo que debemos hacer entonces es cargar esta imagen RAW en nuestro revelador favorito (Capture NX, Adoble Lightroom, Photoshop + ACR…) y ajustar los niveles de exposición, brillo, contraste, intensidad, etc para obtener una imagen con una rica variedad cromática.

Modificando los niveles del RAW anterior hemos conseguido "estirar" el histograma hasta ocupar la totalidad de la gráfica, dando lugar a una imagen con una gran riqueza cromática

Si os fijáis en la imagen una vez ajustada veréis que además de haber obtenido una tonalidad y un colorido muy semejantes a los que nos hubiera dado la cámara empleando el valor por defecto usando la medida del exposímetro integrado, en las zonas más oscuras hay una ausencia de ruido total debido a que en la imagen anterior esas zonas no eran negras; sino de unos tonos medios que se guardaron con más precisión debido a lo que comentábamos anteriormente sobre la forma de trabajar de los conversores ADC.

De hecho, en la riqueza cromática no va a haber una gran diferencia en comparación con una exposición calculada de forma automática por la cámara, estando la única ventaja del derecheo en la disminución del ruido en las zonas oscuras de la fotografía.

Para ilustrar con otro ejemplo todo esto aquí tenéis una captura tomada directamente de Adobe Lightroom (haciendo click sobre ella podréis verla a su resolución nativa) para que veáis la gran diferencia entre la imagen original en la parte izquierda y la resultante tras unos minutos de ajuste de parámetros y niveles. Como veis, lo que en un principio parece una fotografía sobreexpuesta y carente de detalle, en realidad esconde dentro de ella una riqueza cromática que podremos aprovechar si disparamos en RAW y sabemos manejar mínimamente nuestro programa de edición digital.

Conclusiones

Una vez repasado y asimilado todo el proceso del derecheo del histograma he de advertiros que el resultado final después de ajustar el RAW original no es muy diferente al que obtendríamos mediante la exposición normal calculada por la propia cámara, y por eso os decía que esta técnica, aunque curiosa y resultona, no acaba de ser una opción viable para emplear continuamente en nuestras fotografías: aparte de correr el riesgo de quemar sin remedio las luces más altas de la escena, el nivel de compensación necesario para derechear el histograma correctamente variará considerablemente entre unas escenas y otras, de modo que el único modo de hacerlo bien será a base de tiempo, pruebas y errores. Un trío que no siempre podemos permitirnos a la hora de salir a hacer fotos.

Ramas desnudas

No obstante, sí que es cierto que comprendiendo bien las bases en las que se basa la técnica del derecheo habremos aprendido conceptos sobre la captura digital de imágenes de los que no se suele hablar demasiado. Ya sabéis que siempre he pensado que conocer bien nuestro equipo nos ayudará a conseguir mejores imágenes; y esto que hemos visto hoy no es otra cosa que una incursión más o menos profunda en el funcionamiento interno de una cámara digital.

De cualquier modo, si queréis extraer una conclusión práctica de este largo artículo, esta podría ser que entre subexponer y sobreexponer es mejor la segunda opción; pero siempre teniendo cuidado en no llegar a quemar nada. Luego todo es cuestión de postproceso.

Más información

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

Funcionamiento del sensor y valores ISO

Me gustaría tratar en este artículo dos conceptos muy relacionados entre si: el principio de funcionamiento del sensor de una cámara y la variación de la sensibilidad ISO. Vais a ver que algo como cambiar el valor ISO antes de tomar una fotografía no es más que actuar sobre la señal digital generada por el propio sensor, así que lo mejor es que comencemos a ver cómo se transforma la luz en señales eléctricas para repasar luego cómo trata la electrónica de la cámara dichas señales.

¿En qué se basa el sensor de una cámara digital?

sensord2x

El sensor de una cámara digital está formado por una matriz de fotocaptores, que son unos componentes electrónicos que reaccionan ante la luz dando a su salida una señal eléctrica proporcional a la intensidad lumínica que incide sobre ellos. Cada uno de estos fotocaptores reacciona ante un color primario (rojo, verde o azul), por lo que cada píxel de una fotografía es “pintado” por tres de estos componentes (aunque en realidad son cuatro porque el verde se repite debido a la estructura del patron Bayer).

La imagen que tenéis a continuación sería una pequeña porción de la superficie de un sensor vista al microscopio; siendo cada una de esas “burbujas” un píxel.

photodiode

Claro, en el diagrama vemos que cada píxel sólo reacciona ante uno de los tres colores anteriormente mencionados, así que… ¿cómo se determina la mezcla de colores que define el tono final de cada punto de la imagen?

Aquí es donde entra en acción el famoso patron Bayer, que no es más que una interpolación de los valores de los píxels con sus adyacentes para, mediente complejas fórmulas matemáticas, hacer un promedio con el que averiguar el color de cada píxel que forma la imagen.

Con el siguiente corte lateral os podréis hacer una idea de cómo capta la imagen el sensor de la cámara: la luz atraviesa unas minúsculas lentes para concentrarla sobre la superficie de cada uno de los fotocaptores de cada píxel (se diferencian mediante los filtros cromáticos que hay en ellos) y al llegar a lo que es el fotodiodo como tal (la parte de electrónica interna de cada fotocaptor) se convierte en un impulso eléctrico que interpretará el circuito electrónico de la cámara.

Microlenses

Pues bien, lo que llamamos sensibilidad ISO no es más que una medida de la capacidad del sensor de la cámara para captar la luz (hace años indicaba la sensibilidad de los carretes, así que el concepto sigue siendo el mismo). Los sensores digitales tienen una sensibilidad base única (ISO 200 en la mayoría de las réflex Nikon) y partir de ella se ponen a disposición del fotógrafo múltiplos y divisores para ayudarle a adaptarse de la mejor manera posible a la iluminación existente ya que, a diferencia del carrete, podemos cambiar ese valor en cada fotografía que vayamos a disparar.

A grandes rasgos, cuanto más alto es el valor ISO más sensibilidad va a mostrar la cámara. Si, por ejemplo, pasamos de ISO 200 a ISO 400 la cámara va a ser el doble de sensible ante la luz, por lo que podremos disparar la fotografía con una velocidad el doble de rápida que la original para congelar el movimiento o bien cerrar un paso el diafragma (un paso significa una diferencia del doble o la mitad en la cantidad de luz) empleando la misma velocidad que en la fotografía a ISO 200, permitiéndonos obtener una mayor profundidad de campo. Hay multitud de combinaciones en función del efecto que queramos obtener en la fotografía; pero todo se basa en jugar con los cuatro principios básicos de la fotografía digital.

ISO por encima del valor base

La playa de noche

Al seleccionar un valor ISO por encima del base estamos amplificando la señal que sale de cada fotocaptor; y más cuanto más alto sea el ISO seleccionado. Suponiendo un ISO base de 200, al seleccionar 400 estamos amplificando la señal por dos, con ISO 1600 la amplificamos cuatro veces… y así sucesivamente.

Obviamente de la nada, nada se saca (como decía un profesor de mi colegio al referirse a los alumnos más vagos) por lo que esa amplificación de la señal conllevará una cierta pérdida de calidad debida a que el paso de analógico (mundo real) a digital (sensor) lleva aparejado un cierto error que, aunque sea muy pequeño, también es amplificado junto con el resto de la señal, por lo que a ganancias elevadas éste empieza a ser visible. Vamos a ver esto mismo con un ejemplo un poco más tangible:

Imaginad que tenemos una grabación de voz en la que hay un siseo de fondo que representa solamente un 1% de lo que se escucha por los altavoces. El ruido será tan bajo que va a ser indistinguible incluso cuando estemos callados; pero si amplificamos la grabación ocho veces, la relación entre la señal y el ruido no va a cambiar (seguirá siendo un 1% de lo que se escucha) pero cuando estemos callados el siseo va a escucharse ocho veces más alto que en la grabación original, por lo que en este caso será claramente distinguible.

Más o menos así es como se justifica lo que os explicaba el otro día sobre que el ruido de una fotografía se aprecia sobre todo en las zonas oscuras de la misma (serían como los silencios en nuestra grabación) por lo que tratando que la imagen quede expuesta de una forma uniforme y luminosa, el ruido no debería ser un gran problema aunque estemos empleando valores ISO elevados.

ISO por debajo del valor base

Parábolas

Por su parte, también pueden existir valores ISO inferiores al de base (para permitirnos tiempos de exposición más o menos largos en condiciones de mucha luz o la posibilidad de abrir mucho el diafragma); algo que se lograría atenuando la señal procedente de los fotocaptores. Si a partir de un ISO base 200, atenuamos la señal a la mitad tendremos un ISO 100; y si la atenuamos a una cuarta parte obtendremos un ISO 50.

De cualquier modo, como en cualquier proceso realizado sobre una señal digital codificada, va a haber una cierta pérdida de calidad que, si bien no va a ser tan evidente como en el caso de la amplificación, viene a decirnos que si queremos obtener la mejor calidad de imagen (para un trabajo de estudio o para fotografías “tranquilas” y en condiciones luminosas adecuadas) lo ideal sería emplear el ISO base de la cámara.

Cuando mi amigo Joe pasó directamente de una cámara analógica a una réflex digital, lo que más le gustó (casi más que el hecho de poder ver los resultados inmediatamente en pantalla) fue la posibilidad de variar el valor ISO a voluntad y de manera instantánea; pues en las cámaras de carrete no te quedaba más remedio que aguantar con la misma sensibilidad durante todos los fotogramas del rollo aunque a una foto nocturna le siguiera al día siguiente otra a pleno sol.

Pato, pico, pluma

Bueno, ahora ya sabéis todo lo que estáis desencadenando en la electrónica de vuestra cámara cada vez que hacéis algo tan sencillo como cambiar el valor ISO antes de disparar una fotografía. ¿Os imaginabais que ocurrían tantas cosas ahí dentro?  😉

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

Usando valores ISO altos sin miedo al ruido

Normalmente tendemos a disparar nuestras fotografías con la sensibilidad ISO más baja posible para obtener la máxima calidad de imagen. En el caso de mi Nikon D40 tengo disponibles los valores 200, 400, 800, 1600 y 3200; y aunque siempre que puedo intento disparar a ISO 200 porque preserva mejor la pureza de los colores, no es menos cierto que con un poco de cuidado a la hora de calcular la exposición no hay excesivo problema en emplear ISO 800 o incluso 1600 (cosa que viene muy bien en entornos con poca luz o en los que las cosas se mueven con rapidez).

Lo que hoy me gustaría explicaros con un par de ejemplos es el modo de poder usar valores ISO elevados sin obtener unas fotografías llenas de ruido y con unos colores poco fieles a la realidad; motivos por los que sistemáticamente muchos evitamos a toda costa pasar del valor ISO base o como mucho el siguiente.

Fijaos en las dos imágenes siguientes a ver si sois capaces de distinguir cuál es la disparada a ISO 400 y cuál fue realizada con el ISO 1600 seleccionado.

ISO xxxx

ISO xxxx

Como podéis comprobar, a tamaños no demasiado grandes ambas imágenes son casi indistinguibles; y de hecho podéis pinchar sobre cada una de ellas para acceder a diferentes versiones a más resolución mediante el icono de la lupa.

Es verdad que en la segunda se nota que hay algo más de ruido porque, efectivamente, esa es la correspondiente al ISO 1600; pero el hecho de que ambas sean prácticamente idénticas se debe al hecho de que la primera fue disparada con una leve subexposición y luego corregida en Adobe Lightroom mientras que la segunda fue realizada con una exposición tal que la foto quedó bastante luminosa. Vamos a fijarnos con atención en una misma zona de cada una de las imágenes para ver mejor las diferencias. Como antes, la primera corresponde al ISO 400 y la segunda al ISO 1600:

ISO xxxx (detalle)

ISO xxxx (detalle)

Como veis, si exponemos correctamente una fotografía empleando un ISO alto esta va a ser perfectamente utilizable, ya que sólo hay una diferencia apreciable de calidad en las zonas sombrías porque, precisamente, la mayor cantidad de ruido se presenta en las zonas más oscuras de la imagen (esto es debido a los métodos de cuantificación de los sensores digitales, pero no nos vamos a meter ahora en esos berenjenales). De ahí que el verdadero problema de emplear ISOs altos es que subexpongamos la imagen a la hora de capturarla, porque entonces se nos empastarán los colores de mala manera y la imagen tendrá más ruido que una emisora de radio mal sintonizada.

Así que ya sabéis, si a la hora de sacar la cámara las condiciones luminosas no son excesivamente buenas, no tengáis miedo de tirar de valores altos de ISO intentando que la fotografía sea lo más luminosa posible sin llegar a quemarla; porque siempre es mejor conseguir una fotografía con un poquito más de ruido pero que sea nítida a, por miedo, hacer una que sea poco más que un borrón.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia