¿Qué es la regulación mediante PWM?

Hay un concepto que estudié en la carrera y que siempre me ha llamado poderosamente la atención: la modulación por anchura pulso, más conocida por sus siglas en inglés PWM (de Pulse Width Modulation).

Aunque es algo que se aplica a muchos ámbitos, me gustaría explicaros este concepto usando para ello unos dispositivos a los que estoy muy acostumbrado: las linternas LED. De este modo creo que os puedo narrar en qué consiste este tipo de regulación y poneros unos ejemplos muy visuales de ello. Vamos allá.

Olight i3E EOS (V)

Dos modos de regular una magnitud de naturaleza analógica

Os decía que emplearía linternas para explicaros la regulación PWM porque es una aplicación muy típica de este concepto y creo que es un ejemplo que todos podéis imaginaros por ser extremadamente simple.

Imaginad una linterna LED que cuente con un regulador de la intensidad lumínica. Es decir, que podemos seleccionar varios escalones entre una luz muy tenue y toda la que pueda dar el diodo LED que transforma la energía de las baterías en fotones.

La potencia lumínica de una linterna viene dada en términos generales por el producto de la tensión por la corriente que recibe el LED. Para simplificar nuestros cálculos vamos a suponer que el driver mantiene la tensión constante de tal modo que la regulación de la potencia se realiza variando nada más que la corriente entregada. Esta suposición tampoco es que se aleje mucho de la realidad, ya que lo habitual en las linternas LED es que posean un regulador de tensión que hace que al LED le llegue el mismo voltaje independientemente de la carga de la batería.

Olight i3E EOS (I)

Circuitería de control (driver) en la cabeza de una Olight i3E EOS

El modo “caro” de modificar el grado de iluminación que da la linterna es empleando un regulador que permita variar la intensidad de la corriente entregada al LED. De este modo la linterna emitirá cierta cantidad de luz de forma continuada. Si el LED requiere 80 mA para lucir al 100% de su capacidad, el regulador entregará 40 mA para que luzca a la mitad (50%), 20 mA para que luzca a una cuarta parte de su capacidad (25%), 72 mA para que luzca al 90%… Creo que el concepto queda claro, ¿no?

Lo que ocurre, como os decía antes, es que la circuitería necesaria para regular esta corriente suele ser más compleja (y por tanto de mayor coste) que la electrónica necesaria para regular por PWM, que es lo que vamos a ver ahora.

El ciclo de trabajo

La regulación por anchura de pulso es un modo digital de conseguir regular una magnitud de manera que parezca analógica. En esencia se trata de conmutar muy rápidamente entre los estados de encendido (con el LED al 100% de su potencia) y apagado jugando con el ciclo de trabajo de tal modo que la intensidad lumínica obtenida es la de dicho ciclo de trabajo.

Para entenderlo de un modo sencillo vamos a poner como ejemplo una linterna cuya frecuencia de conmutación sea de 100 Hz, lo que significa que cada segundo hacemos 100 ciclos ON-OFF; lo que equivale a decir que un ciclo ON-OFF dura una centésima de segundo. También supondremos que el LED a plena potencia consume los 80 mA que puse antes como ejemplo.

160123_113606

Algunas linternas de mi colección

Pues bien, si durante esa centésima de segundo (que equivale a 10 milésimas de segundo) hacemos que nuestra circuitería electrónica mantenga el LED encendido durante las primeras 5 milésimas y lo apague las 5 siguientes tendremos un ciclo de trabajo del 50% y esa será la intensidad lumínica de la linterna con respecto a la que daría el LED continuamente a plena potencia.

Si la electrónica mantiene el LED encendido las primeras 2 milésimas y apagado las 8 siguientes tendremos un ciclo de trabajo del 20% y, por tanto, una intensidad lumínica inferior al caso anterior. Otro ejemplo sería tener el LED encendido las primeras 7 milésimas de cada ciclo y apagado los 3 restantes, lo que daría un ciclo de trabajo del 70% y una intensidad lumínica de ese mismo valor.

Si nos vamos a los casos extremos (algo que a los ingenieros nos encanta) vamos a ver que si tenemos el LED encendido durante las 10 milésimas tenemos un ciclo de trabajo del 100% que indica que la linterna está encendida a plena potencia. Del mismo modo, si el tiempo de encendido es de 0 milésimas y las restantes 10 milésimas está apagado, el ciclo de trabajo es del 0% y por tanto la linterna no emite luz alguna.

Un modo gráfico de ver todo esto

El ladrillo que os he escrito en los párrafos superiores es sencillo de entender si hacemos una gráfica de cada caso, que es lo que os voy a plantar a continuación:

En ella, tenéis en cada caso en el eje horizontal la evolución en el tiempo y el eje vertical los dos estados posibles del LED (ON y OFF) donde el estado ON implica un consumo de corriente de 80 mA y el estado OFF de 0 mA. Asumimos también que el cambio entre los dos estados se realiza de forma instantánea.

Pues bien, si consideramos la intensidad lumínica en cada uno de los casos como el área rayada que se genera en cada ciclo ON-OFF, haciendo una cuenta sencilla observamos que la modulación PWM equivaldría en términos lumínicos a una corriente constante del valor proporcional al ciclo de trabajo.

Por tanto, si queremos obtener una luminosidad del 20% de la nominal del LED podemos introducir un regulador analógico de corriente que de 16 mA o bien diseñar un regulador PWM funcionando con un ciclo de trabajo del 20%; siendo esta última solución, por lo general, más sencilla y económica.

160124_144552

LED de una Olight i3S EOS en modo firefly (el más tenue de todos)

Desventajas de usar PWM

No todo van a ser bondades; y es que a la hora de diseñar un sistema regulado por PWM (en nuestro caso una linterna) es muy importante tener en cuenta la frecuencia de conmutación del dispositivo, ya que de no ser lo suficientemente rápida el ojo va a percibir un parpadeo que puede llegar a ser bastante molesto. En el caso de una bombilla incandescente no es un punto crítico porque su tiempo de encendido y apagado es de algunos milisegundos, de modo que los escalones del cambio de estado están muy amortiguados; pero en un LED que se enciende y se apaga en un tiempo prácticamente nulo, si no elegimos una frecuencia de conmutación lo suficientemente rápida enseguida vamos a notar ese irritante parpadeo.

Esto que os comento puedo mostrarlo con la ayuda de una cámara de fotos, así que os voy a dejar en primer lugar con una fotografía de una linterna regulada sin PWM (Olight i3S EOS) moviéndose rápidamente delante del objetivo:

Olight i3S EOS moviéndose delante de la cámara a su mínima potencia. No hay rastro de PWM

Como veis, el trazo dejado por la luz es una línea continua porque el LED está luciendo uniformemente en todo momento. Sin embargo, cuando hago esto mismo empleado una linterna regulada por PWM (una Nitecore Tube en este caso) vais a ver que el resultado es bien distinto:

Nitecore Tube moviéndose delante de la cámara a su nivel de potencia más bajo y mostrando un marcado PWM

¿Veis los encendidos y apagados del LED? Son debidos a que aunque a simple vista parece que la linterna luce de forma constante en realidad el PWM la está haciendo encenderse y apagarse a toda velocidad tal y como os comenté en el apartado anterior.

Pues bien, ya que estamos vamos a ver la frecuencia de conmutación del LED en este caso concreto, pues si miramos los datos EXIF de la imagen que hemos capturado vemos que el tiempo de exposición es de 1/50 seg. Si contamos el número de parpadeos que ha hecho el LED durante ese breve lapso de tiempo (se ve claramente que han sido 11 veces) podemos calcular que la frecuencia de conmutación es de aproximadamente 550 Hz.

Este modelo de linterna tiene una frecuencia de conmutación bastante baja en el modo más tenue, pero algo mayor en los modos intermedios y no emplea PWM en el modo más brillante (lógico, ya que el LED recibe toda la corriente que puede admitir). Ya que estamos vamos a ver esos dos casos más que os comento.

La Nitecore Tube posee una frecuencia de PWM más alta en los modos intermedios

En la imagen que tenéis aquí encima la linterna está funcionando a potencia intermedia y su frecuencia de conmutación es mayor que en el caso anterior. Para hacer la fotografía he empleado un tiempo de exposición de 1/400 seg y cuento 9 parpadeos del LED. Esto nos da una frecuencia de conmutación de aproximadamente 3200 Hz. En este caso el parpadeo es apenas perceptible por el ojo humano, lo que hace que su uso sea más relajado para la vista.

Me gustaría aclarar que la frecuencia de conmutación en estos modos intermedios de la Nitecore Tube es la misma para todos ellos, pero lo que va a variar entre unos y otros es el ciclo de trabajo tal y como hemos visto en el diagrama de tiempo que os dibujé anteriormente.

La Nitecore Tube no muestra ningún tipo de PWM en su potencia máxima

Si ponemos la linterna a plena potencia no se hace uso de PWM para regular, ya que en realidad no hay nada que regular debido a que el LED está recibiendo continuamente la corriente de encendido, de modo que el rastro que deja es perfectamente continuo.

Comparativa visual entre la Nitecore Tube (arriba) y la Olight i3S EOS (abajo) funcionando en sus modos de potencia más bajos

Por último, no quería dejar pasar la oportunidad de mover a la vez ambas linternas delante de la cámara funcionando a su mínima potencia para que podáis apreciar la diferencia entre la que va regulada por PWM y la que está regulada a corriente constante. Como podéis ver, mientras que una ha parpadeado 15 veces en los 1/40 seg que ha durado la exposición de la imagen (esto me da una frecuencia de PWM de unos 600 Hz) la otra ha dejado un rastro perfectamente continuo.

La importancia de la frecuencia de conmutación

Ya os habréis dado cuenta de que el ejemplo que os puse en papel era muy teórico porque en él os hablaba de una frecuencia de conmutación para el PWM de 100 Hz; pero lo hice para poder usar unos tiempos muy definidos y fácilmente entendibles. En caso de fabricar una linterna LED que implemente esa frecuencia de conmutación sería prácticamente una luz estroboscópica y acabaríamos mareados si hiciéramos uso de ella.

Daos cuenta de que en su modo más bajo la Nitecore Tube tiene una frecuencia de conmutación de entre 500 y 600 Hz y os aseguro que a simple vista se nota bastante. Sin embargo, a esos aproximadamente 3 KHz a los que conmuta en los modos intermedios el ojo ya no aprecia parpadeo; pero es que se trata de una frecuencia 30 veces superior a la del ejemplo que os puse, por lo que os podéis hacer una idea de la velocidad a la que es capaz de encenderse y apagarse un LED. Para que os hagáis una idea, conmutar a 3000 Hz significa que el ciclo de encendido y apagado del LED dura aproximadamente 0,3 milésimas de segundo.

160123_115128

Bueno, y hasta aquí este artículo cuya intención no era otra que compartir con vosotros un tema que a mí me parece muy interesante y que además tiene muchas aplicaciones tanto en el mundo industrial como en la vida diaria, ya que esta misma teoría que rige el funcionamiento del PWM en las linternas es aplicable a control de motores, caudales, temperaturas… Ahora que lo conocéis seguro que os dais cuenta de que estáis rodeados de aparatos controlados por PWM.

Como curiosidad, me gustaría sacar a relucir esta fotografía tomada en una isleta de la calle de Alcalá, donde a mi derecha pasaban coches que mostraban sus luces rojas de posición y/o freno y a mi izquierda los coches que venían de frente y, por tanto, haciendo brillar sus luces blancas de cruce.

Entre el tráfico de Madrid

¿Veis algún rastro de PWM? Pues no, porque la fotografía la hice hace ya doce años (todavía me acuerdo perfectamente del momento de captar esta imagen) y los coches todavía ni siquiera soñaban con llevar luces exteriores LED. Si hiciéramos esta misma foto hoy en día o aseguro que muchas de esas líneas difuminadas pero continuas serían una larga sucesión de puntos porque en los últimos tiempos los LEDs están copando el mundillo de la iluminación.

¡Nos leemos!

“D-lighting” y “Active D-Lighting”

Hay un sistema en las réflex Nikon llamado D-lighting (en Canon también existe en multitud de modelos bajo las denominaciones de Highlight Tone Priority y Automatic Lighting Optimizer) cuyo funcionamiento a grandes rasgos me gustaría comentaros hoy al ver que se trata de una tecnología que suscita bastantes dudas entre los usuarios después de ver algunos comentarios al respecto en este blog y numerosas consultas sobre este asunto en varios foros de fotografía.

Amanece (que no es poco)

¿Qué es el D-Lighting?

El D-lighting es un sistema que intenta expandir el rango dinámico de la cámara mediante el procesado de los datos del sensor una vez disparada la fotografía. Es decir, no se trata de un interruptor mágico que de repente mejora las prestaciones del sensor de la cámara; sino de una función implementada por software que, por tanto, podríamos realizar posteriormente “a mano” mediante un programa de revelado como Capture NX o Adobe Lightroom.

El truco del D-lighting consiste en oscurecer ligeramente las zonas más claras de la fotografía y aclarar un poco las zonas más oscuras de la misma tratando de evitar así los picos en los extremos del histograma; algo que, como os digo, no es nada que no podáis hacer en un ordenador mediante el postprocesado de la imagen.

La magia de la luz

El D-Lighting está presente en toda la gama de cámaras Nikon y lo habitual es emplearlo en imágenes captadas en formato RAW aprovechando que en dicho formato se captan más datos de los que el ojo es capaz de apreciar a simple vista, no siendo capaz de sacar mucho partido de las imágenes en JPG. Sin embargo, hay una pequeña contradicción en esto, ya que si disparamos en RAW el procesado lo haremos en nuestro ordenador una vez que estemos de regreso en casa y no tendremos ninguna necesidad de retocar las fotografías directamente en la cámara. Es más, si lo aplicamos a una imagen disparada en RAW, dicho archivo no se modificará sino que obtendremos una imagen JPG resultante del RAW procesado internamente.

¿Y el Active D-Lighting?

En las cámaras Nikon de gama media y alta, además del D-Lighting del que hablábamos anteriormente, también tenemos disponible la opción de emplear el Active D-Lighting (también denominado ADR; de Adaptative Dinamic Range) que se aplica directamente a la fotografía durante la toma de la misma en caso de que tengamos activada dicha función.

Sol y nubes

La diferencia en este caso es que parte del proceso del Active D-Lighting tiene lugar antes del disparo, ya que a grandes rasgos lo que se hace es subexponer ligeramente la imagen para así evitar quemar los tonos más claros y una vez que los datos están en la memoria de la cámara aclarar los tonos más oscuros para codificar finalmente la imagen en formato JPG y así evitar que esta quede demasiado apagada.

De hecho, para el buen funcionamiento del Active D-Lighting se recomienda emplear el modo de medición matricial, ya que al estar programado para funcionar sobre escenas con una iluminación global más o menos uniforme, no dará muy buenos resultados en caso de que hagamos una medición puntual sobre alguna de las zonas de luz de la escena (una bombilla, un claro en el cielo…).

De todos modos volvemos a lo de antes; y es que si disparamos en RAW podemos hacer esto mismo “a mano” si aplicamos a la exposición una pequeña compensación negativa para asegurarnos de no saturar los tonos más cercanos al blanco y luego en postproceso aclaramos ligeramente los tonos más oscuros.

D-Lighting, Active D-Lighting y el formato RAW

Aunque podemos emplear D-Lighting y Active D-Lighting disparando tanto en JPG como en RAW, si empleamos el formato RAW es una pérdida de tiempo utilizar cualquiera de los dos porque eso mismo lo podemos hacer en nuestro ordenador de una manera mucho más potente, precisa y personalizable como os decía anteriormente.

Hielo (26/12/2010)

El Active D-Lighting nos será de utilidad si disparamos en formato JPG, ya que en este caso lo habitual es emplear las imágenes según salen de la cámara sin ningún tipo de retoque posterior (es lo que se suele hacer en fotoperiodismo, donde segundos después de hacer la fotografía esta ya va de camino a la agencia gracias a la magia de los transmisores inalámbricos). Si lo empleamos con el formato RAW lo único que vamos a conseguir es una cierta subexposición dado que el aclarado posterior de los tonos oscuros de la imagen no queda reflejado en los datos de la imagen “en bruto” (que es lo que se graba en la tarjeta de memoria) y al final lo que vamos a lograr es una imagen ligeramente más oscura que si no empleáramos esta ayuda.

Por tanto, si disparáis exclusivamente en RAW (como yo) os recomiendo que desactivéis el Active D-Lighting y cualquier ajuste de la imagen lo hagáis íntegramente en vuestro ordenador empleando para ello el software adecuado. Sin embargo, disparando en JPG sí que es recomendable activar dicha ayuda en la cámara porque alguna vez nos puede salvar de quemar irremediablemente alguna zona amplia de la imagen. En cuanto al D-Lighting “a secas” la verdad es que disparando en RAW no le veo ninguna utilidad si empleamos un buen software de tratamiento de imágenes.

El trasluz del amanecer
La importancia de saber para qué sirven las cosas
Como os decía hace unos párrafos, lo que hace el D-lighting no es aumentar las prestaciones del sensor; sino “comprimir” el histograma de la fotografía de tal modo que no sobrepase los límites marcados por este vital componente de la cámara y evitando así en la medida de lo posible que tengamos zonas quemadas o totalmente a oscuras.

Lo que estos dos sistemas de ayuda que hemos visto hoy nos dan es, por tanto, un poco más de flexibilidad a la hora de enfrentarnos a escenas con fuertes contrastes lumínicos, pero no hay que hacer uso de ellos por sistema y sobre todo hay que ser conscientes de que no son útiles en todas las situaciones.

La calle Mayor

Habrá que hacer en este caso la misma observación que aparece en los manuales de los coches equipados con sistemas de control de tracción y que dice: “Advertencia: el ESP no cambia las leyes de la física”, porque al final las limitaciones de nuestro equipo fotográfico siempre están ahí y hay que tenerlas muy presentes.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

La estanqueidad de las réflex profesionales

Hay un detalle que distingue a las cámaras réflex de gama profesional del resto: el sellado del cuerpo contra polvo y humedad. No quiere esto decir que estas cámaras sean sumergibles ni mucho menos; pero sí que podremos disparar con ellas con cierta tranquilidad bajo lluvia, nieve o entornos polvorientos.

Regando los jardines de la Plaza de Cervantes (VII)

Obviamente, al ser modelos dirigidos a gente que vive de la fotografía, estos han de resistir condiciones meteorológicas adversas, ya que un fotoperiodista no puede permitirse dejar de disparar porque se ponga a llover o porque se desate una tormenta de arena en el desierto. De este modo, los cuerpos de las cámaras tope de gama de los catálogos de las diferentes marcas suelen estar fabricadas con un cuerpo de aleación metálica (magnesio en la mayoría de las ocasiones gracias a su ligereza) que incluye juntas de estanqueidad en todas sus partes móviles para evitar la entrada de líquidos o elementos externos en el interior aunque por fuera no haya por donde cogerla. Una medida que no es infalible pero que otorga un plus de fiabilidad a estos modelos.

De todos modos, un error muy común es pensar que con uno de estos cuerpos podemos disparar durante horas bajo un intenso aguacero sin preocuparnos de nada; porque al fin y al cabo, de lo que hoy estamos hablando es del sellado del cuerpo; pero nada hemos dicho todavía sobre los objetivos y ya sabéis que una cadena es tan fuerte como el más débil de sus eslabones.

Los objetivos: posible talón de Aquiles

Las ópticas que acoplamos a las cámaras también se dividen en gamas, y al igual que ocurre con los cuerpos, no todas están preparadas para que les caiga agua encima sin que entre humedad en su interior. En general, los teleobjetivos profesionales pueden aguantar condiciones adversas sin demasiados problemas; pero los objetivos más básicos (el habitual 18-55 “de kit”) pueden dar problemas si no se tiene cuidado con ellos.

Nikkor 80-200 f/2.8 en soledad

Los conocidos 70-200 f/2.8, 24-70 f/2.8 y compañía están fabricados de tal modo que incluso usándolos bajo la lluvia o la nieve no presentarán problemas de funcionamiento; aunque sí que pueden empañarse sus lentes en caso de cambios de temperatura bruscos y/o humedad ambiental muy elevada. Por ejemplo, toda la gama L de Canon está preparada para aguantar el tipo bajo todas las condiciones, pero siempre se advierte de que para completar el sellado del objetivo es necesario tener colocado un filtro roscado en la parte frontal, ya que si no podría entrar humedad por las uniones entre las lentes que conforman la óptica y la carcasa de la misma.

El cuerpo de mi D300 pertenece a la gama profesional de Nikon (de hecho hasta la llegada de la D300S y la reciente D7000 era la cámara con sensor DX de mayores prestaciones) y, por tanto, sé que acompañado de la óptica adecuada no debería de tener problemas de funcionamiento. En mi caso particular, cuando está lloviendo suelo llevarme mi querido Nikkor AF-S 35mm f/1.8 DX porque como no tiene partes móviles y posee una junta de caucho en su montura me da bastante confianza y de hecho nunca me ha dado problemas de ninguna clase. De todos modos, el voluminoso Nikkor AF 80-200 f/2.8 también me ha demostrado que aguanta perfectamente los chaparrones pese a ser un objetivo de focal variable gracias a su construcción a prueba de bombas.

Pero ojo, porque ningún objetivo es acuático ni sumergible (a no ser que nos vayamos a la gama Nikonos, que consta de varias cámaras analógicas y objetivos especialmente diseñados para ser empleados bajo el agua) y lo que aquí estamos diciendo es que ciertas ópticas pueden aguantar un chaparrón o una tormenta de nieve sin que entre humedad en su interior; pero si los sumergís en agua salada habréis firmado la sentencia de muerte de cualquiera de ellos.

Review AF-S Nikkor 35mm f/1.8 DX

Una situación especialmente peligrosa

En todo caso, hay una situación especialmente peligrosa cuando estamos disparando bajo condiciones meteorológicas adversas: el cambio de objetivo. Durante los instantes que dura el cambio propiamente dicho estamos exponiendo a los elementos la parte interna de la cámara y podemos encontrarnos con la mala suerte de que entre cualquier cosa por allí. Por lo tanto, no se os ocurra cambiar de óptica bajo un aguacero porque aunque a lo mejor no notéis nada de primeras, si entra humedad dentro de la cámara puede aparecer corrosión pasados unos días y al final acabar estropeándose la electrónica interna, que siempre es muy sensible a ese tipo de cosas.

Un caso muy radical de esto que os digo es el de un compañero del foro de Nikonistas que tenía una D300 y se encontraba haciendo fotos en la orilla de una laguna con tan mala suerte que la cámara se cayó al agua con el objetivo desmontado durante apenas un par de segundos; tiempo suficiente como para que se le anegara completamente por dentro. Si hubiera llevado el objetivo montado a lo mejor el agua no hubiera pasado de la carcasa de la cámara; pero al estar la bayoneta de la cámara totalmente expuesta, el agua entró en el interior y, además de provocar varios cortocircuitos que hicieron que la cámara se volviera loca, la humedad corroyó en pocos días las pistas de los circuitos impresos y al final hubo que tirar la cámara entera.

Familia de condensadores

Aun así, que nadie piense que una D40 se estropeará irremisiblemente porque le caigan un par de gotas de agua encima porque, sin ir más lejos, en mi viaje a principios de este año a Bruselas y alrededores, nos llovió prácticamente todos los días y yo no dejé de hacer fotos en ningún momento. No pasa nada porque la carcasa externa de una cámara se moje ligeramente pero, eso sí, en caso de que caiga agua a cántaros y no dispongáis de un equipo preparado para ese tipo de situaciones mejor no tentar a la suerte y guardar la cámara en la mochila hasta que se calme un poco el chaparrón.

A modo de resumen

En resumidas cuentas, hacerse con un cuerpo de gama profesional nos va a permitir disparar bajo condiciones climatológicas adversas con cierta tranquilidad. Aunque esté cayendo bastante agua del cielo o nos salpique un coche que pase sobre un charco su electrónica interna permanecerá a salvo de humedades. Sin embargo, debemos tener cuidado con los objetivos, ya que no todos están preparados para esas mismas situaciones y podemos encontrarnos con la desagradable sorpresa de que si bien nuestra cámara funciona perfectamente, la óptica deja de responder o lo hace erráticamente porque le ha entrado humedad en su propia electrónica.

Durante la lluvia

Tratada con cabeza, una cámara réflex nos puede dar muchos años de alegrías; pero siempre debemos de ser conscientes de las limitaciones de nuestro equipo y no probar sus límites de resistencia si no queremos llevarnos alguna sorpresa desagradable.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

Interruptores magnetotérmicos y diferenciales

Por diversos motivos estoy acostumbrado a tratar con diversos dispositivos eléctricos y electrónicos; y precisamente por eso uno puede perder un poco la noción de las cosas y creer que todo el mundo tiene ciertos conocimientos sobre estos temas.

Sin embargo, el otro día me di cuenta mientras hablaba con mis padres de que hay mucha gente a la que le suena eso del magnetotérmico y el diferencial, pero sólo sabe que son unas teclas que están en el cuadro eléctrico de la entrada de la vivienda y poco más.

Tras aquella charla en la que con un par de esquemas y unas breves explicaciones parece que les quedó claro para qué sirve cada cosa, se me ocurrió escribir esta entrada de modo que entendáis lo que es un interruptor magnetotérmico y un interruptor diferencial sin meterme en detalles técnicos; pues aunque se instalan juntos su función es completamente diferente y creo que son unos conceptos que pueden ser de utilidad a cualquier persona.

Un par de apuntes sobre electricidad

La electricidad es la energía que hace funcionar a la práctica totalidad de los aparatos que tenemos en casa y viene definida por dos magnitudes principales: la tensión y la intensidad. Obviamente hay muchas más, pero para lo que a nosotros nos interesa nos basta con estas que os comento.

rayos (2)

La tensión es la diferencia de potencial que existe entre dos polos o entre el hilo neutro y uno de los polos (dependiendo del tipo de instalación) y se mide en Voltios. Si medimos la tensión existente entre las bornas de cualquiera de los enchufes de nuestra casa obtendremos 220 V, que es la tensión a la que funcionan todos los aparatos domésticos en España.

Por su parte, la intensidad es la medida de la cantidad de corriente eléctrica que está pasando por un cable y viene dada en amperios (A). La corriente eléctrica no es más que un flujo de electrones que se desplazan por un conductor, y la medida de la intensidad cuantifica ese movimiento.

Si lo queréis ver con un símil podemos imaginar la corriente eléctrica como el torrente de un río: la tensión podría ser el equivalente al ancho del mismo, mientras que la corriente sería la cantidad de agua que pasa por su cauce. La combinación de ambas nos daría un determinado caudal, que en electricidad sería la potencia eléctrica (que es el producto de la tensión por la corriente).

Para obtener una misma potencia eléctrica podemos tener un río estrecho pero por el que circule mucha agua o bien uno más ancho pero por el que circule menos agua. En electricidad ocurre lo mismo: para obtener una determinada potencia eléctrica podemos tener una tensión alta y una corriente baja o bien una tensión de pocos voltios pero una corriente eléctrica muy alta.

El pausado discurrir del Henares

En todo caso, aunque la similitud de conceptos entre caudal de agua y corriente eléctrica es acertado, no es tan fiel a la realidad como me gustaría porque la electricidad necesita un circuito cerrado para circular. Es decir, que la corriente sale del enchufe por uno de sus polos, llega hasta la carga (el aparato eléctrico de turno) y regresa por el otro cable para salir por el polo contrario a diferencia del agua del río, que parte de un punto A y llega hasta un punto B sin posibilidad de retorno.

Pero centrándonos en el tema principal del artículo, os indicaré que puesto que en la inmensa mayoría de las instalaciones la tensión permanece constante y con lo que se “juega” es con la intensidad eléctrica, los dos sistemas de protección que vamos a ver en este artículo van a estar basados en esta magnitud eléctrica:

Interruptor magnetotérmico

El interruptor magnetotérmico es un dispositivo diseñado para proteger la instalación eléctrica (y los aparatos conectados a ella) tanto de sobrecargas como de cortocircuitos conectándose en el cuadro eléctrico de entrada a la vivienda. En realidad suele haber varios de ellos, ya que por lo general la distribución eléctrica de la vivienda se realiza en varias líneas, necesitando un interruptor de este tipo para cada una de ellas.

Los magnetotérmicos, como su propio nombre indica, poseen dos sistemas de protección ante el paso de corriente: uno de tipo magnético y otro de tipo térmico.

Protección magnética

El magnético se basa en una bobina que, colocada en serie con la corriente, no se activa a no ser que circule por ella una intensidad varias veces superior a la nominal (habitualmente entre 5 y 10 veces para instalaciones domésticas). Este margen se da para que el magnetotérmico no se dispare durante los arranques de ciertos aparatos con motores potentes (aspiradoras, lavavajillas…) porque suelen meter unos picos de corriente bastante elevados en el preciso momento de su puesta en marcha.

La protección magnética sirve para proteger la instalación ante cortocircuitos (contacto directo entre dos conductores de la instalación), ya que cuando tiene lugar uno de ellos la intensidad aumenta de forma brutal (en teoría se hace infinita) y la bobina a la que me refería antes entra en acción instantáneamente abriendo el circuito y cortando, por tanto, el paso de la corriente eléctrica.

Osciloscopio nocturno

Protección térmica

Por su parte, la protección térmica está encaminada sobre todo a proteger el cableado de la instalación, ya que se trata de una lámina bimetálica que se curvará en mayor o menor medida en función de la cantidad de corriente que circule por ella. Esto es debido a que cuando por un conductor circula una corriente éste se calentará en función de la intensidad, de modo que si esta se mantiene durante unos instantes por encima de la nominal que soporta el interruptor, la lámina bimetálica se curvará más de la cuenta y abrirá el circuito eléctrico evitando que una corriente demasiado elevada pueda quemar los cables de la instalación eléctrica.

El sistema de protección térmica va a dispararse en aquellos casos en los que estamos sobrepasando el consumo máximo de la instalación eléctrica y para el cual han sido dimensionados los cables. Un caso típico de esto es cuando empezamos a poner en marcha varios electrodomésticos de cierto consumo (secador de pelo, aire acondicionado, vitrocerámica, microondas…) y en un momento determinado comprobamos que “se ha ido la luz”.

Cuando se dispara cualquiera de las dos protecciones que hay en un magnetotérmico debemos de corregir la situación que ha propiciado su activación y a continuación subir la palanca que posee para así rearmar el circuito. En caso de que la situación que ha provocado su disparo no se haya subsanado como medida de seguridad no será posible rearmar el automático por mucho que lo intentemos.

Dibujando en el aire

Por cierto, si os acercáis al cuadro eléctrico de casa veréis que los interruptores magnetotérmicos son de un tamaño bastante pequeño (poco más que una caja de cerillas, como el que podéis ver al principio de esta sección) y suelen estar calibrados, por lo general, para corrientes de entre 6 y 25 A dependiendo del diseño de la red eléctrica.

Sin embargo, a modo de curiosidad, os puedo decir que el otro día tuve en la mano un magnetotérmico industrial de 250 A perteneciente y su tamaño es similar al de un tetra-brick de litro (y del peso ni hablamos, claro). Si tenemos en cuenta que ese interruptor que os digo es pequeño en comparación con los que os podéis encontrar en los sistemas de iluminación de aeropuertos y cosas así, os daréis cuenta de que lo que tenemos en casa es prácticamente de juguete.

Interruptor diferencial

El diferencial tiene como misión evitar que una persona que toque un conductor de la instalación se pueda quedar electrocutada por conducir la electricidad a través de su cuerpo; y de ahí que sea un componente vital en cualquier instalación eléctrica para garantizar la seguridad de las personas que la utilicen.

Como os decía anteriormente, para que la corriente eléctrica pueda circular es necesario cerrar el circuito por el que transita, y si por lo que sea tocamos un cable eléctrico sin estar aislados del suelo, nuestro propio cuerpo va a hacer de “cable” llevando la electricidad a tierra con el riesgo de electrocución que esto conlleva.

Los diferenciales se basan en un principio muy simple y es que la intensidad que entra por uno de los cables de un circuito eléctrico es igual a la que sale por el otro tal y como muestra el siguiente esquema:

Dentro del diferencial hay una toroidal que se encarga de monitorizar constantemente tanto la corriente de entrada como la de salida. Por tanto, en caso de que esas corrientes no tengan el mismo valor es que se está derivando directamente a tierra por algún sitio (posiblemente a través de una persona que ha tocado una parte de la carga mal aislada) y como medida de seguridad el interruptor se abre cortando la corriente. Esta sería la situación representada por la siguiente figura:

Para instalaciones domésticas se suelen emplear diferenciales de 30 mA y 25 mseg con objeto de garantizar la seguridad de las personas, ya que cualquier derivación a tierra provocará el disparo casi instantáneo del interruptor. En caso de instalaciones industriales se suelen emplear valores más elevados (sensibilidades de 300 mA o incluso algo más para los diferenciales más generales) porque al haber tantos elementos puede darse el caso de que algunos de ellas tengan pequeñas derivaciones a tierra sin que ello suponga un riesgo para la seguridad y evitando así que el diferencial esté saltando cada poco tiempo con los problemas que esto acarrearía.

Lo más importante de un diferencial es pulsar de vez en cuando (hay fabricantes que recomiendan hacerlo mensualmente, mientras que otros indican una frecuencia anual) el botón Test que todos poseen en su frontal. Al presionarlo el interruptor diferencial debería de dispararse instantáneamente demostrando que el dispositivo funciona a la perfección y dándonos la seguridad de que en caso de sufrir una descarga eléctrica estaremos debidamente protegidos frente a sus nefastas consecuencias. Cuando el diferencial se dispara hay que rearmarlo manualmente igual que hacíamos con los magnetotérmicos; pero un disparo no provocado del diferencial representa un problema grave, por lo que se recomienda revisar la instalación eléctrica para evitar riesgos.

La seguridad es lo primero

Como os comentaba al principio de este artículo, mucha gente sabe de la existencia de estos dispositivos de protección pero no tiene demasiado claro para qué sirven. Precisamente por ese desconocimiento es por lo que hay incluso algunas personas que ante repetidos disparos llega al extremo de puentearlos para que así no vuelva a “irse la luz”.

Después de haber leído estos párrafos sobre el funcionamiento y la razón de ser de estas protecciones que todos tenemos en casa os imaginaréis que hacer algo así es una auténtica locura; pero aun así os aseguro que hay bastante gente que cada vez que cambia una bombilla se juega la vida porque en caso de tener el diferencial “trucado” lo que sería un simple chispazo se convertiría en una descarga continuada que puede llevar a esa persona incluso a la muerte.

A la electricidad no hay que tenerle miedo porque es una forma de energía muy segura siempre y cuando se cumplan todas las medidas de protección estipuladas. Y si con este artículo he conseguido haceros entender qué son esas palanquitas que hay en el cuadro eléctrico de vuestra casa me doy por satisfecho porque sé que la próxima vez que se os vaya la luz tendréis claro qué es lo que ha propiciado esa situación y trataréis de evitarlo en el futuro.

En la época analógica no había diferencias tan grandes entre las cámaras réflex

Una breve reflexión fotográfica para terminar el fin de semana dándole un poco al coco:

Si uno se para a pensar cómo ha cambiado el mundo de la fotografía con la llegada de las cámaras digitales se da cuenta de que en la época de las réflex de carrete no había tanta diferencia entre unas cámaras y otras: si montábamos el mismo objetivo en una Nikon F5 (modelo tope de gama en los años 90) y una Nikon F50 (el modelo réflex básico de la marca por aquellos años) empleando el mismo tipo de carrete podíamos conseguir unas fotografías prácticamente iguales en una cámara y en la otra.

Esto se debe a que los elementos físicos responsables de la calidad técnica (ojo, no artística) de las fotografías obtenidas eran más o menos los mismos en todos los modelos, ya que lo único que se interponía entre el negativo fotográfico y nuestra escena a retratar eran las lentes que conformaban el objetivo. Obviamente, los modos de medición eran más exactos en las cámaras más caras, el obturador era de mayor calidad y los sensores encargados del enfoque eran más precisos; pero el modo en el que la luz llegaba a tocar el negativo era exactamente el mismo en todas las cámaras.

Además, dado que el formato de negativo de 35mm era el mismo para todas las cámaras, la sensibilidad ante la luz, la calidad y el aspecto de las imágenes obtenidas era similar incluso en cámaras de distintas marcas. Es cierto que el uso de sensores digitales en las cámaras actuales ha supuesto una más que considerable reducción de costes para el usuario, pero no es menos cierto que gracias al sistema de carretes analógicos podíamos obtener un colorido sensacional prácticamente con cualquier cámara medianamente decente (se ve que mi Werlisa Club 35 no lo era).

Actualmente, las diferencias entre unos modelos y otros son enormes: para empezar tenemos baterías de mayor o menor capacidad (antes todo funcionaba por pilas), sensores de diferente calidad, resoluciones de 3, 6, 10, 12 ó 24 Megapíxels, filtros ultravioleta delante del sensor que varían la nitidez de las fotos según el modelo, cada cámara tiene una sensibilidad a los colores diferente por efecto de la electrónica interna, cada modelo responde con más o menos ruido a la misma ISO, el rango dinámico de una cámara de gama alta es mayor que una de gama básica…

No digo que ahora la cámara sea determinante para conseguir una buena imagen, porque de hecho el factor principal siempre es el propio fotógrafo más allá de aditamentos técnicos; pero no deja de ser curioso que la diferencia entre una cámara de gama alta y una de gama baja en la época analógica era mucho menor que en la era digital en la que nos encontramos inmersos.

Funcionamiento del sensor y valores ISO

Me gustaría tratar en este artículo dos conceptos muy relacionados entre si: el principio de funcionamiento del sensor de una cámara y la variación de la sensibilidad ISO. Vais a ver que algo como cambiar el valor ISO antes de tomar una fotografía no es más que actuar sobre la señal digital generada por el propio sensor, así que lo mejor es que comencemos a ver cómo se transforma la luz en señales eléctricas para repasar luego cómo trata la electrónica de la cámara dichas señales.

¿En qué se basa el sensor de una cámara digital?

sensord2x

El sensor de una cámara digital está formado por una matriz de fotocaptores, que son unos componentes electrónicos que reaccionan ante la luz dando a su salida una señal eléctrica proporcional a la intensidad lumínica que incide sobre ellos. Cada uno de estos fotocaptores reacciona ante un color primario (rojo, verde o azul), por lo que cada píxel de una fotografía es “pintado” por tres de estos componentes (aunque en realidad son cuatro porque el verde se repite debido a la estructura del patron Bayer).

La imagen que tenéis a continuación sería una pequeña porción de la superficie de un sensor vista al microscopio; siendo cada una de esas “burbujas” un píxel.

photodiode

Claro, en el diagrama vemos que cada píxel sólo reacciona ante uno de los tres colores anteriormente mencionados, así que… ¿cómo se determina la mezcla de colores que define el tono final de cada punto de la imagen?

Aquí es donde entra en acción el famoso patron Bayer, que no es más que una interpolación de los valores de los píxels con sus adyacentes para, mediente complejas fórmulas matemáticas, hacer un promedio con el que averiguar el color de cada píxel que forma la imagen.

Con el siguiente corte lateral os podréis hacer una idea de cómo capta la imagen el sensor de la cámara: la luz atraviesa unas minúsculas lentes para concentrarla sobre la superficie de cada uno de los fotocaptores de cada píxel (se diferencian mediante los filtros cromáticos que hay en ellos) y al llegar a lo que es el fotodiodo como tal (la parte de electrónica interna de cada fotocaptor) se convierte en un impulso eléctrico que interpretará el circuito electrónico de la cámara.

Microlenses

Pues bien, lo que llamamos sensibilidad ISO no es más que una medida de la capacidad del sensor de la cámara para captar la luz (hace años indicaba la sensibilidad de los carretes, así que el concepto sigue siendo el mismo). Los sensores digitales tienen una sensibilidad base única (ISO 200 en la mayoría de las réflex Nikon) y partir de ella se ponen a disposición del fotógrafo múltiplos y divisores para ayudarle a adaptarse de la mejor manera posible a la iluminación existente ya que, a diferencia del carrete, podemos cambiar ese valor en cada fotografía que vayamos a disparar.

A grandes rasgos, cuanto más alto es el valor ISO más sensibilidad va a mostrar la cámara. Si, por ejemplo, pasamos de ISO 200 a ISO 400 la cámara va a ser el doble de sensible ante la luz, por lo que podremos disparar la fotografía con una velocidad el doble de rápida que la original para congelar el movimiento o bien cerrar un paso el diafragma (un paso significa una diferencia del doble o la mitad en la cantidad de luz) empleando la misma velocidad que en la fotografía a ISO 200, permitiéndonos obtener una mayor profundidad de campo. Hay multitud de combinaciones en función del efecto que queramos obtener en la fotografía; pero todo se basa en jugar con los cuatro principios básicos de la fotografía digital.

ISO por encima del valor base

La playa de noche

Al seleccionar un valor ISO por encima del base estamos amplificando la señal que sale de cada fotocaptor; y más cuanto más alto sea el ISO seleccionado. Suponiendo un ISO base de 200, al seleccionar 400 estamos amplificando la señal por dos, con ISO 1600 la amplificamos cuatro veces… y así sucesivamente.

Obviamente de la nada, nada se saca (como decía un profesor de mi colegio al referirse a los alumnos más vagos) por lo que esa amplificación de la señal conllevará una cierta pérdida de calidad debida a que el paso de analógico (mundo real) a digital (sensor) lleva aparejado un cierto error que, aunque sea muy pequeño, también es amplificado junto con el resto de la señal, por lo que a ganancias elevadas éste empieza a ser visible. Vamos a ver esto mismo con un ejemplo un poco más tangible:

Imaginad que tenemos una grabación de voz en la que hay un siseo de fondo que representa solamente un 1% de lo que se escucha por los altavoces. El ruido será tan bajo que va a ser indistinguible incluso cuando estemos callados; pero si amplificamos la grabación ocho veces, la relación entre la señal y el ruido no va a cambiar (seguirá siendo un 1% de lo que se escucha) pero cuando estemos callados el siseo va a escucharse ocho veces más alto que en la grabación original, por lo que en este caso será claramente distinguible.

Más o menos así es como se justifica lo que os explicaba el otro día sobre que el ruido de una fotografía se aprecia sobre todo en las zonas oscuras de la misma (serían como los silencios en nuestra grabación) por lo que tratando que la imagen quede expuesta de una forma uniforme y luminosa, el ruido no debería ser un gran problema aunque estemos empleando valores ISO elevados.

ISO por debajo del valor base

Parábolas

Por su parte, también pueden existir valores ISO inferiores al de base (para permitirnos tiempos de exposición más o menos largos en condiciones de mucha luz o la posibilidad de abrir mucho el diafragma); algo que se lograría atenuando la señal procedente de los fotocaptores. Si a partir de un ISO base 200, atenuamos la señal a la mitad tendremos un ISO 100; y si la atenuamos a una cuarta parte obtendremos un ISO 50.

De cualquier modo, como en cualquier proceso realizado sobre una señal digital codificada, va a haber una cierta pérdida de calidad que, si bien no va a ser tan evidente como en el caso de la amplificación, viene a decirnos que si queremos obtener la mejor calidad de imagen (para un trabajo de estudio o para fotografías “tranquilas” y en condiciones luminosas adecuadas) lo ideal sería emplear el ISO base de la cámara.

Cuando mi amigo Joe pasó directamente de una cámara analógica a una réflex digital, lo que más le gustó (casi más que el hecho de poder ver los resultados inmediatamente en pantalla) fue la posibilidad de variar el valor ISO a voluntad y de manera instantánea; pues en las cámaras de carrete no te quedaba más remedio que aguantar con la misma sensibilidad durante todos los fotogramas del rollo aunque a una foto nocturna le siguiera al día siguiente otra a pleno sol.

Pato, pico, pluma

Bueno, ahora ya sabéis todo lo que estáis desencadenando en la electrónica de vuestra cámara cada vez que hacéis algo tan sencillo como cambiar el valor ISO antes de disparar una fotografía. ¿Os imaginabais que ocurrían tantas cosas ahí dentro?  😉

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

La Nikon D1 cumple hoy 10 años

El 15 de Junio de 1999 se presentaba la cámara que daría origen a la revolución de las réflex digitales y llevaría al ostracismo a los carretes: la Nikon D1.

Aunque hoy en día tecnológicamente se haya quedado obsoleta, en su momento fue una auténtica revolución que abrió las puertas de la fotografía digital a mucha gente, pues hasta entonces los únicos modelos adaptados que se podían adquirir eran cuerpos analógicos adaptados de una forma más o menos burda por Kodak empleando unos sensores digitales que daban una imagen francamente mala, costaban unos 25000 dólares y pesaban demasiado como para convertirse en una cámara para usar a diario.

Nikon D1

Sin embargo, a mediados de 1999, Nikon anunció que estaba desarrollando una cámara digital que iba a aumentar su resolución hasta los 2,7 Mpixels, tendría una velocidad máxima de 1/16000 (una barbaridad incluso en la actualidad), una pantalla de 2″ en la que revisar las fotografías realizadas, podría disparar a una cadencia de 4.5 FPS, y costaría del orden de 5000 dólares; una fracción del precio de los artefactos que os comentaba antes. De cualquier modo, la gran baza con la que contaba la D1 es que sería compatible con toda la gama de objetivos comercializados por Nikon desde varias décadas atrás, de tal modo que los usuarios de la marca no tendrían que renovar por completo su equipo si querían dar el salto a la tecnología digital, pues seguirían contando con su colección de ópticas acumuladas con el paso de los años.

La D1 apareció en el mercado en otoño de ese mismo año, fue la única réflex digital de la marca hasta el mes de Febrero de 2001 (momento en el que aparecieron los modelos D1X y D1H que aumentaban la resolución y la cadencia de disparo respectivamente) y se convirtió de inmediato en todo un éxito. Tal vez no fue la cámara más vendida para el usuario “de a pie” porque 5000 dolares seguían siendo una respetable cantidad de dinero, pero en las redacciones de los periódicos desplazó casi de inmediato a las cámaras de carrete.

Hoy en día no es una cámara demasiado recomendable más allá de temas de coleccionismo: A la escasa autonomía de su batería se une un sistema de menús realmente complejo y farragoso que la alejaban de los usuarios casuales.

nikon-D1-back2

Pero lo mejor de la D1 es que fue la cámara que dio paso a toda una revolución que poco a poco fue acercando cada vez más las réflex digitales a la gente de la calle. Tal vez si no hubiera sido capaz de desplazar al carrete de una forma tan rápida y radical el mercado de la fotografía sería muy diferente a lo que conocemos hoy, así que todos los usuarios de este tipo de cámaras tenemos que felicitar por su décimo aniversario a una de las más grandes creaciones de esta marca japonesa.

Enlaces de interés (en inglés)

Wikipedia

Características técnicas en la web de Nikon

Análisis en DPReview