Las protecciones de las baterías de ion-litio

Este artículo se me ocurrió a raíz de algo que me pasó hace unos días probando una linterna que funciona mediante una batería CR123A, ya que al exigirle mucha corriente el LED se apagaba directamente, y aunque al final la explicación tiene su lógica (como luego veremos) quería aprovechar para hablar un rato sobre las protecciones que incorporan este tipo de baterías.

Las baterías de iones de litio han supuesto una revolución en la electrónica de consumo por su gran capacidad de almacenar energía, la posibilidad de fabricarlas en muy diversas formas físicas y la flexibilidad que dan a la hora de cargarlas y descargarlas. Sin embargo, también tienden volverse inestables si se les saca de sus condiciones de funcionamiento y almacenaje adecuadas y llegado el caso podrían llegar a incendiarse o explotar.

Las circunstancias que voy a enumerar a lo largo de esta entrada son las que pueden llevar a la autodestrucción de una batería de ion-litio, y por eso hay un circuito de protección en su interior y algunas características físicas a la hora de diseñar la propia batería que las harán seguras de utilizar y de cargar. Vamos a ver cada uno de los apartados:

Protección de corriente máxima de descarga

Las baterías de litio están diseñadas para dar una corriente máxima y sobrepasarla provocaría un sobrecalentamiento que podría llegar a inflamar sus celdas. Este cantidad de corriente se determina mediante el parámetro C con un número puesto delante de él indicando lo siguiente:

Pongamos que tenemos una batería de 800 mAh de capacidad. Esto quiere decir que la batería es capaz de almacenar en su interior 800 mAh que irá entregando a la carga a una intensidad máxima marcada por el número que se antepone a la C. Es decir, que si la batería es de 1C la máxima corriente que puede dar será de 800 mA (y en teoría duraría una hora). Si fuera de 2C podría dar hasta 1600 mA durante media hora. Si fuera 5C podría dar un máximo de 4000 mA durante 12 minutos… Creo que está claro, ¿no?

Pues bien, veamos qué ocurrió con la linterna a la que me refería en la introducción de este artículo. Resulta que la batería que le estaba poniendo a la linterna era de 650 mAh pero con un coeficiente de descarga de 1C, lo que quiere decir que no le puedo exigir más de esos 650 mA en ningún momento. En los modos de funcionamiento más bajos no había problema porque la linterna consume menos de esa cantidad de electricidad; pero al poner el modo más alto de todos, pongamos que el LED le pide a la batería 900 mA y entonces a los pocos segundos el circuito de protección corta la corriente porque si no fuera así internamente la batería podría sobrecalentarse y dar problemas.

Al cambiar a una batería de la misma capacidad pero de 3,5C la corriente máxima que es capaz de dar en un momento dado es de 650 mA x 3,5 = 2275 mA que está por encima de esos 900 mA que el LED necesita en su modo más luminoso y entonces funciona sin problemas.

Esta misma protección es la que actúa ante cortocircuitos que puedan suceder si, por ejemplo, metemos la batería en una mochila con cosas de metal como clips, monedas y llega el caso (complicado, pero puede pasar) en que se ponen en contacto los dos polos de la batería generando un cortocircuito. En ese momento la electricidad teóricamente se haría infinita lo que sería peligroso para la integridad de la batería, así que la protección actúa desconectando internamente la batería y cortando así el paso de corriente y evitando el desastre.

Protección contra exceso de temperatura

La temperatura de las celdas de litio es peligrosa si se eleva demasiado por el motivo que sea; no sólo por sobrecorrientes. Como os decía en el apartado anterior, el circuito de protección monitoriza la corriente entregada en todo momento por la batería y cortará si sobrepasamos la máxima fijada por diseño, de modo que por ese motivo la batería no debería de calentarse en exceso.

Sin embargo, eso no quita que la batería se pueda calentar por factores externos como que el propio aparato al que alimenta genere un montón de calor, que la batería esté en un coche a pleno sol en verano… En ese caso disponemos de otro sistema de seguridad que se encarga de desactivar internamente la batería si detecta que su temperatura sobrepasa cierto nivel sea por el motivo que sea.

Protección contra polaridad inversa

Esta protección lo que hace es evitar que la batería pueda recibir corriente si la hemos conectado en sentido contrario a la hora de cargarla. Esto se implementa porque meter a las celdas de litio una corriente en inverso puede ser peligroso para su integridad y podría llegar a autocombustionar (como estáis viendo, son baterías muy delicaditas).

 

Protección contra descarga profunda

Otro factor peligroso para las baterías es tratar de hacerlas funcionar cuando estas se encuentran a una tensión extremadamente baja. Todas las baterías tienen una tasa de autodescarga; es decir, que aunque las tengamos metidas en un cajón sin utilizar se van a ir descargando poco a poco (su voltaje irá disminuyendo) tanto por la propia concepción de este tipo de baterías como por la circuitería de control que algo de energía necesita para mantenerse operativa en todo momento. Si la tensión de alguna celda cae a unos 3 V la batería no va a funcionar para evitar así que se le pida corriente estando la tensión tan baja.

Por tanto, si la tensión de las celdas baja de un nivel determinado la batería no va a funcionar, pero lo peor es que si el voltaje es realmente bajo (el límite se suele situar en unos 2,6 V para los habituales 3,7 V que suelen dar) el circuito impedirá incluso que podamos cargarlas, haciendo por tanto que la tengamos que tirar.

Protección contra sobrevoltaje

De forma muy similar al caso anterior, la circuitería de control de la propia batería va a vigilar constantemente (en este caso a la hora de cargar) que el voltaje de las celdas no sobrepase aproximadamente 4,2 V para que así no pueda darse alguna reacción violenta en el interior de la batería y acabar esta incendiándose.

Lo habitual es que los cargadores vayan monitorizando el voltaje de la batería que tienen conectada y detengan la carga cuando esta ha llegado a su voltaje nominal; pero como de todo hay en la viña del señor (AKA fabricantes muy piratas), es mejor que la propia batería vaya monitorizando esto y en caso de problemas que se desconecte internamente para detener así su carga.

Protección contra cortocircuito interno por deformación

Esta protección no consiste en un circuito electrónico, sino en una forma constructiva; y es que para que las celdas de litio no puedan deformarse y cortocircuitarse internamente, las baterías de este tipo se meten en una camisa metálica reforzando especialmente la zona del polo positivo. Esto es para que si, por ejemplo, la batería se cae al suelo esta no se deforme y pueda dar lugar al cortocircuito interno que os decía hace un momento.

Del mismo modo, en la zona del polo positivo suelen disponer de unos orificios de venteo para que en el caso de que todo vaya mal y finalmente por lo que sea la batería empieza a coger presión en su interior, los gases que se forman en el interior saldrían por estos orificios en lugar de inflar la batería minimizando así el riesgo de que llegue a hacer explosión.

Como veis es todo un mundo esto de las protecciones para las baterías de iones de litio, pero es que por sus características es más que recomendable disponer de este tipo de salvaguarda para evitar que un día podamos tener un disgusto.

Review: Bastl Kastle V1.5

Puede que sea por mi formación en electrónica industrial, pero reconozco que siempre he mirado con ojos golosos a esos dispositivos llenos de lucecitas y botones capaces, en las manos adecuadas, de generar música.

Durante los últimos años me he ido haciendo con algunos dispositivos de Korg (la serie Kaoss me parece alucinante, ya os hablaré de ella) así como un par de Pocket Operators de Teenage Engineering y hace apenas unos meses el “cacharrín” del que hoy os quería hablar: un Kastle V1.5 de Bastl Instruments.

El caso es que esta entrada me va a servir, además de para daros a conocer este minúsculo dispositivo, para poder hablaros desde un punto de vista medianamente técnico de los sintetizadores, que es algo que siempre ha llamado poderosamente mi atención.

¿Qué es un sintetizador?

Muy a grandes rasgos un sintetizador es un dispositivo electrónico capaz de generar sonidos a través de un conjunto de componentes electrónicos internos. La interfaz con el usuario son una serie de controles mediante los cuales seleccionaremos la señal a utilizar y el tratamiento que se le dará en tiempo real a esta. Finalmente, la señal de salida es amplificada y llevada hasta los oídos de quien ande cerca del aparato.

Pensad en un piano de cola “de los de toda la vida”. Cuando pulsamos una tecla lo que ocurre en su interior es que un pequeño martillo golpea a la cuerda correspondiente, la cual tiene una determinada longitud y una tensión que generarán una onda acústica que resonará en sus cavidades internas para llegar a nuestros oídos.

Pues bien, pensad en un hipotético piano en el que a través de una serie de controles físicos pudiéramos cambiar en todo momento no sólo la longitud y la tensión de la cuerda que golpea el martillo, sino incluso la forma y el material del propio martillo o hasta la forma de la caja de resonancia del piano. De ese modo el sonido que percibiríamos sería muy diferente en función de cómo estemos actuando sobre los controles que os digo.

Vamos un paso más allá, e imaginad que con otros controles diferentes pudiéramos coger el sonido que está a punto de salir de la caja de resonancia y pudiéramos volver a introducirlo en un paso anterior del proceso modificándolo también para darle “una vuelta más” creando resonancias, loops, reverberaciones, retardos…

Por último, pensad en que este piano tan extraño que os estoy describiendo tuviera la posibilidad de sustituir ese teclado que acciona unos martillos que golpean unas cuerdas por nuestra propia voz, unos pulsos generados por un sistema digital o los sonidos producidos por otro piano totalmente diferente, dotando entonces a nuestro piano original de una flexibilidad casi infinita a la hora de crear nuevos sonidos.

Si habéis llegado hasta este punto habiéndoos hecho una idea mental más o menos aproximada de lo que os estoy describiendo no estáis lejos de estar visualizando un sintetizador en términos generales, ya que se trata de un dispositivo que genera (o recibe) unas señales eléctricas que a continuación procesa internamente y que al final amplifica llevando la señal a un altavoz que nos da un sonido determinado.

Sintetizadores modulares

Ahora que más o menos nos hemos hecho una idea de qué es un sintetizador, podemos distinguir dos tipos en función de su forma constructiva: por un lado están los que conforman una unidad “cerrada” con unos controles configurados para modificar los sonidos de una determinada manera. Un ejemplo de este tipo de sintetizadores es el Korg Monotribe, el cual cuenta con un pequeño teclado a través del cual introducir las notas que queramos y a partir de ellas crear una secuencia modificando el sonido con los muchos y variados controles con los que cuenta la unidad.

Del mismo modo, podemos tener un sintetizador modular, el cual no tiene una estructura fija sino que el usuario lo monta e interconexiona en función de sus necesidades o preferencias, constando de varios módulos cada uno con su función. Tendremos un módulo generador de señales, otro para el filtro paso bajo, otro que hace de oscilador de baja frecuencia, otro con el amplificador de salida… Todos ellos con sus entradas y salidas que podemos cablear como queramos, de tal modo que nada nos impide tomar parte de la señal de salida y meterla en un lazo de realimentación a alguna puerta lógica controlada por voltaje para modificar así el sonido que sale del equipo dando lugar a una gama casi infinita de variaciones.

Sea como sea, existe también un esquema intermedio entre los dos casos que os he comentado antes; que es el del sintetizador semimodular. Esto consiste en que la estructura de los bloques es fija y ya lleva una interconexión interna entre ellos pero también contamos con conexiones integradas en la estructura del equipo que nos permiten llevar las señales para acá y para allá a través de unos cables que conectaremos a nuestro gusto tal y como se hace en un sintetizador modular pero sin la complejidad aparejada al setup inicial de estos.

Bastl y su Kastle

Al Bastl Kastle original (versión 1.0) llegué tarde. Cuando supe de su existencia ya estaba más que agotado y no había existencias a la venta tampoco en Amazon, eBay o similares. Se trata de un producto de producción bastante limitada y me resigné a quedarme sin él pese a lo atractivo que me parecía.

Sin embargo, parece que el destino se había aliado conmigo porque menos de una semana después de aquello me enteré de pura casualidad de que la gente de Bastl Instruments sacaba a producción una nueva versión del Kastle revisada y mejorada; así que para que esta vez no se me escapara fui directo a la web oficial y encargué mi unidad, llegando a mis manos apenas cinco días después.

Se trata de un minúsculo (45 x 53 x 68 mm aprox) sintetizador semimodular con seis tipos de síntesis, controles de tono, timbre y forma de onda, LFO de frecuencia regulable con salidas de onda cuadrada y triangular, un generador de impulsos pseudoaleatorio, alimentación por 3 pilas alcalinas AA o puerto microUSB, puntos de conexión entre sus componentes internos para el enrutamiento de la señal mediante el uso de cables dupont M-M (el Kastle trae una decena de ellos) y conexión con otros equipos a través de dos jacks de entrada/salida.

Eso sí, ya os advierto de que no se trata de un sintetizador con teclado en el que podamos crear armoniosas melodías ni nada por el estilo; ya que la filosofía del Kastle es la de crear sonidos prácticamente aleatorios y hacerlos variar de infinidad de formas para así crear sonidos ambientales. Podemos conectar elementos externos para traer al Kastle una melodía, pero al pasar por este mini-sintetizador tened claro que esa armonía se va a alterar en buena medida por la propia concepción del aparato hasta llegar a extremos que la harán casi irreconocible.

En cuanto al Kastle en si, lo primero que llama la atención nada más sacarlo de la caja es su minúsculo tamaño y es que, de hecho, en la palma de vuestra mano hay espacio para sostener dos de ellos holgadamente. Si le dais la vuelta veréis que en su base hay espacio para encajar tres pilas AA, y ese es justo el tamaño de la base del dispositivo, así que si os queréis hacer una idea muy aproximada del espacio en la mesa que ocupa un Bastl Kastle sólo tenéis que coger esas tres pilas que os digo y ponerlas juntas.

El Bastl Kastle V1.5 en uso

Si encendemos el Kastle sin cablear ninguno de sus puertos internos vamos a obtener un sonido tipo “drone” que podemos modular con cada uno de los siete potenciómetros de los que dispone el aparato. Esta es una buena forma de trastear con ellos y comprobar cómo afectan a los sonidos generados familiarizándonos así con cada uno. Por cierto, el Kastle no incorpora altavoz, así que nos toca usar auriculares o conectarlo a un amplificador externo.

Pues bien, dejad todos los controles más o menos en su posición central y vamos a coger ahora un cable para puentear la salida triangular del LFO llevándolo a la entrada nombrada como Waveshape. Nada más conectar el cable ya notaréis un cambio en el sonido, pero si ahora modificáis los potenciómetros del LFO y el de Waveshape vais a escuchar cómo el sonido se ve afectado por la señal que le estamos metiendo.

Sin modificar nada más, probad ahora a cambiar el extremo del cable de la señal triangular a la inmediatamente superior (la señal cuadrada del LFO) y veréis que el sonido cambia de una forma algo ondulante a un estilo más pulsante.
Otra conexión interesante es la de la salida rotulada como Stepped, ya que su salida es una combinación aleatoria de voltajes que se repiten durante el periodo del LFO dando lugar por tanto a un patrón de sonidos repetitivos que podemos tratar con los controles del equipo.

En cuanto a los modos de síntesis, estos se seleccionan a través de la conexión Mode, la cual podemos llevar a nivel bajo o a nivel alto variando así el sonido radicalmente. Si esta señal la conectamos a nivel bajo usaremos síntesis de ruido, mientras que si la conectamos a un nivel alto se usará síntesis por modulación de ruido. Obviamente si conectamos a una señal variable (como la salida del LFO) iremos cambiando de modo dinámicamente en función de si la señal está en nivel alto o bajo dando lugar a variaciones de sonido de lo más variopintas.

En general, y como bien dicen sus creadores, la gracia del Kastle es que podemos conectar cualquier punto con otro sin que al equipo le vaya a pasar nada, por lo que la gracia está en experimentar y ver cómo las diferentes interconexiones y variaciones sobre los potenciómetros van afectando al sonido creado. Además, a través de los puertos I/O podemos introducir señales sonoras externas, por lo que la creatividad se eleva exponencialmente a medida que, como os decía en la introducción de este artículo, conectemos fuentes de señal a este minúsculo sintetizador.

Sea como sea, después de todo este rollo que os he soltado, creo que la mejor manera de que entendáis su funcionamiento y podáis haceros una idea de sus posibilidades es dejaros con el vídeo que la propia Bastl creó en su momento para presentarlo en sociedad, ya que nadie mejor que sus creadores para mostraros las posibilidades creativas de este pequeño monstruo sonoro.

¡Nos leemos!

Más información

Página oficial del Bastl Kastle V1.5

Vídeo de Little Big Synths mostrando las posibilidades del Kastle

Pruebas de rendimiento familia Raspberry Pi (Zero, Zero W, 3A, 3B, 3B+, 4B)

Soy fan declarado de las Raspberry Pi desde que me hice con un model B de la tercera revisión hace unos tres años aproximadamente. Me parecen máquinas de un tamaño delicioso capaces de correr una versión “de verdad” de Linux con la flexibilidad que esto implica y con una comunidad de aficionados y desarrolladores detrás alucinante.

Por poner algunos ejemplos, con el paquete LibreOffice podemos editar textos, crear hojas de cálculo, bases de datos… Una completa suite ofimática que nos puede venir muy bien tanto para temas laborales como para nuestras cosas de casa. También los hay que usan una Raspberry Pi para emular diferentes sistemas; siendo las videoconsolas antiguas uno de los puntos fuertes de dicha vertiente. Y bueno, tampoco podemos dejar de lado a aquellos que usan estos microordenadores a modo de mediacenter para ver películas y series con una calidad impropia de un hardware tan pequeño o los que las usan como base de los más variados montajes electrónicos imaginables gracias a sus puertos de expansión.

Pues bien, combinando mi pasión por estas máquinas con la de las mediciones en general me he animado a esbozar un artículo hablando de la potencia de cálculo de esta familia de computadoras “de bolsillo” a través del conocido benchmark Hardinfo disponible para la mayoría de sistemas Linux.

Dado que la última versión de Raspbian (el S.O. nativo de las Raspberry Pi) puede funcionar en todas las máquinas anteriores la premisa inicial fue actualizar el sistema el día de la prueba e ir cambiando la microSD entre las máquinas haciendo la misma operación en todas ellas: iniciar el sistema sin conexión a internet, esperar unos segundos a que terminara el arranque por completo, ejecutar la batería completa de pruebas de rendimiento y generar un informe de cada máquina del que luego pudiera extraer los datos necesarios para este estudio.

Comentar que los modelos sobre los que he hecho las pruebas son los siguientes:

  • Raspberry Pi Zero
  • Raspberry Pi Zero W
  • Raspberry Pi 3 model A
  • Raspberry Pi 3 model B
  • Raspberry Pi 3 model B+
  • Raspberry Pi 4 model B (2 GB RAM)

A grandes rasgos, Hardinfo realiza un total de ocho tests correlativos: cinco son sobre cálculos con la CPU, dos de cálculos con la FPU y uno de dibujado en pantalla empleando la GPU.

Tras la ejecución de todos los tests en todas las máquinas estos son los resultados que he obtenido:

Tomando en cada uno de los test el mejor resultado, para mejorar la claridad de la interpretación he decidido asignar un valor del 100% a dicho resultado y calcular el resto como un porcentaje en comparación a este. De este modo he obtenido la siguiente tabla:

Aunque en la primera tabla ya se podía apreciar, en la de los porcentajes es más claro todavía: la Raspberry Pi 4 es la más rápida en todo a excepción del test de N-Queens, donde la 3B+ es notablemente más veloz. Supongo que será por alguna función no del todo optimizada todavía y que con el tiempo parchearán haciendo que también sea la más rápida en esa prueba; ya que su hardware es el más potente de todos a día de hoy.

Veamos todo esto de un rápido vistazo mediante una gráfica que he preparado; sólo que en vez de comparar cada máquina con su batería de pruebas, lo he agrupado por pruebas y así podemos comprobar el rendimiento de cada máquina en cada caso.

Cosas curiosas que saco como conclusiones:

  • En las Raspberry Pi Zero no hubo cambios de rendimiento con la llegada de la revisión W y esta gama es muuuucho más lenta que las Raspi de tamaño completo de su época (las Raspberry Pi 3). En algunos tests son bastante más lentas y en otros son tortugas como en el caso de los cálculos en coma flotante.
  • La 3A es una sorpresa, ya que con un tamaño que es prácticamente la mitad que la 3B+ clava prácticamente su rendimiento. Como amante de las máquinas miniaturizadas considero que es la que mejor relación tamaño/rendimiento obtiene más allá incluso de las Zero que, si bien son diminutas, están muy limitadas en cuanto a memoria y capacidad de cálculo.
  • La 4B es el último modelo aparecido hasta el momento y en general con una potencia netamente superior; sobre todo en los test que emplean la FPU. La única pega es a nivel gráfico si estáis usando los drivers experimentales, ya que todavía están por pulir y en las pruebas de dibujado en pantalla el rendimiento es malísimo. Si entramos a la configuración del sistema y seleccionamos el driver por defecto el rendimiento se pone a la altura de lo esperado.

Como os decía, lo mejor las Raspbery Pi es su flexibilidad y la cantidad de usos que se les pueden dar. Y es que aunque una Pi Zero pueda parece poca cosa, sin ir más lejos tengo dos por casa: una de ellas es un emulador de ZX Spectrum “de bolsillo” y la otra es un mediacenter con el que he visto multitud de series y películas manteniéndola escondida detrás de la TV y alimentándola simplemente por el puerto USB de la propia televisión.

Por su parte, estos días estoy probando a emplear la Raspberry Pi 4 como sustituto de mi ordenador de sobremesa para tareas ofimáticas y he de decir que estoy muy contento con ella, ya que sin ir más lejos, este artículo y las tablas que lo ilustran han sido creadas íntegramente con LibreOffice y el programa de edición gráfica GIMP. Lo malo de este modelo es que, por su elevado consumo energético, tenemos que emplear un adaptador USB-C que sea capaz de entregar 3 amperios de corriente (os recomiendo haceros con el oficial, que funciona de maravilla) y que para conectarla a una TV tendremos que emplear un cable microHDMI que, a día de hoy, todavía cuesta un poco encontrarlos.

Y ya por último, comentaros que la Raspberry Pi 3 model B la tengo configurada a modo de recreativa gracias al emulador MAME y un mando de ese estilo capaces de transportarme a aquellos años 90 en los que los salones recreativos eran el epicentro de la diversión de mi generación (hasta que llegó la PSX; pero eso es una historia que otro día os contaré).

¿Qué es la regulación mediante PWM?

Hay un concepto que estudié en la carrera y que siempre me ha llamado poderosamente la atención: la modulación por anchura pulso, más conocida por sus siglas en inglés PWM (de Pulse Width Modulation).

Aunque es algo que se aplica a muchos ámbitos, me gustaría explicaros este concepto usando para ello unos dispositivos a los que estoy muy acostumbrado: las linternas LED. De este modo creo que os puedo narrar en qué consiste este tipo de regulación y poneros unos ejemplos muy visuales de ello. Vamos allá.

Olight i3E EOS (V)

Dos modos de regular una magnitud de naturaleza analógica

Os decía que emplearía linternas para explicaros la regulación PWM porque es una aplicación muy típica de este concepto y creo que es un ejemplo que todos podéis imaginaros por ser extremadamente simple.

Imaginad una linterna LED que cuente con un regulador de la intensidad lumínica. Es decir, que podemos seleccionar varios escalones entre una luz muy tenue y toda la que pueda dar el diodo LED que transforma la energía de las baterías en fotones.

La potencia lumínica de una linterna viene dada en términos generales por el producto de la tensión por la corriente que recibe el LED. Para simplificar nuestros cálculos vamos a suponer que el driver mantiene la tensión constante de tal modo que la regulación de la potencia se realiza variando nada más que la corriente entregada. Esta suposición tampoco es que se aleje mucho de la realidad, ya que lo habitual en las linternas LED es que posean un regulador de tensión que hace que al LED le llegue el mismo voltaje independientemente de la carga de la batería.

Olight i3E EOS (I)

Circuitería de control (driver) en la cabeza de una Olight i3E EOS

El modo “caro” de modificar el grado de iluminación que da la linterna es empleando un regulador que permita variar la intensidad de la corriente entregada al LED. De este modo la linterna emitirá cierta cantidad de luz de forma continuada. Si el LED requiere 80 mA para lucir al 100% de su capacidad, el regulador entregará 40 mA para que luzca a la mitad (50%), 20 mA para que luzca a una cuarta parte de su capacidad (25%), 72 mA para que luzca al 90%… Creo que el concepto queda claro, ¿no?

Lo que ocurre, como os decía antes, es que la circuitería necesaria para regular esta corriente suele ser más compleja (y por tanto de mayor coste) que la electrónica necesaria para regular por PWM, que es lo que vamos a ver ahora.

El ciclo de trabajo

La regulación por anchura de pulso es un modo digital de conseguir regular una magnitud de manera que parezca analógica. En esencia se trata de conmutar muy rápidamente entre los estados de encendido (con el LED al 100% de su potencia) y apagado jugando con el ciclo de trabajo de tal modo que la intensidad lumínica obtenida es la de dicho ciclo de trabajo.

Para entenderlo de un modo sencillo vamos a poner como ejemplo una linterna cuya frecuencia de conmutación sea de 100 Hz, lo que significa que cada segundo hacemos 100 ciclos ON-OFF; lo que equivale a decir que un ciclo ON-OFF dura una centésima de segundo. También supondremos que el LED a plena potencia consume los 80 mA que puse antes como ejemplo.

160123_113606

Algunas linternas de mi colección

Pues bien, si durante esa centésima de segundo (que equivale a 10 milésimas de segundo) hacemos que nuestra circuitería electrónica mantenga el LED encendido durante las primeras 5 milésimas y lo apague las 5 siguientes tendremos un ciclo de trabajo del 50% y esa será la intensidad lumínica de la linterna con respecto a la que daría el LED continuamente a plena potencia.

Si la electrónica mantiene el LED encendido las primeras 2 milésimas y apagado las 8 siguientes tendremos un ciclo de trabajo del 20% y, por tanto, una intensidad lumínica inferior al caso anterior. Otro ejemplo sería tener el LED encendido las primeras 7 milésimas de cada ciclo y apagado los 3 restantes, lo que daría un ciclo de trabajo del 70% y una intensidad lumínica de ese mismo valor.

Si nos vamos a los casos extremos (algo que a los ingenieros nos encanta) vamos a ver que si tenemos el LED encendido durante las 10 milésimas tenemos un ciclo de trabajo del 100% que indica que la linterna está encendida a plena potencia. Del mismo modo, si el tiempo de encendido es de 0 milésimas y las restantes 10 milésimas está apagado, el ciclo de trabajo es del 0% y por tanto la linterna no emite luz alguna.

Un modo gráfico de ver todo esto

El ladrillo que os he escrito en los párrafos superiores es sencillo de entender si hacemos una gráfica de cada caso, que es lo que os voy a plantar a continuación:

En ella, tenéis en cada caso en el eje horizontal la evolución en el tiempo y el eje vertical los dos estados posibles del LED (ON y OFF) donde el estado ON implica un consumo de corriente de 80 mA y el estado OFF de 0 mA. Asumimos también que el cambio entre los dos estados se realiza de forma instantánea.

Pues bien, si consideramos la intensidad lumínica en cada uno de los casos como el área rayada que se genera en cada ciclo ON-OFF, haciendo una cuenta sencilla observamos que la modulación PWM equivaldría en términos lumínicos a una corriente constante del valor proporcional al ciclo de trabajo.

Por tanto, si queremos obtener una luminosidad del 20% de la nominal del LED podemos introducir un regulador analógico de corriente que de 16 mA o bien diseñar un regulador PWM funcionando con un ciclo de trabajo del 20%; siendo esta última solución, por lo general, más sencilla y económica.

160124_144552

LED de una Olight i3S EOS en modo firefly (el más tenue de todos)

Desventajas de usar PWM

No todo van a ser bondades; y es que a la hora de diseñar un sistema regulado por PWM (en nuestro caso una linterna) es muy importante tener en cuenta la frecuencia de conmutación del dispositivo, ya que de no ser lo suficientemente rápida el ojo va a percibir un parpadeo que puede llegar a ser bastante molesto. En el caso de una bombilla incandescente no es un punto crítico porque su tiempo de encendido y apagado es de algunos milisegundos, de modo que los escalones del cambio de estado están muy amortiguados; pero en un LED que se enciende y se apaga en un tiempo prácticamente nulo, si no elegimos una frecuencia de conmutación lo suficientemente rápida enseguida vamos a notar ese irritante parpadeo.

Esto que os comento puedo mostrarlo con la ayuda de una cámara de fotos, así que os voy a dejar en primer lugar con una fotografía de una linterna regulada sin PWM (Olight i3S EOS) moviéndose rápidamente delante del objetivo:

Olight i3S EOS moviéndose delante de la cámara a su mínima potencia. No hay rastro de PWM

Como veis, el trazo dejado por la luz es una línea continua porque el LED está luciendo uniformemente en todo momento. Sin embargo, cuando hago esto mismo empleado una linterna regulada por PWM (una Nitecore Tube en este caso) vais a ver que el resultado es bien distinto:

Nitecore Tube moviéndose delante de la cámara a su nivel de potencia más bajo y mostrando un marcado PWM

¿Veis los encendidos y apagados del LED? Son debidos a que aunque a simple vista parece que la linterna luce de forma constante en realidad el PWM la está haciendo encenderse y apagarse a toda velocidad tal y como os comenté en el apartado anterior.

Pues bien, ya que estamos vamos a ver la frecuencia de conmutación del LED en este caso concreto, pues si miramos los datos EXIF de la imagen que hemos capturado vemos que el tiempo de exposición es de 1/50 seg. Si contamos el número de parpadeos que ha hecho el LED durante ese breve lapso de tiempo (se ve claramente que han sido 11 veces) podemos calcular que la frecuencia de conmutación es de aproximadamente 550 Hz.

Este modelo de linterna tiene una frecuencia de conmutación bastante baja en el modo más tenue, pero algo mayor en los modos intermedios y no emplea PWM en el modo más brillante (lógico, ya que el LED recibe toda la corriente que puede admitir). Ya que estamos vamos a ver esos dos casos más que os comento.

La Nitecore Tube posee una frecuencia de PWM más alta en los modos intermedios

En la imagen que tenéis aquí encima la linterna está funcionando a potencia intermedia y su frecuencia de conmutación es mayor que en el caso anterior. Para hacer la fotografía he empleado un tiempo de exposición de 1/400 seg y cuento 9 parpadeos del LED. Esto nos da una frecuencia de conmutación de aproximadamente 3200 Hz. En este caso el parpadeo es apenas perceptible por el ojo humano, lo que hace que su uso sea más relajado para la vista.

Me gustaría aclarar que la frecuencia de conmutación en estos modos intermedios de la Nitecore Tube es la misma para todos ellos, pero lo que va a variar entre unos y otros es el ciclo de trabajo tal y como hemos visto en el diagrama de tiempo que os dibujé anteriormente.

La Nitecore Tube no muestra ningún tipo de PWM en su potencia máxima

Si ponemos la linterna a plena potencia no se hace uso de PWM para regular, ya que en realidad no hay nada que regular debido a que el LED está recibiendo continuamente la corriente de encendido, de modo que el rastro que deja es perfectamente continuo.

Comparativa visual entre la Nitecore Tube (arriba) y la Olight i3S EOS (abajo) funcionando en sus modos de potencia más bajos

Por último, no quería dejar pasar la oportunidad de mover a la vez ambas linternas delante de la cámara funcionando a su mínima potencia para que podáis apreciar la diferencia entre la que va regulada por PWM y la que está regulada a corriente constante. Como podéis ver, mientras que una ha parpadeado 15 veces en los 1/40 seg que ha durado la exposición de la imagen (esto me da una frecuencia de PWM de unos 600 Hz) la otra ha dejado un rastro perfectamente continuo.

La importancia de la frecuencia de conmutación

Ya os habréis dado cuenta de que el ejemplo que os puse en papel era muy teórico porque en él os hablaba de una frecuencia de conmutación para el PWM de 100 Hz; pero lo hice para poder usar unos tiempos muy definidos y fácilmente entendibles. En caso de fabricar una linterna LED que implemente esa frecuencia de conmutación sería prácticamente una luz estroboscópica y acabaríamos mareados si hiciéramos uso de ella.

Daos cuenta de que en su modo más bajo la Nitecore Tube tiene una frecuencia de conmutación de entre 500 y 600 Hz y os aseguro que a simple vista se nota bastante. Sin embargo, a esos aproximadamente 3 KHz a los que conmuta en los modos intermedios el ojo ya no aprecia parpadeo; pero es que se trata de una frecuencia 30 veces superior a la del ejemplo que os puse, por lo que os podéis hacer una idea de la velocidad a la que es capaz de encenderse y apagarse un LED. Para que os hagáis una idea, conmutar a 3000 Hz significa que el ciclo de encendido y apagado del LED dura aproximadamente 0,3 milésimas de segundo.

160123_115128

Bueno, y hasta aquí este artículo cuya intención no era otra que compartir con vosotros un tema que a mí me parece muy interesante y que además tiene muchas aplicaciones tanto en el mundo industrial como en la vida diaria, ya que esta misma teoría que rige el funcionamiento del PWM en las linternas es aplicable a control de motores, caudales, temperaturas… Ahora que lo conocéis seguro que os dais cuenta de que estáis rodeados de aparatos controlados por PWM.

Como curiosidad, me gustaría sacar a relucir esta fotografía tomada en una isleta de la calle de Alcalá, donde a mi derecha pasaban coches que mostraban sus luces rojas de posición y/o freno y a mi izquierda los coches que venían de frente y, por tanto, haciendo brillar sus luces blancas de cruce.

Entre el tráfico de Madrid

¿Veis algún rastro de PWM? Pues no, porque la fotografía la hice hace ya doce años (todavía me acuerdo perfectamente del momento de captar esta imagen) y los coches todavía ni siquiera soñaban con llevar luces exteriores LED. Si hiciéramos esta misma foto hoy en día o aseguro que muchas de esas líneas difuminadas pero continuas serían una larga sucesión de puntos porque en los últimos tiempos los LEDs están copando el mundillo de la iluminación.

¡Nos leemos!

“D-lighting” y “Active D-Lighting”

Hay un sistema en las réflex Nikon llamado D-lighting (en Canon también existe en multitud de modelos bajo las denominaciones de Highlight Tone Priority y Automatic Lighting Optimizer) cuyo funcionamiento a grandes rasgos me gustaría comentaros hoy al ver que se trata de una tecnología que suscita bastantes dudas entre los usuarios después de ver algunos comentarios al respecto en este blog y numerosas consultas sobre este asunto en varios foros de fotografía.

Amanece (que no es poco)

¿Qué es el D-Lighting?

El D-lighting es un sistema que intenta expandir el rango dinámico de la cámara mediante el procesado de los datos del sensor una vez disparada la fotografía. Es decir, no se trata de un interruptor mágico que de repente mejora las prestaciones del sensor de la cámara; sino de una función implementada por software que, por tanto, podríamos realizar posteriormente “a mano” mediante un programa de revelado como Capture NX o Adobe Lightroom.

El truco del D-lighting consiste en oscurecer ligeramente las zonas más claras de la fotografía y aclarar un poco las zonas más oscuras de la misma tratando de evitar así los picos en los extremos del histograma; algo que, como os digo, no es nada que no podáis hacer en un ordenador mediante el postprocesado de la imagen.

La magia de la luz

El D-Lighting está presente en toda la gama de cámaras Nikon y lo habitual es emplearlo en imágenes captadas en formato RAW aprovechando que en dicho formato se captan más datos de los que el ojo es capaz de apreciar a simple vista, no siendo capaz de sacar mucho partido de las imágenes en JPG. Sin embargo, hay una pequeña contradicción en esto, ya que si disparamos en RAW el procesado lo haremos en nuestro ordenador una vez que estemos de regreso en casa y no tendremos ninguna necesidad de retocar las fotografías directamente en la cámara. Es más, si lo aplicamos a una imagen disparada en RAW, dicho archivo no se modificará sino que obtendremos una imagen JPG resultante del RAW procesado internamente.

¿Y el Active D-Lighting?

En las cámaras Nikon de gama media y alta, además del D-Lighting del que hablábamos anteriormente, también tenemos disponible la opción de emplear el Active D-Lighting (también denominado ADR; de Adaptative Dinamic Range) que se aplica directamente a la fotografía durante la toma de la misma en caso de que tengamos activada dicha función.

Sol y nubes

La diferencia en este caso es que parte del proceso del Active D-Lighting tiene lugar antes del disparo, ya que a grandes rasgos lo que se hace es subexponer ligeramente la imagen para así evitar quemar los tonos más claros y una vez que los datos están en la memoria de la cámara aclarar los tonos más oscuros para codificar finalmente la imagen en formato JPG y así evitar que esta quede demasiado apagada.

De hecho, para el buen funcionamiento del Active D-Lighting se recomienda emplear el modo de medición matricial, ya que al estar programado para funcionar sobre escenas con una iluminación global más o menos uniforme, no dará muy buenos resultados en caso de que hagamos una medición puntual sobre alguna de las zonas de luz de la escena (una bombilla, un claro en el cielo…).

De todos modos volvemos a lo de antes; y es que si disparamos en RAW podemos hacer esto mismo “a mano” si aplicamos a la exposición una pequeña compensación negativa para asegurarnos de no saturar los tonos más cercanos al blanco y luego en postproceso aclaramos ligeramente los tonos más oscuros.

D-Lighting, Active D-Lighting y el formato RAW

Aunque podemos emplear D-Lighting y Active D-Lighting disparando tanto en JPG como en RAW, si empleamos el formato RAW es una pérdida de tiempo utilizar cualquiera de los dos porque eso mismo lo podemos hacer en nuestro ordenador de una manera mucho más potente, precisa y personalizable como os decía anteriormente.

Hielo (26/12/2010)

El Active D-Lighting nos será de utilidad si disparamos en formato JPG, ya que en este caso lo habitual es emplear las imágenes según salen de la cámara sin ningún tipo de retoque posterior (es lo que se suele hacer en fotoperiodismo, donde segundos después de hacer la fotografía esta ya va de camino a la agencia gracias a la magia de los transmisores inalámbricos). Si lo empleamos con el formato RAW lo único que vamos a conseguir es una cierta subexposición dado que el aclarado posterior de los tonos oscuros de la imagen no queda reflejado en los datos de la imagen “en bruto” (que es lo que se graba en la tarjeta de memoria) y al final lo que vamos a lograr es una imagen ligeramente más oscura que si no empleáramos esta ayuda.

Por tanto, si disparáis exclusivamente en RAW (como yo) os recomiendo que desactivéis el Active D-Lighting y cualquier ajuste de la imagen lo hagáis íntegramente en vuestro ordenador empleando para ello el software adecuado. Sin embargo, disparando en JPG sí que es recomendable activar dicha ayuda en la cámara porque alguna vez nos puede salvar de quemar irremediablemente alguna zona amplia de la imagen. En cuanto al D-Lighting “a secas” la verdad es que disparando en RAW no le veo ninguna utilidad si empleamos un buen software de tratamiento de imágenes.

El trasluz del amanecer
La importancia de saber para qué sirven las cosas
Como os decía hace unos párrafos, lo que hace el D-lighting no es aumentar las prestaciones del sensor; sino “comprimir” el histograma de la fotografía de tal modo que no sobrepase los límites marcados por este vital componente de la cámara y evitando así en la medida de lo posible que tengamos zonas quemadas o totalmente a oscuras.

Lo que estos dos sistemas de ayuda que hemos visto hoy nos dan es, por tanto, un poco más de flexibilidad a la hora de enfrentarnos a escenas con fuertes contrastes lumínicos, pero no hay que hacer uso de ellos por sistema y sobre todo hay que ser conscientes de que no son útiles en todas las situaciones.

La calle Mayor

Habrá que hacer en este caso la misma observación que aparece en los manuales de los coches equipados con sistemas de control de tracción y que dice: “Advertencia: el ESP no cambia las leyes de la física”, porque al final las limitaciones de nuestro equipo fotográfico siempre están ahí y hay que tenerlas muy presentes.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

La estanqueidad de las réflex profesionales

Hay un detalle que distingue a las cámaras réflex de gama profesional del resto: el sellado del cuerpo contra polvo y humedad. No quiere esto decir que estas cámaras sean sumergibles ni mucho menos; pero sí que podremos disparar con ellas con cierta tranquilidad bajo lluvia, nieve o entornos polvorientos.

Regando los jardines de la Plaza de Cervantes (VII)

Obviamente, al ser modelos dirigidos a gente que vive de la fotografía, estos han de resistir condiciones meteorológicas adversas, ya que un fotoperiodista no puede permitirse dejar de disparar porque se ponga a llover o porque se desate una tormenta de arena en el desierto. De este modo, los cuerpos de las cámaras tope de gama de los catálogos de las diferentes marcas suelen estar fabricadas con un cuerpo de aleación metálica (magnesio en la mayoría de las ocasiones gracias a su ligereza) que incluye juntas de estanqueidad en todas sus partes móviles para evitar la entrada de líquidos o elementos externos en el interior aunque por fuera no haya por donde cogerla. Una medida que no es infalible pero que otorga un plus de fiabilidad a estos modelos.

De todos modos, un error muy común es pensar que con uno de estos cuerpos podemos disparar durante horas bajo un intenso aguacero sin preocuparnos de nada; porque al fin y al cabo, de lo que hoy estamos hablando es del sellado del cuerpo; pero nada hemos dicho todavía sobre los objetivos y ya sabéis que una cadena es tan fuerte como el más débil de sus eslabones.

Los objetivos: posible talón de Aquiles

Las ópticas que acoplamos a las cámaras también se dividen en gamas, y al igual que ocurre con los cuerpos, no todas están preparadas para que les caiga agua encima sin que entre humedad en su interior. En general, los teleobjetivos profesionales pueden aguantar condiciones adversas sin demasiados problemas; pero los objetivos más básicos (el habitual 18-55 “de kit”) pueden dar problemas si no se tiene cuidado con ellos.

Nikkor 80-200 f/2.8 en soledad

Los conocidos 70-200 f/2.8, 24-70 f/2.8 y compañía están fabricados de tal modo que incluso usándolos bajo la lluvia o la nieve no presentarán problemas de funcionamiento; aunque sí que pueden empañarse sus lentes en caso de cambios de temperatura bruscos y/o humedad ambiental muy elevada. Por ejemplo, toda la gama L de Canon está preparada para aguantar el tipo bajo todas las condiciones, pero siempre se advierte de que para completar el sellado del objetivo es necesario tener colocado un filtro roscado en la parte frontal, ya que si no podría entrar humedad por las uniones entre las lentes que conforman la óptica y la carcasa de la misma.

El cuerpo de mi D300 pertenece a la gama profesional de Nikon (de hecho hasta la llegada de la D300S y la reciente D7000 era la cámara con sensor DX de mayores prestaciones) y, por tanto, sé que acompañado de la óptica adecuada no debería de tener problemas de funcionamiento. En mi caso particular, cuando está lloviendo suelo llevarme mi querido Nikkor AF-S 35mm f/1.8 DX porque como no tiene partes móviles y posee una junta de caucho en su montura me da bastante confianza y de hecho nunca me ha dado problemas de ninguna clase. De todos modos, el voluminoso Nikkor AF 80-200 f/2.8 también me ha demostrado que aguanta perfectamente los chaparrones pese a ser un objetivo de focal variable gracias a su construcción a prueba de bombas.

Pero ojo, porque ningún objetivo es acuático ni sumergible (a no ser que nos vayamos a la gama Nikonos, que consta de varias cámaras analógicas y objetivos especialmente diseñados para ser empleados bajo el agua) y lo que aquí estamos diciendo es que ciertas ópticas pueden aguantar un chaparrón o una tormenta de nieve sin que entre humedad en su interior; pero si los sumergís en agua salada habréis firmado la sentencia de muerte de cualquiera de ellos.

Review AF-S Nikkor 35mm f/1.8 DX

Una situación especialmente peligrosa

En todo caso, hay una situación especialmente peligrosa cuando estamos disparando bajo condiciones meteorológicas adversas: el cambio de objetivo. Durante los instantes que dura el cambio propiamente dicho estamos exponiendo a los elementos la parte interna de la cámara y podemos encontrarnos con la mala suerte de que entre cualquier cosa por allí. Por lo tanto, no se os ocurra cambiar de óptica bajo un aguacero porque aunque a lo mejor no notéis nada de primeras, si entra humedad dentro de la cámara puede aparecer corrosión pasados unos días y al final acabar estropeándose la electrónica interna, que siempre es muy sensible a ese tipo de cosas.

Un caso muy radical de esto que os digo es el de un compañero del foro de Nikonistas que tenía una D300 y se encontraba haciendo fotos en la orilla de una laguna con tan mala suerte que la cámara se cayó al agua con el objetivo desmontado durante apenas un par de segundos; tiempo suficiente como para que se le anegara completamente por dentro. Si hubiera llevado el objetivo montado a lo mejor el agua no hubiera pasado de la carcasa de la cámara; pero al estar la bayoneta de la cámara totalmente expuesta, el agua entró en el interior y, además de provocar varios cortocircuitos que hicieron que la cámara se volviera loca, la humedad corroyó en pocos días las pistas de los circuitos impresos y al final hubo que tirar la cámara entera.

Familia de condensadores

Aun así, que nadie piense que una D40 se estropeará irremisiblemente porque le caigan un par de gotas de agua encima porque, sin ir más lejos, en mi viaje a principios de este año a Bruselas y alrededores, nos llovió prácticamente todos los días y yo no dejé de hacer fotos en ningún momento. No pasa nada porque la carcasa externa de una cámara se moje ligeramente pero, eso sí, en caso de que caiga agua a cántaros y no dispongáis de un equipo preparado para ese tipo de situaciones mejor no tentar a la suerte y guardar la cámara en la mochila hasta que se calme un poco el chaparrón.

A modo de resumen

En resumidas cuentas, hacerse con un cuerpo de gama profesional nos va a permitir disparar bajo condiciones climatológicas adversas con cierta tranquilidad. Aunque esté cayendo bastante agua del cielo o nos salpique un coche que pase sobre un charco su electrónica interna permanecerá a salvo de humedades. Sin embargo, debemos tener cuidado con los objetivos, ya que no todos están preparados para esas mismas situaciones y podemos encontrarnos con la desagradable sorpresa de que si bien nuestra cámara funciona perfectamente, la óptica deja de responder o lo hace erráticamente porque le ha entrado humedad en su propia electrónica.

Durante la lluvia

Tratada con cabeza, una cámara réflex nos puede dar muchos años de alegrías; pero siempre debemos de ser conscientes de las limitaciones de nuestro equipo y no probar sus límites de resistencia si no queremos llevarnos alguna sorpresa desagradable.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

Interruptores magnetotérmicos y diferenciales

Por diversos motivos estoy acostumbrado a tratar con diversos dispositivos eléctricos y electrónicos; y precisamente por eso uno puede perder un poco la noción de las cosas y creer que todo el mundo tiene ciertos conocimientos sobre estos temas.

Sin embargo, el otro día me di cuenta mientras hablaba con mis padres de que hay mucha gente a la que le suena eso del magnetotérmico y el diferencial, pero sólo sabe que son unas teclas que están en el cuadro eléctrico de la entrada de la vivienda y poco más.

Tras aquella charla en la que con un par de esquemas y unas breves explicaciones parece que les quedó claro para qué sirve cada cosa, se me ocurrió escribir esta entrada de modo que entendáis lo que es un interruptor magnetotérmico y un interruptor diferencial sin meterme en detalles técnicos; pues aunque se instalan juntos su función es completamente diferente y creo que son unos conceptos que pueden ser de utilidad a cualquier persona.

Un par de apuntes sobre electricidad

La electricidad es la energía que hace funcionar a la práctica totalidad de los aparatos que tenemos en casa y viene definida por dos magnitudes principales: la tensión y la intensidad. Obviamente hay muchas más, pero para lo que a nosotros nos interesa nos basta con estas que os comento.

rayos (2)

La tensión es la diferencia de potencial que existe entre dos polos o entre el hilo neutro y uno de los polos (dependiendo del tipo de instalación) y se mide en Voltios. Si medimos la tensión existente entre las bornas de cualquiera de los enchufes de nuestra casa obtendremos 220 V, que es la tensión a la que funcionan todos los aparatos domésticos en España.

Por su parte, la intensidad es la medida de la cantidad de corriente eléctrica que está pasando por un cable y viene dada en amperios (A). La corriente eléctrica no es más que un flujo de electrones que se desplazan por un conductor, y la medida de la intensidad cuantifica ese movimiento.

Si lo queréis ver con un símil podemos imaginar la corriente eléctrica como el torrente de un río: la tensión podría ser el equivalente al ancho del mismo, mientras que la corriente sería la cantidad de agua que pasa por su cauce. La combinación de ambas nos daría un determinado caudal, que en electricidad sería la potencia eléctrica (que es el producto de la tensión por la corriente).

Para obtener una misma potencia eléctrica podemos tener un río estrecho pero por el que circule mucha agua o bien uno más ancho pero por el que circule menos agua. En electricidad ocurre lo mismo: para obtener una determinada potencia eléctrica podemos tener una tensión alta y una corriente baja o bien una tensión de pocos voltios pero una corriente eléctrica muy alta.

El pausado discurrir del Henares

En todo caso, aunque la similitud de conceptos entre caudal de agua y corriente eléctrica es acertado, no es tan fiel a la realidad como me gustaría porque la electricidad necesita un circuito cerrado para circular. Es decir, que la corriente sale del enchufe por uno de sus polos, llega hasta la carga (el aparato eléctrico de turno) y regresa por el otro cable para salir por el polo contrario a diferencia del agua del río, que parte de un punto A y llega hasta un punto B sin posibilidad de retorno.

Pero centrándonos en el tema principal del artículo, os indicaré que puesto que en la inmensa mayoría de las instalaciones la tensión permanece constante y con lo que se “juega” es con la intensidad eléctrica, los dos sistemas de protección que vamos a ver en este artículo van a estar basados en esta magnitud eléctrica:

Interruptor magnetotérmico

El interruptor magnetotérmico es un dispositivo diseñado para proteger la instalación eléctrica (y los aparatos conectados a ella) tanto de sobrecargas como de cortocircuitos conectándose en el cuadro eléctrico de entrada a la vivienda. En realidad suele haber varios de ellos, ya que por lo general la distribución eléctrica de la vivienda se realiza en varias líneas, necesitando un interruptor de este tipo para cada una de ellas.

Los magnetotérmicos, como su propio nombre indica, poseen dos sistemas de protección ante el paso de corriente: uno de tipo magnético y otro de tipo térmico.

Protección magnética

El magnético se basa en una bobina que, colocada en serie con la corriente, no se activa a no ser que circule por ella una intensidad varias veces superior a la nominal (habitualmente entre 5 y 10 veces para instalaciones domésticas). Este margen se da para que el magnetotérmico no se dispare durante los arranques de ciertos aparatos con motores potentes (aspiradoras, lavavajillas…) porque suelen meter unos picos de corriente bastante elevados en el preciso momento de su puesta en marcha.

La protección magnética sirve para proteger la instalación ante cortocircuitos (contacto directo entre dos conductores de la instalación), ya que cuando tiene lugar uno de ellos la intensidad aumenta de forma brutal (en teoría se hace infinita) y la bobina a la que me refería antes entra en acción instantáneamente abriendo el circuito y cortando, por tanto, el paso de la corriente eléctrica.

Osciloscopio nocturno

Protección térmica

Por su parte, la protección térmica está encaminada sobre todo a proteger el cableado de la instalación, ya que se trata de una lámina bimetálica que se curvará en mayor o menor medida en función de la cantidad de corriente que circule por ella. Esto es debido a que cuando por un conductor circula una corriente éste se calentará en función de la intensidad, de modo que si esta se mantiene durante unos instantes por encima de la nominal que soporta el interruptor, la lámina bimetálica se curvará más de la cuenta y abrirá el circuito eléctrico evitando que una corriente demasiado elevada pueda quemar los cables de la instalación eléctrica.

El sistema de protección térmica va a dispararse en aquellos casos en los que estamos sobrepasando el consumo máximo de la instalación eléctrica y para el cual han sido dimensionados los cables. Un caso típico de esto es cuando empezamos a poner en marcha varios electrodomésticos de cierto consumo (secador de pelo, aire acondicionado, vitrocerámica, microondas…) y en un momento determinado comprobamos que “se ha ido la luz”.

Cuando se dispara cualquiera de las dos protecciones que hay en un magnetotérmico debemos de corregir la situación que ha propiciado su activación y a continuación subir la palanca que posee para así rearmar el circuito. En caso de que la situación que ha provocado su disparo no se haya subsanado como medida de seguridad no será posible rearmar el automático por mucho que lo intentemos.

Dibujando en el aire

Por cierto, si os acercáis al cuadro eléctrico de casa veréis que los interruptores magnetotérmicos son de un tamaño bastante pequeño (poco más que una caja de cerillas, como el que podéis ver al principio de esta sección) y suelen estar calibrados, por lo general, para corrientes de entre 6 y 25 A dependiendo del diseño de la red eléctrica.

Sin embargo, a modo de curiosidad, os puedo decir que el otro día tuve en la mano un magnetotérmico industrial de 250 A perteneciente y su tamaño es similar al de un tetra-brick de litro (y del peso ni hablamos, claro). Si tenemos en cuenta que ese interruptor que os digo es pequeño en comparación con los que os podéis encontrar en los sistemas de iluminación de aeropuertos y cosas así, os daréis cuenta de que lo que tenemos en casa es prácticamente de juguete.

Interruptor diferencial

El diferencial tiene como misión evitar que una persona que toque un conductor de la instalación se pueda quedar electrocutada por conducir la electricidad a través de su cuerpo; y de ahí que sea un componente vital en cualquier instalación eléctrica para garantizar la seguridad de las personas que la utilicen.

Como os decía anteriormente, para que la corriente eléctrica pueda circular es necesario cerrar el circuito por el que transita, y si por lo que sea tocamos un cable eléctrico sin estar aislados del suelo, nuestro propio cuerpo va a hacer de “cable” llevando la electricidad a tierra con el riesgo de electrocución que esto conlleva.

Los diferenciales se basan en un principio muy simple y es que la intensidad que entra por uno de los cables de un circuito eléctrico es igual a la que sale por el otro tal y como muestra el siguiente esquema:

Dentro del diferencial hay una toroidal que se encarga de monitorizar constantemente tanto la corriente de entrada como la de salida. Por tanto, en caso de que esas corrientes no tengan el mismo valor es que se está derivando directamente a tierra por algún sitio (posiblemente a través de una persona que ha tocado una parte de la carga mal aislada) y como medida de seguridad el interruptor se abre cortando la corriente. Esta sería la situación representada por la siguiente figura:

Para instalaciones domésticas se suelen emplear diferenciales de 30 mA y 25 mseg con objeto de garantizar la seguridad de las personas, ya que cualquier derivación a tierra provocará el disparo casi instantáneo del interruptor. En caso de instalaciones industriales se suelen emplear valores más elevados (sensibilidades de 300 mA o incluso algo más para los diferenciales más generales) porque al haber tantos elementos puede darse el caso de que algunos de ellas tengan pequeñas derivaciones a tierra sin que ello suponga un riesgo para la seguridad y evitando así que el diferencial esté saltando cada poco tiempo con los problemas que esto acarrearía.

Lo más importante de un diferencial es pulsar de vez en cuando (hay fabricantes que recomiendan hacerlo mensualmente, mientras que otros indican una frecuencia anual) el botón Test que todos poseen en su frontal. Al presionarlo el interruptor diferencial debería de dispararse instantáneamente demostrando que el dispositivo funciona a la perfección y dándonos la seguridad de que en caso de sufrir una descarga eléctrica estaremos debidamente protegidos frente a sus nefastas consecuencias. Cuando el diferencial se dispara hay que rearmarlo manualmente igual que hacíamos con los magnetotérmicos; pero un disparo no provocado del diferencial representa un problema grave, por lo que se recomienda revisar la instalación eléctrica para evitar riesgos.

La seguridad es lo primero

Como os comentaba al principio de este artículo, mucha gente sabe de la existencia de estos dispositivos de protección pero no tiene demasiado claro para qué sirven. Precisamente por ese desconocimiento es por lo que hay incluso algunas personas que ante repetidos disparos llega al extremo de puentearlos para que así no vuelva a “irse la luz”.

Después de haber leído estos párrafos sobre el funcionamiento y la razón de ser de estas protecciones que todos tenemos en casa os imaginaréis que hacer algo así es una auténtica locura; pero aun así os aseguro que hay bastante gente que cada vez que cambia una bombilla se juega la vida porque en caso de tener el diferencial “trucado” lo que sería un simple chispazo se convertiría en una descarga continuada que puede llevar a esa persona incluso a la muerte.

A la electricidad no hay que tenerle miedo porque es una forma de energía muy segura siempre y cuando se cumplan todas las medidas de protección estipuladas. Y si con este artículo he conseguido haceros entender qué son esas palanquitas que hay en el cuadro eléctrico de vuestra casa me doy por satisfecho porque sé que la próxima vez que se os vaya la luz tendréis claro qué es lo que ha propiciado esa situación y trataréis de evitarlo en el futuro.

En la época analógica no había diferencias tan grandes entre las cámaras réflex

Una breve reflexión fotográfica para terminar el fin de semana dándole un poco al coco:

Si uno se para a pensar cómo ha cambiado el mundo de la fotografía con la llegada de las cámaras digitales se da cuenta de que en la época de las réflex de carrete no había tanta diferencia entre unas cámaras y otras: si montábamos el mismo objetivo en una Nikon F5 (modelo tope de gama en los años 90) y una Nikon F50 (el modelo réflex básico de la marca por aquellos años) empleando el mismo tipo de carrete podíamos conseguir unas fotografías prácticamente iguales en una cámara y en la otra.

Esto se debe a que los elementos físicos responsables de la calidad técnica (ojo, no artística) de las fotografías obtenidas eran más o menos los mismos en todos los modelos, ya que lo único que se interponía entre el negativo fotográfico y nuestra escena a retratar eran las lentes que conformaban el objetivo. Obviamente, los modos de medición eran más exactos en las cámaras más caras, el obturador era de mayor calidad y los sensores encargados del enfoque eran más precisos; pero el modo en el que la luz llegaba a tocar el negativo era exactamente el mismo en todas las cámaras.

Además, dado que el formato de negativo de 35mm era el mismo para todas las cámaras, la sensibilidad ante la luz, la calidad y el aspecto de las imágenes obtenidas era similar incluso en cámaras de distintas marcas. Es cierto que el uso de sensores digitales en las cámaras actuales ha supuesto una más que considerable reducción de costes para el usuario, pero no es menos cierto que gracias al sistema de carretes analógicos podíamos obtener un colorido sensacional prácticamente con cualquier cámara medianamente decente (se ve que mi Werlisa Club 35 no lo era).

Actualmente, las diferencias entre unos modelos y otros son enormes: para empezar tenemos baterías de mayor o menor capacidad (antes todo funcionaba por pilas), sensores de diferente calidad, resoluciones de 3, 6, 10, 12 ó 24 Megapíxels, filtros ultravioleta delante del sensor que varían la nitidez de las fotos según el modelo, cada cámara tiene una sensibilidad a los colores diferente por efecto de la electrónica interna, cada modelo responde con más o menos ruido a la misma ISO, el rango dinámico de una cámara de gama alta es mayor que una de gama básica…

No digo que ahora la cámara sea determinante para conseguir una buena imagen, porque de hecho el factor principal siempre es el propio fotógrafo más allá de aditamentos técnicos; pero no deja de ser curioso que la diferencia entre una cámara de gama alta y una de gama baja en la época analógica era mucho menor que en la era digital en la que nos encontramos inmersos.

Funcionamiento del sensor y valores ISO

Me gustaría tratar en este artículo dos conceptos muy relacionados entre si: el principio de funcionamiento del sensor de una cámara y la variación de la sensibilidad ISO. Vais a ver que algo como cambiar el valor ISO antes de tomar una fotografía no es más que actuar sobre la señal digital generada por el propio sensor, así que lo mejor es que comencemos a ver cómo se transforma la luz en señales eléctricas para repasar luego cómo trata la electrónica de la cámara dichas señales.

¿En qué se basa el sensor de una cámara digital?

sensord2x

El sensor de una cámara digital está formado por una matriz de fotocaptores, que son unos componentes electrónicos que reaccionan ante la luz dando a su salida una señal eléctrica proporcional a la intensidad lumínica que incide sobre ellos. Cada uno de estos fotocaptores reacciona ante un color primario (rojo, verde o azul), por lo que cada píxel de una fotografía es “pintado” por tres de estos componentes (aunque en realidad son cuatro porque el verde se repite debido a la estructura del patron Bayer).

La imagen que tenéis a continuación sería una pequeña porción de la superficie de un sensor vista al microscopio; siendo cada una de esas “burbujas” un píxel.

photodiode

Claro, en el diagrama vemos que cada píxel sólo reacciona ante uno de los tres colores anteriormente mencionados, así que… ¿cómo se determina la mezcla de colores que define el tono final de cada punto de la imagen?

Aquí es donde entra en acción el famoso patron Bayer, que no es más que una interpolación de los valores de los píxels con sus adyacentes para, mediente complejas fórmulas matemáticas, hacer un promedio con el que averiguar el color de cada píxel que forma la imagen.

Con el siguiente corte lateral os podréis hacer una idea de cómo capta la imagen el sensor de la cámara: la luz atraviesa unas minúsculas lentes para concentrarla sobre la superficie de cada uno de los fotocaptores de cada píxel (se diferencian mediante los filtros cromáticos que hay en ellos) y al llegar a lo que es el fotodiodo como tal (la parte de electrónica interna de cada fotocaptor) se convierte en un impulso eléctrico que interpretará el circuito electrónico de la cámara.

Microlenses

Pues bien, lo que llamamos sensibilidad ISO no es más que una medida de la capacidad del sensor de la cámara para captar la luz (hace años indicaba la sensibilidad de los carretes, así que el concepto sigue siendo el mismo). Los sensores digitales tienen una sensibilidad base única (ISO 200 en la mayoría de las réflex Nikon) y partir de ella se ponen a disposición del fotógrafo múltiplos y divisores para ayudarle a adaptarse de la mejor manera posible a la iluminación existente ya que, a diferencia del carrete, podemos cambiar ese valor en cada fotografía que vayamos a disparar.

A grandes rasgos, cuanto más alto es el valor ISO más sensibilidad va a mostrar la cámara. Si, por ejemplo, pasamos de ISO 200 a ISO 400 la cámara va a ser el doble de sensible ante la luz, por lo que podremos disparar la fotografía con una velocidad el doble de rápida que la original para congelar el movimiento o bien cerrar un paso el diafragma (un paso significa una diferencia del doble o la mitad en la cantidad de luz) empleando la misma velocidad que en la fotografía a ISO 200, permitiéndonos obtener una mayor profundidad de campo. Hay multitud de combinaciones en función del efecto que queramos obtener en la fotografía; pero todo se basa en jugar con los cuatro principios básicos de la fotografía digital.

ISO por encima del valor base

La playa de noche

Al seleccionar un valor ISO por encima del base estamos amplificando la señal que sale de cada fotocaptor; y más cuanto más alto sea el ISO seleccionado. Suponiendo un ISO base de 200, al seleccionar 400 estamos amplificando la señal por dos, con ISO 1600 la amplificamos cuatro veces… y así sucesivamente.

Obviamente de la nada, nada se saca (como decía un profesor de mi colegio al referirse a los alumnos más vagos) por lo que esa amplificación de la señal conllevará una cierta pérdida de calidad debida a que el paso de analógico (mundo real) a digital (sensor) lleva aparejado un cierto error que, aunque sea muy pequeño, también es amplificado junto con el resto de la señal, por lo que a ganancias elevadas éste empieza a ser visible. Vamos a ver esto mismo con un ejemplo un poco más tangible:

Imaginad que tenemos una grabación de voz en la que hay un siseo de fondo que representa solamente un 1% de lo que se escucha por los altavoces. El ruido será tan bajo que va a ser indistinguible incluso cuando estemos callados; pero si amplificamos la grabación ocho veces, la relación entre la señal y el ruido no va a cambiar (seguirá siendo un 1% de lo que se escucha) pero cuando estemos callados el siseo va a escucharse ocho veces más alto que en la grabación original, por lo que en este caso será claramente distinguible.

Más o menos así es como se justifica lo que os explicaba el otro día sobre que el ruido de una fotografía se aprecia sobre todo en las zonas oscuras de la misma (serían como los silencios en nuestra grabación) por lo que tratando que la imagen quede expuesta de una forma uniforme y luminosa, el ruido no debería ser un gran problema aunque estemos empleando valores ISO elevados.

ISO por debajo del valor base

Parábolas

Por su parte, también pueden existir valores ISO inferiores al de base (para permitirnos tiempos de exposición más o menos largos en condiciones de mucha luz o la posibilidad de abrir mucho el diafragma); algo que se lograría atenuando la señal procedente de los fotocaptores. Si a partir de un ISO base 200, atenuamos la señal a la mitad tendremos un ISO 100; y si la atenuamos a una cuarta parte obtendremos un ISO 50.

De cualquier modo, como en cualquier proceso realizado sobre una señal digital codificada, va a haber una cierta pérdida de calidad que, si bien no va a ser tan evidente como en el caso de la amplificación, viene a decirnos que si queremos obtener la mejor calidad de imagen (para un trabajo de estudio o para fotografías “tranquilas” y en condiciones luminosas adecuadas) lo ideal sería emplear el ISO base de la cámara.

Cuando mi amigo Joe pasó directamente de una cámara analógica a una réflex digital, lo que más le gustó (casi más que el hecho de poder ver los resultados inmediatamente en pantalla) fue la posibilidad de variar el valor ISO a voluntad y de manera instantánea; pues en las cámaras de carrete no te quedaba más remedio que aguantar con la misma sensibilidad durante todos los fotogramas del rollo aunque a una foto nocturna le siguiera al día siguiente otra a pleno sol.

Pato, pico, pluma

Bueno, ahora ya sabéis todo lo que estáis desencadenando en la electrónica de vuestra cámara cada vez que hacéis algo tan sencillo como cambiar el valor ISO antes de disparar una fotografía. ¿Os imaginabais que ocurrían tantas cosas ahí dentro?  😉

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

La Nikon D1 cumple hoy 10 años

El 15 de Junio de 1999 se presentaba la cámara que daría origen a la revolución de las réflex digitales y llevaría al ostracismo a los carretes: la Nikon D1.

Aunque hoy en día tecnológicamente se haya quedado obsoleta, en su momento fue una auténtica revolución que abrió las puertas de la fotografía digital a mucha gente, pues hasta entonces los únicos modelos adaptados que se podían adquirir eran cuerpos analógicos adaptados de una forma más o menos burda por Kodak empleando unos sensores digitales que daban una imagen francamente mala, costaban unos 25000 dólares y pesaban demasiado como para convertirse en una cámara para usar a diario.

Nikon D1

Sin embargo, a mediados de 1999, Nikon anunció que estaba desarrollando una cámara digital que iba a aumentar su resolución hasta los 2,7 Mpixels, tendría una velocidad máxima de 1/16000 (una barbaridad incluso en la actualidad), una pantalla de 2″ en la que revisar las fotografías realizadas, podría disparar a una cadencia de 4.5 FPS, y costaría del orden de 5000 dólares; una fracción del precio de los artefactos que os comentaba antes. De cualquier modo, la gran baza con la que contaba la D1 es que sería compatible con toda la gama de objetivos comercializados por Nikon desde varias décadas atrás, de tal modo que los usuarios de la marca no tendrían que renovar por completo su equipo si querían dar el salto a la tecnología digital, pues seguirían contando con su colección de ópticas acumuladas con el paso de los años.

La D1 apareció en el mercado en otoño de ese mismo año, fue la única réflex digital de la marca hasta el mes de Febrero de 2001 (momento en el que aparecieron los modelos D1X y D1H que aumentaban la resolución y la cadencia de disparo respectivamente) y se convirtió de inmediato en todo un éxito. Tal vez no fue la cámara más vendida para el usuario “de a pie” porque 5000 dolares seguían siendo una respetable cantidad de dinero, pero en las redacciones de los periódicos desplazó casi de inmediato a las cámaras de carrete.

Hoy en día no es una cámara demasiado recomendable más allá de temas de coleccionismo: A la escasa autonomía de su batería se une un sistema de menús realmente complejo y farragoso que la alejaban de los usuarios casuales.

nikon-D1-back2

Pero lo mejor de la D1 es que fue la cámara que dio paso a toda una revolución que poco a poco fue acercando cada vez más las réflex digitales a la gente de la calle. Tal vez si no hubiera sido capaz de desplazar al carrete de una forma tan rápida y radical el mercado de la fotografía sería muy diferente a lo que conocemos hoy, así que todos los usuarios de este tipo de cámaras tenemos que felicitar por su décimo aniversario a una de las más grandes creaciones de esta marca japonesa.

Enlaces de interés (en inglés)

Wikipedia

Características técnicas en la web de Nikon

Análisis en DPReview

Compradores informados gracias a Internet

Hay que ver cómo ha cambiado el mundo con la llegada de Internet: algunas cosas que antes dábamos por sentadas hoy en día son parte del pasado; pero esta vez no os voy a hablar de las bondades del e-mail o el acceso a la información desde (en teoría) cualquier lugar del planeta, sino de cómo ha cambiado la red de redes nuestra conducta a la hora de ir de compras.

Un Pilot sobre el teclado

Hace unos cuantos años, si queríamos comprar un reproductor de CDs portátil teníamos dos opciones: o comprábamos alguna revista especializada de electrónica (por ejemplo ON-OFF) para informarnos de las últimas novedades del mercado o bien nos fiábamos del criterio del vendedor de la tienda. En el primer caso hay que tener en cuenta que la prensa obtiene ingresos a través de la publicidad, por lo que tal vez la información no sea todo lo imparcial que sería deseable; mientras que en el segundo corremos el riesgo de que el vendedor nos quiera colar ese modelo de hace tres años que no se quita de encima ni a precio de coste. ¿Verdad que os suena todo esto?

Sin embargo, hoy en día podemos meternos en cualquier foro y pedir información sobre algún producto, pues seguro que hay usuarios que han tenido ocasión de probarlo. También podemos buscar una review en algún pequeño blog cuyo titular quiere compartir su experiencia de uso con el resto del mundo (esto, como algunos sabréis, lo suelo hacer a menudo por aquí  😉 ). Del mismo modo, podemos meternos en las páginas de los fabricantes para comprobar cuáles son las últimas novedades disponibles y así ir a la tienda con un cierto conocimiento de causa…

En definitiva, con Internet tenemos en nuestras manos una magnífica herramienta para acudir a la tienda sabiendo lo que queremos y lo que podemos esperar de un determinado producto. Precisamente por eso, muchas marcas están intentando entrar en las redes sociales (facebook, tuenti…) para ganarse la confianza de los usuarios y generar un cierto “buenrollismo” general, aunque sigo pensando que nada podrán hacer si sacan un producto que no cumple con un mínimo de calidad y la bola de nieve comienza a rodar por foros y blogs de todo el mundo.

Esta es una de las grandezas de Internet: hoy en día la información es poder, y está en manos de los usuarios.

¿Alguien más se lee los manuales de instrucciones?

Desde el principio de los tiempos tengo una costumbre con todo lo que me compro ya sea una cámara, un videojuego o unos auriculares: abro la caja y en lugar de estrenar el cacharro de inmediato me gusta invertir todo el tiempo que sea necesario en leer el manual y comprender el funcionamiento del producto. Es un pequeño acto que me gusta hacer y que considero bastante útil.

Mini-impresión

El caso es que no sé si será una costumbre muy extendida o no; pero por lo que he ido preguntando a lo largo del tiempo a amigos y conocidos, la gente en general no se mira ni la portada de los manuales. Y es algo que no entiendo, porque si bien es cierto que el dominio de las cosas se alcanza con la práctica, también es importante tener un conocimiento teórico de las cosas que nos permita saber las posibilidades del aparato y lo que podemos hacer con él a nivel general.

En fin, es Sábado y el tiempo libre hace que me plantee cosas que un día de diario no se me pasarían por la cabeza; pero sea como sea me pica la curiosidad y por eso os agradeceré cualquier respuesta a la pregunta enunciada en el título de esta entrada: ¿Leéis los manuales de los aparatos que compráis?

¡Un saludo y feliz fin de semana!  😉

Desmontando una tarjeta de memoria SD

No es que quiera redactar un alegato contra las tarjetas de la marca Extreme Memory; pero hace poco me compré una de cuatro gigabytes para mi Asus Eee 701 y la muy puñetera no ha hecho más que darme problemas, tanto a nivel de software como de fallos de diseño y construcción; y es que a las múltiples incompatibilidades y corrupciones de datos se sumó que la pestaña de protección de escritura estaba suelta, que la etiqueta estaba medio despegada y que, para colmo de males, el cuerpo de la tarjeta se despegó por un lateral al poco tiempo de estrenarla.

Viendo que lo único que me iba a dar esa maldita SD son problemas pensé “bueno, al menos me servirá para una entrada del blog”, así que la desmonté por completo y de ella saqué unas imágenes que ahora os presento para todos aquellos que no hayáis visto una de estas tarjetas por dentro:

La tarjeta en su estado original

Esta es la tarjeta en su estado original. Como os digo, con ella todo han sido problemas y desde luego no es una marca que os recomiende ni lo más mínimo. Si necesitáis una tarjeta de memoria haceos con una Sandisk o una Kingston y seguro que no os lleváis ni la décima parte de los disgustos que he tenido yo con esta.

Quitando la carcasa

Una vez retirada la carcasa frontal de plástico esto es lo que vemos.

Cara con los integrados

Los dos chips más grandes son la memoria como tal (ya veis que son idénticos). El más pequeño es el controlador que se encarga de su manejo.

Detalle del chip controlador

Detalle de la circuitería de la tarjeta con sus nomenclaturas y sus números de serie.

La cara de las pistas

Por la parte de atrás tenemos las pistas que intercomunican diversos puntos eléctricos del dispositivo así como los contactos que comunicarán la tarjeta con el dispositivo lector / grabador. Como podéis apreciar es un trabajo de precisión que con el paso del tiempo cada vez es más exacto. Nada que ver con los aparatos electrónicos de hace una década.

Problemas raros con unas pilas recargables de Ni-MH

Ya podía yo volverme loco con el tema de la autonomía de mi cámara Konica Minolta Dimage Z2. Resulta que con pilas alcalinas la cámara es capaz de hacer un montón de fotografías pero empleando pilas recargables la autonomía se veía reducida en función del tiempo transcurrido desde la carga de las mismas. Si no fuera porque un pack de cuatro pilas Duracell cuesta unos tres euros no sería un gran problema, pero para una persona que se pasa el día haciendo fotografías a todo lo que se mueve (y a lo que no también 😀 ) representa un coste adicional que debería ser evitado con el uso de pilas recargables.

Konica Minolta Dimage Z2

Como sé que he empezado esta entrada un poco “acelerado” os voy a comentar el problema paso por paso, pero os adelanto que después de unos cuantos días de pruebas me he encontrado una sorpresa que puede que explique el por qué de ese errático comportamiento (que es un rollazo, pues obliga siempre a tener que cargar las pilas justo antes de salir de casa con la cámara).

Os decía hace ya unos meses, al hablaros por primera vez de esa cámara, que el mayor problema de este modelo es la alimentación mediante pilas recargables. Aunque hay gente que se engaña y piensa que puedes llevar 40 pares de pilas en una mochila y así tener una autonomía infinita, en realidad la comodidad de una buena batería de Li-ion no tiene precio (cosa que he podido constatar en el uso diario de mi iPod nano y mi otra cámara digital).

Bien, el caso es que desde que estrené la cámara (junto con un buen cargador inteligente y un juego de cuatro pilas nuevas Vivanco de 2500 mAh de capacidad) he venido observando que si saco las pilas del cargador, las pongo en la cámara y me voy a hacer fotos puedo hacer una auténtica burrada de ellas sin problemas. De hecho me sorprendió que en la presentación de Ninja Gaiden con Oscar del Moral hice más de un centenar (casi todas ellas con flash) y las pilas aguantaron el tipo perfectamente.

Sin embargo, si cargamos las pilas y las dejamos un día o dos en la cámara al ir a usarla nos llevaremos la sorpresa de que a veces incluso se niega a arrancar por no tener suficiente energía para hacerlo. Ante esa situación lo primero que pensé es que tal vez la cámara tenía algún defecto que hacía descargarse a las baterías, pero era raro que con las Duracell no pasara eso, ya que podían estar una semana en la cámara sin ningún problema.

Cansado de jugar a la ruleta rusa con la cámara (cosa que lograba que muchas veces dejara la Konica Minolta en casa para llevarme la Sony) se me ocurrió hacer durante un par de días un completo seguimiento del voltaje de las pilas con unos resultados sorprendentes:

Lo primero fue identificar cada pila con un dígito del uno al cuatro de forma que pudiera ver la evolución de cada una sin ninguna duda. Así lo hice y a continuación creé una tabla en Excel en la que iba apuntando los tiempos de medida y los valores de cada pila.

Pues bien, os copio a continuación la tabla de valores:

· La primera línea numérica representa la tensión en milivoltios nada más sacar las pilas del cargador. Los valores son los habituales para este tipo de tecnología (dan unos 1.4 V en esa situación) a excepción de la pila número 3 que presenta un valor algo más bajo.

· La segunda línea es el valor de tensión de cada pila después de dejarlas encima de una mesa durante tres horas así como la siguiente representa la misma situación pero pasadas siete horas desde el final de la carga. Con esto queda claro que la tasa de autodescarga no es demasiado alta, pues apenas se pierden unas centésimas de voltio en cada pila, si bien la pila número 3 sigue presentando valores más bajos que el resto.

· A continuación se meten las cuatro pilas en la cámara durante cuatro horas sin encenderla para volver a medir valores de tensión. Pasadas cuatro horas más se vuelve a repetir la operación con objeto de ver si es la cámara la que provoca la descarga de las pilas. Como se puede apreciar los valores de descarga son más o menos los mismos que cuando las pilas estaban al aire libre, de modo que podemos deducir que la cámara tampoco es la que descarga las pilas.

· Como paso siguiente se encendió la cámara para realizar fotografías con flash (alto consumo) hasta que esta se autoapagara por falta de energía. Nada más apagarse se procedería a medir la tensión de cada una observando que todas rondaban los 1330 mV a excepción de la pila número 3 que estaba una décima de voltio más baja que las demás (de promedio).

La conclusión en este momento fue que la cámara tenía muy poco margen de voltaje y en el momento que una de las pilas bajaba de 1.3 voltios esta se apagaba. Sin embargo había algo que no cuadraba, pues el margen habitual de los dispositivos electrónicos suele estar en 1.1 voltios, y un error de 200 mV era demasiado grande.

· Por último se sacaron las pilas de la cámara y se dejaron a temperatura ambiente sobre un escritorio de madera de tal modo que es imposible que se descarguen por cortocircuito externo, y cuando 24 horas después procedí a volver a medir tensiones me sorprendió el dato de que todas las pilas estaban más o menos en los valores del día anterior (una incluso había subido ligeramente, seguramente por recuperación del esfuerzo ante las exigencias de corriente del flash) excepto la número 3 que estaba completamente descargada, pues el polímetro marcaba unos exíguos 6 mV (dato que comprobé en tres medidas consecutivas). Os pongo los mismos datos de la tabla anterior pero esta vez en forma de gráfica para que veáis con claridad que el comportamiento de la pila número 3 (en amarillo) se aleja completamente del seguido por el resto:

De todo esto se deduce que la pila número 3 está defectuosa (de hecho se aprecia que en todo momento está por debajo de la tensión esperada) y por algún motivo que de momento se me escapa debe tener algún tipo de cortocircuito interno que la deja KO tras cierto número de horas. El Lunes me acercaré a comprar un juego nuevo de pilas (esta vez Sanyo, que al parecer son de las que mayor calidad dan) y espero que con eso los problemas de autonomía de la Z2 queden solventados, porque de verdad que en ocasiones es algo desesperante.

Teniendo en cuenta que la cámara necesita 6 voltios para funcionar se deduce que las pilas van colocadas en serie, de modo que si alguna de ellas tiene un problema las otras tres ya pueden ser las mejores pilas del mundo que no van a poder hacer su trabajo correctamente porque la corriente ha de circular a través de todas ellas y la tensión total va a ser la suma de las de las cuatro pilas. Un problema de la pila número 3 a la hora de entregar corriente o tensión dará al traste con toda la alimentación de la cámara.

En fin, ya os contaré si con las pilas nuevas se resuelven los problemas, pero… ¿a que os ha gustado mi “experimento” de hoy? 😛

Espectacular remix de Nude (Radiohead)

Recientemente el grupo Radiohead convocó un concurso de versiones de una de las canciones de su último disco “In Rainbows” titulada Nude de la que os pongo un vídeo a continuación:

Pues bien, aunque por lo visto se presentaron multitud de candidatos he de reconocer que ignoro quién gano dicho concurso debido a que hubo una persona que se quedó fuera del plazo de entrega pero aún así quiso que el mundo pudiera disfrutar de su creación y desde entonces, para mí es el auténtico ganador del concurso.

Aquí está la prueba de que una combinación de talento, cierto dominio de la electrónica y un entrenado oído puede dar lugar a una auténtica maravilla audiovisual. Con todos ustedes… ¡“Big ideas: Don’t get any” de James Houston!

NOTA: no os dejeis engañar por el primer minuto y medio, pues no es más que una introducción a lo que nos espera a partir ese punto. ¡Disfrutadlo en todo su esplendor! 😉