La revolución necesaria del DLSS

Para jugar a 1080p me bastaba con la Nvidia Geforce GTX 1060 3GB de Gigabyte que conseguí poco después de terminar el montaje de mi nuevo ordenador de sobremesa; pero no es menos cierto que desde el principio tuve el ojo puesto en la gama RTX para poder subirme al carro de una tecnología que en tiempos me hubiera parecido de ciencia-ficción: el DLSS, iniciales de Deep Learning Super Sampling.

La relación resolución / potencia de cálculo

Muy a grandes rasgos y a nivel muy muy básico, una tarjeta gráfica necesita más potencia cuantos más pixels tiene que dibujar en pantalla. A una resolución de 1080p son 2073600 pixels. A 1440p serían 3686400, a K4 nos iríamos a 8294400 y, por último, a 8K serían 33177600 pixels.

Pensad ahora que esos son los pixels necesarios para dibujar un sólo frame en pantalla, y si estamos jugando algo que requiera un mínimo de acción querremos que la imagen se refresque, al menos, 60 veces cada segundo para no tener sensación de discontinuidad en la animación, que es algo que saca del juego (y de quicio) a cualquiera.

Si tomamos el ejemplo de resolución 4K, en el que decíamos que la pantalla a dicha resolución se compone de 8294400 pixels y lo multiplicamos por 60, tenemos que la tarjeta gráfica tiene que calcular cada segundo la friolera de 497664000 pixels. ¡Eso son casi quinientos millones de pixels en un sólo segundo! ¡¡¡QUINIENTOS MILLONES!!!

Obviamente, para poder mover semejante cantidad de datos la potencia bruta y la velocidad de proceso de la tarjeta gráfica han de ser tremendas, porque los pixels no son sólo cuadrados de colores sin más; sino que hasta decidir su aspecto previamente llevan una rutina de posicionado, trazado de vértices, texturizado, sombreado… Y no digamos ya si emplean técnicas de iluminación mediante raytracing ¿Empezáis a entender por qué las tarjetas de gama alta cuestan lo que cuestan, abultan lo que abultan y se calientan como se calientan?

De cualquier modo, cuando se pasó de FullHD (1080p) a la resolución de 1440p los fabricantes se dieron cuenta de que la potencia necesaria para dar el salto a cada siguiente resolución se iba incrementando a un ritmo exponencial que el desarrollo de las tecnologías gráficas clásicas no iba a ser capaz de seguir. Se imponía por tanto buscar una solución que no fuera simplemente meter potencia bruta sin más, ya que con el 4K empezando a proliferar y el 8K en el horizonte no es posible disponer de tal potencia de cálculo en una tarjeta que de momento ha de entrar en la caja de un PC.

Buscando alternativas a la potencia pura y dura

Y así es cómo en Nvidia empezaron a dar vueltas a la idea de crear unos algoritmos de escalado dinámico que permitieran renderizar internamente a una resolución inferior para en un último paso resamplear a resoluciones más altas sin apenas pérdida de calidad. Y es que ahí está la clave de todo: podéis coger el Paint, abrir una imagen de 80 x 120 pixels y subirle la resolución todo lo que queráis, pero los píxeles tendrán el tamaño de un melocotón y el resultado será, como mínimo, decepcionante.

Lo alucinante del DLSS es que realmente la pérdida de calidad es muy pequeña para lo mucho que baja la resolución internamente el algoritmo. Por ejemplo, si vamos a jugar en 4K (2160p) y elegimos el modo llamado «Calidad» internamente renderizará a 1440p. Si elegimos el modo «Equilibrado» lo hará en 1253p, mientras que el modo «Rendimiento» lo hará a 1080p y el «Rendimiento Ultra» a 720p. Y sí que es verdad que en este último caso se nota pérdida de calidad sobre todo en los detalles más finos como el pelo de Lara Croft en Shadow of Tomb Raider o las estructuras metálicas finas lejanas en Cyberpunk 2077, pero si elegimos los modos «Calidad» o «Equilibrado» realmente apenas notaremos diferencia con la resolución original y la tasa de frames por segundo se incrementará considerablemente.

Hubo una primera versión que funcionaba en juegos muy específicos y era algo limitada, pero poco a poco la tecnología ha ido evolucionando y a día de hoy estamos ya en la versión 2.0 del DLSS que ofrece mejores prestaciones y una implentación en los títulos más sencilla para los desarrolladores. Hasta tal punto es así que algunos títulos que ya empleaban la primera versión del algoritmo se han actualizado para hacer uso de la versión actual.

Los detalles de cómo funciona el DLSS son bastante complejos, ya que se basa en una red neuronal que utilizando imágenes de muy alta y baja resolución del juego que Nvidia carga en sus servidores aprende cómo rellenar los huecos y desajustes que ocurren cuando se resamplea «a las bravas» una imagen y esta información la acaban volcando en los drivers gráficos que actualizan un par de veces al mes más o menos. Obviamente no os voy a dar el tostón aquí con tantos detalles tećnicos, pero si os interesa el tema os recomiendo echar un vistazo a algunos artículos (casi siempre en inglés) donde tocan en tema de forma bastante profunda.

Está claro que este post-procesado requiere una potencia de cálculo importante en la tarjeta gráfica, pero a la vista de los resultados, las unidades que computan estos algoritmos (los llamados Tensor Cores en las dos últimas familias de tarjetas gráficas de Nvidia RTX20 y RTX30) lo hacen bastante más rápido que si desactivamos el DLSS; lo cual me parece sencillamente alucinante. Que sea más fácil para la tarjeta «inventarse» parte de los pixels de la imagen que calcularlos y que además el resultado final sea tan bueno es algo que la primera vez que vi me sorprendió muchísimo.

DLSS en pruebas sintéticas: 3DMark

Para mostraros esto de una forma gráfica (nunca mejor dicho) he pasado el test específico de DLSS que incorpora la última versión de 3D Mark, el cual dicho sea de paso, es una pasada a nivel visual. Y es que, de hecho, 3DMark siempre ha sido la referencia para los gráficos más punteros, acordándome ahora mismo de la mítica demo de la versión del año 2000 que ejecutaba en mi AMD K6-2 de la época al que le puse una Voodoo Banshee con 16 MB de VRAM.

Volviendo al test de DLSS, en primer lugar aquí tenéis el resultado de pasar el test a una resolución de 1080p con mi Nvidia Geforce RTX 2060. La primera parte es sin DLSS y la segunda aplicando el algoritmo en modo «Calidad», haciendo que apenas haya diferencias gráficas entre uno y otro test.

Como podéis ver, sin aplicar DLSS obtenemos unos 32 FPS, y con el modo «Calidad» la media es de casi 58 FPS que es  un 80% de ganancia de rendimiento (casi el doble).

En caso de aplicar el modo «Rendimiento» en la misma resolución de antes perderemos algo de calidad gráfica en algunos detalles finos pero ganaremos unos cuantos FPS.

En esta ocasión hemos pasado de los 32 FPS al no aplicar DLSS a una tasa de prácticamente 76 FPS, lo que representa una ganancia de rendimiento del 135%.

DLSS en la práctica: Shadow of Tomb Raider

Vamos a ver ahora esto mismo pero aplicado a un juego comercial como es el Shadow of Tomb Raider dado que nos permite usar todos los modos de DLSS disponibles y así como, logicamente, prescindir de él. Se ha ejecutado en el mismo equipo que la prueba del 3DMark.

En las siguientes imágenes podéis ver, de arriba a abajo, cómo influye en la tasa de cuadros por segundo no emplear DSLL o ir usando respectivamente los modos Calidad, Equilibrado, Rendimiento y Rendimiento ultra, manteniendo en todos los casos la calidad gráfica del juego en el máximo y la resolución a 1080p.

¿Veis a lo que me refiero? Emplear DLSS hace que tengamos más FPS a costa de una apenas perceptible pérdida de calidad de imagen, de modo que es un recurso valioso que nos permitirá estirar un poco más la vida útil de nuestra tarjeta gráfica antes de plantearnos dar el salto a un modelo superior porque ya no da más de si.

Ahora bien, espero que con esto los desarrolladores no empiecen a optimizar los juegos malamente pensando que si va lento con que los usuarios activen el DLSS ya está todo arreglado, porque entonces estamos en las mismas al compensar una ventaja con una desventaja. El DLSS es un inventazo, pero yo lo entiendo como un modo de que gente que no tiene una tarjeta de gama alta pueda jugar a resoluciones y/o niveles de detalle que «de serie» no podrían alcanzar.

Que este tipo de tecnologías van a ser de un uso cada vez más general lo demuestra el hecho de que recientemente AMD ha sacado su algoritmo FidelityFX Super Resolution y que Intel, que ahora se va a subir también al carro de las tarjetas gráficas con sus modelos Arc, va a emplear una tecnología similar llamada XeSS. Está claro que esta era una revolución necesaria.

Nuevo aspecto para el blog

Hablando recientemente con un amigo a través del correo electrónico me di cuenta de que ahora que las resoluciones de los aparatos electrónicos han aumentado drásticamente (y lo que nos espera durante los próximos meses) mostrar las fotografías del blog a 500 pixels de ancho se ha quedado un poco obsoleto y, de hecho, iniciativas de gran éxito como The big picture del Boston Globe así lo demuestran.

Gemelas

Por tanto, en las entradas publicadas a partir de ahora encontraréis que las imágenes tendrán una resolución de 800 píxels de ancho en lugar de los 500 que he empleado hasta el momento para darles una mayor fuerza visual. Y que conste que en principio había pensado en colgarlas a 1024, pero si quería mantener la barra lateral del blog (que para mí es algo indispensable) esto obligaría a utilizar una resolución de pantalla muy elevada que, si bien hoy en día ya es bastante habitual, puede que todavía no empleéis algunos de vosotros.

Comentar que el tema elegido se adapta dinámicamente al tamaño del navegador incluyendo el reescalado de las imágenes y que para ver las fotografías sin ningún tipo de reducción tendréis que tener la ventana configurada como mínimo a 1330 pixels de ancho. Aun así, ya sabéis que podéis ver las imágenes en Flickr con tan sólo pinchar en cualquiera de ellas.

Un día lleno de color

Sé que habrá alguien al que el cambio no le parecerá bien porque ahora el blog no se adapta correctamente a su pantalla. Soy consciente de ello y os pido disculpas de antemano; pero a día de hoy sigo creciendo como fotógrafo y siento que mostrando las imágenes a sólo 500 píxels de ancho se pierden multitud detalles que me gustaría que pudierais apreciar y que muchas veces son la esencia de una imagen. Digamos que este cambio es un salto de futuro y al mismo tiempo una forma de mostraros mis fotografías más fiel a lo que veo a través del visor de la cámara.

Arcilla

¡Un saludo y, como siempre, muchas gracias por leerme!

PD: agradecimientos especiales a Albert Mata (@almata) porque fue él quien me dio la primera pista que me hizo pensar sobre esto.

Nitidez brutal con una D40

El pasado fin de semana me acerqué a Madrid porque llevaba dos meses sin dejarme caer por allí y me apetecía volver a mi tierra durante un par de días.

En los jadines de Sabatini (Madrid)

La cosa es que quería ir ligero de equipaje; de modo que en lugar de cargar con mi habitual mochila fotográfica, D300, objetivos… etc, lo que hice fue montar el estupendo Nikon AF-S 35mm f/1,8 G en mi D40 (una cámara de 6 Mpixels fabricada en 2006) y con este ligero y manejable conjunto capté algunas fotos de mi periplo (incluyendo la de la entrada anterior) que demuestran que cualquier cámara réflex por simple que sea es capaz de ofrecer una nitidez increíble si se tienen en cuenta algunos conceptos básicos.

Estación del Norte (Madrid)

Como prueba de ello aquí tenéis esta instantánea de la antigua estación de Príncipe Pío captada en la mañana del sábado; ya que si la veis a su resolución original podréis comprobar que pese a estar hecha con una réflex de lo más básica, tiene una resolución y una nitidez que casi hacen daño a la vista.

Y es que ya os lo dije: los megapixels son lo de menos.

Cómo interpretar las curvas MTF de los objetivos

Buscando información sobre un objetivo concreto puede que os hayáis encontrado alguna vez con una gráfica un poco enrevesada que se supone debería ayudar a valorar de un simple vistazo las características ópticas del modelo en cuestión pero cuya interpretación a veces acaba por convertirse en un auténtico galimatías; y es que hoy vamos a hablar de las curvas MTF.

Review Nikon 16-85 VR

Pérdidas de calidad

En un mundo ideal, los objetivos se limitarían a proyectar lo que «ven» sobre el sensor de la cámara sin ningún tipo de distorsión óptica ni aberración cromática. Sin embargo, esto no es posible y todo objetivo introduce en mayor o menor medida una cierta pérdida de calidad que también afectará al contraste y a la resolución.

De hecho, os habréis dado cuenta de que a veces las esquinas de las imágenes aparecen algo más difuminadas que la zona central; y precisamente esa pérdida de definición y contraste es lo que refleja una gráfica de este tipo. Pues bien, el problema es que en muchas ocasiones estas curvas MTF (de Modulation Transfer Function) lejos de ayudar al común de los mortales le confunden todavía más; ya que al aparecer varias líneas de diferentes colores la cosa no parece estar muy clara que digamos. Sin embargo, enseguida vamos a ver que el tema es más sencillo de lo que parece.

Trabajando sobre un ejemplo real

Vamos a usar para explicar todo esto la curva MTF del recién aparecido Nikon AF-S 85mm f/1.4 G (tele corto de gran apertura diseñado sobre todo para retratos) cuyo imponente aspecto tenéis a continuación:

Las curvas MTF son empleadas por todos los fabricantes de ópticas y son muy similares (por no decir iguales) en todos los casos; pero este artículo lo voy a centrar en las publicadas por Nikon debido a que es la marca de mi equipo fotográfico y por tanto es la que mejor conozco.

La apertura empleada

Las curvas MTF se suelen dar para la máxima apertura del objetivo, que es donde peores resultados vamos a obtener (siempre os digo que cerrando un poco el diafragma podéis obtener mayor nitidez en vuestras fotografías). También hay fabricantes que dan diferentes gráficas hechas a varias aperturas; pero como siempre sucede que los peores resultados en cuanto a nitidez y pérdida de contraste se obtienen a plena apertura, lo más útil es ponernos en el caso más desfavorable y ser conscientes de que a medida que vayamos cerrando el diafragma la cosa irá mejorando.

AF-D Nikkor 50mm 1:1.8 (III)
Los ejes de la gráfica

En una gráfica MTF hay dos ejes: el vertical indica el contraste de la imagen, siendo máximo en su parte superior y mínimo en la inferior; mientras que el horizontal indica la distancia al centro de la fotografía en milímetros.

Como os decía, el eje vertical indica el contraste de la imagen, siendo del 100% en su parte superior y del 0% en la inferior. Por lo tanto, en términos generales, cuanto más alta vaya la línea de la gráfica mejores características tendrá sobre el papel la óptica analizada. Habitualmente se considera como excelente un valor por encima del 80% y como bueno si está por encima del 60%. Por debajo de este último valor la pérdida de nitidez va a empezar a ser apreciable a simple vista.

En cuanto a la distancia al centro de la imagen (representada en el eje horizontal) la cosa es bastante simple. El extremo izquierdo de la gráfica representa el centro exacto de la imagen, mientras que el derecho será una de las esquinas de la misma, que es donde va a haber una caída más brusca del contraste en la mayor parte de las ópticas.

Las diferentes líneas

En lo que a las líneas se refiere, como podéis ver en el ejemplo que estamos empleando las hay de dos tipos y colores: continuas y punteadas tanto en rojo como en azul.

La nomenclatura de la parte inferior (S10, M10, S30 y M30) no es muy clarificadora; y aunque tiene su sentido, lo que voy a hacer es explicaros cómo interpretar la gráfica de un modo bastante simple:

Las líneas de color rojo indican un muestreo a 10 líneas por milímetro (lpmm); lo que representa un detalle medio que es el predominante en una fotografía y el que mejor capta nuestro ojo de un simple vistazo. Por su parte, las líneas azules indican un muestreo a 30 lpmm que pone a prueba la capacidad de resolución de la imagen, ya que en este caso se trata de un detalle muy fino.

Lechuza

Por tanto las líneas rojas nos dan idea del contraste general que es capaz de lograr la óptica; mientras que las líneas azules nos dan idea de la capacidad de resolución del objetivo. Parámetro este último muy importante si nos compramos una cámara equipada con un sensor de una densidad de pixels tremenda; ya que si el objetivo no es capaz de ofrecer la resolución que el sensor necesita nos vamos a encontrar con patrones extraños de ruido (Moiré) y otros defectos ópticos que no son objeto de esta entrada.

¿Por qué hay una línea rayada y otra continua de cada color?

El hecho de que haya dos líneas de cada color indica que en una de ellas el sampleo se ha hecho a 45º con respecto a la horizontal y en la otra a 135º. Esto nos va a venir muy bien para intuir el bokeh que es capaz de ofrecer la óptica; ya que idealmente las dos líneas de cada color deberían de ser coincidentes y en ese hipotético caso el bokeh sería perfecto (suave, progresivo, sin bordes marcados…). Por el contrario, si las líneas de cada color llevan trayectorias muy diferentes nos vamos a encontrar un bokeh «nervioso» o deformado, no resultando demasiado agradable a la vista.

Luces de selenio

Extrapolando la información a los cuatro cuadrantes

Por tanto, lo que la gráfica está representando es la resolución de uno de los cuatro cuadrantes de la imagen; pero al existir simetría tanto vertical como horizontalmente podemos aplicar estos datos a todo el encuadre, ya que la información de los otros tres cuadrantes es exactamente la misma sólo que reflejada como muestra la siguiente gráfica que he confeccionado:

Lo que tenéis sobre este párrafo es una especie de representación de la definición del objetivo aplicada a toda la imagen. Como veis, serían las esquinas de la fotografía las zonas de la imagen más afectadas por la pérdida de nitidez y contraste; siendo el muestreo a 10 lpmm más o menos estable en todo el encuadre pero notándose cierta pérdida de calidad cuando hacemos el análisis a 30 lpmm debido a la mayor exigencia de resolución. Obviamente esta gráfica que os presento no es nada científico; pero es para dejaros claro que la información que nos dan es extrapolable a los cuatro cuadrantes de la imagen.

Por cierto, a estas alturas del artículo ya os habréis dado cuenta de por qué una óptica diseñada para formato 35mm (FX en Nikon) rinde también en cámaras equipadas con sensores APS-C, ¿verdad? Al fin y al cabo, lo que estamos haciendo en tal caso es emplear solamente la zona central del objetivo, que es donde mejor rendimiento ofrece.

Ferias y Fiestas Alcalá 2010

Otros ejemplos de curvas MTF

Después de todo lo visto, os habrá quedado claro que la situación ideal sería aquella en la que las líneas de las gráficas fueran completamente planas y todas ellas estuvieran en la parte superior de la gráfica porque esto implicaría que no hay pérdidas de contraste ni definición en todo el encuadre. Y aunque esto es algo imposible de diseñar porque todo sistema óptico implica una cierta pérdida de calidad por leve que sea, hay algunos objetivos cuyas gráficas resultan tan espectaculares como su precio.

Fijaos por ejemplo en las curvas MTF de un Nikon AF-S 600mm f/4 G VR (8600 euros) e imaginad la nitidez y la calidad que es capaz de ofrecer.

En cualquier caso, hay que tener en cuenta que los objetivos de gran apertura suelen viñetear bastante cuando abrimos su diafragma al máximo y debido a ello sus curvas MTF pueden parecer un tanto «pobres». Sin ir más lejos, el conocido Nikkor AF-S 50mm f/1.4 G (370 euros) tiene una curva que no es ni mucho menos para tirar cohetes; pero es ahí cuando debemos de ser conscientes de que es un objetivo que rinde muy bien cerrando el diafragma un par de pasos y sólo debemos emplearlo a plena apertura bajo ciertas circunstancias.

Por contra, el Nikon AF-S DX 35mm f/1.8 G (200 euros) mantiene más o menos bien el tipo disparando a plena apertura como podéis apreciar en su gráfica y de ahí que las fotos realizadas con él siempre tengan un toque que a mí particularmente me gusta mucho; especialmente disparando a f/2.8; apertura a la cual el desenfoque siegue siendo acusado y las líneas de la gráfica seguramente aparezcan bastante más planas que a f/1.8.

Supongo que os habréis dado cuenta de que en todos los casos la gráfica MTF viene dada para sensores de 35mm (fijaos que el eje horizontal llega hasta los 22mm; que es más o menos la mitad de la diagonal de unos de esos sensores), de modo que aunque el objetivo esté diseñado para cámaras con sensor APS-C igualmente se expresa el rendimiento en todos los objetivos de la misma manera.

Quiere esto decir que en realidad la gráfica para esta última óptica debería de llegar sólo hasta los 15mm de longitud, ya que aproximadamente esa es la distancia que hay en un sensor APS-C entre el centro del mismo y una de las esquinas. Por tanto, la gráfica «útil» del Nikon AF-S DX 35mm f/1.8 G una vez recortada apropiadamente quedaría del siguiente modo:

Como podéis apreciar, la ganancia de rendimiento de un objetivo diseñado para formato completo al ser empleado en una cámara APS-C es más que evidente; ya que la caída más brusca de rendimiento suele tener lugar en esa zona exterior que diferencia ambos tipos de sensores. De hecho, si miráis la gráfica del 85mm del que hablábamos al principio del artículo y hacéis un corte imaginario por los 15mm os daréis cuenta de que las líneas de la gráfica quedan casi completamente planas.

Nada más que datos técnicos

De cualquier modo, todo esto está muy bien sobre el papel y nos puede ayudar a decidirnos por una u otra óptica antes de ir a la tienda. Sin embargo, la nitidez depende de muchos otros factores; y de nada servirá el más caro de los objetivos si por sistema disparamos a f/22 o tenemos un pulso tembloroso que arruina cualquier foto que no haya sido disparada a pleno sol. Los datos técnicos son muy útiles y a mí, como ingeniero, me llaman mucho la atención; pero en el mundillo de la fotografía lo más importante es sacarle partido a lo que tenemos y centrarnos tan sólo en sentir lo que nos rodea.

El lienzo de arena

Más información

Modulation Transfer Function (Ken Rockwell)

Understanding MTF (Luminous landscape)

Listado de objetivos Nikon para consulta de características (foro Nikonistas)

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

Macro económico: tubos de extensión y anillos inversores

Las cámaras réflex, con los objetivos que suelen traer «de serie», no están muy capacitadas para realizar fotografías macro. En el caso de Nikon, el 18-55 que suele venir con los modelos más básicos es capaz de acercarse a los objetos a fotografiar hasta una relación máxima de 1:3,2 de tal modo que podremos obtener primeros planos más o menos decentes, pero a la hora de fotografiar algo de tamaño reducido (como la moneda de dos euros que vamos a emplear a modo de ejemplo durante todo este artículo y cuyas imágenes no han sufrido ningún tipo de recorte) enseguida nos toparemos con sus limitaciones.

Nikon 18-55mm@55mm

Nikon 18-55mm@55mm. Relación aprox 1:3,2

Para este tipo de fotografía se emplean los objetivos macro, que son casi instrumentos de laboratorio: tienen una nitidez brutal, no viñetean, enfocan a escasos centímetros del objeto a retratar dando una relación de ampliación de al menos 1:1… pero tienen un problema: son bastante caros.

Por cierto, ya que estamos, os comento que la relación de ampliación 1:1 se refiere a que el objetivo es capaz de ampliar las cosas hasta proyectarlas sobre el sensor a su tamaño real. Esto implica que si fotografiamos un objeto que tuviera las mismas dimensiones que el sensor, éste ocuparía todo el encuadre (lo que ofrece un nivel de detalle impresionante gracias a la gran resolución de las cámaras actuales).

La notación del grado de ampliación se puede entender como un cociente cuyo resultado es el factor de ampliación obtenido sobre el sensor con respecto al tamaño real del objeto. Un objetivo que tuviera un factor 5:1 indica que sobre el sensor de la cámara se van a proyectar los objetos a un tamaño cinco veces mayor que en la realidad; o dicho de otro modo, que un objeto que mida tan sólo 5 x 3 mm llenaría completamente el encuadre si empleamos una cámara con sensor APS-C. Del mismo modo, un objetivo con una relación de ampliación de 1:2 indica que sobre el sensor se va a proyectar la imagen a un tamaño que será exactamente la mitad de lo que mide realmente.

Estigma

Hablando de objetivos específicos para macro, el modelo más barato que se puede encontrar actualmente en el mercado es el Tamron 90mm f/2.8 que sale por unos 300 euros comprado en China a través de eBay estando disponible para diversas monturas; y aunque no es un precio excesivo si lo comparamos con otras ópticas similares de Nikon o Canon, no dejan de ser trescientos eurazos (cuatrocientos y pico en tienda física española) que para los tiempos que corren pueden suponer un desembolso económico importante.

Puesto que en este blog siempre intento dar soluciones más o menos económicas para resolver este tipo de situaciones, lo que hoy vamos a ver son dos modos de conseguir hacer fotografías macro con nuestra cámara réflex sin dejarnos apenas dinero en ello, ya que ambos se basan en elementos bastante simples que se colocarán entre la bayoneta de la cámara y el objetivo logrando que la relación de ampliación del mismo sea superior a la que obtenemos cuando montamos la óptica sin más.

Anillo inversor

Un anillo inversor no es otra cosa que un anillo metálico que posee por un lado la la montura de un objetivo para ser encajado en la bayoneta de la cámara y por el otro la misma rosca que tendría un filtro normal y corriente (por lo tanto, existirán anillos inversores de diferentes medidas y para las diferentes marcas de cámaras).

Anillo inversor

Al ser un elemento tan simple no debería costaros más de diez o quince euros en una tienda física y no mucho más de cinco si lo compráis en eBay o similar (ejemplo). En cualquier caso, aseguraos de que éste sea metálico, no se vaya a partir algo mientras lo usamos y se nos vaya el objetivo al suelo.

Bueno, pues el asunto consiste en que vamos a montar el anillo en la bayoneta de la cámara como si fuera un objetivo cualquiera y a continuación roscaremos el objetivo en él por su parte frontal. Puesto que no sé si la explicación ha quedado muy clara os pongo un par de imágenes a continuación que os ayudarán a haceros una idea de cómo funciona el invento:

Anillo inversor montado

Anillo inversor + 50mm

Para estas cosas es más recomendable emplear objetivos fijos que aquellos de focal variable. Entre otras cosas, los primeros son más luminosos y la calidad de imagen es mayor; pero hay otra cosa a tener en cuenta: los objetivos angulares son capaces de ampliar más la imagen que un 50mm cuando se montan invertidos, de tal modo que si tenéis un antiguo 35mm o un 28mm por casa sería ideal.

Eso sí, no hace falta que os diga que usando un anillo inversor vamos a perder todos los automatismos de la cámara sí o sí, ya que no hay posibilidad alguna de mantener los contactos electrónicos entre cuerpo y objetivo (más que nada porque estamos montando el objetivo por el filtro). Obviamente los objetivos a emplear tendrán que tener anillo de diafragmas para controlar la apertura, puesto que no va a ser posible controlar este parámetro desde la propia cámara.

Para disparar habrá que hacerlo en modo completamente manual y encima sin fotómetro, por lo que la estrategia se basa en el método ensayo-error hasta lograr el resultado deseado, mirando la pantalla de la cámara entre toma y toma.

Como podéis ver a continuación, el grado de ampliación obtenido empleando el anillo inversor y un objetivo de 50mm es bastante mayor que si usamos el 18-55 a su máxima longitud focal y enfocando lo más cerca posible.

Anillo inversor + 50mm

Anillo inversor + Nikon AF 50mm f/1.8 D. Relación aprox 1:1,5

Tubos de extensión

Los tubos de extensión son un modo de aumentar la distancia entre el objetivo y el sensor de la cámara, haciendo por tanto que la imagen se proyecte de una manera más ampliada sobre éste. Lo habitual es que los tubos de extensión sean modulares, viniendo en varios «tramos» que podemos interconectar a voluntad. De hecho, creo que quedará más claro viendo la siguiente imagen:

Tubos de extensión

Si queremos un grado de ampliación máximo debemos montar los tres tubos tal y como están en la fotografía. Sin embargo, en fotografía nadie da duros a cuatro pesetas, y cuanta más distancia metamos entre objetivo y sensor más se van a notar las aberraciones cromáticas (los objetivos se diseñan suponiendo una distancia X entre sensor y lente trasera, no comportándose igual de bien si la modificamos) y más se va a notar la consecuente pérdida de nitidez.

Como veis, hay tres tramos numerados de diferente longitud, y mediante la combinación de los mismos (van roscados) vamos a poder graduar con cierta precisión el grado máximo de ampliación. Por cierto, el emplear tubos de extensión perderemos la posibilidad de enfocar al infinito, de modo que obtendremos una óptica «miope».

A la hora de comprar unos tubos de extensión nos los vamos a encontrar de dos tipos: los que mantienen los contactos electrónicos y los que no. Los que os muestro no los mantienen, siendo un simple tubo hueco que no hace otra cosa más que prolongar la montura de la cámara para encajar el objetivo en su extremo anterior. Gracias a su simpleza estos tubos no van a costar más de quince o veinte euros, y menos todavía si los compramos a través de eBay o similares (ejemplo).

El problema principal de estos tubos es que vamos a perder todos los automatismos de la cámara como el autofocus, la medición de luz o el VR. Con ellos sólo podremos emplear objetivos que posean un anillo de diafragmas para poder controlar la apertura, ya que en caso contrario el objetivo quedaría fijo en su apertura más pequeña.

El otro tipo es bastante más caro, pues se van ya por encima de los cien euros, y los más habituales son los comercializados por la marca Kenko (sí, los mismos de los filtros que empleo habitualmente). En este caso poseen una serie de contactos electrónicos entre los tramos de los tubos haciendo que la electrónica de la cámara sea capaz de comunicarse con el objetivo montado, permitiendo controlar la apertura desde los diales del cuerpo y pudiendo emplear, por tanto, objetivos sin anillo de diafragmas.

En ambos casos (y al igual que con los anillos de extensión) no se recomiendan objetivos zoom para ser empleados con tubos de extensión, siendo más apropiado un simple 50mm manual que podemos encontrar en eBay por muy poco dinero si es que no tenemos ninguno a mano (en mi caso suelo emplear mi querido Nikon AF 50mm f/1.8 D ). A continuación tenéis el aspecto que tendría la cámara con el tubo de extensión montado con la máxima ampliación posible y el mencionado 50mm.

Tubos de extensión + 50mm

Por último, os dejo una fotografía obtenida con la máxima ampliación que se puede conseguir con el conjunto de tubos + 50mm montado en mi Nikon D40 que, como podéis observar, es superior al obtenido con el anillo inversor empleando este objetivo en concreto:

Tubos de extensión + 50mm

Tubos de extensión + Nikon AF 50mm f/1.8 D. Relación aprox 1,33:1

Os comento también que cuando aumentamos mucho el grado de ampliación la profundidad de campo se reduce hasta la mínima expresión (puede llegar a ser de menos de un milímetro) y cualquier leve temblor dará al traste con nuestra fotografía. Para estos casos se hace imprescindible una iluminación potente (en los ejemplos la moneda está colocada a pleno sol) o bien colocar la cámara en un trípode para asegurarnos de que no se moverá absolutamente nada.

Combinación de ambos elementos

Como ya habréis imaginado, nada nos impide combinar ambos elementos de tal modo que en la cámara irán los tubos de extensión y en el extremo de estos el anillo inversor para montar a continuación el 50mm al revés tal y como muestra la siguiente imagen:

Tubos de extensión + anillo inversor + 50mm

En este caso el grado de ampliación es todavía mayor que en los dos «experimentos» anteriores, aunque hay que tener en cuenta que también la pérdida de calidad será más notable (recordad que podéis hacer click sobre cualquiera de las fotografías del artículo para acceder a versiones de mayor tamaño).

Tubos de extensión + anillo inversor + 50mm

Tubos de extensión + anillo inversor + Nikon AF 50mm f/1.8 D. Relación aprox 2:1

Bien, pues de momento esto es todo sobre la forma de hacer fotografías macro sin dejarnos medio sueldo en el intento. Obviamente los resultados siempre van a ser mejores con un auténtico objetivo macro, pero si no vamos a hacer fotografías de este tipo a menudo y sólo queremos una solución rápida y fácil para salir del paso, unos tubos de extensión sencillos y/o un anillo inversor pueden darnos un resultado bastante satisfactorio tal y como podéis ver en las imágenes que ilustran esta entrada. Además, en caso de que ya poseamos un objetivo macro, combinándolo con unos tubos de extensión podéis llegar a niveles de ampliación realmente sorprendentes.

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

Mi ordenador llevará Debian y Windows XP en particiones separadas

Finalmente conseguí que Debian + KDE4 funcionara correctamente en mi ordenador de sobremesa. Ya no tengo efectos gráficos no deseados (era culpa del driver de nVidia; con uno más actualizado se solucionó el problema) y el ordenador funciona estable y a toda velocidad gracias a que he instalado la versión de 64 bits del sistema operativo que aprovecha mejor las prestaciones de mi micro Core2Duo.

kde4_debian

Lo que ocurre es que lo de la virtualización del Windows XP no es algo tan simple como pensaba; y aunque he conseguido hacerlo funcionar a una velocidad bastante decente se me presenta el problema de la resolución de pantalla y el rendimiento de Lightroom: lo que ocurre básicamente es que en el ordenador virtualizado tengo un hardware de vídeo muy poco potente (lógico, pues todos sus componentes están emulados por software) y los milagros en informática no existen.

El manejo general del sistema operativo es rápido (también influye que le he asignado 2 GB de RAM; dejando a Debian con la memoria muy muy justita) pero el pobre Lightroom rinde poco más o menos que como en mi portátil además de que estoy limitado a una resolución máxima de 1600×1200, que si bien no es poca, sucede que es de formato 4:3 con las desventajas que esto implica a la hora de trabajar con fotografías como ya os comenté en una entrada de hace un tiempo.

virtualbox_fin

Total, que la solución que voy a llevar a la práctica (ya tenía la idea anteriormente; pero varios comentarios vuestros en la entrada sobre la eliminación de Windows Vista me han llevado a ver que puede ser la mejor opción) es dividir el disco duro en tres particiones:

– Una para Debian, que será la que arranque por defecto ya que será el sistema que emplee la mayor parte del tiempo.

– Otra para Windows XP; sin demasiadas necesidades de espacio porque va a ser para el sistema, Lightroom y poco más.

– Una tercera (con todo el espacio restante) para datos, de tal modo que en ella tendré todas las fotografías y vídeos que vaya editando así como el grueso de los juegos que pueda analizar para ultimONivel. Lo más importante es que a esta partición pueda acceder tanto desde Debian como desde Windows XP.

En fin, a ver qué tal queda todo al final, pero de momento me he dado cuenta de que aunque la virtualización va muy bien para ejecutar el sistema base y programas «estándar», para cosas que requieran muchos recursos la bajada de rendimiento es bastante acusada y, en ocasiones, no va a ser posible emplear las mismas posibilidades que el sistema sin virtualizar (como lo de la resolución de 1920×1080 en mi caso particular).

Espero que la próxima entrada hablando sobre este tema sea para comentaros que ya está todo instalado y funcionando  😉