Refrigeración líquida vs. refrigeración por aire

En general, se considera que una refrigeración líquida para la CPU es más eficiente que las habituales de disipador + ventilador debido a que el agua tiene la propiedad de transportar el calor más rápido de un sitio a otro, de modo que el líquido que da vueltas en el circuito se calienta con facilidad en la bomba que está en estrecho contacto con el microprocesador pero también se enfría con rapidez en el radiador que refrigera un ventilador haciendo así que su temperaratura no se dispare. Igual que en un coche con motor de combustión, vamos.

Todo lo anterior junto con el factor «molar» (a primera vista las refrigeraciones líquidas son más cool que las de aire) hacen que mucha gente opte por uno de estos sistemas como si fueran la panacea; pero aun así, con el tiempo te vas dando cuenta de algunas desventajas y empiezas a pensar, como ha sido mi caso, que una refrigeración por aire tampoco está tan mal.

Entre los componentes del PC que monté a primeros de año estaba una refrigeración líquida AIO (All In One) de Cooler Master con radiador de 120mm, que desde mi punto de vista funciona a las mil maravillas y mantiene la temperatura del procesador bajo control de una forma muy estable gracias a la mayor inercia térmica del líquido refrigerante.

En el caso de mi placa base, una MSI con chipset B450, tengo dos conectores de ventilador, ambos regulables por PWM o por DC: CPU_FAN y SYS_FAN. Al primero de ellos se enchufa habitualmente el ventilador del disipador de la CPU; mientras que al segundo se suele conectar el ventilador trasero de la caja encargado de sacar el aire caliente de la misma. Luego ya es cuestión de regular sus curvas de funcionamiento en función de la relación temperatura/ruido que queramos obtener.

En el caso de optar por una refrigeración líquida la estrategia es diferente. Aquí se trata de que la bomba haga circular al líquido a una velocidad constante por el circuito, por lo que esta se suele conectar al SYS_FAN y se deja a velocidad fija, normalmente a 12 Vdc o bien al 100% de PWM, con la intención de que quede girando a su velocidad nominal. Por su parte el ventilador del radiador es que el que va a ir conectado a CPU_FAN y regulado mediante su curva PWM, de tal manera que si el microprocesador está frío el ventilador gire a baja velocidad y si la temperatura se incrementa lo haga también la velocidad del ventilador con objeto de enfriar más rápidamente el líquido en el radiador.

¿Qué ocurre en el caso de que sólo dispongamos de estos dos conectores de ventilador? Pues que si tenemos otros ventiladores adicionales en la caja para refrigerar su interior, o bien los compramos con adaptador MOLEX para que vayan a 12 voltios fijos, los regulamos mediante un reostato externo (este sistema se considera ya algo viejuno; sobre todo ahora que las cajas de los PCs no traen disqueteras ni bahías para CD-ROM) o los adaptamos mediante algún tipo de hub PWM para que vayan sincronizados con la velocidad del ventilador del radiador, cosa nada recomendable porque las continuas subidas y bajadas casi instantáneas de éste nos pueden volver locos por el incremento y decremento de la sonoridad global del PC.

Y luego está el problema clásico de las refrigeraciones líquidas: las pérdidas de agua. Y es que, hasta donde yo sé, ninguna refrigeración líquida emplea un líquido dieléctrico para funcionar, siendo todas de base agua con mayor o menos presencia de etilenglicol. Es decir, que como se nos fisure un tubo o se salga un racor con el ordenador en marcha nos podemos ir despidiendo de la placa base y/o la tarjeta gráfica y/o fuente de alimentación.

Al principio veía la cosa muy segura, pero a base de leer casos de fugas en refrigeraciones líquidas con unos cuantos años ya a sus espaldas empecé a pensar en hacerme con una refrigeración por aire, la cual tiene otro ventaja adicional y es que si se nos para el ventilador del disipador éste último puede seguir refrigerando algo de forma pasiva (sobre todo si el flujo de aire dentro de la caja es adecuado y consigue que se mueva algo de aire entre sus aletas) pero si se nos avería la bomba de una refrigeración líquida el micro se nos va a plantar en temperaturas perjudiciales para su salud en menos que canta un gallo y con posibilidad además de que por efecto del calentón uno de los racores de la bomba se dilate y acabemos además con la temida fuga de líquido.

Aún así, las refrigeraciones líquidas tienen otra ventaja que no he comentado hasta ahora y es que el calor del microprocesador lo sacan directamente fuera de la caja, ya que los ventiladores de los radiadores se suelen configurar para que eliminen ese calor hacia el exterior (y si el radiador está colocado en la parte alta de la caja de paso ayudan a sacar el aire caliente que hay acumulado dentro de la misma). La cosa es que cuando usas una refrigeración por aire, el disipador se calienta y por tanto también el interior de la caja puesto que su ventilador lo hace circular por su interior, de modo que es un motivo más para asegurar una buena circulación de aire dentro del PC con los ventiladores de la caja si no queremos que se eleven las temperaturas de sus componentes internos.

Por tanto, sopesando todo esto que os he contado decidí probar la refrigeración por aire que ofrece el propio disipador que viene con el AMD Ryzen 7 3700x (el famoso y colorido Wraith Prism) y comprando un juego de ventiladores regulables por PWM así como un HUB para poder conectar varios de ellos (cinco en concreto) al conector SYS_FAN de la placa base.

Tras unas pruebas iniciales me di cuenta de que el Wraith Prism es un avión a punto de despegar cuando pasas algún benchmark de CPU o si te tiras un buen rato jugando a algún juego muy exigente con el microprocesador y la tarjeta gráfica. Sus 3750 RPM máximas hacían un ruido tremendo aunque cierto es también que mantenía las temperaturas del microprocesador más o menos en los márgenes que jugaba la líquida que tenía puesta hasta ese momento.

¿Y por qué tanta velocidad de giro? Bueno, el problema es que es un disipador de perfil bajo, de modo que además de que el aire va «de arriba a abajo» impulsado con el ventilador, chocando por tanto con la placa base y disminuyendo su capacidad de refrigeración, las aletas de aluminio que tiene son más pequeñas que las del típico disipador «de torre» que habréis visto en multitud de PCs. Lo que han hecho en AMD es suplir ese menor rendimiento que viene condicionado por su diseño con un caudal de aire muy bestia, pero claro, los dbs también se disparan.

Buscando un poco en foros y demás encontré un modelo de disipador + ventilador en formato torre que funcionaba muy bien y además entraba en mi caja, que al ser para placas microATX no es demasiado ancha y está limitada a una altura máxima del conjunto de unos 15 cm; medida que sobrepasan muchos modelos de Noctua y Cooler Master equipados con ventiladores de hasta 14 cm a los que hay que sumar la altura de la base y el primer tramo de los heatpipes que llevan incorporados.

El modelo que compré fue el Hummer H-212 de Nox, que sale por unos 30 euros y es sumamente silencioso, también gracias a su ventilador cónico de 120 –> 92 mm que sopla sobre un disipador de aletas de aluminio y heatpipes de cobre a una velocidad máxima de 1600 RPM. He de decir que me ha sorprendido para bien, porque las temperaturas están a la par con el Wraith Prism pero el ruido que hace a máxima velocidad es una fracción del modelo de AMD y además en idle es prácticamente inaudible.

Como podéis ver en la imagen anterior, la disposición del conjunto disipador-ventilador es tal que el aire fresco entre por el frontal de la caja, lo recoge el ventilador, lo hace pasar por el disipador donde se calienta y a continuación sale por el ventilador trasero. Puede que algo de aire se derive hacia los dos ventiladores superiores, pero estos están principalmente para sacar el aire caliente que se acumula en la caja cuando la tarjeta gráfica está trabajando a plena potencia; si bien de esto creo que prepararé un artículo específico porque me parece un tema interesante.

Por tanto, y para resumir un poco todo lo comentado en este artículo, aunque las refrigeraciones líquidas son muy pintonas y funcionan muy bien creo que no van a conseguir barrer del mapa a las refrigeraciones por aire; ya que estas tanto por funcionalidad como sobre todo por seguridad tienen bastantes ventajas.

La revolución necesaria del DLSS

Para jugar a 1080p me bastaba con la Nvidia Geforce GTX 1060 3GB de Gigabyte que conseguí poco después de terminar el montaje de mi nuevo ordenador de sobremesa; pero no es menos cierto que desde el principio tuve el ojo puesto en la gama RTX para poder subirme al carro de una tecnología que en tiempos me hubiera parecido de ciencia-ficción: el DLSS, iniciales de Deep Learning Super Sampling.

La relación resolución / potencia de cálculo

Muy a grandes rasgos y a nivel muy muy básico, una tarjeta gráfica necesita más potencia cuantos más pixels tiene que dibujar en pantalla. A una resolución de 1080p son 2073600 pixels. A 1440p serían 3686400, a K4 nos iríamos a 8294400 y, por último, a 8K serían 33177600 pixels.

Pensad ahora que esos son los pixels necesarios para dibujar un sólo frame en pantalla, y si estamos jugando algo que requiera un mínimo de acción querremos que la imagen se refresque, al menos, 60 veces cada segundo para no tener sensación de discontinuidad en la animación, que es algo que saca del juego (y de quicio) a cualquiera.

Si tomamos el ejemplo de resolución 4K, en el que decíamos que la pantalla a dicha resolución se compone de 8294400 pixels y lo multiplicamos por 60, tenemos que la tarjeta gráfica tiene que calcular cada segundo la friolera de 497664000 pixels. ¡Eso son casi quinientos millones de pixels en un sólo segundo! ¡¡¡QUINIENTOS MILLONES!!!

Obviamente, para poder mover semejante cantidad de datos la potencia bruta y la velocidad de proceso de la tarjeta gráfica han de ser tremendas, porque los pixels no son sólo cuadrados de colores sin más; sino que hasta decidir su aspecto previamente llevan una rutina de posicionado, trazado de vértices, texturizado, sombreado… Y no digamos ya si emplean técnicas de iluminación mediante raytracing ¿Empezáis a entender por qué las tarjetas de gama alta cuestan lo que cuestan, abultan lo que abultan y se calientan como se calientan?

De cualquier modo, cuando se pasó de FullHD (1080p) a la resolución de 1440p los fabricantes se dieron cuenta de que la potencia necesaria para dar el salto a cada siguiente resolución se iba incrementando a un ritmo exponencial que el desarrollo de las tecnologías gráficas clásicas no iba a ser capaz de seguir. Se imponía por tanto buscar una solución que no fuera simplemente meter potencia bruta sin más, ya que con el 4K empezando a proliferar y el 8K en el horizonte no es posible disponer de tal potencia de cálculo en una tarjeta que de momento ha de entrar en la caja de un PC.

Buscando alternativas a la potencia pura y dura

Y así es cómo en Nvidia empezaron a dar vueltas a la idea de crear unos algoritmos de escalado dinámico que permitieran renderizar internamente a una resolución inferior para en un último paso resamplear a resoluciones más altas sin apenas pérdida de calidad. Y es que ahí está la clave de todo: podéis coger el Paint, abrir una imagen de 80 x 120 pixels y subirle la resolución todo lo que queráis, pero los píxeles tendrán el tamaño de un melocotón y el resultado será, como mínimo, decepcionante.

Lo alucinante del DLSS es que realmente la pérdida de calidad es muy pequeña para lo mucho que baja la resolución internamente el algoritmo. Por ejemplo, si vamos a jugar en 4K (2160p) y elegimos el modo llamado «Calidad» internamente renderizará a 1440p. Si elegimos el modo «Equilibrado» lo hará en 1253p, mientras que el modo «Rendimiento» lo hará a 1080p y el «Rendimiento Ultra» a 720p. Y sí que es verdad que en este último caso se nota pérdida de calidad sobre todo en los detalles más finos como el pelo de Lara Croft en Shadow of Tomb Raider o las estructuras metálicas finas lejanas en Cyberpunk 2077, pero si elegimos los modos «Calidad» o «Equilibrado» realmente apenas notaremos diferencia con la resolución original y la tasa de frames por segundo se incrementará considerablemente.

Hubo una primera versión que funcionaba en juegos muy específicos y era algo limitada, pero poco a poco la tecnología ha ido evolucionando y a día de hoy estamos ya en la versión 2.0 del DLSS que ofrece mejores prestaciones y una implentación en los títulos más sencilla para los desarrolladores. Hasta tal punto es así que algunos títulos que ya empleaban la primera versión del algoritmo se han actualizado para hacer uso de la versión actual.

Los detalles de cómo funciona el DLSS son bastante complejos, ya que se basa en una red neuronal que utilizando imágenes de muy alta y baja resolución del juego que Nvidia carga en sus servidores aprende cómo rellenar los huecos y desajustes que ocurren cuando se resamplea «a las bravas» una imagen y esta información la acaban volcando en los drivers gráficos que actualizan un par de veces al mes más o menos. Obviamente no os voy a dar el tostón aquí con tantos detalles tećnicos, pero si os interesa el tema os recomiendo echar un vistazo a algunos artículos (casi siempre en inglés) donde tocan en tema de forma bastante profunda.

Está claro que este post-procesado requiere una potencia de cálculo importante en la tarjeta gráfica, pero a la vista de los resultados, las unidades que computan estos algoritmos (los llamados Tensor Cores en las dos últimas familias de tarjetas gráficas de Nvidia RTX20 y RTX30) lo hacen bastante más rápido que si desactivamos el DLSS; lo cual me parece sencillamente alucinante. Que sea más fácil para la tarjeta «inventarse» parte de los pixels de la imagen que calcularlos y que además el resultado final sea tan bueno es algo que la primera vez que vi me sorprendió muchísimo.

DLSS en pruebas sintéticas: 3DMark

Para mostraros esto de una forma gráfica (nunca mejor dicho) he pasado el test específico de DLSS que incorpora la última versión de 3D Mark, el cual dicho sea de paso, es una pasada a nivel visual. Y es que, de hecho, 3DMark siempre ha sido la referencia para los gráficos más punteros, acordándome ahora mismo de la mítica demo de la versión del año 2000 que ejecutaba en mi AMD K6-2 de la época al que le puse una Voodoo Banshee con 16 MB de VRAM.

Volviendo al test de DLSS, en primer lugar aquí tenéis el resultado de pasar el test a una resolución de 1080p con mi Nvidia Geforce RTX 2060. La primera parte es sin DLSS y la segunda aplicando el algoritmo en modo «Calidad», haciendo que apenas haya diferencias gráficas entre uno y otro test.

Como podéis ver, sin aplicar DLSS obtenemos unos 32 FPS, y con el modo «Calidad» la media es de casi 58 FPS que es  un 80% de ganancia de rendimiento (casi el doble).

En caso de aplicar el modo «Rendimiento» en la misma resolución de antes perderemos algo de calidad gráfica en algunos detalles finos pero ganaremos unos cuantos FPS.

En esta ocasión hemos pasado de los 32 FPS al no aplicar DLSS a una tasa de prácticamente 76 FPS, lo que representa una ganancia de rendimiento del 135%.

DLSS en la práctica: Shadow of Tomb Raider

Vamos a ver ahora esto mismo pero aplicado a un juego comercial como es el Shadow of Tomb Raider dado que nos permite usar todos los modos de DLSS disponibles y así como, logicamente, prescindir de él. Se ha ejecutado en el mismo equipo que la prueba del 3DMark.

En las siguientes imágenes podéis ver, de arriba a abajo, cómo influye en la tasa de cuadros por segundo no emplear DSLL o ir usando respectivamente los modos Calidad, Equilibrado, Rendimiento y Rendimiento ultra, manteniendo en todos los casos la calidad gráfica del juego en el máximo y la resolución a 1080p.

¿Veis a lo que me refiero? Emplear DLSS hace que tengamos más FPS a costa de una apenas perceptible pérdida de calidad de imagen, de modo que es un recurso valioso que nos permitirá estirar un poco más la vida útil de nuestra tarjeta gráfica antes de plantearnos dar el salto a un modelo superior porque ya no da más de si.

Ahora bien, espero que con esto los desarrolladores no empiecen a optimizar los juegos malamente pensando que si va lento con que los usuarios activen el DLSS ya está todo arreglado, porque entonces estamos en las mismas al compensar una ventaja con una desventaja. El DLSS es un inventazo, pero yo lo entiendo como un modo de que gente que no tiene una tarjeta de gama alta pueda jugar a resoluciones y/o niveles de detalle que «de serie» no podrían alcanzar.

Que este tipo de tecnologías van a ser de un uso cada vez más general lo demuestra el hecho de que recientemente AMD ha sacado su algoritmo FidelityFX Super Resolution y que Intel, que ahora se va a subir también al carro de las tarjetas gráficas con sus modelos Arc, va a emplear una tecnología similar llamada XeSS. Está claro que esta era una revolución necesaria.

La tarjeta gráfica más cara no siempre es la mejor opción

En la fase de planificación de mi nuevo ordenador de sobremesa estuve mirando muchos modelos de tarjetas gráficas, lo que me hizo darme cuenta de una cosa: tener la última gráfica tope de gama del mercado conlleva un elevado coste que no estoy seguro de que merezca la pena acometer.

Esto es algo que me gustaría ir desgranando a lo largo de este artículo y para ello empezaré usando una tabla en la que os muestro los datos del «estudio de mercado» que hice en el mes de diciembre para luego ir viendo todo de un modo mucho más visual.

Como podéis ver en la primera fila, la tarjeta gráfica de mi anterior ordenador (una AMD Radeon HD6540) daba unos miserables 199 puntos en el test de rendimiento que la gente de Passmark realiza a todos los modelos que incluyen en su base de datos. Obviamente la opción de quedarme con ella estaba completamente descartada desde el momento que me planteé usar el ordenador para jugar a cualquier cosa aparecida en los últimos diez años y, por tanto, a partir de ahí se abría un amplio abanico de posibilidades.

Si os ha tocado el euromillones está claro: iréis a por una RTX 3090 (o dos, configuradas en modo SLI) y santas pascuas. Sin embargo, al común de los mortales nos toca buscar un punto de equilibrio entre precio y prestaciones; algo que también nos tocará hacer al comprar un coche, una casa o un teléfono móvil.

Ordenando los modelos por rendimiento puro y duro en una gráfica de barras podemos ver que el incremento de potencia es prácticamente lineal entre las diferente tarjetas de las últimas cuatro generaciones de Nvidia (GTX 10, GTX 16, RTX 20 y RTX 30) por lo que a no ser que haya un cambio de paradigma muy radical en la concepción de las futuras tarjetas gráficas casi podremos calcular cuánto van a rendir los modelos de la marca que van a aparecer durante los próximos meses. Mi apuesta es que una hipotética serie RTX 40 saldrá de aquí a un año y sus rendimientos andarán entre los 25000 y 30000 puntos según se posicione el modelo dentro de la gama. Y, salvo sorpresa, no creo que me vaya a desviar mucho; el tiempo lo dirá.

El compromiso entre precio y aumento de prestaciones

Vamos ahora a hacer un pequeño estudio de costes y rendimiento en los siguientes párrafos para tratar de que veáis la idea principal de este artículo de una forma práctica.

Mi tarjeta actual es una GTX 1060 3GB, que ronda los 10000 puntos y esto representa un rendimiento 50 veces mayor que la Radeon HD6540 que tenía mi antiguo ordenador (aproximadamente un 5000% más de rendimiento) y por ella tendremos que pagar unos 200 euros.

Si quiero saltar al que ahora mismo es el modelo más básico de la serie RTX 30 tendré que irme a una 3060 Ti, que tiene un rendimiento de unos 20000 puntos, que es el doble que mi tarjeta actual (100% más de rendimiento que la GTX 1060 3GB). Sin embargo, para dar el salto tendré que aflojar unos 480 euros según estuve viendo hace un par de meses.

Supongamos que me vengo un poco arriba y decido que voy a pegar el salto a una RTX 3080, que saca una puntuación de 24000 puntos, lo que representa un 20% más que la 3060 Ti pero para ello ya tengo que gastarme unos 1000 euros.

Y en el caso extremo de que se me vaya por completo la cabeza y me quiera ir al tope de gama actual, la RTX 3090, voy a tener un rendimiento ligeramente por encima de los 25000 puntos (un 5% más que la 3080) pero para hacerme con una voy a tener que soltar la friolera de 2000 euros. Este caso es el más extremo del ejemplo y representa muy bien lo que os decía al principio: que tener lo último de lo último sólo representa un 5% más de rendimiento sobre el modelo inmediatamente inferior pero también implica un sobrecoste de 1000 euros con respecto a éste.

Antes vistéis antes una gráfica en la que ordenaba los modelos por su rendimiento teórico, y ahora vamos a verlas en el mismo órden, pero lo que muestro en esta ocasión es su precio aproximado de primera mano en tiendas de España.

Algo que llama la atención en esta imagen es que los modelos de las últimas series acabados en 80 salen por unos 1000 euros, representando estos el tope de gama de cada generación. Sin embargo, aunque ahora el tope de gama de las RTX 30 es la 3090 y eso se nota también en su disparatado precio de venta, la 3080 sigue en esa línea de flotación de los 1000 euros. Si os fijáis, las tarjetas acabadas en 70 suelen rondar los 500 euros, de tal modo que parece claro que Nvidia tiene estipulado que cada subida de escalón dentro de una misma serie implica una duplicación de su precio. Lo que pasa es que esto no conlleva ni mucho menos una subida de prestaciones en la misma proporción.

La virtud está en el punto medio

La magia sucede cuando combinamos ambas tablas para obtener un ratio que nos indica cuántos puntos de rendimiento sacamos por cada euro invertido en la tarjeta gráfica; y en este caso vamos a ver que, en general, los extremos son los que menos interesan para un usuario medio como puedo ser yo. Los modelos de la parte baja son económicos pero tienen poco rendimiento; mientras que los de la parte alta tienen mucho rendimiento pero a medida que nos vamos hacia la derecha el precio se dispara y por tanto el ratio cae.

Por tanto, una vez más, tenemos que tener muy claro qué es lo que necesitamos. Una RTX 2060 sería un modelo que nos permitiría a día de hoy mover cualquier juego actual en FullHD por poco más de 400 euros, por lo que sería un poco absurdo gastarnos los 2000 eurazos de una 3090 si no vamos a emplear un monitor 4K que nos permita mover los juegos a esa resolución (son 4 veces más pixels que la resolución FullHD, y eso requiere un montón de potencia de proceso adicional).

Del mismo modo, no debemos dejar de lado que el microprocesador, la memoria RAM o incluso el disco duro también nos van a limitar a la hora de mover los juegos con soltura porque no todo es cuestión de tarjeta gráfica. Y es que supongo que a nadie se le ocurrirá montar una RTX 3080 en un Celeron, con 2 GB de RAM DDR3 y un disco duro mecánico de 5400 RPM; porque en ese caso la gráfica renderizará un fotograma en pantalla para luego estar un buen rato esperando a que el resto de los componentes (que irán absolutamente asfixiados) sean capaces de mandar a la tarjeta gráfica los datos del siguiente, por lo que no aprovecharemos para nada el potencial que esta podría ofrecer y podríamos haber puesto una tarjeta mucho más barata obteniendo unas prestaciones prácticamente iguales.

En definitiva, mis dos recomendaciones a la hora de elegir una nueva tarjeta gráfica es que penséis si os merece la pena pagar un fuerte incremento de precio por apenas un poco más de rendimiento y que compréis algo acorde a vuestro hardware para poder sacarle todo el partido a vuestra nueva adquisición.

Pensad que a lo mejor merece más la pena gastar 1000 euros cada dos años que 2000 cada cuatro porque, al fin y al cabo, el salto de rendimiento entre modelos intergeneracionales similares es mayor que el siguiente escalón dentro de la misma serie. Además, una tarjeta recién sacada al mercado siempre va a recibir más atenciones por parte del fabricante que un modelo de una gama que ya va a ser descatalogada y para la que como mucho sacarán alguna actualización de drivers puntual.

En cualquier caso, todo esto estaría muy bien si todos los modelos que hemos visto a lo largo del artículo estuvieran plenamente disponibles; pero la realidad es que por diversos motivos actualmente la escasez de tarjetas gráficas en el mercado es brutal y las pocas que salen a la venta que no sean de gama baja duran literalmente segundos en stock.

En mi caso particular, una RTX 3060 Ti podría ser una muy buena opción y es a lo que apunto en un futuro; pero dado que en los próximos meses va a ser prácticamente imposible hacerse con una, como os decía antes he conseguido una GTX 1060 3GB de segunda mano que me está dando muy buen resultado con todo lo que estoy jugando actualmente en mi recién estrenado PC (Ryzen 5 3500X, MB B450, 16 GB RAM DDR4 3000, SSD M.2).

¡Nos leemos!

Actualización 25-02-2021

Ahora que ha salido oficialmente la RTX 3060 (de la que no hay stock en ningún sitio, tal y como se esperaba) os pongo una tabla con las puntuaciones de GPU Passmark de toda la gama GTX y RTX de Nvidia, pues es una forma muy visual de ver cómo han ido evolucionando los diferentes modelos. En las columnas están las diferentes series que han ido apareciendo y en las filas la gama a la que pertenece cada modelo.

Cómo diseñé y monté mi nuevo ordenador de sobremesa

El PC de sobremesa que he usado hasta ahora tiene ya más de 9 años y aunque es verdad que me seguía dando muy buen servicio, estas Navidades decidí renovarlo porque en los últimos tiempos han ido surgiendo avances en la informática que quería probar y si algo he aprendido de todos los años que llevo trasteando con este tipo de cacharros es que actualizar un ordenador que tiene más de un lustro suele ser a base de «parches» que no le permiten sacar todo el rendimiento posible y es mejor hacer una renovación total del mismo.

Es decir, podría actualizar el microprocesador, pero sólo a uno de la tercera generación Core de Intel (actualmente van ya por la undécima) debido al socket 1155 de la placa, por lo que pasaría de un i7 2600 a un i7 3770 en el mejor de los casos. También podría cambiar la tarjeta gráfica Radeon HD6450 pero el bus de la placa es PCIe 2.0 y el conector de alimentación de la fuente es de seis pines, podría ampliar la RAM pero estoy condenado a que sea DDR3 a 1333 MHz, también podría meter un disco M.2 pero tendría que montarlo en una placa adaptadora a PCIe 1x con el cuello de botella que esto supone… Vamos, que sería una actualización parcial que enseguida vi que no merece mucho la pena porque al final el incremento de rendimiento no era demasiado elevado.

Con esto en mente decidí por tanto hacerme un ordenador a medida empleando para ello componentes que iría comprando en diversos proveedores; si bien ya os adelanto que no he conseguido todo lo que quería y habrá alguna cosa que actualizaré en los próximos meses si las circunstancias lo permiten. Os iré desarrollando todo esto a lo largo del artículo porque creo que es interesante, no os preocupéis.

Sea como sea, mi intención con esta renovación es seguir usando el ordenador como de costumbre para escribir, edición fotográfica… pero también para ejecutar algún que otro juego de vez en cuando porque si algo tengo claro es que de momento no me voy a meter en la nueva generación de videoconsolas y la PS3 la tengo ya muy trillada.

No es que sea yo un hardcore gamer, pero sí que le estoy cogiendo el gustillo a echar alguna partidilla de vez en cuando si el resto de obligaciones laborales y personales me lo permiten. Por tanto, al igual que con mis dos últimos sobremesas pasé olímpicamente de la tarjeta gráfica porque para jugar usaba videoconsolas, en este caso sí que quiero una GPU digna que me permita jugar con soltura a lo que hay ahora mismo en el mercado.

Planificación

A la hora de plantearme este tipo de cosas hay un aspecto que disfruto especialmente, que no es otro que la planificación. Con esto lo que consigo es acotar de una forma bastante precisa qué necesito y hasta dónde estoy dispuesto a gastar para evitar así despilfarrar a lo loco y comprar cosas que no voy a emplear.

Por tanto, lo primero que hice fue crear una hoja de cálculo en la que planteé tres configuraciones diferentes especificando los componentes principales al detalle junto a sus precios: una muy básica, una media y una extrema. Al final viendo los presupuestos y rendimientos decidí que partiría de la base de la media, ya que para crear la básica casi que me quedaba con el ordenador que tenía y la extrema se iba completamente de madre en términos económicos (Core i9 10900K, 64 GB RAM 3600 MHz, RTX 3080, placa gaming de gama alta, SSD M.2 2 TB…). Y es que, como en la vida misma, la virtud se encuentra en el punto intermedio.

Os dejo a continuación la tabla con la configuración más bestia que se me ocurrió y que, como os decía, se va totalmente del presupuesto que podría estar dispuesto a gastar, de modo que quedó desechada.

Por tanto, el plan inicial adoptado para el nuevo ordenador consistía en un procesador Intel Core i5 de décima generación, una placa microATX con su caja correspondiente (las torres ATX me parecen un mamotreto), 16 GB de RAM DDR4, disco duro SSD de 240 GB para el SO y aprovechar el HDD de 1 TB que ya tenía para datos. En cuanto a la tarjeta gráfica la idea era hacerme con una Nvidia GeForce RTX 2070 o similar y también comprar un nuevo monitor Full-HD con altavoces incorporados porque el Acer que tenía desde hace más de 10 años sólo tenía conector VGA y estaba un poco harto de tener que hacer apaños con conversores y demás. Y bueno, ya que estaba quería darme el capricho de poner algún detalle de iluminación en color azul, cosa que haría con un par de ventiladores de caja. Ah, y también iba a necesitar una licencia de Windows 10, pues la que tenía el HP era OEM y por tanto no se podía transferir al nuevo PC.

Buscando los componentes

Con esta configuración en mente comencé a buscar componentes a principios de diciembre y me encontré con que el mercado de los procesadores, la memoria RAM y, especialmente, las tarjetas gráficas estaba completamente arrasado. Y no es una forma de hablar, es que las tarjetas gráficas más altas de gama que encontraba en stock eran las GeForce GT 730 o como mucho alguna GT 1030 suelta. La recién aparecida serie 30 no estaba ni se la esperaba a medio plazo salvo que estuvieras dispuesto a dejarte casi 2000 euros en una de las pocas RTX 3090 disponibles, pero es que pasaba lo mismo con la serie 20 e incluso con la 16. Sé que existe la opción de las gráficas de AMD que también van muy bien, pero habiendo pasado por ambas marcas en el pasado me quedo con Nvidia por pura preferencia personal.

Como os digo, lo de los procesadores también estaba muy complicado en esos momentos. Placas con socket LGA 1200 había bastantes disponibles, pero los microprocesadores estaban fuera de stock en la mayoría de los casos excepto los i3 10100 y similares, así que empecé a replantearme ciertas cosas y a pensar por primera vez en más de 20 años en comprar algo que no fuera de Intel.

Y así, buscando información en muy diversas fuentes llegué a dar con un microprocesador que para mí conseguía una buena relación precio/prestaciones y que además tenían en stock en una conocida tienda online de componentes de PC: el AMD Ryzen 5 3500X.

Claro, esto implica conseguir una placa con socket AM4, pero esto no fue un problema porque en la misma tienda eché al carro una B450M PRO-M2 MAX de MSI. Primero estuve mirando sus especificaciones y vi que se adecuaba perfectamente a lo que necesitaba: soporte directo de la familia 3000 de Ryzen (y de la 5000 con una próxima actualización de firmware), 2 ranuras de memoria DDR4 de hasta 4133 MHz y 32 GB, un zócalo M.2 NVMe, 4 puertos SATA y una BIOS que permite trastear bastante con los parámetros de velocidad de microprocesador, memoria y ventiladores.

En cuanto a la RAM, después de mucho mirar compré un pack de dos módulos de 8 GB cada uno de Corsair, en concreto las Vengeance LPX de 3000 MHz con disipador incorporado. Me hubiera gustado comprarlas de 3200 MHz, pero estuve esperando casi dos semanas y no había stock por ningún lado así que viendo que las diferencias de rendimiento iban a ser mínimas opté por las de 3 GHz y si en el futuro veo que merece la pena a lo mejor las sustityo por 32 GB de más velocidad, pues la placa soporta hasta 4133 MHz.

El disco duro elegido fue un Kingston A2000 NVMe de 240 GB conectado en el puerto M.2 de la placa en el que irá instalado únicamente el sistema operativo y los programas que uso habitualmente. El resto de programas, librerías, descargas y demás irá en un segundo disco duro que en principio pensé en que fuera el HDD de 1 TB del PC anterior, pero al final descarté esta opción y compré un SSD de 480 GB también de la marca Kingston conectado por SATA. Bueno, y también dediqué otro SSD Crucial SATA de 240 GB que tenía por casa exclusivamente para almacén de material multimedia y copias de seguridad. Por tanto en este ordenador han quedado desterrados los discos de tipo mecánico, que siempre ralentizan mucho el trasiego de datos de acá para allá.

En cuanto a la caja, compré una Aerocool Bolt Mini, que me gustó tanto por el panel lateral transparente (es metacrilato; no cristal templado) como por la línea quebrada que tiene en la parte frontal que se puede iluminar en diferentes tonos o bien que haga algunos efectos pintones. Ya os dije que me apetecía hacer la frivolidad de darle un toque de color a mi PC para que no sea la típica caja negra, sosa e invisible bajo la mesa.

El monitor es un Philips 243V7QDAB de 24″, FHD, 16/9, 75 HZ, con altavoces incorporados (hay cosas para las que no necesito gran calidad de sonido, y para las que lo necesito uso auriculares) y que dispone de conexiones HDMI, DVI y VGA. Un monitor sencillo pero en consonancia con el espacio de la casa que estaba dispuesto a asignar al ordenador, pues veo una tontería hacerse con un monitor 4K si no es de al menos 32 pulgadas, y en mi mesa algo de ese tamaño me iba a devorar.

Viendo que localizar la gráfica que quería iba a ser un jaleo y que no iba a encontrar en mucho tiempo un modelo como el que tenía pensado, decidí hacer otra cosa porque si no mi proyecto de nuevo ordenador no iba a arrancar en meses. Estuve mirando mi librería de Steam y vi que realmente para lo que tenía pendiente de jugar podía hacerlo con un modelo de hace unos años que podría comprar de segunda mano y mientras tanto esperar a que se normalice la situación y de aquí a un tiempo comprar una gráfica más actual para poder entonces empezar a hacerme con títulos «de ahora».

Siendo el monitor FHD 75 Hz vi que una GeForce 750 Ti podía hacerme el apaño y di con una MSI de doble ventilador nuevecita por apenas 50 euros, de modo que no me lo pensé mucho y fui a por ella, ya que tampoco es que hubiera muchas a la venta en el mercado de segunda mano. Se ve que el mundillo de las gráficas está muy parado y estamos todos esperando a que haya stock para renovar nuestro hardware. Por cierto, nada más llegar a casa con ella le desmonté todo el conjunto de radiador y ventiladores, le limpié el poco polvo que tenía y aproveché para cambiarle la pasta térmica porque vi que estaba algo reseca.

Relacionado con esto de la gráfica, de momento decidí mantener la fuente de alimentación del antiguo PC, ya que es de 500 W y tiene potencia de sobra para mover todo esto. Cuando vuelva a haber stock de tarjetas gráficas compraré una fuente acorde con la GPU que compre; aunque puede que pille antes una con potencia y conectores de sobra para cualquier modelo actual y eso que llevo por adelantado.

Un capricho de última hora

Y bueno, ya que me estaba montando un ordenador a mi gusto, aparte del tema de los detalles de la iluminación LED, tenía ganas de probar algo que me llamaba la atención desde hacía mucho tiempo: una refrigeración líquida para el microprocesador. Y en concreto elegí la MasterLiquid Lite 120 de Cooler Master. Un modelo AIO sencillo de instalar, fiable y que ya lleva tiempo en el mercado.

Al final estos sistemas funcionan como el radiador de un coche: hay una bomba que mantiene el líquido refrigerante dando vueltas en un circuito hermético y éste pasa por el disipador del procesador absorbiendo el calor que emite. Líquido que se vuelve a enfriar al pasar por el radiador que montamos en la parte trasera del PC y por el que pasa aire impulsado por un ventilador que girará más rápido cuanto más se caliente el micro.

Estuve a punto de comprar el modelo de 240 mm de largo (radiador con dos ventiladores) pero vi que el Ryzen 3500X no emite mucho calor con su TDP de tan sólo 65 W y que por tanto con el 120 mm iba de sobra, quedando mucho más discreto y silencioso que el modelo grande.

Y sí, algunos me diréis que es mejor un conjunto de disipador y ventilador, que las refrigeraciones líquidas acaban dando problemas de fugas y sedimentaciones, que son nada más que postureo… Todo eso ya lo sé, pero la cosa es que tenía ganas de probar una por mí mismo y para montar el ventilador que trae en la caja el Ryzen puedo hacerlo en cualquier momento, pues lo tengo guardado en el armario.

Montando el nuevo PC

Justo la semana antes de Navidad conseguí la gráfica y también me llegó la placa base, la memoria y el micro; así que con esto ya tenía todo lo necesario para poder empezar a montar el nuevo PC; pues la caja, la refrigeración líquida y los ventiladores ya los había comprado unos días antes y la fuente de alimentación es del antiguo ordenador.

Hay gente que puede considerar que este tipo de cosas son un auténtico tostón, pero en mi caso es algo que disfruto y que me encanta hacer. De hecho comentaba con mi chica el otro día que a un ordenador que tuvimos mi hermano y yo allá por el año 2000 le cambiamos tantas cosas a lo largo de su vida útil que al final la única pieza original que le quedaba era la disquetera. Eramos unos locos del hardware y por aquella época, dentro de lo que nuestros limitados recursos económicos nos permitían, manteníamos el PC acualizado a base de cambiar componentes cada dos por tres.

Así pues, empecé montando micro y memoria en la placa base, luego monté el conjunto en la nueva caja, monté la fuente de alimentación del antiguo PC y pasé todo el cableado por la parte trasera del chasis, monté los discos duros, conecté todas las alimentaciones y cables de datos a la placa y a los discos, monté la refrigeración líquida, la tarjeta gráfica y la tarjeta WiFi (el ordenador está lejos del router y no quiero andar pasando cables por todos lados) y por último instalé Windows 10, detectando todo a la primera y funcionando sin errores desde el primer instante empezando así a actualizar drivers e instalar actualizaciones del SO y mis programas habituales.

Por último, aproveché para comprar una alfombrilla XXL con iluminación LED fabricada por Mars Gaming y ya puestos una tira LED RGB de dos metros para iluminar todo el contorno inferior de mi mesa y así darle un toque más molón. Sé que el ordenador funcionaría igual sin estos dos elementos, pero como ya os he dicho en un par de ocasiones a lo largo de este artículo, me apetecía darle alguna pincelada de estilo tanto al ordenador como al cuarto donde lo tengo ubicado.

Aun así, todavía tengo alguna cosa pendiente como organizar los cables que se ven tras la CPU y cambiar la fuente por una de color negro para que no cante como la gris que tengo montada ahora mismo. Aparte de esto, como ya os dije en algún momento cambiaré la tarjeta gráfica por un modelo actual para alcanzar así el punto al que quería llegar con este ordenador.

Conclusiones

¿Qué he conseguido con este ordenador? Pues además de tener un equipo actual al que sólo le falta una gráfica más moderna y una fuente acorde con ella para mover todo lo que le echen, una motivación para haberme estudiado la arquitectura Zen de los nuevos micros de AMD, descubrir en qué se basan las mejoras de rapidez del conector M.2, conocer de memoria la gama de Nvidia al completo, unas cuantas horas viendo vídeos de hardware en Youtube (mi gran «descubrimiento» de estos días ha sido el canal de Nate Gentile) y un día entero de puro disfrute montando todo el conjunto de hardware y software, pues comencé a primera hora de la tarde montando el Ryzen en la placa base y terminé instalando los últimos drivers de la tarjeta gráfica en Windows a las tres de la madrugada.

Mientras se alinéan los astros para que aparezca una gráfica potente a un precio justo, usaré la 750 Ti con juegos como Metro 2033 Redux, Alan Wake, The witcher, Sleeping dogs o Bioshock 2 por ejemplo, ya que como tienen algunos años puedo ponerlos con el nivel de detalle al máximo corriendo a los 75 Hz nativos de mi monitor. Son títulos que tenía comprados desde hace bastante, pero que por falta de tiempo y/o porque en mi anterior ordenador no iban muy finos hasta ahora no he podido disfrutarlos como merecen. Al fin y al cabo siempre he dicho que las obras de arte son atemporales, así que nunca es tarde para disfrutar de estas cosas.

En cualquier caso, estoy más que contento con el resultado porque es la primera vez que monto un PC completamente desde cero y me ha sorprendido la ausencia de problemas y errores. No os digo más que en el primer arranque tenía una linterna en la mano porque estaba convencido de que al pulsar el botón de encendido pegaría algún chispazo y saltaría la luz de casa, pero no fue así.

Soy consciente de que no es un ordenador bonito en términos absolutos como algunas creaciones que se ven por ahí y que están diseñadas por gente que tiene mucho arte para estas cosas, pero al final es algo que he hecho yo de principio a fin dándole mi propio toque personal y estoy orgulloso de ello.

¡Nos leemos!

Actualización 28-01-2021

He conseguido una Gigabyte GTX 1060 Windforce OC 3 GB por 100 euros, que no es la tarjeta de mis sueños pero que obtiene un rendimiento de algo más del doble que la 750 Ti y eso se nota en algunos juegos como Shenmue III o Project Cars. Aunque con la fuente anterior hubiera sobrado para alimentar todo el conjunto, también me he hecho con una Tooq TQXGEII de 700 W que dispone de dos conectores de 6+2 pines para alimentar tarjetas gráficas (la 1060 sólo usa uno de 6 pines, mientras que la 750 Ti se alimentaba exclusivamente a través del bus PCIe). Sea como sea, el mercado de las tarjetas gráficas nuevas está, a dia de hoy, todavía peor que antes de Navidad. Espero llegar a hacerme con una RTX 3060 algún día, pero creo que la cosa va a estar muy muy complicada.

Por cierto, también he cambiado la tarjeta Wifi por una más rápida, ya que tengo contratada en casa fibra de 300 Mb/s y con la anterior no pasaba de 80 Mb/s. Con la nueva estoy en torno a los 270 Mb/s y eso es algo que se nota cuando toca descargar grandes cantidades de datos (los 68 GB de Doom, por ejemplo).

Un detalle más: en ocasiones, sobre todo cuando los ventiladores giraban rápido, a veces la tapa de metacrilato vibraba un poco y emitía un sonido que, aunque leve, me molestaba bastante. Lo que he hecho para silenciarlo ha sido pegar unos pequeños círculos adhesivos de goma de apenas 0,2 mm de grosor en las esquinas y la parte central de los largueros metálicos del chasis donde apoya el metacrilato. Desde ese momento se acabaron las vibraciones.

Actualización 13-02-2021

Hoy he comprado un nuevo disco duro SSD de 960 GB; concretamente un Kingston A400. Lo he añadido de tal modo que en él irá el grueso de mi biblioteca de Steam, ya que el de 480 GB se estaba quedando muy justo y las rebajas del año nuevo Chino han sido la puntilla.

Todavía queda en la placa base un puerto SATA libre para un quinto disco duro, pero de momento lo descarto, ya que como podéis ver en la imagen anterior el de 480 GB ha quedado vacío, los otros dos están todavía bastante libres y en el nuevo todavía hay unos 320 GB disponibles.

Actualización 22-05-2021

Hace unos días se me puso a tiro una tarjeta gráfica RTX 2060 a precio digno y no me lo pensé dos veces, de modo que me hice con ella y actualicé el ordenador. En concreto es una MSI RTX 2060 Gaming Z 6GB que aunque se come tres slots PCIe, gracias a su generoso disipador y sistema de refrigeración estos hacen que a plena carga no pase de 72 grados.

Más que por la potencia bruta (al jugar en 1080p no necesito un pepino tipo 3090) tenía ganas de actualizarme a la gama RTX por poder utilizar juegos como Quake II RTX o jugar a Control, Battlefield V o Shadow of Tomb Raider en todo su esplendor.

Comentar que tuve algunos problemas al instalarla porque el ordenador no detectaba la gráfica incluso antes de poder entrar a la BIOS, pero trasteando un poco vi que era porque debido a su elevado peso la tarjeta tendía a flexar un poco hacia abajo y alguno de los pines del slot PCIe no hacía buen contacto. Lo que he hecho ha sido introducir una pieza entre la gráfica y el chasis de la caja a modo de calzo y así la tarjeta queda totalmente horizontal y no da problemas.

Actualización 20-09-2021

Aunque estaba más que contento con el Ryzen 5 3500X he cambiado el microprocesador por un Ryzen 7 3700X, pasando de tener seis núcleos y seis hilos a ocho núcleos y dieciseis hilos. ¿Se nota en los juegos? Pues muy poco, la verdad, porque ahí casi todo depende de la tarjeta gráfica. ¿Se nota en los Benchmarks? En 3D Mark sí que se nota algo porque además de la gráfica hay partes de los tests que tiran de procesador puro y duro; pero esto se nota sobre todo en los benchmarks de cálculo tipo CPU-Z o Cinebench; donde el rendimiento en multinucleo duplica al del procesador anterior.

Lo que también ha aumentado son las temperaturas de funcionamiento, rodando los 35 grados en idle hasta los 77 aproximadamente que se alcanzan en pruebas de rendimiento largas en las que se le exige el 100% al procesador. Con el 3500X en idle estaba por un estilo mientras que las máximas rondaban los 63 grados. Sigo manteniendo la misma refrigeración líquida del principio, eso sí.

Actualización 05-10-2021

En parte porque en las últimas semanas me he emparanoiado con que cualquier día mi refrigeración líquida podría tener una fuga liándomela parda en el PC y en parte porque tenía ganas de experimentar, me he pasado a refrigeración a base de aire; aunque bien es verdad que la líquida la tengo bien guardada por si al final vuelvo a ella; que no lo descarto.

El disipador que estoy empleando ahora mismo es el Wrigth Prism de la propia AMD que venía en la caja del Ryzen 7 3700x. Lo tengo conectado nada más que al conector «CPU fan» de modo que muestra iluminación RGB cíclica pero no la puedo controlar a no ser que conecte un cable a uno de los conectores USB de la placa; cosa que de momento no voy a hacer porque primero me quiero asegurar de que el sistema refrigera correctamente.

Los ventiladores azules molones que tenía la caja (los que veis en la fotografía que hay sobre estas líneas) han dejado paso a unos sin iluminación pero regulados por PWM desde la BIOS a través de un hub y capaces de mover mucho más caudal, de modo que ahora tengo control preciso sobre la cantidad de aire que quiero hacer circular dentro de la caja, algo importante si en un espacio tan reducido tienes una tarjeta gráfica y un microprocesador funcionando a temperaturas que pueden rondar perfectamente los 70 grados centígrados. Si no eres capaz de sacar ese aire caliente de ahí dentro en pocos minutos empezarás a tener problemas de thermal throttling y otros fenómenos poco deseables; además de acortar la vida de los componentes del PC. Por tanto, la renovación del aire de la caja es algo de suma importancia.

El esquema es el clásico de dos ventiladores metiendo aire fresco por el frontal de la caja, uno en la parte trasera para sacarlo fuera y dos en la parte de arriba para ayudar todo lo posible a evacuar el calor de ahí dentro ayudando a la convección natural. Por tanto, el flujo de aire de salida gana al de entrada, lo que quiere decir que estoy generando una presión negativa dentro de la caja y convirtiéndola así en un pequeño aspirador para el polvo que haya en los alrededores de la torre. Aún así, como es una caja muy sencilla de abrir y cerrar de vez en cuando le pego una buena limpieza a todo y Santas Pascuas.

Me estuve pensando si generar una presión positiva o negativa, pero al final me quedé con la negativa porque tengo la sensación de que es más importante sacar todo el aire caliente posible por la parte superior de la caja que meter aire fresco, el cual por la presión negativa buscará cualquier hueco para entrar dentro de la caja.

En cualquier caso, en un uso exigente como es jugar a Cyberpunk 2077 durante un par de horas arroja unas temperaturas estabilizadas de unos 72 grados centígrados para la CPU, 70 para la GPU y 55 para el interior de la caja (no sé en qué punto de la placa base estará el sensor que mide esta última). Pueden parecer elevadas, pero he ajustado las curvas de los ventiladores para que llegados a ese punto todavía no hagan demasiado ruido. Si los subo de velocidad puedo bajar algún grado más, pero para una CPU Ryzen 7 y una gráfica de la serie «Gaming Z» de MSI rondar los 70 grados en una caja de pequeño tamaño y frontal semi-cerrado no es ninguna locura.

Actualización 12-10-2021

Cuando la temperatura de la CPU se dispara, el Wraith Prism es un avión en pleno despegue gracias a sus 3750 RPM de velocidad máxima. Es verdad que refrigera bien y mantiene las temperaturas del 3700X en la media de lo que es normal en este microprocesador, pero el ruido es bastante bestia y con la casa en completo silencio puede llegar a ser incluso molesto; de modo que me he animado a cambiarlo por un NOX Hummer H-212 que tiene fama de eficiente y silencioso.

Con éste modelo mantengo las temperaturas más o menos en rango que daba el disipador de AMD pero a costa de un ruido muy inferior incluso cuando su ventilador (cónico de 120 –> 92 mm) gira a toda velocidad, que son 1600 RPM. Tenía en el punto de mira un modelo de Cooler Master y otro de Noctua, pero la anchura de la caja me limitaba a modelos de como mucho 140 mm de alto, y no tenía ganas de recurrir a modelos de perfil bajo que siempre dan menos rendimiento.

Con esta configuración y una temperatura ambiente de 23 ºC tengo en IDLE el micro a unos 38 grados, la gráfica a 28 grados y la caja a 26 grados. Tras una hora jugando a Cyberpunk 2077 las temperaturas son de 68 grados en el micro, 70 en la gráfica y 53 en la caja, que no lo veo mal para ser microATX, sinceramente.

Y la verdad es que el punto en el que está el ordenador a día de hoy me parece que no le tocaré muchas más cosas. No me planteo un micro más potente ni memoria RAM más rapida, puesto que creo que las ganancias de rendimento no serían muy destacables. Tampoco creo que me meta en una gráfica más bestia, pues tal y como está el mercado prefiero seguir con mi RTX 2060 y ya para el siguiente PC me plantearé algo más actual si los precios de las gráficas han vuelto a sus niveles pre-locura tecnológica.

Lo único que se me pasa por la cabeza a medio plazo es cambiar de caja a una que tenga mejor flujo de aire, porque creo que aunque le metí dos ventiladores en el frontal, por la forma que éste tiene no consiguen que entre mucho más aire fresco del que entraría por aspiración de los otros ventiladores que extraen aire de la caja.

En cualquier caso, no descarto elaborar un par de artículos en base al sistema que he montado de monitorización de temperaturas en tiempo real, la experiencia del paso de refrigeración líquida a aire y el control de curvas de ventiladores a través de PWM; ya que me parecen temas interesantes sobre los que, si mi escaso tiempo libre lo permite, me gustaría explayarme a gusto. A ver si tengo ocasión de sentarme largo y tendido a aporrear teclas un día de estos.

Actualización 17-10-2021

He publicado un artículo que trata de cómo visualizar en tiempo real los parámetros principales del PC usando un Stream Deck; y es como es algo que he hecho en el ordenador sobre el que trata esta entrada he creído interesante enlazarlo. Espero que os parezca, cuanto menos, entretenido.

Actualización 16-11-2021

He cambiado la memoria RAM por dos módulos de 8 GB Crucial Ballistix a 3600 MHz CL16. Se nota algo de mejoría en los benchmarks de cálculo puro y duro (en torno a un 5%) pero en videojuegos la diferencia es prácticamente inapreciable, ganando un par de FPS como mucho. No es que me arrepienta porque de no haberlo hecho siempre me hubiera quedado la duda, pero si tenéis módulos de 3000 Mhz ya os digo que no merece la pena subir uno o dos escalones en lo que a velocidad se refiere.

Actualización 17-12-2021

He cambiado la caja del PC por una más amplia y mejor ventilada, lo cual ha supuesto una notable mejora en temperaturas pero sobre todo en la sonoridad del equipo durante su funcionamiento. He escrito un artículo al respecto con todos los detalles que espero os resulte interesante.

Actualización 20-12-2021

Ya que nos ponemos a hacer las cosas las hacemos bien. He adquirido cuatro cables SATA de Corsair que son redondos en lugar de planos y además van forrados en nylon, quedando mucho más acordes con la estética sobia que he buscado aprovechando el reciente cambio de chasis.

Actualización 20-03-2022

Al final no fui capaz de resistirme y cuando se me puso a tiro una RTX 3060 Ti (en este caso el modelo Twin Edge OC de Zotac) me hice con ella sin pensarlo demasiado. Sé que en su momento dije que teniendo una 2060 iba a pasar de la generación 30 para actualizarme directamente a la 40 cuando apareciera en el mercado; pero es que el cacharreo es tan entretenido… Sólo por el hecho de instalar la tarjeta, pasarle toda la batería de tests y benchmarks, ajustar la curva de ventilación y demás a mí ya me merece la pena la inversión. Aparte, claro está, del gusto de ver correr a toda pastilla juegos como Cyberpunk 2077 o Quake II RTX, que a día de hoy son de los más demandantes gráficamente hablando.

Por poner un par de cifras sobre la mesa, en el famoso test de 3DMark llamado «Time Spy» he pasado de los 8213 puntos de la 2060 a los 11429 de la 3060 Ti. Y en el «Port Royal» (un test enfocado a RayTracing) he pasado de 4455 a 6936. En ambos casos esto representa un incremento de rendimiento de entorno al 30%.

En lo estético la tarjeta es mucho más discreta (sólo cuenta con iluminación en color blanco en el logo de la marca) y funcionando es más o menos igual de silenciosa que la 2060 de MSI que tenía hasta ahora. La temperatura no supera los 71 grados en los tests más largos y exigentes, por lo que no parece que el calor vaya a ser un tema muy determinante para su buen funcionamiento; si bien esto es algo que ya busqué concienzudamente cuando estuve eligiendo la nueva caja. Ah, la tarjeta es ligeramente más estrecha que la anterior MSI, ocupando dos slots PCI cuando antes tenía ocupados 2,5 (lo que en la práctica inutiliza el tercero, claro).

Las impresiones iniciales son buenas y jugando en mi monitor de 1080p a 75 Hz todo va a toda pastilla incluso en los niveles más extremos de detalle, de modo que estoy contento con la nueva aquisición. Espero que el tiempo no me haga arrepentirme del cambio.

Actualización 20-04-2022

He sustituido el Stream Deck Mini por la versión estándar de 15 teclas para poder tener así más información a la vista de forma simultánea. Os dejo un par de fotos.

Review: Imalent LD70

En el último año de colegio mi profesor de matemáticas usaba un portatizas porque decía que sufría alergia al yeso, de modo que siempre le recuerdo llegando a clase y sacando aquel cilindro azul de su maletín para ponerse a escribir fórmulas en la pizarra.

No sé si tendrá que ver, pero cuando vi las primeras fotos de la Imalent LD70 no podía dejar de ver aquel portatizas que os digo: el tamaño, la forma, el volumen… Se hubiera quedado en una anécdota simpática si no hubiera visto también las características técnicas de este pequeño cañón de luz, ya que es capaz de lanzar por momentos 4000 lumens (sí, cuatro mil: un cuatro seguido de tres ceros) y al final eso es lo que me animó a hacerme con ella.

El cuerpo

La LD70 tiene un aspecto bastante futurista; especialmente si la adquirimos en uno de los tres colores alternativos al clásico negro como son azul eléctrico, dorado y verde militar, que es la que al final me he comprado. Estuve a punto de comprar la azul, pero he de reconocer que desde el primer momento la verde me hizo tilín y al final decidí seguir mi instinto. Creo que hice bien, porque en la mano es bien bonita y contrasta mucho con el negro de ciertas partes de su cuerpo, el azul del anillo externo de la lente frontal y el amarillo del propio LED.

La linterna es básicamente la fusión entre un octógono redondeado hasta el punto de ser casi un cilindro, está fabricada en aluminio y el color principal está aplicado mediante un anodizado que, como os decía, está disponible en cuatro colores principales. En cualquier caso, el «fondo» siempre es negro y lo que cambia es la capa exterior.

Tiene una longitud de 81 mm, un diámetro de 27 mm y un peso de 87 gramos, lo que la situa en la familia de las linternas EDC pero no de las que, como la Rovyvon Aurora A1 o la Nitecore Tiki pueden ir colgadas en nuestro llavero a todas horas sin que notemos que están ahí. En el caso de la LD70 su emplazamiento natural es una mochila o, como mínimo, un bolsillo amplio como en el caso de, por ejemplo, la Olight S1 Baton.

De hecho, Imalent incluye como complemento a este modelo una correa de muñeca con el nombre de la marca bordado en ella, lo que nos está indicando dos cosas: que la linterna no puede ir en un llavero y que está tan pulida (no tiene ningún tipo de knurling) que se nos puede resbalar de las manos si hace mucho frío y/o somos torpes. Lo bueno es que por obra y gracia de las aristas longitudinales de su cuerpo no rodará si la dejamos apoyada en una superficie inclinada.

Continuando con el repaso a la anatomía de esta linterna, el botón de encendido y apagado (y cambio de modos) está integrado en la parte trasera, pero no se trata del típico botón de las linternas tailcap que hace click-clack al accionarlo; sino que es más bien un botón electrónico de muy poco recorrido pero gran precisión.

Como continuación de la filosofía de diseño de este modelo de linterna el botón es de forma muy simple, de diámetro generoso y completamente plano, y he de decir que desde que tengo esta linterna no he fallado ni una sola vez en el número de clicks, que van entre uno y cuatro en función de lo que queramos hacer; así que parece que los diseñadores han clavado el tacto idóneo que ha de tener un pulsador de este tipo. Eso sí, para prevenir encendidos accidentales es importante bloquear la linterna (cuatro clicks seguidos para bloquear y desbloquear) si no la vamos a utilizar durante un tiempo, porque un sólo click provoca el encendido de la LD70 en el último modo empleado y, como luego veremos, puede llegar a calentarse bastante en los más potentes.

Al estar este botón enrasado con la cara trasera de la LD70 podremos hacer tailstanding sin ningún tipo de problema, cosa que se agradece en una linterna tan potente como esta porque nos va a permitir iluminar una estancia bastante grande de forma muy homogénea al rebotar la luz en el techo. También dispone de una hendidura a cada lado para poder colocar la correa que trae donde más cómodo nos resulte, si bien no podremos acomodar ahí una anilla de llavero.

En cuanto al frontal he de reconocer que me gusta mucho: si os fijáis, consiste en una serie de círculos concéntricos generados por el propio diseño «a capas» de la linterna que rodean un bonito reflector de piel de naranja que ayuda a repartir la luz que emite el generoso LED sobre el que gira todo el diseño de este modelo y una lente lisa frontal perfectamente transparente que sella el conjunto y le da un aire muy elegante.

Cerca del botón de encendido veremos dos contactos metálicos que no son otra cosa que el lugar donde se conecta el cable-cargador magnético que viene con la linterna y que representa uno de los principales problemas que le veo a este modelo de Imalent: si perdemos ese cable tendremos un problema. Cierto es que un puerto microUSB o USB-C hace que la linterna quede más expuesta a daños por humedad si se moja porque puede entrar agua al interior, pero mediante su uso puedo cargar una linterna en casi cualquier lugar porque cables de ese tipo los tengo por todas partes.

Sin embargo, al tener un cable propietario he de cargar con él en todo momento si quiero cargar la linterna en la oficina, en el coche, con un powerbank o en un McDonald’s y si por lo que sea lo pierdo o se rompe (cosa mucho más probable al vernos obligados a llevar el cable de acá para allá todo el día) me tocará comprar uno nuevo, el cual se vende en la web de la marca por unos 7 €.

De hecho, estoy pensando en hacerme con una LD10 que cuesta unos 30 € y así ya tengo dos cables de carga, pues ambas llevan el mismo sistema magnético; aunque también he de decir que el modelo que os digo no me atrae tanto como éste empezando por un motivo muy sencillo: sólo está disponible en color negro.

No lo he comentado todavía, pero a estas alturas de la review creo que ya lo tendréis claro; y es que la batería de la linterna es interna y no reemplazable por el usuario pese a que en realidad es una 18350 de 1100 mAh (dato aportado por la propia marca en sus especificaciones del modelo) cuya carga si la hemos dejado tiritando nos llevará una hora y media. Lo bueno es que si con el tiempo la batería se acaba cortocircuitando internamente o algo así, al menos al ser una linterna con un diseño bonito el pisapapeles en el que se habrá convertido quedará chulo en el escritorio.

Otro detalle molón de la Imalent LD70 es la minúscula pantalla OLED monocromática que lleva incorporada al extremo contrario de los contactos de carga. Mediante su uso podremos saber si la linterna está bloqueada o desbloqueada, el modo en que nos encontramos y, lo más importante, la tensión de la batería en todo momento (si la linterna está apagada y desbloqueada este dato podemos consultarlo con un triple click). Del mismo modo, mientras la estamos cargando muestra el símbolo de una pila con cinco segmentos que se van rellenando. Como os digo, la pantalla es pequeña y muy discreta, pero tiene bastante utilidad.

En términos globales la linterna no tiene un tamaño excesivo y no va a suponer una molestia en el bolsillo de una chaqueta ni llevándola en la mano durante mucho tiempo. Por cierto, en cuanto a resistencia a los elementos y a los golpes, el fabricante certifica que la LD70 es IPx8 y que podría soportar caídas desde 1,5 metros.

Hablemos ahora de los modos de la linterna, pues hay bastante que contar. Y es que a diferencia de la mayoría de modelos, esta se enciende con un sólo click y para cambiar entre los cuatro modos estándar (al más potente se accede de otra manera como enseguida os contaré) hay que mantener pulsado el botón.

Para apagarla en todos los casos se hace mediante un click simple y al volver a encenderla esta lo hará en el último que la hayamos usado (a excepción de los modos Turbo y Estroboscópico).

  • Bajo: 20 lumens (15 horas)
  • Medio-Bajo: 200 lumens (3,5 horas)
  • Medio: 900 lumens (45 minutos)
  • Alto: 2000 lumens (1,5 minutos) –> 900 lumens (39 minutos)
  • *Turbo: 4000 lumens (1 minuto) –> 900 lumens (38 minutos)

Como os decía antes, el modo Turbo no está comprendido en el ciclo de modos normales, y es que la forma de acceder a él es con una doble pulsación en el botón de la linterna. Posteriormente, otra doble pulsación pasará al modo Estroboscópico, que no es más que el modo de máxima potencia pero encendiendo y apagando la linterna a una frecuencia de aproximadamente 10 Hz en lugar de mantenerla constantemente encendida. Ideal para epilépticos, vaya.

Como en muchos modelos que cuentan con modos muy potentes, estos no son utilizables continuamente; sino que cuando los activamos se inicia un contador interno que cambia a un modo inferior cuando ha pasado un tiempo estipulado. Del mismo modo, si la electrónica de la linterna detecta que está alcanzando una temperatura interna «peligrosa» bajará la potencia lumínica y no nos dejará volver a los modos superiores hasta que se enfríe algunos grados.

La luz

La luz que emite este modelo de Imalent es bastante blanca, especialmente en los modos más luminosos. También noto que es una linterna más enfocada a iluminar una zona amplia con su amplio haz que a lanzar un «tubo» de luz que puede llegar muy lejos pero que fuera de su perímetro mantendrá todo a oscuras.

El LED encargado de esto es un Cree XHP70.2 bastante novedoso y que representa un paso adelante en el mundo de las linternas, ya que es capaz de sacar mucha más luz que sus antecesores y, por tanto, lograr prestaciones de linternas grandes en un formato de bolsillo.

Para que os hagáis una idea de lo que podemos esperar de este modelo, una noche me acerqué a una arboleda cercana a mi casa para probar los modos más potentes y me fijé en que al apuntar a lo lejos no era capaz de distinguir cosas que estaban muy distantes; pero a cambio podía ver a mi alrededor con mucha claridad gracias a que el haz se abre bastante al salir de la linterna y no tenemos esa sensación de ceguera periférica que ocurre con otros modelos más orientados a alcanzar grandes distancias.

Sobre estas líneas tenéis una de las pruebas que hice. En la primera imagen tenéis lo que se veía cuando estaba allí con la linterna apagada (era ya casi totalmente de noche) y en la segunda lo que podemos llegar a vislumbrar con la linterna funcionando en modo Turbo.

Me gustaría que os fijárais en cómo la luz se reparte también hacia los lados haciendo que no sólo el camino central esté iluminado, sino también los senderos laterales que discurren entre los árboles. Seguramente en un día claro llegaríamos a ver incluso a más distancia, pero en esos momentos se estaba empezando a formar algo de niebla y eso se nota en el aspecto blanquecino de la imagen. Aun así, estimo que en esas condiciones de niebla ligera podría distinguir a alguien que viniera andando a aproximadamente 100 metros de distancia.

Como os decía, ese es el modo de 4000 lumens de la linterna, que está pensado para ser empleado durante unos instantes para ver en la lejanía con algo de detalle y luego pasar a un modo más normal. Por ejemplo, para caminar tranquilamente tenemos el modo de 200 lumens con el que veremos nuestro entorno perfectamente incluso en completa oscuridad y con el que tendremos una duración de batería más que decente; aunque si queremos más chicha podemos pasar al modo de 900 lumens que emite un porrón de luz y que podremos mantener encendido continuamente durante tres cuartos de hora.

Aprovecharé para comentar que el modo de 20 lumens se queda un poco en tierra de nadie: son demasiados para andar por la casa a oscuras (ya sabéis que para eso considero ideal un modo Moonlight de aproximadamente 1 lumen) pero pocos para caminar por el campo; aunque lo bueno que tiene es que no muestra rastro de PWM. Lo veo bien para buscar algo a oscuras en el garaje o para leer en oscuridad sin quedarnos cegatos por el reflejo de una luz potente en el papel; pero como os digo creo que como modo más bajo es demasiado intenso.

ACTUALIZACIÓN: Aprovechando una noche clara y sin ápice de niable, volví al mismo sitio para repetir la fotografía que tenéis unos párrafos más arriba, así que os la dejo a continuación.

Las sensaciones

He de reconocer que aunque de primeras no me convencía mucho el hecho de que la LD70 no tuviera ningún tipo de textura rugosa en su superficie, he de reconocer que el agarre es bastante seguro gracias a las hendiduras que posee. Si además de eso hacemos uso de la correa para la muñeca que incluye, podremos utilizar este modelo sin miedo a que se nos vaya al suelo.

Más allá de esto, lo que más me gusta de este modelo de Imalent (aparte del mogollón de luz que suponen esas ráfagas de 4000 lumens) es su pantalla OLED con la que podemos ver en todo momento qué tensión tiene la batería. De hecho me parece una buena cosa observar cómo en los modos más bajos la tensión de la batería se mantiene más o menos constante pero cuando vamos a los dos más altos el voltaje cae de golpe varias décimas de voltio que luego se recuperan en buena medida al apagar, señal de que la gran cantidad de corriente que estamos extrayendo de la batería en esos momentos la acerca a su límite de rendimiento.

También me gusta mucho su tacto en la mano: aunque el diseño es diferente al resto de linternas habituales, al sostenerla se nota que es sólida y está muy bien ensamblada. La prueba de agitarla por si se nota algún componente suelto en su interior la pasa sin problemas y por mucha fuerza con la que la aprieto no consigo percibir movimiento o crujidos entre las piezas, y eso que por su forma constructiva (tipo «rollito de primavera») uno tiende a pensar que va a crujir o a flexar ligeramente.

Haciendo uso de sus modos más potentes, enseguida apreciaremos que la LD70 se calienta considerablemente. En los modos de 20 y 200 lumens es imperceptible y en el de 900 lumens notaremos que el cuerpo se templa pasados unos minutos; pero en los de 2000 y especialmente 4000 lumens si sostenemos la linterna aproximadamente un minuto con la mano desnuda comenzaremos a sentirnos incluso incómodos por la temperatura que alcanza la superficie metálica de la linterna.

Sé de gente que siente decepcionada con esta linterna porque los modos más potentes sólo se puedan mantener durante breves lapsos de tiempo, ya sea por la temperatura (si alcanza cierto nivel no nos dejará volver a los modos más potentes hasta que se enfríe) o porque la duración de la batería se resiente; pero es que estamos hablando de 4000 lumens en un aparato que es incluso algo más pequeño que la típica barra de pegamento Pritt.

Y claro, es que al cabo de un minuto de uso del modo más potente he llegado a medir en su superficie temperaturas que superaban los 56 grados y la batería se ha descargado casi un 20% durante ese tiempo; lo cual es perfectamente normal porque hasta que no la ves funcionar «en directo» no te haces una idea de la cantidad de luz que es capaz de emitir esta pequeña linterna.

Pero es que, insisto, esos 4000 lumens son para usar en un momento determinado y luego volver a los modos de 200 o 900 lumens, que proveen capacidad lumínica más que suficiente para los usos que podemos darle a una linterna como esta. Si os compráis un modelo de este tamaño pretendiendo iluminar constantemente a ese nivel tenéis dos opciones: esperar unos cuantos años a que la tecnología LED avance considerablente o haceros con una linterna capaz de dar picos de 20000 lumens en la que 4000 lumens será uno de los modos intermedios que podrá mantener sin problemas durante bastante tiempo; pero tened claro que ni va a abultar lo que esta ni va a costar 60 €.

Conclusión

No creo que haya ahora mismo en el mercado ningún modelo que supere a éste en relación «peso, volumen o precio / lumens máximos». Desde luego entre las que he probado hasta el momento podría tener como rivales a la ya mencionada Olight Baton S1 o a la Nitecore TIP2; pero ambos modelos no tienen nada que hacer en cuanto a luminosidad máxima y tampoco disponen de pantalla multifunción. La que sí posee este elemento (pero todavía no ha pasado por mis manos) es la Nitecore TUP, que comparte filosofías de uso y diseño con la LD70 pero su modo turbo se queda en «sólo» 1000 lumens.

Para ponerse a la altura en capacidad de iluminación tendríamos que irnos a una Thrunite TC20 o a una Fenix E35 V3.0 aunque ambos modelos tienen un diseño más clásico y además tampoco disponen de pantalla OLED; y es que la LD70 ahora mismo es un producto único en su segmento por diseño, tamaño y prestaciones y además no me parece que tenga un precio muy disparatado, de modo que me parece un modelo muy recomendable.

Lo bueno

  • Intensidad lumínica brutal en una linterna de este tamaño (aunque sólo durante breves lapsos de tiempo)
  • Calidad de construcción robusta y precisa
  • Diseño moderno y original
  • Pantalla OLED de gran utilidad

Lo malo

  • Cargador no estándar
  • Batería no reemplazable
  • No posee modo Moonlight

Más información

Pruebas de rendimiento familia Raspberry Pi (Zero, Zero W, 3A, 3B, 3B+, 4B)

Soy fan declarado de las Raspberry Pi desde que me hice con un model B de la tercera revisión hace unos tres años aproximadamente. Me parecen máquinas de un tamaño delicioso capaces de correr una versión «de verdad» de Linux con la flexibilidad que esto implica y con una comunidad de aficionados y desarrolladores detrás alucinante.

Por poner algunos ejemplos, con el paquete LibreOffice podemos editar textos, crear hojas de cálculo, bases de datos… Una completa suite ofimática que nos puede venir muy bien tanto para temas laborales como para nuestras cosas de casa. También los hay que usan una Raspberry Pi para emular diferentes sistemas; siendo las videoconsolas antiguas uno de los puntos fuertes de dicha vertiente. Y bueno, tampoco podemos dejar de lado a aquellos que usan estos microordenadores a modo de mediacenter para ver películas y series con una calidad impropia de un hardware tan pequeño o los que las usan como base de los más variados montajes electrónicos imaginables gracias a sus puertos de expansión.

Pues bien, combinando mi pasión por estas máquinas con la de las mediciones en general me he animado a esbozar un artículo hablando de la potencia de cálculo de esta familia de computadoras «de bolsillo» a través del conocido benchmark Hardinfo disponible para la mayoría de sistemas Linux.

Dado que la última versión de Raspbian (el S.O. nativo de las Raspberry Pi) puede funcionar en todas las máquinas anteriores la premisa inicial fue actualizar el sistema el día de la prueba e ir cambiando la microSD entre las máquinas haciendo la misma operación en todas ellas: iniciar el sistema sin conexión a internet, esperar unos segundos a que terminara el arranque por completo, ejecutar la batería completa de pruebas de rendimiento y generar un informe de cada máquina del que luego pudiera extraer los datos necesarios para este estudio.

Comentar que los modelos sobre los que he hecho las pruebas son los siguientes:

  • Raspberry Pi Zero
  • Raspberry Pi Zero W
  • Raspberry Pi 3 model A
  • Raspberry Pi 3 model B
  • Raspberry Pi 3 model B+
  • Raspberry Pi 4 model B (2 GB RAM)

A grandes rasgos, Hardinfo realiza un total de ocho tests correlativos: cinco son sobre cálculos con la CPU, dos de cálculos con la FPU y uno de dibujado en pantalla empleando la GPU.

Tras la ejecución de todos los tests en todas las máquinas estos son los resultados que he obtenido:

Tomando en cada uno de los test el mejor resultado, para mejorar la claridad de la interpretación he decidido asignar un valor del 100% a dicho resultado y calcular el resto como un porcentaje en comparación a este. De este modo he obtenido la siguiente tabla:

Aunque en la primera tabla ya se podía apreciar, en la de los porcentajes es más claro todavía: la Raspberry Pi 4 es la más rápida en todo a excepción del test de N-Queens, donde la 3B+ es notablemente más veloz. Supongo que será por alguna función no del todo optimizada todavía y que con el tiempo parchearán haciendo que también sea la más rápida en esa prueba; ya que su hardware es el más potente de todos a día de hoy.

Veamos todo esto de un rápido vistazo mediante una gráfica que he preparado; sólo que en vez de comparar cada máquina con su batería de pruebas, lo he agrupado por pruebas y así podemos comprobar el rendimiento de cada máquina en cada caso.

Cosas curiosas que saco como conclusiones:

  • En las Raspberry Pi Zero no hubo cambios de rendimiento con la llegada de la revisión W y esta gama es muuuucho más lenta que las Raspi de tamaño completo de su época (las Raspberry Pi 3). En algunos tests son bastante más lentas y en otros son tortugas como en el caso de los cálculos en coma flotante.
  • La 3A es una sorpresa, ya que con un tamaño que es prácticamente la mitad que la 3B+ clava prácticamente su rendimiento. Como amante de las máquinas miniaturizadas considero que es la que mejor relación tamaño/rendimiento obtiene más allá incluso de las Zero que, si bien son diminutas, están muy limitadas en cuanto a memoria y capacidad de cálculo.
  • La 4B es el último modelo aparecido hasta el momento y en general con una potencia netamente superior; sobre todo en los test que emplean la FPU. La única pega es a nivel gráfico si estáis usando los drivers experimentales, ya que todavía están por pulir y en las pruebas de dibujado en pantalla el rendimiento es malísimo. Si entramos a la configuración del sistema y seleccionamos el driver por defecto el rendimiento se pone a la altura de lo esperado.

Como os decía, lo mejor las Raspbery Pi es su flexibilidad y la cantidad de usos que se les pueden dar. Y es que aunque una Pi Zero pueda parece poca cosa, sin ir más lejos tengo dos por casa: una de ellas es un emulador de ZX Spectrum «de bolsillo» y la otra es un mediacenter con el que he visto multitud de series y películas manteniéndola escondida detrás de la TV y alimentándola simplemente por el puerto USB de la propia televisión.

Por su parte, estos días estoy probando a emplear la Raspberry Pi 4 como sustituto de mi ordenador de sobremesa para tareas ofimáticas y he de decir que estoy muy contento con ella, ya que sin ir más lejos, este artículo y las tablas que lo ilustran han sido creadas íntegramente con LibreOffice y el programa de edición gráfica GIMP. Lo malo de este modelo es que, por su elevado consumo energético, tenemos que emplear un adaptador USB-C que sea capaz de entregar 3 amperios de corriente (os recomiendo haceros con el oficial, que funciona de maravilla) y que para conectarla a una TV tendremos que emplear un cable microHDMI que, a día de hoy, todavía cuesta un poco encontrarlos.

Y ya por último, comentaros que la Raspberry Pi 3 model B la tengo configurada a modo de recreativa gracias al emulador MAME y un mando de ese estilo capaces de transportarme a aquellos años 90 en los que los salones recreativos eran el epicentro de la diversión de mi generación (hasta que llegó la PSX; pero eso es una historia que otro día os contaré).

Review: Dell Inspiron Mini 10

Dell Inspiron Mini 10

Después de casi dos años de uso diario de mi pequeño Asus EeePC 701 me he animado a dar el salto a un nuevo netbook. Es cierto que el pionero de los ultraportátiles destinados al gran público me ha prestado muy buen servicio y no me ha dado ningún tipo de problema en todo este tiempo; pero como decía hace unos días, hay algunos aspectos que han sido mejorados en las generaciones posteriores de ultraportátiles y precisamente por usarlo todos los días me he dado cuenta de que merecía la pena invertir en un nuevo modelo que supliera dichas carencias.

El nuevo netbook

Pues bien, después de mucho buscar me decidí por un Dell Inspiron Mini 10 recién salido del horno (se presentó hace aproximadamente un mes) cuyas características técnicas son las siguientes:

  • Microprocesador Intel Atom N450
  • Memoria RAM de 1 GB
  • 250 GB de disco duro
  • Pantalla de 10″ con resolución de 1024 x 600 pixels
  • Conectividad Wi-Fi, Bluetooth y Ethernet
  • Webcam de 1.3 Mpixels
  • Batería de seis celdas
  • Tres puertos USB 2.0 y un puerto VGA para monitor externo
  • Lector de tarjetas de memoria SD, MMC y Memory Stick
  • Sistema operativo Windows 7 Starter Edition

Todo ello por 299 euros, que es lo mismo que me costó en su momento el EeePC y que se perfila como el precio más estándar para un ultraportátil en España.

Primeras impresiones

Una vez fuera de la caja y colocado junto a mi anterior netbook se nota que el nuevo ordenador es algo más grande, aunque tampoco es una diferencia escandalosa. Del mismo modo, el peso también es ligeramente superior, quedándose en unos 1360 gramos frente a los 920 del Asus. Como en tantas otras cosas, una imagen (en este caso dos) vale más que mil palabras:

Dell Inspiron Mini 10 vs. Asus EeePC 701

Dell Inspiron Mini 10 vs. Asus EeePC 701

A nivel estético constrasta muchísimo la superficie negra lacada del Dell en comparación con el blanco mate del pequeño Asus. El problema es que aunque estéticamente ese negro brillante sea más atractivo, tiene toda la pinta de rayarse con estornudar, por lo que habrá que tener cuidado; máxime cuando con el ordenador no se incluye ningún tipo de funda (cosa que sí venía en la caja del EeePC 701).

Del mismo modo, si el ordenador anterior podía manosearlo todo lo que quisiera sin que en su carcasa quedara marca alguna, en la superficie del Dell las huellas dactilares se quedan marcadas al más mínimo roce, por lo que deberéis resignaros a llevar el ordenador lleno de dedos a no ser que lo utilicéis con guantes.

Dell Inspiron Mini 10

Como podéis comprobar en una de las imágenes anteriores, en este ordenador la pantalla no «sale» desde la parte trasera, sino que la bisagra está adelantada un par de centímetros con respecto al borde. Esto es una novedad con respecto a la versión anterior del más pequeño de los portátiles de Dell y que veréis mejor en la siguiente fotografía que muestra esta zona desde un lateral del equipo.

Dell Inspiron Mini 10

Lo que conseguimos con esto es, por un lado, tener la pantalla más próxima a nuestros ojos y por otro conseguir que el sistema sea más estable al estar el peso más balanceado. La contrapartida es que la pantalla sólo se puede inclinar hacia atrás unos 45 grados, lo que puede ser insuficiente si somos muy altos y utilizamos el ordenador directamente sobre nuestras piernas.

Lo importante está en el interior

Internamente lo que da vida a este ultraportátil es uno de los nuevos micros que Intel puso a la venta el pasado 11 de Enero bajo la denominación Pineview y que comercialmente se conoce como Intel Atom N450 (y que era el requisito más importante que le pedía a mi nuevo netbook).

En este caso los ingenieros de Intel no han seguido el camino habitual de crear un microprocesador con mayores prestaciones; sino que se ha optimizado tanto el consumo de energía como la integración de los componentes vitales del sistema para así incrementar la autonomía de la batería. Concretamente el consumo eléctrico es un 40% menor y en un mismo encapsulado se encuentran ahora además del procesador principal, el sistema de vídeo y el controlador de memoria.

En cualquier caso, también hay una serie de mejoras con respecto a la generación anterior de micros Intel Atom (N270 y N280), siendo la más destacada la inclusión de la arquitectura de 64 bits en el nuevo modelo, pudiendo ejecutar nativamente software diseñado para esta plataforma con la consecuente ganancia de rendimiento (aunque luego veremos que el sistema operativo que viene «de serie» no saca provecho de esto).

Dell Inspiron Mini 10

Técnicamente nos encontramos ante un microprocesador que cuenta con un sólo núcleo funcionando a 1667 MHz, con tecnología Hyper-Threading y que cuenta con una memoria caché interna de 512 KB disipando una potencia total de 5.5 vatios entre todo el conjunto de microprocesador, controlador de memoria DDR2-667 MHz y sistema gráfico Intel GMA 3150 funcionando a 400 MHz.

Obviamente los ordenadores que incluyen este microprocesador no están pensados para tareas muy exigentes como edición de vídeo, juegos o proceso intensivo de imágenes; sino a las típicas labores ofimáticas y a la navegación por Internet. De todos modos, a no ser que seáis unos jugones empedernidos pensad: ¿cuántas veces usáis vuestro ordenador para algo que realmente no podáis hacer con un netbook?

Dell Inspiron Mini 10

En mi caso particular los netbooks son un invento fantástico: me dan unas prestaciones correctísimas para hacer cualquier cosa relacionada con Internet contando con un peso y un tamaño muy contenidos (usar el portátil grande en el sofá es incomodísimo). Para retocar fotografías, editar vídeos y cosas así ya cuento con mi ordenador de sobremesa y su monitor Full-HD; pero para todo lo demás siempre acabo echando mano de mi netbook.

Windows 7 Starter Edition o cómo mermar las prestaciones de un netbook

El ordenador venía originalmente con Windows 7 Starter Edition. Un sistema operativo de Microsoft basado en la última versión para ordenadores «grandes» y que me dejó bastante frío en cuanto lo probé.

Para empezar, esta versión de Windows es para microprocesadores de 32 bits; y siendo los Atom N450 de 64 bits ahí ya hay una cierta pérdida de rendimiento (sobra decir que los micros de 64 bits son retrocompatibles con el software de 32 bits). Pérdida que no sé si será responsable de que el equipo se tire un minuto y medio para arrancar, pero que me pareció un tiempo a todas luces excesivo teniendo en cuenta que mi sobremesa gobernado por Windows 7 lo hace en menos de medio minuto y que el pequeño Asus EeePC 701 con Arch Linux necesita poco más de quince segundos para estar «listo para la acción».

Ya me di cuenta de esta lentitud general cuando estuve probando el ordenador en la tienda; pero pensé que sería debido a que como está al alcance de todo el mundo en el expositor alguien habría desconfigurado algo. Sin embargo, una vez puestas las manos sobre mi propio ordenador tranquilamente sentado en el sofá de casa me di cuenta de que esa falta de rendimiento también se daba en mi propio equipo.

Lo peor del asunto no es el arranque, sino el funcionamiento global del ordenador bajo este sistema operativo. En general las aplicaciones tardan más de la cuenta en arrancar y el sistema no da la sensación de fluidez que se espera de un ordenador recién estrenado. Estuve un par de horas configurando el equipo y empleando algunas de sus aplicaciones y tenía la sensación de que había dado un paso atrás con respecto a velocidad general comparado con mi veterano EeePC 701, generando en mí una cierta frustración.

Por lo tanto, dado que con el ordenador venía un DVD para reinstalar Windows en caso de problemas, me animé a eliminar esta versión de Windows del disco duro e instalar Ubuntu Linux 9.10 en su versión de 64 bits; proceso que me llevó poco más de media hora y durante el cual no me encontré con ningún problema digno de mención.

Con el nuevo sistema ya instalado el ordenador respondía como se esperaba y todo funcionaba de manera instantánea y estable. El arranque del ordenador se realiza en 20 segundos exactos y todas las funciones «raras» del ordenador funcionan a la perfección (ajuste de brillo y volumen, captura de pantalla, Wi-Fi…).

Dell Inspiron Mini 10

En definitiva, aunque mis impresiones positivas del ordenador se vinieron un poco abajo cuando empecé a trastear con el Windows 7 Starter Edition, fue instalar Ubuntu 9.10 y recuperar las buenas sensaciones. Y que conste que en mi ordenador de sobremesa Windows 7 funciona a las mil maravillas; pero creo que Microsoft ha sido demasiado optimista a la hora de programar esta versión destinada a portátiles sencillos de su recién estrenado sistema operativo.

Pruebas de rendimiento

Una vez que el sistema estuvo completamente configurado, con ayuda del programa Hardinfo he podido testear el rendimiento de otras cuatro máquinas que ejecutan sistemas operativos Linux para compararlas con el Dell, siendo estas las características principales de cada una:

  1. Asus EeePC 701: Micro Intel Celeron 900 MHz @ 630 MHz, 1 GB de RAM
  2. Apple Ibook G4: Micro PowerPC 7447A 1.4 GHz, 1 GB de RAM
  3. PC compatible PIV: Micro Intel Pentium IV 2.8 GHz, 2 GB RAM (single channel)
  4. Acer Aspire X1700: Micro Intel Core 2 Duo E7300, 3 GB de RAM
  5. Dell Inspiron Mini 10: Micro Intel Atom N450, 1 GB de RAM

Pues bien, una vez ejecutados los seis diferentes tests de rendimiento disponibles los resultados (ordenados por puntuación de forma decreciente) son los siguientes:

CPU Blowfish (Más bajo es mejor)

Acer Aspire X1700 – 6.42

Dell Inspiron Mini 10 – 16.91

PC compatible PIV – 19.70

Apple Ibook G4 – 47.13

Asus EeePC 701 – 55.17

CPU Cryptohash (Más alto es mejor)

Acer Aspire X1700 – 200.60

Dell Inspiron Mini 10 – 56.34

PC compatible PIV – 42.80

Apple Ibook G4 – 27.88

Asus EeePC 701 – 20.46

CPU Fibonacci (Más bajo es mejor)

Acer Aspire X1700 – 2.93

PC compatible PIV – 5.27

Dell Inspiron Mini 10 – 8.95

Apple Ibook G4 – 14.93

Asus EeePC 701 – 16.42

CPU N-Queens (Más bajo es mejor)

Acer Aspire X1700 – 8.51

PC compatible PIV – 9.88

Dell Inspiron Mini 10 – 17.23

Apple Ibook G4 – 31.09

Asus EeePC 701 – 37.82

FPU FFT (Más bajo es mejor)

Acer Aspire X1700 – 4.67

PC compatible PIV – 7.71

Dell Inspiron Mini 10 – 18.32

Asus EeePC 701 – 27.52

Apple Ibook G4 – 45.78

FPU Raytracing (Más bajo es mejor)

Acer Aspire X1700 – 6.20

Dell Inspiron Mini 10 – 18.11

PC compatible PIV – 26.37

Apple Ibook G4 – 43.28

Asus EeePC 701 – 76.98

A modo de resumen, mirando todas las pruebas en conjunto se puede decir que el rendimiento puro y duro del microprocesador Atom N450 estaría más o menos a la par que el obtenido con un Pentium 4 a 2,8 GHz. En algunos apartados uno gana al otro y en el resto la situación se invierte (esencialmente en los que están involucradas las unidades de cálculo en coma flotante), por lo que para tareas en general queda claro que se trata de un micro que se defiende bastante bien. Es obvio, como os decía antes, que los netbooks no son ordenadores enfocados a trabajos especialmente complejos; pero con las prestaciones que dan podréis internetear y ejecutar cualquier tarea ofimática sin ningún tipo de problema.

De todos modos, en los diferentes apartados de la prueba podéis ver que el ordenador de sobremesa equipado con un microprocesador Core 2 Duo goza de mucha más potencia de cálculo que el resto y que el pequeño Asus EeePC 701, como es lógico, palidece con respecto al resto de máquinas que participaron en la prueba. En la informática no existen los milagros, así que no esperéis rendimiento de sobremesa en un equipo que apenas consume electricidad porque es como si pretendéis tener las prestaciones de un Porsche 911 con un motor que gaste lo que un Opel Corsa.

Una pantalla brillante

La pantalla que equipa el Dell Inspiron Mini 10 es de tipo brillante, aunque no tanto como en los portátiles de Apple por ejemplo. Tiene un ángulo de visualización lateral amplísimo, pero no así en su visualización vertical, pues los colores se falsean bastante en cuanto la inclinamos unos grados por encima o por debajo del ángulo óptimo. Como os comenté anteriormente, la pantalla se puede abatir hacia atrás un máximo de unos 45 grados al estar limitada por la especial construcción de su carcasa.

Dell Inspiron Mini 10

En cualquier caso, hay que reconocer que la pantalla es realmente nítida y da una calidad de imagen muy buena. Con una resolución de 1024 x 600 pixels y un tamaño de 10″ no se aprecian dientes de sierra en las líneas diagonales ni artefactos raros en las zonas con degradados. Del mismo modo, el contraste es mucho más amplio de lo que era en mi anterior EeePC, ya que en el Dell los negros son realmente negros y el blanco es puro y luminoso. En algo se tienen que notar los dos años de diferencia entre un ordenador y el otro, ¿no?

Como todos los portátiles, la visualización bajo la luz directa del sol no es todo lo buena que debería, aunque es cierto que las pantallas brillantes se defienden mejor que las mates en este aspecto. Para comprobar esto he colocado el ordenador delante de una ventana abierta a pleno sol y he hecho una fotografía directamente a la pantalla. Como podéis ver, aunque ya os adelanto que el reflejo es molesto para la vista, al menos las letras oscuras sobre fondo claro se pueden leer perfectamente.

Dell Inspiron Mini 10

No quisiera dejar pasar por alto el hecho de que este modelo de ordenador no posee ningún tipo de sensor de luminosidad ambiental que ajuste automáticamente el brillo de la pantalla, algo que sí tiene mi portátil del trabajo o el mismísimo iPod Touch y que es un detalle realmente útil para no tener que andar ajustando a mano este parámetro. Es una pena no haberlo integrado en la carcasa, porque es un detalle nimio pero que se agradece.

Dell Inspiron Mini 10

Teclado y touchpad: al servicio del tacto

El teclado es una absoluta delicia. Y no sólo si lo comparamos con el del EeePC 701, cuyas dimensiones son bastante más reducidas; sino en términos absolutos. Es de unas dimensiones adecuadas (Dell afirma que su tamaño representa el 93% de un teclado de portátil estándar) y tiene un tacto sencillamente perfecto. De hecho, esta review está escrita íntegramente usando el recién estrenado Dell y doy fe de que la comodidad al teclear es prácticamente insuperable.

Dell Inspiron Mini 10 vs. Asus EeePC 701

Lo que no me ha gustado tanto es que por defecto las teclas de función no estén asignadas a las conocidas F1, F2… hasta F12; sino a las funciones especiales del sistema que controlan al volumen de los altavoces, el brillo de la pantalla… Es decir, que si pulsamos lo que sería F2 vamos a activar / desactivar el Wi-Fi, mientras que para obtener la función comúnmente asignada a F2 (que suele ser cambiar el nombre de un fichero) habrá que pulsar la combinación Fn + F2.

Entiendo que es una tontería sin importancia y que a todo se acostumbra uno; pero si toda la vida esas teclas han tenido su función no sé qué necesidad había de darle la vuelta a las cosas que funcionan bien.

En cuanto al touchpad, hay que reconocer que su superficie es bastante generosa, pero cuenta con la peculiaridad de que los dos botones con los que cuenta están integrados en su propia superficie, que bascula a izquierda y derecha.

Dell Inspiron Mini 10

Esto logra que dicho dispositivo quede perfectamente integrado en la carcasa del ordenador, pero hasta que nos hagamos con el funcionamiento del touchad tendremos que pasar por un periodo de adaptación durante el cual nos ocurrirá en más de una ocasión que el puntero del ratón se nos moverá al tener que presionar la propia superficie para ejercer la pulsación como tal.

Opciones de conectividad

El apartado de conectividad del Dell Inspiron Mini 10 queda resuelto de varias formas: por un lado contamos con tres puertos USB 2.0 para conectar ratones, pendrives, discos duros externos… Disponemos de uno en el lado derecho y dos en el izquierdo, no contando con ninguno de ellos en la parte trasera.

En cuanto a las comunicaciones inalámbricas contamos con una tarjeta Wi-Fi que cumple los estándares b y g así como un módulo Bluetooth útil para sincronizar los contenidos de nuestro teléfono móvil o PDA.

Mención aparte para el puerto VGA, que situado en el lateral izquierdo del pequeño ordenador nos permitirá conectarlo a un monitor externo o un proyector si queremos emplearlo para dar algún tipo de conferencia o similar. También contamos con los habituales conectores para auriculares y micrófono empleando un jack de 3,5 mm así como un discreto lector de tarjetas compatible con los formatos SD, MMC y Memory Stick.

Dell Inspiron Mini 10

A excepción del Bluetooth, es lo típico que suelen traer todos los netbooks, de modo que poco más que reseñar en este apartado.

Uso diario e impresiones generales

En cuanto a lo que el uso diario y habitual se refiere, me gustaría comentaros una serie de puntos que me han llamado la atención en mayor o menor medida:

El ordenador no cuenta con ningún tipo de ventilador, por lo que es absolutamente silencioso en su funcionamiento, siendo el aparcado de las cabezas del disco duro el único ruido mecánico que escucharemos durante su uso. Ahora bien, la ausencia de ventilador implica que la zona de la carcasa bajo la que se encuentra el microprocesador del equipo se va a calentar bastante. En el caso de usarlo sobre una mesa o similar nos va a dar un poco igual, pero si lo colocamos sobre nuestras piernas, pasado un tiempo nos vamos a dar cuenta de que la temperatura de nuestro muslo derecho se empezará a elevar más de la cuenta; siendo esa es la única zona de la carcasa que se calentará hasta el punto de resultar molesta, quedando las demás a una temperatura bastante agradable.

Dell Inspiron Mini 10

Como ya dije en los primeros compases de la review, el teclado es una verdadera delicia. Tiene un tacto impecable y la fuerza necesaria para la pulsación de cada tecla es mínima, por lo que resulta muy descansado para nuestros dedos y muñecas. Y precisamente hablando de ergonomía, gracias a que la carcasa posee una superficie libre de unos cinco por diez centímetros a cada ladodel touchpad podremos emplearla a modo de reposamuñecas y ganar así en comodidad a la hora de escribir.

Por cierto, no puedo pasar por alto el singular acabado de la superficie interior de la carcasa que rodea al teclado, pues lejos de ser lisa tiene grabadas una serie de «serpientes» que podéis apreciar en algunas de las fotos que ilustran este análisis.

La cobertura de la red inalámbrica parece estar bien resuelta, ya que en las zonas de la casa en las que el Asus EeePC 701 se me desconectaba frecuentemente, este Dell mantiene una conexión estable y con un tráfico de datos muy fluido. Comentar también que la tarjeta instalada es una Broadcom BCM 4312; dato que podría ser de utilidad para aquellas personas que pretendan hacer algún tipo de «uso alternativo» de la misma.

Otros detalles que me han gustado especialmente son el pequeño y discreto botón de encendido situado en la equina superior izquierda del teclado así como el pequeño LED presente en la clavija del adaptador de corriente que indica si el mismo está alimentado o no y que os muestro en la siguiente fotografía:

Dell Inspiron Mini 10

Por lo demás el ordenador rinde muy bien si lo usamos para lo que ha sido diseñado y se maneja de forma correcta y agradable. Aunque pese unos gramos más que el EeePC 701 esto apenas se nota y ese par de centímetros extras a lo largo y a lo ancho (el grosor es prácticamente le mismo) permiten integrar un teclado y un touchpad de tamaño adecuado; cosa que se agradece mucho.

Por cierto, los altavoces están situados debajo de la carcasa; concretamente bajo las zonas destinadas a reposar nuestras muñecas que os comentaba hace unos párrafos, por lo que si colocamos el portátil sobre una cama o similar no se escuchará demasiado alto incluso subiendo el volumen considerablemente. Para esos casos es mejor emplear auriculares.

La webcam (como todas las webcams) se ve bien si la luz ambiental es intensa y con mucho ruido si estamos en penumbra. Posee un micrófono estéreo y un LED que indica su actividad. Por lo demás, si pensáis en la cámara de un teléfono móvil grabando vídeo estaréis muy cerca de lo que puede dar de si este componente del ordenador.

En cuanto al tiempo de autonomía de la batería a mí me parece que está más que bien: el sistema operativo anuncia unas ocho horas de duración cuando la batería está completamente cargada y me encuentro navegando por Internet mediante conexión Wi-Fi; algo que se ajusta bastante a la realidad por lo que he podido ver hasta el momento. Lo normal es que tras las primeras cargas de batería esta autonomía aumente ligeramente (del orden de un 10 o un 15 por ciento) pero aunque no fuera así la marca de ocho horas está más que bien, sobre todo comparado con las poco más de dos horas de autonomía que me daba mi EeePC 701 y su procesador Celeron a 630 MHz.

Antes de que se me olvide, si alguien se está preguntando la posibilidad de ampliar la memoria RAM del ordenador he de decir que no es un proceso tan sencillo de realizar como en el Asus EeePC 701 y su fácil acceso a este componente. En el caso del Dell Inspiron Mini 10 hay que desmontar todo el portátil como muestra este tutorial, y la verdad es que a no ser que sea estrictamente necesario yo no metería mano al ordenador tan a fondo como para tener que quedarme con la placa base «al desnudo».

Conclusiones

Después de haber estado todo el fin de semana empleando el nuevo netbook sólo puedo contar alabanzas de este modelo de Dell. Es verdad que había alguna opción por encima de él en mi lista inicial de candidatos para sustituir a mi antiguo ultraportátil; pero cuando tuve ocasión de probarlo en la tienda me quedé enamorado del tacto de sus teclas y la calidad de la pantalla.

Tal vez con otros modelos podría haber arañado una horita más de batería o haberme ahorrado veinte o treinta euros en el precio final; pero la inclusión de esos noventa gigabytes más de disco duro, el módulo Bluetooth integrado y los pequeños detalles de los que hace gala este pequeño portátil me hicieron ver que la búsqueda de mi nuevo netbook había llegado a su fin.

Dell Inspiron Mini 10

Estoy seguro de que mi relación con el Dell Inspiron Mini 10 será larga y fructífera. De momento sus teclas han alumbrado esta review al completo y eso ya dice mucho en su favor, de modo que si estáis contemplando la opción de haceros con un netbook éste puede ser un modelo a tener en cuenta. A mí, desde luego, me tiene encantado.

Buscando un nuevo netbook

Después de lo que os conté hace unos días sobre la utilidad de los netbooks (también llamados ultraportátiles) he decidido renovar mi veterano Asus EeePC 701 por alguno de los múltiples modelos que están saliendo al mercado durante estos últimos compases del mes de Enero.

Las razones del cambio

Aunque estoy contento con «mi pequeñajo», al usarlo durante todos los días durante al menos un par de horas (es genial para internetear en el sofá del salón) empiezo a darme cuenta de que hay algunas cosas que han ido evolucionando en modelos posteriores y que actualmente me suponen un pequeño lastre. No obstante el EeePC 701 fue el primer ultraportátil que llegó al mercado de masas, y eso se nota sobre todo en tres aspectos fundamentales:

Navegador de Internet

El primero de ellos es el teclado, que no es lo más cómodo del mundo. No por su pequeño tamaño, pues a todo se acostumbra uno; sino porque hay que presionar las teclas con fuerza para que «se marquen», de modo que acaba cansando un poco cuando escribo un artículo más o menos extenso para el blog (y lo sé bien porque muchos de los contenidos de este blog han sido redactados íntegramente en el EeePC).

El segundo es la resolución de la pantalla, que con sus 800 x 480 píxels a veces se queda un poco corta a la hora de visualizar ciertas páginas web y hay que andar moviendo la barra de desplazamiento lateral constantemente. Para leer por ejemplo este mismo blog no hay problema, pero si me meto en la sección The Big Picture del diario The Boston Globe, la cosa se convierte en un verdadero infierno (a veces echo de menos una función de zoom adaptativo tan buena y simple como la del navegador del iPod Touch).

Por último, la autonomía anda un poco escasa ahora que el portátil ya va camino de los dos años. Actualmente puedo usar el pequeño EeePC durante algo más de dos horas si no tengo cerca un enchufe; y eso es algo un poco escaso si te llevas el portátil de viaje. Las baterías de los netbooks actuales son capaces de dar entre 6 y 10 horas de funcionamiento normal dependiendo del modelo, lo que está a años luz de lo que actualmente me ofrece mi ultraportátil.

Requisitos a cumplir por el nuevo modelo

Como os digo, haciendo balance y mirando la actual situación de los ultraportátiles que hay en el mercado (con los nuevos micros Intel Atom N450 lanzados hace apenas diez días) he decidido renovar mi netbook por algo más actual, regalándole a mi madre el pequeño EeePC, al que le tiene echado el ojo desde hace unos meses para no tener que turnarse con mi padre por el uso del ordenador de sobremesa del salón.

Siempre que afronto la compra de algo más o menos importante me planteo una serie de puntos básicos a cumplir, y a partir de ahí comienzo a mirar modelos específicos. En concreto, mi lista de requisitos para el nuevo ultraportátil es la siguiente:

  • Procesador Intel N450 (impepinable, no aceptaré otra cosa)
  • Batería de 6 celdas (igual de prioritario que el micro, pues busco la mayor autonomía posible)
  • Teclado y touchpad lo más cómodo y amplio posible (básico para mi verborrea escrita)
  • Pantalla de 10″ con resolución de, al menos, 1024 x 600
  • WiFi con el mayor alcance posible (parece mentira, pero hay diferencia entre equipos, de modo que si estás un poco justo de cobertura algunos se desconectan constantemente mientras que otros no tienen problemas en ese sentido)
  • Posibilidad de cambiar la memoria RAM por mí mismo (suelen venir con 1 GB, pero me gustaría contar con 2 GB)
  • El precio no debe pasar de 350 euros, aunque esto es más que nada porque se trata del rango en el que se mueven todos estos modelos
  • Conector Ethernet, que es tremendamente útil cuando tienes que instalar una distribución de Linux y has de descargar los paquetes iniciales desde el repositorio de turno.

La inclusión de tropecientos mil puertos USB me da un poco igual, pues como mucho pincharía un pendrive de vez en cuando para mover datos de un equipo a otro, por lo que con que equipe dos de ellos me llega de sobra. Del mismo modo, la capacidad del disco duro interno me es indiferente, ya que actualmente tengo la mitad del disco de 4 GB del EeePC 701 vacío al ser un equipo que uso fundamentalmente para conectarme a Internet, y por lo que estoy viendo en la actualidad este parámetro ronda entre los 160 y los 250 GB. Por cierto, es una pena que ya no se empleen unidades SSD.

Lateral

Algunos aspectos deseables serían que no se calentara demasiado, que el peso no excediera del kilo y cuarto y que el transformador eléctrico fuera más o menos compacto; pero esos detalles no van a decantar la compra de un equipo sobre otro en ningún caso, así que no los tendré demasiado en cuenta.

También me gustaría que el equipo viniera sin sistema operativo, pero en estos modelos Windows 7 Starter Edition es la norma, de modo que lo empezaré a usar y si no me convence instalaré alguna distribución de Linux.

Algunos modelos destacados

En principio voy a recorrer varias tiendas mirando lo que tienen en stock y poniendo mis manos sobre los equipos para comprobar por mí mismo que voy a sentirme cómodo escribiendo con ellos. De todos modos, he estado informándome un poco en los últimos días y he hecho una pequeña lista de modelos que podrían ceñirse bastante bien a lo que ando buscando, de modo que podría ser un buen punto de partida:

A grandes rasgos cualquiera de estos cuatro netbooks se adaptaría bastante bien a lo que ando buscando aunque, como os digo, quiero recorrer unos cuantos comercios durante la semana que viene para tenerlos en la mano y valorarlos de una forma más personal. Además, seguro que luego encuentro algún que otro ultraportátil que cumple con lo que pido, por lo que ne me cierro en banda ni mucho menos a estos cuatro modelos reseñados.

Por descontado, se agradecerá cualquier propuesta / comentario / recomendación por vuestra parte.

¡Un saludo!

Mi ordenador llevará Debian y Windows XP en particiones separadas

Finalmente conseguí que Debian + KDE4 funcionara correctamente en mi ordenador de sobremesa. Ya no tengo efectos gráficos no deseados (era culpa del driver de nVidia; con uno más actualizado se solucionó el problema) y el ordenador funciona estable y a toda velocidad gracias a que he instalado la versión de 64 bits del sistema operativo que aprovecha mejor las prestaciones de mi micro Core2Duo.

kde4_debian

Lo que ocurre es que lo de la virtualización del Windows XP no es algo tan simple como pensaba; y aunque he conseguido hacerlo funcionar a una velocidad bastante decente se me presenta el problema de la resolución de pantalla y el rendimiento de Lightroom: lo que ocurre básicamente es que en el ordenador virtualizado tengo un hardware de vídeo muy poco potente (lógico, pues todos sus componentes están emulados por software) y los milagros en informática no existen.

El manejo general del sistema operativo es rápido (también influye que le he asignado 2 GB de RAM; dejando a Debian con la memoria muy muy justita) pero el pobre Lightroom rinde poco más o menos que como en mi portátil además de que estoy limitado a una resolución máxima de 1600×1200, que si bien no es poca, sucede que es de formato 4:3 con las desventajas que esto implica a la hora de trabajar con fotografías como ya os comenté en una entrada de hace un tiempo.

virtualbox_fin

Total, que la solución que voy a llevar a la práctica (ya tenía la idea anteriormente; pero varios comentarios vuestros en la entrada sobre la eliminación de Windows Vista me han llevado a ver que puede ser la mejor opción) es dividir el disco duro en tres particiones:

– Una para Debian, que será la que arranque por defecto ya que será el sistema que emplee la mayor parte del tiempo.

– Otra para Windows XP; sin demasiadas necesidades de espacio porque va a ser para el sistema, Lightroom y poco más.

– Una tercera (con todo el espacio restante) para datos, de tal modo que en ella tendré todas las fotografías y vídeos que vaya editando así como el grueso de los juegos que pueda analizar para ultimONivel. Lo más importante es que a esta partición pueda acceder tanto desde Debian como desde Windows XP.

En fin, a ver qué tal queda todo al final, pero de momento me he dado cuenta de que aunque la virtualización va muy bien para ejecutar el sistema base y programas «estándar», para cosas que requieran muchos recursos la bajada de rendimiento es bastante acusada y, en ocasiones, no va a ser posible emplear las mismas posibilidades que el sistema sin virtualizar (como lo de la resolución de 1920×1080 en mi caso particular).

Espero que la próxima entrada hablando sobre este tema sea para comentaros que ya está todo instalado y funcionando  😉