Refrigeración líquida vs. refrigeración por aire

En general, se considera que una refrigeración líquida para la CPU es más eficiente que las habituales de disipador + ventilador debido a que el agua tiene la propiedad de transportar el calor más rápido de un sitio a otro, de modo que el líquido que da vueltas en el circuito se calienta con facilidad en la bomba que está en estrecho contacto con el microprocesador pero también se enfría con rapidez en el radiador que refrigera un ventilador haciendo así que su temperaratura no se dispare. Igual que en un coche con motor de combustión, vamos.

Todo lo anterior junto con el factor «molar» (a primera vista las refrigeraciones líquidas son más cool que las de aire) hacen que mucha gente opte por uno de estos sistemas como si fueran la panacea; pero aun así, con el tiempo te vas dando cuenta de algunas desventajas y empiezas a pensar, como ha sido mi caso, que una refrigeración por aire tampoco está tan mal.

Entre los componentes del PC que monté a primeros de año estaba una refrigeración líquida AIO (All In One) de Cooler Master con radiador de 120mm, que desde mi punto de vista funciona a las mil maravillas y mantiene la temperatura del procesador bajo control de una forma muy estable gracias a la mayor inercia térmica del líquido refrigerante.

En el caso de mi placa base, una MSI con chipset B450, tengo dos conectores de ventilador, ambos regulables por PWM o por DC: CPU_FAN y SYS_FAN. Al primero de ellos se enchufa habitualmente el ventilador del disipador de la CPU; mientras que al segundo se suele conectar el ventilador trasero de la caja encargado de sacar el aire caliente de la misma. Luego ya es cuestión de regular sus curvas de funcionamiento en función de la relación temperatura/ruido que queramos obtener.

En el caso de optar por una refrigeración líquida la estrategia es diferente. Aquí se trata de que la bomba haga circular al líquido a una velocidad constante por el circuito, por lo que esta se suele conectar al SYS_FAN y se deja a velocidad fija, normalmente a 12 Vdc o bien al 100% de PWM, con la intención de que quede girando a su velocidad nominal. Por su parte el ventilador del radiador es que el que va a ir conectado a CPU_FAN y regulado mediante su curva PWM, de tal manera que si el microprocesador está frío el ventilador gire a baja velocidad y si la temperatura se incrementa lo haga también la velocidad del ventilador con objeto de enfriar más rápidamente el líquido en el radiador.

¿Qué ocurre en el caso de que sólo dispongamos de estos dos conectores de ventilador? Pues que si tenemos otros ventiladores adicionales en la caja para refrigerar su interior, o bien los compramos con adaptador MOLEX para que vayan a 12 voltios fijos, los regulamos mediante un reostato externo (este sistema se considera ya algo viejuno; sobre todo ahora que las cajas de los PCs no traen disqueteras ni bahías para CD-ROM) o los adaptamos mediante algún tipo de hub PWM para que vayan sincronizados con la velocidad del ventilador del radiador, cosa nada recomendable porque las continuas subidas y bajadas casi instantáneas de éste nos pueden volver locos por el incremento y decremento de la sonoridad global del PC.

Y luego está el problema clásico de las refrigeraciones líquidas: las pérdidas de agua. Y es que, hasta donde yo sé, ninguna refrigeración líquida emplea un líquido dieléctrico para funcionar, siendo todas de base agua con mayor o menos presencia de etilenglicol. Es decir, que como se nos fisure un tubo o se salga un racor con el ordenador en marcha nos podemos ir despidiendo de la placa base y/o la tarjeta gráfica y/o fuente de alimentación.

Al principio veía la cosa muy segura, pero a base de leer casos de fugas en refrigeraciones líquidas con unos cuantos años ya a sus espaldas empecé a pensar en hacerme con una refrigeración por aire, la cual tiene otro ventaja adicional y es que si se nos para el ventilador del disipador éste último puede seguir refrigerando algo de forma pasiva (sobre todo si el flujo de aire dentro de la caja es adecuado y consigue que se mueva algo de aire entre sus aletas) pero si se nos avería la bomba de una refrigeración líquida el micro se nos va a plantar en temperaturas perjudiciales para su salud en menos que canta un gallo y con posibilidad además de que por efecto del calentón uno de los racores de la bomba se dilate y acabemos además con la temida fuga de líquido.

Aún así, las refrigeraciones líquidas tienen otra ventaja que no he comentado hasta ahora y es que el calor del microprocesador lo sacan directamente fuera de la caja, ya que los ventiladores de los radiadores se suelen configurar para que eliminen ese calor hacia el exterior (y si el radiador está colocado en la parte alta de la caja de paso ayudan a sacar el aire caliente que hay acumulado dentro de la misma). La cosa es que cuando usas una refrigeración por aire, el disipador se calienta y por tanto también el interior de la caja puesto que su ventilador lo hace circular por su interior, de modo que es un motivo más para asegurar una buena circulación de aire dentro del PC con los ventiladores de la caja si no queremos que se eleven las temperaturas de sus componentes internos.

Por tanto, sopesando todo esto que os he contado decidí probar la refrigeración por aire que ofrece el propio disipador que viene con el AMD Ryzen 7 3700x (el famoso y colorido Wraith Prism) y comprando un juego de ventiladores regulables por PWM así como un HUB para poder conectar varios de ellos (cinco en concreto) al conector SYS_FAN de la placa base.

Tras unas pruebas iniciales me di cuenta de que el Wraith Prism es un avión a punto de despegar cuando pasas algún benchmark de CPU o si te tiras un buen rato jugando a algún juego muy exigente con el microprocesador y la tarjeta gráfica. Sus 3750 RPM máximas hacían un ruido tremendo aunque cierto es también que mantenía las temperaturas del microprocesador más o menos en los márgenes que jugaba la líquida que tenía puesta hasta ese momento.

¿Y por qué tanta velocidad de giro? Bueno, el problema es que es un disipador de perfil bajo, de modo que además de que el aire va «de arriba a abajo» impulsado con el ventilador, chocando por tanto con la placa base y disminuyendo su capacidad de refrigeración, las aletas de aluminio que tiene son más pequeñas que las del típico disipador «de torre» que habréis visto en multitud de PCs. Lo que han hecho en AMD es suplir ese menor rendimiento que viene condicionado por su diseño con un caudal de aire muy bestia, pero claro, los dbs también se disparan.

Buscando un poco en foros y demás encontré un modelo de disipador + ventilador en formato torre que funcionaba muy bien y además entraba en mi caja, que al ser para placas microATX no es demasiado ancha y está limitada a una altura máxima del conjunto de unos 15 cm; medida que sobrepasan muchos modelos de Noctua y Cooler Master equipados con ventiladores de hasta 14 cm a los que hay que sumar la altura de la base y el primer tramo de los heatpipes que llevan incorporados.

El modelo que compré fue el Hummer H-212 de Nox, que sale por unos 30 euros y es sumamente silencioso, también gracias a su ventilador cónico de 120 –> 92 mm que sopla sobre un disipador de aletas de aluminio y heatpipes de cobre a una velocidad máxima de 1600 RPM. He de decir que me ha sorprendido para bien, porque las temperaturas están a la par con el Wraith Prism pero el ruido que hace a máxima velocidad es una fracción del modelo de AMD y además en idle es prácticamente inaudible.

Como podéis ver en la imagen anterior, la disposición del conjunto disipador-ventilador es tal que el aire fresco entre por el frontal de la caja, lo recoge el ventilador, lo hace pasar por el disipador donde se calienta y a continuación sale por el ventilador trasero. Puede que algo de aire se derive hacia los dos ventiladores superiores, pero estos están principalmente para sacar el aire caliente que se acumula en la caja cuando la tarjeta gráfica está trabajando a plena potencia; si bien de esto creo que prepararé un artículo específico porque me parece un tema interesante.

Por tanto, y para resumir un poco todo lo comentado en este artículo, aunque las refrigeraciones líquidas son muy pintonas y funcionan muy bien creo que no van a conseguir barrer del mapa a las refrigeraciones por aire; ya que estas tanto por funcionalidad como sobre todo por seguridad tienen bastantes ventajas.

Monitorización de parámetros de un PC usando un Stream Deck

Desde hace muchos muchos años soy un fan total de los instrumentos de medida; y más si estos lo hacen en tiempo real. En mi casa tengo un vatímetro, un osciloscopio, un vúmetro, un luxómetro, una cámara termográfica… Como suelo decir a mis compañeros de trabajo, que ya me conocen bastante bien: «Si mide algo es posible que lo tenga».

Midiendo, que es gerundio

El caso es que el PC tampoco se libra de mi manía de cuantificar todo, y cuando planificaba el montaje de mi nuevo ordenador de sobremesa una de las cosas que tenía en mente era contar en algún momento con la posibilidad de conocer ciertos parámetros en tiempo real mediante algún tipo de pantalla externa o similar.

Al principio usaba utilidades como Aida64 o MSI Afterburner para ver los datos en el propio monitor que me hacían el apaño perfectamente, pero cuando estás usando un videojuego a mí particularmente no me gusta tener un montón de números superpuestos en una esquina de la pantalla, de modo que luego consultaba el histórico de las gráficas generadas por Afterburner y así veía qué temperaturas máximas había alcanzado la GPU, cómo de rápido se calentaba la caja del PC con los tests de estrés del 3D Mark, qué carga máxima de proceso soportó la CPU jugando a Cyberpunk 2077, a que porcentaje de regulación de PWM llegó su ventilador, etc.

El caso es que un día me cansé de mirar gráficas porque lo que quería era un sistema externo auxiliar al que pudiera echar un vistazo en todo momento mientras jugaba a Red Dead Redeption II o echaba números en una hoja de Excel y tras buscar información vi que tenía la opción de usar una Raspberry Pi conectada en red con un S.O. especial orientado a mostrar información de otro sistema en tiempo real. Tenía el material necesario para ello, pero no era una cosa sencilla y además iba a añadir unos cuantos cables a mi escritorio.

Lo que pasa es que al final di con algo con lo que no contaba inicialmente y que al final me pareció la mejor opción con diferencia para lo que yo buscaba: un Stream Deck de ElGato.

¿Qué es un Stream Deck?

El Stream Deck es un dispositivo USB consistente en un pequeño panel con una serie de botones físicos configurables para lanzar diversas acciones en el ordenador y cuya peculiaridad es que cuenta con una pantalla OLED de 72 x 72 pixels en el interior de cada tecla.

Lo habitual es que lo usen «streamers» de modo que durante sus retransimisiones puedan cambiar de cámara, jugar con la intensidad de la luz, modificar la superposición de imágenes, meter efectos de sonido, twittear algo, silenciar el micro… Pero además tiene una característica adicional que es la que me hizo decantarme por él: se pueden desarrollar plugins externos para agregar así funcionalidades no contempladas inicialmente por el fabricante.

Cómo usar un Stream Deck para monitorizar un PC

Y así, indagando un poco más, enseguida me encontré con un plugin que enlaza con el software de monitorización para Windows llamado HWinfo y nos permite mostrar en los botones del Stream Deck aquellos parámetros que queramos consultar en todo momento, refrescándose cada segundo y generando incluso una mini-gráfica para cada uno de ellos. Algo ideal para mis propósitos de tener siempre a la vista temperaturas, velocidades de ventiladores, carga de procesador y gráfica…

Como tampoco tenía 100% claro que la cosa fuera a funcionar todo lo bien que quería, me hice con el modelo más básico de los tres que existen, el cual cuenta con sólo seis botones. Lo bueno es que cualquier botón se puede convertir en una carpeta e ir así agrupando infinidad de parámetros, pero mi primera configuracion fue la que tenéis ahí arriba consistente en visualizar carga, temperatura y velocidad de ventiladores de CPU y GPU.

Total, que instalé el Stream Deck con su software, descargué el plugin desde este enlace siguiendo las instrucciones y también la versión gratuita del programa HWinfo en su revisión 6.24 ya que las posteriores dan algunos problemas de compatibilidad con esta historia que quería montar.

Una vez lanzado el configurador del Stream Deck sólo hace falta añadir el plugin y a partir de ahí empezar a personalizar tus botones para mostrar lo que quieras, siendo enorme la variedad de tamaños de letra, icosnos, colores… Yo, por supuesto, me decanté por el azul, ya que es el predominante en el ordenador desde el que os escribo.

Cómo lo uso yo

En mi caso particular, ahora mismo lo tengo configurado de tal modo que en la «portada» veo temperaturas de CPU, GPU y caja así como las RPM de los ventiladores regulados mediante PWM de la caja del PC. En los dos botones que me quedan libres he creado dos carpetas llamadas CPU y GPU entrando a las cuales dispongo en cada caso de otros datos como porcentaje de uso, potencia consumida, velocidad de ventiladores…

Viendo ahora lo bien que funciona creo que hubiera sido mejor hacerme con el Stream Deck de 15 botones porque así tendría todo a la vista de un simple vistazo sin necesidad de crear carpetas, aunque también es verdad que a veces el exceso de información puede saturarte y no fijarte en lo verdaderamente importante.

En realidad lo que quiero tener bien presente son las temperaturas de los tres elementos principales del PC: CPU, GPU y caja. El resto de cosas como velocidad de la conexión de red, velocidad de la RAM, temperatura de los discos duros, etc a día de hoy no me preocupan demasiado; y lo bueno es que si quiero tenerlas controladoras no tengo más que configurar los botones del Stream Deck, porque anidando carpetas puedes tener todos los parámetros del sistema a apenas un par de pulsaciones.

En la imagen que hay sobre este párrafo podéis ver cómo tengo configurado el stream deck ahora mismo con esos dos botones que me llevan a una «pantalla» anidada en la que puedo ver los datos específicos de la CPU y la GPU. Lo que hay a la derecha es un termómetro-higrómetro de Xiaomi que me dice la temperatura ambiente de la habitación, ya que es algo que influye bastante en la temperatura interior de la caja del PC y, por supuesto, también lo tengo a la vista y en cuenta.

Cuanto más sencillo, mejor

Como habréis podido ver esto que hemos visto hoy es algo muy sencillo de instalar y configurar, así que si os ha llamado la atención y os gustaría poder consultar ciertos parámetros de vuestro ordenador en cualquier momento os animo a que hagáis algo así en vuestro tiempo libre porque el resultado, desde mi punto de vista, es muy molón.

¡Nos leemos!

Actualización 18-10-2021

Finalmente he dado con la configuración que más me convence para el uso que le doy al Stream Deck, así que os voy a poner a continuación las pantallas que la conforman.

Pantalla principal con los iconos de acceso a los detalles bajo la temperatura de cada uno de ellos

Parámetros de la CPU

Parámetros de la tarjeta gráfica

Parámetros varios del sistema

Actualización 20-04-2022

Viendo que le doy bastante uso a este método de consultar en tiempo real diversos parámetros de funcionamiento del PC he sustituido el Stream Deck Mini por la versión estándar de 15 teclas, la cual me permite tener a la vista los principales datos de CPU, GPU y sistema además de permitirme tener una carpeta con accesos directos a las apliaciones que más frecuentemente utilizo.

Como podéis ver, esta vez he separado los parámetros por colores (CPU en rojo por aquello de que es AMD, GPU en verde por ser Nvidia y el sistema en azul porque me parece molón). De este modo tengo todo a la vista y puedo ver cómo van evolucionando los diferentes parámetros poniendo en perspectiva unos con otros.

La tarjeta gráfica más cara no siempre es la mejor opción

En la fase de planificación de mi nuevo ordenador de sobremesa estuve mirando muchos modelos de tarjetas gráficas, lo que me hizo darme cuenta de una cosa: tener la última gráfica tope de gama del mercado conlleva un elevado coste que no estoy seguro de que merezca la pena acometer.

Esto es algo que me gustaría ir desgranando a lo largo de este artículo y para ello empezaré usando una tabla en la que os muestro los datos del «estudio de mercado» que hice en el mes de diciembre para luego ir viendo todo de un modo mucho más visual.

Como podéis ver en la primera fila, la tarjeta gráfica de mi anterior ordenador (una AMD Radeon HD6540) daba unos miserables 199 puntos en el test de rendimiento que la gente de Passmark realiza a todos los modelos que incluyen en su base de datos. Obviamente la opción de quedarme con ella estaba completamente descartada desde el momento que me planteé usar el ordenador para jugar a cualquier cosa aparecida en los últimos diez años y, por tanto, a partir de ahí se abría un amplio abanico de posibilidades.

Si os ha tocado el euromillones está claro: iréis a por una RTX 3090 (o dos, configuradas en modo SLI) y santas pascuas. Sin embargo, al común de los mortales nos toca buscar un punto de equilibrio entre precio y prestaciones; algo que también nos tocará hacer al comprar un coche, una casa o un teléfono móvil.

Ordenando los modelos por rendimiento puro y duro en una gráfica de barras podemos ver que el incremento de potencia es prácticamente lineal entre las diferente tarjetas de las últimas cuatro generaciones de Nvidia (GTX 10, GTX 16, RTX 20 y RTX 30) por lo que a no ser que haya un cambio de paradigma muy radical en la concepción de las futuras tarjetas gráficas casi podremos calcular cuánto van a rendir los modelos de la marca que van a aparecer durante los próximos meses. Mi apuesta es que una hipotética serie RTX 40 saldrá de aquí a un año y sus rendimientos andarán entre los 25000 y 30000 puntos según se posicione el modelo dentro de la gama. Y, salvo sorpresa, no creo que me vaya a desviar mucho; el tiempo lo dirá.

El compromiso entre precio y aumento de prestaciones

Vamos ahora a hacer un pequeño estudio de costes y rendimiento en los siguientes párrafos para tratar de que veáis la idea principal de este artículo de una forma práctica.

Mi tarjeta actual es una GTX 1060 3GB, que ronda los 10000 puntos y esto representa un rendimiento 50 veces mayor que la Radeon HD6540 que tenía mi antiguo ordenador (aproximadamente un 5000% más de rendimiento) y por ella tendremos que pagar unos 200 euros.

Si quiero saltar al que ahora mismo es el modelo más básico de la serie RTX 30 tendré que irme a una 3060 Ti, que tiene un rendimiento de unos 20000 puntos, que es el doble que mi tarjeta actual (100% más de rendimiento que la GTX 1060 3GB). Sin embargo, para dar el salto tendré que aflojar unos 480 euros según estuve viendo hace un par de meses.

Supongamos que me vengo un poco arriba y decido que voy a pegar el salto a una RTX 3080, que saca una puntuación de 24000 puntos, lo que representa un 20% más que la 3060 Ti pero para ello ya tengo que gastarme unos 1000 euros.

Y en el caso extremo de que se me vaya por completo la cabeza y me quiera ir al tope de gama actual, la RTX 3090, voy a tener un rendimiento ligeramente por encima de los 25000 puntos (un 5% más que la 3080) pero para hacerme con una voy a tener que soltar la friolera de 2000 euros. Este caso es el más extremo del ejemplo y representa muy bien lo que os decía al principio: que tener lo último de lo último sólo representa un 5% más de rendimiento sobre el modelo inmediatamente inferior pero también implica un sobrecoste de 1000 euros con respecto a éste.

Antes vistéis antes una gráfica en la que ordenaba los modelos por su rendimiento teórico, y ahora vamos a verlas en el mismo órden, pero lo que muestro en esta ocasión es su precio aproximado de primera mano en tiendas de España.

Algo que llama la atención en esta imagen es que los modelos de las últimas series acabados en 80 salen por unos 1000 euros, representando estos el tope de gama de cada generación. Sin embargo, aunque ahora el tope de gama de las RTX 30 es la 3090 y eso se nota también en su disparatado precio de venta, la 3080 sigue en esa línea de flotación de los 1000 euros. Si os fijáis, las tarjetas acabadas en 70 suelen rondar los 500 euros, de tal modo que parece claro que Nvidia tiene estipulado que cada subida de escalón dentro de una misma serie implica una duplicación de su precio. Lo que pasa es que esto no conlleva ni mucho menos una subida de prestaciones en la misma proporción.

La virtud está en el punto medio

La magia sucede cuando combinamos ambas tablas para obtener un ratio que nos indica cuántos puntos de rendimiento sacamos por cada euro invertido en la tarjeta gráfica; y en este caso vamos a ver que, en general, los extremos son los que menos interesan para un usuario medio como puedo ser yo. Los modelos de la parte baja son económicos pero tienen poco rendimiento; mientras que los de la parte alta tienen mucho rendimiento pero a medida que nos vamos hacia la derecha el precio se dispara y por tanto el ratio cae.

Por tanto, una vez más, tenemos que tener muy claro qué es lo que necesitamos. Una RTX 2060 sería un modelo que nos permitiría a día de hoy mover cualquier juego actual en FullHD por poco más de 400 euros, por lo que sería un poco absurdo gastarnos los 2000 eurazos de una 3090 si no vamos a emplear un monitor 4K que nos permita mover los juegos a esa resolución (son 4 veces más pixels que la resolución FullHD, y eso requiere un montón de potencia de proceso adicional).

Del mismo modo, no debemos dejar de lado que el microprocesador, la memoria RAM o incluso el disco duro también nos van a limitar a la hora de mover los juegos con soltura porque no todo es cuestión de tarjeta gráfica. Y es que supongo que a nadie se le ocurrirá montar una RTX 3080 en un Celeron, con 2 GB de RAM DDR3 y un disco duro mecánico de 5400 RPM; porque en ese caso la gráfica renderizará un fotograma en pantalla para luego estar un buen rato esperando a que el resto de los componentes (que irán absolutamente asfixiados) sean capaces de mandar a la tarjeta gráfica los datos del siguiente, por lo que no aprovecharemos para nada el potencial que esta podría ofrecer y podríamos haber puesto una tarjeta mucho más barata obteniendo unas prestaciones prácticamente iguales.

En definitiva, mis dos recomendaciones a la hora de elegir una nueva tarjeta gráfica es que penséis si os merece la pena pagar un fuerte incremento de precio por apenas un poco más de rendimiento y que compréis algo acorde a vuestro hardware para poder sacarle todo el partido a vuestra nueva adquisición.

Pensad que a lo mejor merece más la pena gastar 1000 euros cada dos años que 2000 cada cuatro porque, al fin y al cabo, el salto de rendimiento entre modelos intergeneracionales similares es mayor que el siguiente escalón dentro de la misma serie. Además, una tarjeta recién sacada al mercado siempre va a recibir más atenciones por parte del fabricante que un modelo de una gama que ya va a ser descatalogada y para la que como mucho sacarán alguna actualización de drivers puntual.

En cualquier caso, todo esto estaría muy bien si todos los modelos que hemos visto a lo largo del artículo estuvieran plenamente disponibles; pero la realidad es que por diversos motivos actualmente la escasez de tarjetas gráficas en el mercado es brutal y las pocas que salen a la venta que no sean de gama baja duran literalmente segundos en stock.

En mi caso particular, una RTX 3060 Ti podría ser una muy buena opción y es a lo que apunto en un futuro; pero dado que en los próximos meses va a ser prácticamente imposible hacerse con una, como os decía antes he conseguido una GTX 1060 3GB de segunda mano que me está dando muy buen resultado con todo lo que estoy jugando actualmente en mi recién estrenado PC (Ryzen 5 3500X, MB B450, 16 GB RAM DDR4 3000, SSD M.2).

¡Nos leemos!

Actualización 25-02-2021

Ahora que ha salido oficialmente la RTX 3060 (de la que no hay stock en ningún sitio, tal y como se esperaba) os pongo una tabla con las puntuaciones de GPU Passmark de toda la gama GTX y RTX de Nvidia, pues es una forma muy visual de ver cómo han ido evolucionando los diferentes modelos. En las columnas están las diferentes series que han ido apareciendo y en las filas la gama a la que pertenece cada modelo.

Hoy la memoria RAM es 6000 veces más barata que en 1994

Aunque mi primer ordenador fue un ZX Spectrum +2, el PC llegó a mi vida allá por 1994 en forma de 486 DX2-66 con 8 MB de RAM y 420 MB de disco duro.

Recuerdo que aquel ordenador venía de serie con 4 MB de RAM que era lo habitual por aquellos tiempos; pero a la hora de configurarlo decidí aumentar la memoria otros 4 «megas» más por los que me cobraron la friolera de 19900 pesetas (120 euros al cambio actualmente).

Os comento esto porque ayer mismo compré un par de módulos de memoria DDR3 de 4 GB cada uno para mi nuevo ordenador de sobremesa de tal modo que ahora mismo dispongo de un total de 16 GB de memoria que ayudarán a que las aplicaciones de fotografía que suelo utilizar funcionen de forma fluida durante años. Aprovecho para apuntar que estos 8 GB «extras» me han costado 39 euros.

Familia de condensadores

El caso es que si ponemos las cosas en perspectiva y tenemos en cuenta que cuando hice la ampliación de memoria al 486 el mega de memoria RAM cotizaba a 30 euros, si hubieran existido unos hipotéticos módulos de 4 GB de RAM por aquella época y hubiera comprado un par de ellos, hubiera tenido que desembolsar aproximadamente 245000 euros (algo más de cuarenta millones de las antiguas pesetas); es decir, que actualmente la memoria RAM es unas 6300 veces más barata que hace diecisiete años. Casi nada.

Unas sencillas cuentas que nos dan una idea del ritmo vertiginoso al que avanza el mercado de la electrónica de consumo.

Mi nuevo ordenador de sobremesa

Viendo que mi Core 2 duo con 3 GB de RAM sufría más de la cuenta procesando mis fotografías en Lightroom decidí liarme la manta a la cabeza y renovar mi equipo, ya que cuando tienes que editar más de un centenar de imágenes y no dispones de mucho tiempo libre, quieres que el equipo vaya realmente fluido y no andar esperando a que desaparezca el sempiterno reloj de arena del Windows (aunque ahora sea un círculo azulado).

Caracol col col

Requisitos previos: Micro, memoria, disco duro y tarjeta gráfica

Puesto que mi filosofía a la hora de comprar algo es que si ese «algo» se va a usar con frecuencia merece la pena invertir algo más de dinero, me senté a ver qué es lo que necesitaba y tracé los requisitos más importantes: buscaba un ordenador con una buena dotación de memoria RAM y, sobre todo, con la mayor potencia de cálculo posible; así que opté por la gama más alta de Intel y busqué un micro Intel Core i7 de segunda generación (los llamados «Sandy Bridge»).

Una vez aclarado lo del microprocesador me puse a darle vueltas al tema de la RAM; y aunque en teoría con 4 GB Lightroom funciona perfectamente prefería que el ordenador contara con algo más de esa cantidad o que, en su defecto, tuviera la posibilidad de ser ampliada en el futuro. Eso sí, imprescindible que fuera DDR3; aunque en realidad los micros Core i7 necesitan funcionar con ese tipo de memoria forzosamente porque llevan el controlador de la RAM integrado en el propio micro y no son compatibles con DDR o DDR2.

En cuanto al disco duro, con 750 GB me llegaba; ya que tengo otros dos discos duros externos donde voy volcando todo lo que voy haciendo en lo que a fotografía se refiere. De hecho el Core 2 Duo tenía un disco de 320 GB y nunca tuve el más mínimo problema de espacio a pesar de que 70 GB estaban dedicados en exclusiva a la instalación de Ubuntu.

La tarjeta gráfica me daba exactamente lo mismo, ya que el ordenador de sobremesa sólo lo uso para edición de fotografía, escuchar música y ver alguna película; tareas para las que lo mismo da tener una gráfica integrada en placa que un pepino de 600 euros.

No me hacía falta monitor porque ya tengo uno que se adapta perfectamente al uso que le doy como os comenté en una entrada de hace ya bastante tiempo.

En busca del nuevo ordenador

No tardé demasiado en dar con un buen candidato para venirse a casa conmigo (y además cada vez invierto menos tiempo en buscar aparatos electrónicos; en cuanto veo uno que me convence saco la tarjeta sin darle muchas más vueltas). A medida que iba recorriendo la estantería donde reposaban las CPUs a la venta enseguida me llamó la atención un HP Pavilion de aspecto bastante sobrio y elegante cuyas características se acercaban bastante a lo que había pensado. Su precio era de 799 euros; pero estaba decidido a hacerme con un equipo que no se me quedara pequeño en un par de años y la verdad es que no me pareció excesivamente caro viendo lo que ofrecía:

  • Procesador Intel Core i7 2600 «Sandy Bridge» (3,4 GHz, modo turbo a 3,8 GHz, 4 núcleos, multithreading, 8 MB de caché)
  • 8 GB de memoria RAM DDR3 1333 MHz (de los cuatro slots disponibles hay dos libres)
  • Disco duro SATA de 1 TB
  • Tarjeta gráfica Ati Radeon HD 6450 con 1 GB GDDR3 dedicada
  • Tarjeta LAN, WiFi integrado, sonido 7.1, lector de tarjetas, grabador de DVD…
  • S.O. Windows 7 Home Premium

Cierto es que la tarjeta gráfica es una patata; pero el equipo cuenta con una buena cantidad de memoria RAM ampliable sin problemas y el microprocesador es ahora mismo uno de los modelos más altos del catálogo de Intel (aunque ya se sabe que dentro de tres meses habrán sacado un puñado de modelos que le darán mil vueltas) por lo que para edición fotográfica el equipo va que vuela; y es que las tarjetas gráficas potentes son esencialmente para videojuegos o aplicaciones de animación tridimensional, ya que los programas como Lightroom lo que necesitan es potencia de cálculo y mucha memoria RAM debido a que las transformaciones que realizan en las imágenes son aritmética pura y dura.

Atardecer

Llevo un par de semanas ya con el nuevo ordenador en casa y he decir que he notado un aumento de velocidad brutal en Adobe Lightroom: las fotografías disparadas con mi D300 en formato RAW a 14 bits se abren en una décima de segundo y cualquier cambio en ellas se refleja en pantalla sin ningún tipo de retraso o brusquedad; algo que provocaba ralentizaciones muy importantes en mi anterior Core 2 Duo que ahora regalaré a mis padres, que tienen un Pentium IV con 512 MB de RAM que incluso para navegar por Internet se las ve y se las desea. Ironías de la tecnología: lo que yo considero lento a ellos les parecerá que va a la velocidad del rayo.

Corrección de defectos ópticos con Lightroom 3

Los que me conocéis o habéis seguido un poco la evolución de este blog sabréis que desde hace tiempo Lightroom es todo lo que necesito para el procesado de las fotografías que disparo desde que salen de la tarjeta de memoria hasta que las subo a mi Flickr. Me parece una solución completísima tanto para las operaciones de procesado como tal sobre los ficheros RAW como para la clasificación y organización de los mismos; y de ahí que siempre que alguien me pregunta sobre qué software utilizar le recomiende esta opción de Adobe.

El refresco del dragón

Pues bien, en la versión 3 (que lleva ya unos meses a la venta) una de las novedades más jugosas es la incorporación de una función de corrección de defectos ópticos de forma automática siempre que el conjunto de cámara y objetivo empleado para hacer la fotografía esté en la base de datos del programa (en caso contrario tenemos la opción de hacerlo manualmente). Una base que sigue ampliándose poco a poco hasta el punto de que ya abarca a la mayoría de mis ópticas y que si queréis consultar podéis mirar en el blog oficial de Adobe Lightroom donde se han ido comentando las ópticas y cámaras que se han añadido en cada revisión lanzada (actualmente está disponible la 3.3).

¿Qué defectos corrige Lightroom 3?

Los defectos corregidos de manera automática por Lightroom son el viñeteo, las aberraciones cromáticas y las distorsiones ópticas; precisamente los tres tipos de defectos que hemos visto en otros tantos artículos del blog.

Estas correcciones se llevan a cabo sin más que activar la opción correspondiente a la hora de procesar una fotografía determinada; pero no penséis que están hechas «a capón» porque por ejemplo, como ya os dije en el artículo correspondiente, la distorsión geométrica en objetivos de focal variable varía en función de la distancia empleada; y ya que esta información se graba en los datos EXIF de la imagen, Lightroom hace uso de ella para que la corrección sea precisa y al final obtengamos líneas rectas en todo el encuadre. De hecho, si tenemos un ojo de pez Nikon podemos linealizar la imagen resultante de forma totalmente automática.

Lo mismo ocurre con el viñeteo (que también varía en función de la distancia focal y la apertura empleada) así como las aberraciones cromáticas, por lo que empleando Lightroom 3 podremos disparar con cierta tranquilidad sabiendo que en post-procesado podemos corregir estos defectos que os comento sin demasiadas complicaciones.

Sea como sea, el programa siempre nos da la opción de variar la cantidad de aplicación de cada uno de los tres parámetros según nuestros gustos, porque tal vez para un retrato nos interese mantener un cierto oscurecimiento en las esquinas que siempre centra la atención del espectador en la zona central de la imagen. Esto se realiza mediante los tres controles deslizantes que se pueden apreciar en la captura de pantalla anterior.

Un ejemplo sencillo

A modo de ejemplo, os ofrezco un ejemplo un poco extremo realizado con mi Nikkor AF-S 16-85 f/3.5-5.6 VR en el que disparé a la mínima distancia focal y máxima apertura de forma perpendicular a una pared de ladrillos con objeto de dejar patente tanto la distorsión de barril como el viñeteo producido.

Nikon AF-S 16-85 VR @ 16mm f/3.5 (sin corrección por software)

Una vez procesada la imagen en Lightroom 3 el resultado es similar a haber realizado la fotografía con un objetivo de mayor calidad al no quedar apenas rastro de defectos ópticos como se puede apreciar en la siguiente imagen.

Nikon AF-S 16-85 VR @ 16mm f/3.5 (corregido por software)

¿Y si mi objetivo no aparece en Lightroom 3?

Si por lo que sea determinado objetivo no está todavía incluido en la base de datos del programa, siempre podéis echar mano de la corrección manual de los parámetros antes descritos para mejorar mediante postprocesado el rendimiento del mismo aunque, como comprenderéis, lo más cómodo es contar con una óptica soportada por el programa para que con un simple click nos olvidemos de los dichosos defectos ópticos y que además las correcciones se adapten a la focal (si es que el objetivo es de tipo zoom) y la apertura empleadas en cada fotografía.

Siempre es mejor partir de una buena base

Obviamente siempre es mejor emplear un objetivo que no introduzca ningún tipo de defecto óptico en nuestras imágenes, porque en fotografía cuando mejor sea «la base» mejores resultados obtendremos al final. Sin embargo, no debemos ignorar la opción que nos da Lightroom de mejorar la calidad de nuestras ópticas sin más que hacer un click de ratón.

Aparcamiento

* Todos los artículos de este tipo en https://luipermom.wordpress.com/fotografia

Review: Dell Inspiron Mini 10

Dell Inspiron Mini 10

Después de casi dos años de uso diario de mi pequeño Asus EeePC 701 me he animado a dar el salto a un nuevo netbook. Es cierto que el pionero de los ultraportátiles destinados al gran público me ha prestado muy buen servicio y no me ha dado ningún tipo de problema en todo este tiempo; pero como decía hace unos días, hay algunos aspectos que han sido mejorados en las generaciones posteriores de ultraportátiles y precisamente por usarlo todos los días me he dado cuenta de que merecía la pena invertir en un nuevo modelo que supliera dichas carencias.

El nuevo netbook

Pues bien, después de mucho buscar me decidí por un Dell Inspiron Mini 10 recién salido del horno (se presentó hace aproximadamente un mes) cuyas características técnicas son las siguientes:

  • Microprocesador Intel Atom N450
  • Memoria RAM de 1 GB
  • 250 GB de disco duro
  • Pantalla de 10″ con resolución de 1024 x 600 pixels
  • Conectividad Wi-Fi, Bluetooth y Ethernet
  • Webcam de 1.3 Mpixels
  • Batería de seis celdas
  • Tres puertos USB 2.0 y un puerto VGA para monitor externo
  • Lector de tarjetas de memoria SD, MMC y Memory Stick
  • Sistema operativo Windows 7 Starter Edition

Todo ello por 299 euros, que es lo mismo que me costó en su momento el EeePC y que se perfila como el precio más estándar para un ultraportátil en España.

Primeras impresiones

Una vez fuera de la caja y colocado junto a mi anterior netbook se nota que el nuevo ordenador es algo más grande, aunque tampoco es una diferencia escandalosa. Del mismo modo, el peso también es ligeramente superior, quedándose en unos 1360 gramos frente a los 920 del Asus. Como en tantas otras cosas, una imagen (en este caso dos) vale más que mil palabras:

Dell Inspiron Mini 10 vs. Asus EeePC 701

Dell Inspiron Mini 10 vs. Asus EeePC 701

A nivel estético constrasta muchísimo la superficie negra lacada del Dell en comparación con el blanco mate del pequeño Asus. El problema es que aunque estéticamente ese negro brillante sea más atractivo, tiene toda la pinta de rayarse con estornudar, por lo que habrá que tener cuidado; máxime cuando con el ordenador no se incluye ningún tipo de funda (cosa que sí venía en la caja del EeePC 701).

Del mismo modo, si el ordenador anterior podía manosearlo todo lo que quisiera sin que en su carcasa quedara marca alguna, en la superficie del Dell las huellas dactilares se quedan marcadas al más mínimo roce, por lo que deberéis resignaros a llevar el ordenador lleno de dedos a no ser que lo utilicéis con guantes.

Dell Inspiron Mini 10

Como podéis comprobar en una de las imágenes anteriores, en este ordenador la pantalla no «sale» desde la parte trasera, sino que la bisagra está adelantada un par de centímetros con respecto al borde. Esto es una novedad con respecto a la versión anterior del más pequeño de los portátiles de Dell y que veréis mejor en la siguiente fotografía que muestra esta zona desde un lateral del equipo.

Dell Inspiron Mini 10

Lo que conseguimos con esto es, por un lado, tener la pantalla más próxima a nuestros ojos y por otro conseguir que el sistema sea más estable al estar el peso más balanceado. La contrapartida es que la pantalla sólo se puede inclinar hacia atrás unos 45 grados, lo que puede ser insuficiente si somos muy altos y utilizamos el ordenador directamente sobre nuestras piernas.

Lo importante está en el interior

Internamente lo que da vida a este ultraportátil es uno de los nuevos micros que Intel puso a la venta el pasado 11 de Enero bajo la denominación Pineview y que comercialmente se conoce como Intel Atom N450 (y que era el requisito más importante que le pedía a mi nuevo netbook).

En este caso los ingenieros de Intel no han seguido el camino habitual de crear un microprocesador con mayores prestaciones; sino que se ha optimizado tanto el consumo de energía como la integración de los componentes vitales del sistema para así incrementar la autonomía de la batería. Concretamente el consumo eléctrico es un 40% menor y en un mismo encapsulado se encuentran ahora además del procesador principal, el sistema de vídeo y el controlador de memoria.

En cualquier caso, también hay una serie de mejoras con respecto a la generación anterior de micros Intel Atom (N270 y N280), siendo la más destacada la inclusión de la arquitectura de 64 bits en el nuevo modelo, pudiendo ejecutar nativamente software diseñado para esta plataforma con la consecuente ganancia de rendimiento (aunque luego veremos que el sistema operativo que viene «de serie» no saca provecho de esto).

Dell Inspiron Mini 10

Técnicamente nos encontramos ante un microprocesador que cuenta con un sólo núcleo funcionando a 1667 MHz, con tecnología Hyper-Threading y que cuenta con una memoria caché interna de 512 KB disipando una potencia total de 5.5 vatios entre todo el conjunto de microprocesador, controlador de memoria DDR2-667 MHz y sistema gráfico Intel GMA 3150 funcionando a 400 MHz.

Obviamente los ordenadores que incluyen este microprocesador no están pensados para tareas muy exigentes como edición de vídeo, juegos o proceso intensivo de imágenes; sino a las típicas labores ofimáticas y a la navegación por Internet. De todos modos, a no ser que seáis unos jugones empedernidos pensad: ¿cuántas veces usáis vuestro ordenador para algo que realmente no podáis hacer con un netbook?

Dell Inspiron Mini 10

En mi caso particular los netbooks son un invento fantástico: me dan unas prestaciones correctísimas para hacer cualquier cosa relacionada con Internet contando con un peso y un tamaño muy contenidos (usar el portátil grande en el sofá es incomodísimo). Para retocar fotografías, editar vídeos y cosas así ya cuento con mi ordenador de sobremesa y su monitor Full-HD; pero para todo lo demás siempre acabo echando mano de mi netbook.

Windows 7 Starter Edition o cómo mermar las prestaciones de un netbook

El ordenador venía originalmente con Windows 7 Starter Edition. Un sistema operativo de Microsoft basado en la última versión para ordenadores «grandes» y que me dejó bastante frío en cuanto lo probé.

Para empezar, esta versión de Windows es para microprocesadores de 32 bits; y siendo los Atom N450 de 64 bits ahí ya hay una cierta pérdida de rendimiento (sobra decir que los micros de 64 bits son retrocompatibles con el software de 32 bits). Pérdida que no sé si será responsable de que el equipo se tire un minuto y medio para arrancar, pero que me pareció un tiempo a todas luces excesivo teniendo en cuenta que mi sobremesa gobernado por Windows 7 lo hace en menos de medio minuto y que el pequeño Asus EeePC 701 con Arch Linux necesita poco más de quince segundos para estar «listo para la acción».

Ya me di cuenta de esta lentitud general cuando estuve probando el ordenador en la tienda; pero pensé que sería debido a que como está al alcance de todo el mundo en el expositor alguien habría desconfigurado algo. Sin embargo, una vez puestas las manos sobre mi propio ordenador tranquilamente sentado en el sofá de casa me di cuenta de que esa falta de rendimiento también se daba en mi propio equipo.

Lo peor del asunto no es el arranque, sino el funcionamiento global del ordenador bajo este sistema operativo. En general las aplicaciones tardan más de la cuenta en arrancar y el sistema no da la sensación de fluidez que se espera de un ordenador recién estrenado. Estuve un par de horas configurando el equipo y empleando algunas de sus aplicaciones y tenía la sensación de que había dado un paso atrás con respecto a velocidad general comparado con mi veterano EeePC 701, generando en mí una cierta frustración.

Por lo tanto, dado que con el ordenador venía un DVD para reinstalar Windows en caso de problemas, me animé a eliminar esta versión de Windows del disco duro e instalar Ubuntu Linux 9.10 en su versión de 64 bits; proceso que me llevó poco más de media hora y durante el cual no me encontré con ningún problema digno de mención.

Con el nuevo sistema ya instalado el ordenador respondía como se esperaba y todo funcionaba de manera instantánea y estable. El arranque del ordenador se realiza en 20 segundos exactos y todas las funciones «raras» del ordenador funcionan a la perfección (ajuste de brillo y volumen, captura de pantalla, Wi-Fi…).

Dell Inspiron Mini 10

En definitiva, aunque mis impresiones positivas del ordenador se vinieron un poco abajo cuando empecé a trastear con el Windows 7 Starter Edition, fue instalar Ubuntu 9.10 y recuperar las buenas sensaciones. Y que conste que en mi ordenador de sobremesa Windows 7 funciona a las mil maravillas; pero creo que Microsoft ha sido demasiado optimista a la hora de programar esta versión destinada a portátiles sencillos de su recién estrenado sistema operativo.

Pruebas de rendimiento

Una vez que el sistema estuvo completamente configurado, con ayuda del programa Hardinfo he podido testear el rendimiento de otras cuatro máquinas que ejecutan sistemas operativos Linux para compararlas con el Dell, siendo estas las características principales de cada una:

  1. Asus EeePC 701: Micro Intel Celeron 900 MHz @ 630 MHz, 1 GB de RAM
  2. Apple Ibook G4: Micro PowerPC 7447A 1.4 GHz, 1 GB de RAM
  3. PC compatible PIV: Micro Intel Pentium IV 2.8 GHz, 2 GB RAM (single channel)
  4. Acer Aspire X1700: Micro Intel Core 2 Duo E7300, 3 GB de RAM
  5. Dell Inspiron Mini 10: Micro Intel Atom N450, 1 GB de RAM

Pues bien, una vez ejecutados los seis diferentes tests de rendimiento disponibles los resultados (ordenados por puntuación de forma decreciente) son los siguientes:

CPU Blowfish (Más bajo es mejor)

Acer Aspire X1700 – 6.42

Dell Inspiron Mini 10 – 16.91

PC compatible PIV – 19.70

Apple Ibook G4 – 47.13

Asus EeePC 701 – 55.17

CPU Cryptohash (Más alto es mejor)

Acer Aspire X1700 – 200.60

Dell Inspiron Mini 10 – 56.34

PC compatible PIV – 42.80

Apple Ibook G4 – 27.88

Asus EeePC 701 – 20.46

CPU Fibonacci (Más bajo es mejor)

Acer Aspire X1700 – 2.93

PC compatible PIV – 5.27

Dell Inspiron Mini 10 – 8.95

Apple Ibook G4 – 14.93

Asus EeePC 701 – 16.42

CPU N-Queens (Más bajo es mejor)

Acer Aspire X1700 – 8.51

PC compatible PIV – 9.88

Dell Inspiron Mini 10 – 17.23

Apple Ibook G4 – 31.09

Asus EeePC 701 – 37.82

FPU FFT (Más bajo es mejor)

Acer Aspire X1700 – 4.67

PC compatible PIV – 7.71

Dell Inspiron Mini 10 – 18.32

Asus EeePC 701 – 27.52

Apple Ibook G4 – 45.78

FPU Raytracing (Más bajo es mejor)

Acer Aspire X1700 – 6.20

Dell Inspiron Mini 10 – 18.11

PC compatible PIV – 26.37

Apple Ibook G4 – 43.28

Asus EeePC 701 – 76.98

A modo de resumen, mirando todas las pruebas en conjunto se puede decir que el rendimiento puro y duro del microprocesador Atom N450 estaría más o menos a la par que el obtenido con un Pentium 4 a 2,8 GHz. En algunos apartados uno gana al otro y en el resto la situación se invierte (esencialmente en los que están involucradas las unidades de cálculo en coma flotante), por lo que para tareas en general queda claro que se trata de un micro que se defiende bastante bien. Es obvio, como os decía antes, que los netbooks no son ordenadores enfocados a trabajos especialmente complejos; pero con las prestaciones que dan podréis internetear y ejecutar cualquier tarea ofimática sin ningún tipo de problema.

De todos modos, en los diferentes apartados de la prueba podéis ver que el ordenador de sobremesa equipado con un microprocesador Core 2 Duo goza de mucha más potencia de cálculo que el resto y que el pequeño Asus EeePC 701, como es lógico, palidece con respecto al resto de máquinas que participaron en la prueba. En la informática no existen los milagros, así que no esperéis rendimiento de sobremesa en un equipo que apenas consume electricidad porque es como si pretendéis tener las prestaciones de un Porsche 911 con un motor que gaste lo que un Opel Corsa.

Una pantalla brillante

La pantalla que equipa el Dell Inspiron Mini 10 es de tipo brillante, aunque no tanto como en los portátiles de Apple por ejemplo. Tiene un ángulo de visualización lateral amplísimo, pero no así en su visualización vertical, pues los colores se falsean bastante en cuanto la inclinamos unos grados por encima o por debajo del ángulo óptimo. Como os comenté anteriormente, la pantalla se puede abatir hacia atrás un máximo de unos 45 grados al estar limitada por la especial construcción de su carcasa.

Dell Inspiron Mini 10

En cualquier caso, hay que reconocer que la pantalla es realmente nítida y da una calidad de imagen muy buena. Con una resolución de 1024 x 600 pixels y un tamaño de 10″ no se aprecian dientes de sierra en las líneas diagonales ni artefactos raros en las zonas con degradados. Del mismo modo, el contraste es mucho más amplio de lo que era en mi anterior EeePC, ya que en el Dell los negros son realmente negros y el blanco es puro y luminoso. En algo se tienen que notar los dos años de diferencia entre un ordenador y el otro, ¿no?

Como todos los portátiles, la visualización bajo la luz directa del sol no es todo lo buena que debería, aunque es cierto que las pantallas brillantes se defienden mejor que las mates en este aspecto. Para comprobar esto he colocado el ordenador delante de una ventana abierta a pleno sol y he hecho una fotografía directamente a la pantalla. Como podéis ver, aunque ya os adelanto que el reflejo es molesto para la vista, al menos las letras oscuras sobre fondo claro se pueden leer perfectamente.

Dell Inspiron Mini 10

No quisiera dejar pasar por alto el hecho de que este modelo de ordenador no posee ningún tipo de sensor de luminosidad ambiental que ajuste automáticamente el brillo de la pantalla, algo que sí tiene mi portátil del trabajo o el mismísimo iPod Touch y que es un detalle realmente útil para no tener que andar ajustando a mano este parámetro. Es una pena no haberlo integrado en la carcasa, porque es un detalle nimio pero que se agradece.

Dell Inspiron Mini 10

Teclado y touchpad: al servicio del tacto

El teclado es una absoluta delicia. Y no sólo si lo comparamos con el del EeePC 701, cuyas dimensiones son bastante más reducidas; sino en términos absolutos. Es de unas dimensiones adecuadas (Dell afirma que su tamaño representa el 93% de un teclado de portátil estándar) y tiene un tacto sencillamente perfecto. De hecho, esta review está escrita íntegramente usando el recién estrenado Dell y doy fe de que la comodidad al teclear es prácticamente insuperable.

Dell Inspiron Mini 10 vs. Asus EeePC 701

Lo que no me ha gustado tanto es que por defecto las teclas de función no estén asignadas a las conocidas F1, F2… hasta F12; sino a las funciones especiales del sistema que controlan al volumen de los altavoces, el brillo de la pantalla… Es decir, que si pulsamos lo que sería F2 vamos a activar / desactivar el Wi-Fi, mientras que para obtener la función comúnmente asignada a F2 (que suele ser cambiar el nombre de un fichero) habrá que pulsar la combinación Fn + F2.

Entiendo que es una tontería sin importancia y que a todo se acostumbra uno; pero si toda la vida esas teclas han tenido su función no sé qué necesidad había de darle la vuelta a las cosas que funcionan bien.

En cuanto al touchpad, hay que reconocer que su superficie es bastante generosa, pero cuenta con la peculiaridad de que los dos botones con los que cuenta están integrados en su propia superficie, que bascula a izquierda y derecha.

Dell Inspiron Mini 10

Esto logra que dicho dispositivo quede perfectamente integrado en la carcasa del ordenador, pero hasta que nos hagamos con el funcionamiento del touchad tendremos que pasar por un periodo de adaptación durante el cual nos ocurrirá en más de una ocasión que el puntero del ratón se nos moverá al tener que presionar la propia superficie para ejercer la pulsación como tal.

Opciones de conectividad

El apartado de conectividad del Dell Inspiron Mini 10 queda resuelto de varias formas: por un lado contamos con tres puertos USB 2.0 para conectar ratones, pendrives, discos duros externos… Disponemos de uno en el lado derecho y dos en el izquierdo, no contando con ninguno de ellos en la parte trasera.

En cuanto a las comunicaciones inalámbricas contamos con una tarjeta Wi-Fi que cumple los estándares b y g así como un módulo Bluetooth útil para sincronizar los contenidos de nuestro teléfono móvil o PDA.

Mención aparte para el puerto VGA, que situado en el lateral izquierdo del pequeño ordenador nos permitirá conectarlo a un monitor externo o un proyector si queremos emplearlo para dar algún tipo de conferencia o similar. También contamos con los habituales conectores para auriculares y micrófono empleando un jack de 3,5 mm así como un discreto lector de tarjetas compatible con los formatos SD, MMC y Memory Stick.

Dell Inspiron Mini 10

A excepción del Bluetooth, es lo típico que suelen traer todos los netbooks, de modo que poco más que reseñar en este apartado.

Uso diario e impresiones generales

En cuanto a lo que el uso diario y habitual se refiere, me gustaría comentaros una serie de puntos que me han llamado la atención en mayor o menor medida:

El ordenador no cuenta con ningún tipo de ventilador, por lo que es absolutamente silencioso en su funcionamiento, siendo el aparcado de las cabezas del disco duro el único ruido mecánico que escucharemos durante su uso. Ahora bien, la ausencia de ventilador implica que la zona de la carcasa bajo la que se encuentra el microprocesador del equipo se va a calentar bastante. En el caso de usarlo sobre una mesa o similar nos va a dar un poco igual, pero si lo colocamos sobre nuestras piernas, pasado un tiempo nos vamos a dar cuenta de que la temperatura de nuestro muslo derecho se empezará a elevar más de la cuenta; siendo esa es la única zona de la carcasa que se calentará hasta el punto de resultar molesta, quedando las demás a una temperatura bastante agradable.

Dell Inspiron Mini 10

Como ya dije en los primeros compases de la review, el teclado es una verdadera delicia. Tiene un tacto impecable y la fuerza necesaria para la pulsación de cada tecla es mínima, por lo que resulta muy descansado para nuestros dedos y muñecas. Y precisamente hablando de ergonomía, gracias a que la carcasa posee una superficie libre de unos cinco por diez centímetros a cada ladodel touchpad podremos emplearla a modo de reposamuñecas y ganar así en comodidad a la hora de escribir.

Por cierto, no puedo pasar por alto el singular acabado de la superficie interior de la carcasa que rodea al teclado, pues lejos de ser lisa tiene grabadas una serie de «serpientes» que podéis apreciar en algunas de las fotos que ilustran este análisis.

La cobertura de la red inalámbrica parece estar bien resuelta, ya que en las zonas de la casa en las que el Asus EeePC 701 se me desconectaba frecuentemente, este Dell mantiene una conexión estable y con un tráfico de datos muy fluido. Comentar también que la tarjeta instalada es una Broadcom BCM 4312; dato que podría ser de utilidad para aquellas personas que pretendan hacer algún tipo de «uso alternativo» de la misma.

Otros detalles que me han gustado especialmente son el pequeño y discreto botón de encendido situado en la equina superior izquierda del teclado así como el pequeño LED presente en la clavija del adaptador de corriente que indica si el mismo está alimentado o no y que os muestro en la siguiente fotografía:

Dell Inspiron Mini 10

Por lo demás el ordenador rinde muy bien si lo usamos para lo que ha sido diseñado y se maneja de forma correcta y agradable. Aunque pese unos gramos más que el EeePC 701 esto apenas se nota y ese par de centímetros extras a lo largo y a lo ancho (el grosor es prácticamente le mismo) permiten integrar un teclado y un touchpad de tamaño adecuado; cosa que se agradece mucho.

Por cierto, los altavoces están situados debajo de la carcasa; concretamente bajo las zonas destinadas a reposar nuestras muñecas que os comentaba hace unos párrafos, por lo que si colocamos el portátil sobre una cama o similar no se escuchará demasiado alto incluso subiendo el volumen considerablemente. Para esos casos es mejor emplear auriculares.

La webcam (como todas las webcams) se ve bien si la luz ambiental es intensa y con mucho ruido si estamos en penumbra. Posee un micrófono estéreo y un LED que indica su actividad. Por lo demás, si pensáis en la cámara de un teléfono móvil grabando vídeo estaréis muy cerca de lo que puede dar de si este componente del ordenador.

En cuanto al tiempo de autonomía de la batería a mí me parece que está más que bien: el sistema operativo anuncia unas ocho horas de duración cuando la batería está completamente cargada y me encuentro navegando por Internet mediante conexión Wi-Fi; algo que se ajusta bastante a la realidad por lo que he podido ver hasta el momento. Lo normal es que tras las primeras cargas de batería esta autonomía aumente ligeramente (del orden de un 10 o un 15 por ciento) pero aunque no fuera así la marca de ocho horas está más que bien, sobre todo comparado con las poco más de dos horas de autonomía que me daba mi EeePC 701 y su procesador Celeron a 630 MHz.

Antes de que se me olvide, si alguien se está preguntando la posibilidad de ampliar la memoria RAM del ordenador he de decir que no es un proceso tan sencillo de realizar como en el Asus EeePC 701 y su fácil acceso a este componente. En el caso del Dell Inspiron Mini 10 hay que desmontar todo el portátil como muestra este tutorial, y la verdad es que a no ser que sea estrictamente necesario yo no metería mano al ordenador tan a fondo como para tener que quedarme con la placa base «al desnudo».

Conclusiones

Después de haber estado todo el fin de semana empleando el nuevo netbook sólo puedo contar alabanzas de este modelo de Dell. Es verdad que había alguna opción por encima de él en mi lista inicial de candidatos para sustituir a mi antiguo ultraportátil; pero cuando tuve ocasión de probarlo en la tienda me quedé enamorado del tacto de sus teclas y la calidad de la pantalla.

Tal vez con otros modelos podría haber arañado una horita más de batería o haberme ahorrado veinte o treinta euros en el precio final; pero la inclusión de esos noventa gigabytes más de disco duro, el módulo Bluetooth integrado y los pequeños detalles de los que hace gala este pequeño portátil me hicieron ver que la búsqueda de mi nuevo netbook había llegado a su fin.

Dell Inspiron Mini 10

Estoy seguro de que mi relación con el Dell Inspiron Mini 10 será larga y fructífera. De momento sus teclas han alumbrado esta review al completo y eso ya dice mucho en su favor, de modo que si estáis contemplando la opción de haceros con un netbook éste puede ser un modelo a tener en cuenta. A mí, desde luego, me tiene encantado.

¡Ha sido un Dell! (ya tengo nuevo netbook)

Después de 21 días mirando netbooks, hoy por fin tengo en mis manos un modelo que se ajusta a lo que buscaba y que he estrenado hace apenas unas horas. Se trata de un Dell Inspirion Mini 10 equipado con un microprocesador Intel Atom N450, 1 GB de memoria RAM, 250 GB de disco duro, Wi-Fi, pantalla de 10″ con 1024 x 600 pixels de resolución,Bluetooth, webcam de 1.3 MPixels, batería de seis celdas y sistema operativo Windows 7 Starter Edition además de los consabidos conectores USB, ethernet, VGA…

Dell Inspiron Mini

Al final he optado por este modelo porque tras haber estado ayer por la tarde recorriendo varios centros comerciales seguía sin haber apenas stock de netbooks equipados con el nuevo micro de Intel y, además, éste viene con un equipamiento de lo más completo: el bluetooth es un añadido no muy habitual y los 250 GB de disco duro representan un plus con respecto a los 160 que suelen venir en la mayoría (aunque ya os dije que eso no era algo determinante). De todos modos, lo que más me gustó fue el tacto y el tamaño del teclado, pues tuve la oportunidad de estar probando el ordenador en la tienda durante un buen rato y sobre todo me fijé en ese aspecto.

Aprovecho para comentar que me ha costado 299 euros en Carrefour y que además me han hecho un cheque regalo de 59 euros (el 20% del precio del equipo) por una promoción que tienen estos días. A modo de curiosidad os diré que en la web de Dell todavía no tienen como opción el bluetooth ni el disco de 250 GB en estos equipos, por lo que el precio está más que bien teniendo en cuenta que el modelo sin BT y con disco de 160 GB sale con los gastos de envío incluidos por el mismo precio que me ha costado éste a mí.

El miniportátil como tal me ha encantado; pero no así el sistema operativo que trae «de serie». Siendo un netbook salido al mercado hace menos de un mes, esta versión de Windows tarda bastante en arrancar y, en general, el sistema no se movía con la soltura que tienen los ordenadores nuevos cuando se estrenan.

El caso es que como con el ordenador viene un DVD para reinstalar el sistema original en caso de problemas, estuve poco más de una hora echándole un vistazo general y a continuación procedí a eliminar sin ningún tipo de miramiento la partición en la que estaba alojado Windows 7 S.E. para instalar la conocida distribución de Linux Ubuntu 9.10.

Dicho sistema operativo arranca en unos 20 segundos y se mueve con una soltura admirable. Además, he de decir que absolutamente todos los elementos del sistema funcionan sin problemas y que en general se integra de maravilla con el pequeño Dell hasta el punto de que las teclas especiales de función para subir y bajar el volumen o el brillo de la pantalla, comprobar la carga de la batería o activar / desactivar el Wi-Fi ejecutan sus funciones a la perfección contando incluso con un OSD en pantalla.

De momento poco más os puedo contar, ya que hasta el momento no he tenido oportunidad de usarlo demasiado al haberlo comprado ayer a última hora de la tarde. ¡Ya habrá tiempo más adelante de hablar largo y tendido sobre este nuevo compañero de aventuras!

NOTA: enlace a la review del Dell Inspiron Mini 10

Impresiones tras varios días mirando netbooks

Durante esta semana he estado visitando algunas tiendas en Alcalá de Henares y alrededores en busca del netbook que más se adapte a lo que busco. Tengo claro lo que quiero encontrar, pero de momento a las tiendas «físicas» todavía no han llegado los últimos modelos de ultraportátiles presentados a principios de Enero y disponibles (en teoría) desde hace un par de semanas.

Concretamente he estado en Mediamarkt, El Corte Inglés, Carrefour, Worten y PC-Box; y en todos estos lugares me he encontrado con el mismo panorama: los modelos con microprocesador Intel Atom N450 todavía no han llegado. La excepción está en Carrefour, donde ya tienen el Dell Inspirion Mini 10 de última generación; pero aunque es un modelo que no me disgusta, ahora mismo es mi tercera opción por detrás de los modelos de Toshiba y Asus respectivamente.

¿A qué se debe esta ausencia de nuevos modelos en las tiendas? Pues la cosa es sencilla: antes de poner a la venta los netbooks más recientes (que deben de estar esperando en los almacenes de las tiendas) se está haciendo una fuerte campaña de publicidad para sacarse de encima los que incorporan el Atom N270 porque dentro de un par de meses el gran público estará enterado de las bondades del nuevo modelo de procesador y no querrán un ordenador equipado con uno de los anteriores ni en pintura.

Si os fijáis un poco, en los catálogos que encontraréis estos días en el buzón aparecen grandes ofertas de estos pequeños portátiles. Muchos modelos a unos 250 euros que, si bien no están mal de precio, están desfasados desde el momento en el que Intel presentó sus nuevos micros para dispositivos móviles. Es verdad que la mayoría de las características técnicas son similares entre ambos, pero la ventaja del menor consumo del N450 (hasta un 30% inferior) y la mayor integración de los componentes del sistema, que permite diseñar unos chasis de menor tamaño, hace que los modelos anteriores pierdan gran parte de su atractivo.

Lo que voy a hacer es esperar unas semanas a que en las estanterías de las tiendas estén colocados los modelos nuevos; y recomiendo hacer lo mismo a todo aquel que esté pensando estos días en comprarse un netbook, pues por un precio similar al habitual (rondando los 300 euros) va a obtener un ordenador que se calentará menos y cuya batería durará más tiempo (además de los lógicos avances de la electrónica de consumo). Parece lo más lógico, ¿no creéis?

Enlaces de interés

Me quedo con Vista + Debian

Al final conseguí que Debian funcionara perfectamente en el PC de sobremesa. Sin embargo, el verdadero problema fue la instalación de Windows XP, que no era capaz de ejecutarse adecuadamente sobre el hardware del ordenador pese a que me había descargado los drivers necesarios de la web de Acer.

Al final he recapacitado y he vuelto a instalar Windows Vista, pues aunque en la última semana me ha hecho un par de faenas gordas, he de reconocer que durante todo este tiempo ha funcionado muy bien en mi PC. De todos modos, una vez instalado, lo que he hecho ha sido reducir la partición que lo alberga para dejar 50 GB libres destinados a Debian.

Detalle monitor

Veo en los comentarios de las dos entradas anteriores que algunos pensáis que lo de Debian es más un capricho que una necesidad; y aunque hay algo de verdad en ello porque todo lo que hago en Debian lo puedo hacer en Windows, también es cierto que tengo mis motivos para emplear este sistema operativo, así que paso a enumerarlas:

– Me atrae mucho la filosofía del software libre. Hay programas de este tipo incluso mejores que algunos de tipo comercial. Sin ir más lejos, Open Office se ha convertido en la única suite ofimática que tengo instalada en mis tres ordenadores ya sea bajo Windows o bajo GNU / Linux.

– El sistema de gestión de paquetes por medio de Aptitude me parece algo grandioso. Todo el software disponible centralizado y actualizable a la versión más actual con apenas un par de comandos.

– GNU / Linux es un software capaz de sacar todo el rendimiento posible a las máquinas sobre las que se instala. Su consumo de memoria es muy bajo, no ocupa demasiado en el disco duro y está tan optimizado que todo funciona a mayor velocidad que en Windows.

– Del mismo modo, al haber miles de personas actualizando constantemente el sistema, se adapta con rapidez al hardware más actual, de tal modo que empelando la versión 64 bits de Debian me aseguro de que le estoy sacando todo el rendimiento posible a mi ordenador.

– Debian es el sistema operativo que empleo en mi Asus EeePC 701 casi desde el primer día; y pese a haber estado centenares de horas utilizándolo, jamás he tenido ni un sólo cuelgue, pérdida de datos ni problemas en general.

– Además de todo esto, hay que tener en cuenta que me gusta mucho probar cosas por mí mismo, y cualquier variante de GNU / Linux es un sistema operativo ideal para esto porque tiene una filosofía de uso y mantenimiento muy diferente a Windows, de tal modo que al final sabes manejar ambos (siempre he pensado que cuantos más conocimientos se tengan en la vida, mejor).

Pues bien, una vez comentado todo esto os comento que el software de mi ordenador ya está totalmente instalado y, por lo tanto, no os daré más la lata sobre este asunto  😛 . Cuando tenga que retocar fotografías me pondré con Windows; sistema en el que también he instalado el gestor de correo Mozilla Thunderbird, por lo que al final será el sistema que más tiempo emplee. Sin embargo, a la hora de dedicar una tarde a «internetear», escribir una larga entrada en el blog o querer experimentar un poco con el sistema arrancaré Debian y lo emplearé para estas cosas y algunas más.

Lightroom

Eso sí, antes de terminar estos párrafos me gustaría daros las gracias a todos los que habéis comentado alguna cosa en las entradas relacionadas con este tema, ya que vuestros puntos de vista y reflexiones me han ayudado a darme cuenta de que renunciar por completo a Vista puede ser un quebradero de cabeza a largo plazo. Esta claro que Vista no es ninguna maravilla, pero bueno, después de ver cómo va XP en este ordenador prefiero quedarme como estoy; pero además ahora con la posibilidad de ejecutar Debian cuando me apetezca.

¡Un saludo!

Bye bye Windows Vista

Cansado de querer hacerse el amo del sistema por encima de su verdadero dueño (es decir; yo) hoy he ajusticiado al puñetero Windows Vista desinstalándolo del ordenador grande pese a que al comprarlo pagué su correspondiente licencia original.

Ahora estoy instalando GNU/Linux (concretamente Debian Squeeze) para virtualizar a continuación Windows XP como aplicación dentro de VirtualBox y así poder seguir empleando Adobe Lightroom con soltura. De momento la instalación de Debian ha ido muy bien y sólo tengo que solventar un problema con el refresco de ciertos elementos del sistema gráfico; pero creo que dejar todo a punto me va a llevar unos días porque ahora mismo apenas veo la luz al final del tunel.

Caminando bajo el andamio

Así me siento ahora (informáticamente hablando)

De cualquier modo, el único problema «real» es del refresco que os comento; pues en caso de que no pueda virtualizar XP, optaría por instalarlo en una partición aparte para poder arrancar con él cuando tuviera que ponerme a editar mis fotografías; pero el caso es que no quiero volver a Vista bajo ningún concepto, porque gracias a sus «jugarretas» he perdido todas las listas de reproducción de iTunes así como los podcasts suscritos (menos mal que la música no) y además no se puede ejecutar de ninguna manera el siguiente juego que tenía pensado analizar para ultimONivel pese a que las especificaciones de mi ordenador sobrepasan con creces los requisitos que pide el juego.

Siento el rollazo, pero tenía que darle algún tipo de salida a todo un día delante del ordenador casi sin parpadear…

¡A mi portátil le ha dado un calentón!

Ayer me ocurrió algo muy raro con mi portátil. No me refiero al pequeño Asus EeePC 701 que tánto ha hecho por la popularidad de este blog, sino a mi ya veterano Toshiba comprado en otoño de 2004.

El caso es que había estado usándolo como tantas otras veces. Era más o menos mediodía y me daba un poco de pereza encender el sobremesa, de modo que cogí el maletín del Toshiba, lo saqué, me lo puse sobre las rodillas y estuve mirando unos ficheros del proyecto de fin de carrera para ordenar unas tablas.

Toshiba A50

En un momento determinado me di cuenta de que casi era la hora de comer pero aún no había terminado con mi labor. Como estaba usando el portátil con su batería opté (como había hecho muchas veces en el pasado) por simplemente cerrar la tapa para que se pusiera en modo suspendido y meterlo en la maleta para no dejarlo «por ahí tirado» con el consecuente riesgo de arañazos o golpes, así que, como os digo, metí el ordenador en su maletín, lo cerré y me fui a comer para continuar un poco más tarde con aquello.

Un par de horas después me acordé de que tenía lo del proyecto a medias, de modo que fui a coger de nuevo el maletín y cuando me senté y me lo puse sobre las piernas para abrirlo y sacar el ordenador me di cuenta de que el exterior de dicho maletín estaba bastante caliente. Me extrañó mucho; era como si lo hubiera dejado pegado a un radiador en funcionamiento, pero en realidad estuvo encima de la cama todo el tiempo.

Temiéndome lo peor abrí la cremallera y saqué el ordenador, cuya carcasa estaba tan caliente que apenas se podía sujetar en las manos. Lo dejé sobre la cama al tiempo que soltaba un palabro malsonante, miré los leds del frontal y me fijé que en vez de estar encendido el naranja parpadeante del modo suspendido sólo estaba iluminado el que indica que el ordenador está en funcionamiento. Mi estimado Toshiba había estado encendido a plena marcha durante dos horas embutido en un habitáculo completamente cerrado y sin apenas espacio para que se mueva el aire que saca por un lateral (el maletín está hecho para que el portátil encaje y no se mueva en su interior); algo nada recomendable para su integridad.

Al mismo tiempo me fijé que el ventilador, que apenas se escucha durante el funcionamiento normal del portátil, estaba dando vueltas a una velocidad mucho mayor de lo habitual, indicando que la temperatura interna del equipo debía ser más o menos como la del infierno. Abrí la pantalla y vi que no encendía, cosa que no me hizo mucha gracia, así que opté por apagar el ordenador lo más rápidamente posible mediante la pulsación prolongada del botón de encendido.

Un instante después, el disco duro se aparcó con un suave «clack» y todo quedó en silencio, así que dejé el ordenador en la mesa de la terraza aprovechando que hacía fresquito en la calle con objeto de que su temperatura se normalizara lo antes posible. Durante los eternos diez minutos que lo dejé allí «ventilando» empecé a temer que podría haber perdido todo el avance de la última semana en el proyecto de fin de carrera, pues suelo hacer backups cada Domingo y estábamos justamente a Sábado (la omnipresente Ley de Murphy). Empecé a imaginar la pantalla medio derretida internamente por la acumulación de calor, y deseé que se enfriara rápido para ver las consecuencias del desastre.

Haciendo tiempo empecé a hacer conjeturas sobre lo que podría haber ocurrido. Yo cerré la tapa, y durante los últimos cuatro años y medio esto implica que el ordenador pasa a modo suspendido sin más problemas. Se me ocurrían dos posibles explicaciones: que el ordenador no se hubiera suspendido por un problema de software o que, al ser un sistema magnético el que le dice a la BIOS si la tapa está abierta o cerrada, algún inusual campo magnético lo hubiera «despertado» dentro del maletín sin que yo lo supiera.

Toqué el ordenador, vi que ya estaba frío y procedí a encenderlo pensando que no arrancaría o que si lo hacía algo no funcionaría. Sin embargo, me equivoqué: Windows XP arrancó como de costumbre y la pantalla se mostraba tan nítida y brillante como siempre. El calentón no parecía haber afectado al ordenador y la verdad es que respiré aliviado al comprobarlo.

De hecho hoy he estado usando el equipo por la mañana y, sin ir más lejos, este post lo estoy redactando desde él; pero ahora, cada vez que lo suspendo, me quedo mirando los LEDs hasta que veo que el naranja empieza a parpadear. La verdad es que no me quiero volver a pegar un susto como el de ayer, porque no se pasa demasiado bien que digamos…

No es lo mismo Dual Core que Core2Duo

Si en estos días echamos un vistazo a un catálogo de un centro comercial cualquiera nos vamos a encontrar siempre con una amplia oferta de ordenadores, la mayoría de los cuales cuentan con un microprocesador Intel en su interior ya sea «Dual Core» o «Core 2 Duo». Lo que ocurre es que pese a que la denominación de los dos micros que más se emplean actualmente es muy similar, hay grandes diferencias entre ellos; y por eso me he animado a escribir este pequeño artículo aclaratorio que puede venir bien a aquellos que no estén muy al tanto de este tema y anden pensando en hacerse con un nuevo ordenador.

Intel Dual Core (o Core Duo)

core_duo_inside_logo

Los micros Dual Core de Intel (también llamados Core Duo) están basados en la arquitectura del conocido Pentium 4 rebautizada como «Intel Core», y fueron el primer intento de la compañía de crear un procesador de bajo coste con doble núcleo (anteriormente se había empleado una técnica de multiproceso en los P4 llamada Hyper-threading que se fundamentaba en procesar dos hilos de ejecución al mismo tiempo con un sólo núcleo).

Estos micros consisten básicamente en una modificación de los últimos P4 para dotarlos de dos núcleos en lugar de uno y así obtener una mayor potencia de proceso sin necesidad de elevar la frecuencia de reloj del circuito y, por lo tanto, disparar el consumo de energía (bajar tan sólo un 15% la velocidad del procesador implica un consumo energético del 50%).

El problema de los Dual Core es que, como os digo, su arquitectura es algo antigua y por lo tanto van a estar algo «lastrados» debido a que la tecnología avanza a pasos cada vez más grandes. El hecho de contar tan sólo con 2 MB de memoria caché, un bus de 533 ó 667 MHz y estar construidos con una estructura interna de 32 bits hace que no rindan tanto como pudiéramos pensar de un micro de última generación (porque de hecho no lo son).

Intel Core 2 Duo

core2duo_logo

Los Core 2 Duo se basan en una arquitectura completamente nueva llamada «Intel Core 2» compatible con las anteriores pero con un diseño completamente de 64 bits. La tecnología empleada es de 45 ó 65 micras en según qué modelos de microprocesador y tenemos las variantes de una unidad con dos núcleos (Core 2 Duo) o con dos unidades de dos núcleos cada una (Core 2 Quad). Sin embargo nos vamos a centrar en la versión con dos núcleos, pues es la que lleva a confusión con la generación anterior de procesadores por la similitud de nombres. Estos micros están equipados con buses a 800, 1066 y 1333 MHz y cuentan con memoria caché de 2, 3, 4, ó 6 MB.

Los microprocesadores Core 2 Duo no son mucho más caros que los Dual Core y el aumento de rendimiento puede ser bastante evidente en función de lo que vayamos a hacer con el ordenador. Puede que si lo vamos a emplear para jugar no lo notemos demasiado, pues la mayor parte del proceso va a recaer en la tarjeta gráfica; pero si necesitamos potencia de cálculo pura y dura (retoque fotográfico, edición de sonido…) los Core 2 Duo nos van a dar cierta ventaja, sobre todo al poder emplear instrucciones de 64 bits que aprovecharán programas como Adobe Photoshop Lightroom 2 y algunos sistemas operativos actuales; aunque bien es cierto que en esos casos podemos sacar todavía más rendimiento si optamos por un Core 2 Quad.

En resumen

Los Core 2 Duo (también llamados de forma abreviada «C2D») implementan una velocidad de bus mayor, una caché más amplia y un rendimiento general más alto que los Dual Core; siendo por lo tanto mucho más recomendables que estos, pues podremos ejecutar aplicaciones más complejas en menor tiempo. Es cierto que los dos procesadores cuentan con dos núcleos en su interior, pero su concepción y estructura interna son diferentes; siendo el primero de ellos un «apaño» para sacar al mercado un procesador multinúcleo y el segundo una solución ya más estudiada y optimizada.

Un consejo final que me gustaría daros es que hoy en día ya no nos podemos fiar del rendimiento de los microprocesadores sólo fijándonos en el número de megahertzios como hacíamos en los tiempos del 386 y los primeros Pentium. De un tiempo a esta parte veréis que todos los micros de Intel cuentan con un número a continuación de su denominación que indica, a título orientativo, su situación en relación con el resto de modelos de la misma familia (Core 2 Duo, Core 2 Quad, Celeron, Core Duo, i7…) no siendo válido para comparar modelos de distintas familias.

Si, por ejemplo, vamos a la página de Intel y consultamos el listado de micros Core 2 Duo nos vamos a encontrar con una lista que a día de hoy parte del modelo E4300 (el más básico) y termina en el E8500 ; estando entre medias todos los modelos restantes (como por ejemplo el E7300 que equipa mi nuevo ordenador).

En fin, espero que la charla de hoy le sirva a alguien para que cuando coja un catálogo entienda la diferencia que puede haber entre un ordenador equipado con un microprocesador Dual Core y otro con un Core 2 Duo; pues aunque el nombre y el precio pueden ser muy similares, el hecho de elegir uno u otro puede condicionar el rendimiento de nuestro nuevo equipo.

Y os aseguro que hay mucha gente que ignora este detalle, pues yo mismo no sabía nada de esto hasta que me informé de todo antes de comprar mi reciente ordenador y mi cuñado lo descubrió unos minutos antes de comprarse un nuevo portátil hace apenas una semana (menos mal que fui con él y se lo comenté).

Estrenando mi nuevo ordenador

Todo comenzó por culpa de un catálogo.

El viernes, al llegar de trabajar, cayó en mis manos un panfleto de Carrefour en el que aparecía una oferta muy tentadora de un monitor Acer de resolución full HD (1920 x 1080), 22″ de tamaño y formato 16:9. El caso es que ya llevaba unos días pensando en lo de hacerme con un ordenador nuevo por dos motivos: el incómodo formato 4:3 de la pantalla del portátil y la lentitud de proceso de dicho equipo con programas de edición de fotografía y vídeo. Aunque la duda inicial consistía en si ampliar la memoria de lo que ya tenía o directamente comprar un nuevo ordenador, al final opté por la segunda opción, pues la memoria salía bastante cara en comparación con el ligero aumento de rendimiento que iba a obtener; y eso sin tener en cuenta que seguiría limitado por su pantalla.

Escritorio

El escritorio de Windows Vista

Pues bien, leyendo el catálogo que os digo se me ocurrió una idea: ir a por el monitor aprovechando su bajo precio (149€) y, cuando dentro de un tiempo me comprara una nueva CPU, estrenar las dos cosas a la vez. Después de comer me acerqué al Carrefour de Alcalá, lo compré y lo que ocurrió es que una vez que me vi con el monitor en el maletero del coche me dije: «¿Y por qué no me quito ya de encima lo de la CPU y así dejo finiquitado el tema del nuevo ordenador?».

Total, que me acerco a un conocido centro comercial de Alcalá de Henares y me dedico a dar vueltas por diversas tiendas en busca de una CPU que tuviera al menos 3 GB de RAM, disco duro SATA, que ocupara poco espacio y sin necesidad de tener una excesiva potencia gráfica, pues jamás uso el PC para jugar. Tenía claro que el nuevo ordenador sería para navegar por internet, escuchar música y, sobre todo, edición digital de fotografía y vídeo; por lo que buscaba sobre todo un buen monitor y un equipo que moviera Adobe Lightroom con soltura. Por supuesto, el presupuesto era limitado, pues no está la economía como para andar tirando el dinero y siempre es bueno ahorrar un poco todos los meses para cualquier gasto imprevisto que pueda surgir en el futuro. De todos modos, contaba con que junto con el ordenador me tendría que comprar también una tarjeta Firewire para poder conectar la cámara de vídeo y así montar mis propias creaciones como hacía hasta el momento con el portátil (que incluía dicha conexión «de serie»).

CPU

La pequeña CPU

Pero volviendo a la búsqueda del nuevo ordenador, al final, tras casi desesperarme porque todas las CPUs eran del tamaño habitual (excesivo para el espacio del que dispongo en mi mesa) me encontré en Mediamarkt un equipo Acer Aspire X1700 (curiosamente del mismo fabricante que el monitor) que me llamó poderosamente la atención por tener un tamaño bastante contenido y un aspecto atractivo para mis ojos, por lo que me acerqué a echarle un vistazo con detenimiento y fijarme en sus características técnicas:

– Micro Intel Core 2 Duo E7300

– 3 GB memoria RAM DDR2 800 MHz

– HDD SATA de 320 GB

– Grabadora de DVDs

– Tarjeta gráfica Nvidia GeForce 7100

– Tarjetas de sonido y red integradas en placa

– 5 puertos USB frontales y 3 traseros

– Salida de sonido 7.1 óptica y analógica

– Conexión HDMI trasera

– Conexión IEEE 1394 (Firewire) frontal

– Lector de tarjetas integrado

– Conector de auriculares y micrófono frontal

– Windows Vista Home Basic preinstalado

Todo ello por 419€, por lo que el equipo al completo me salía por algo menos de 600€ (568€ si somos rigurosos). De todos modos, antes de tomar una decisión definitiva opté por charlar un rato con el vendedor para ver qué me contaba de este ordenador y me dijo (sin yo decirle nada previamente sobre el uso que le iba a dar) que es un ordenador que lleva ya unas semanas a la venta, que no ha dado problemas y que es ideal para todo menos para jugar a los juegos más recientes porque la gráfica no es demasiado potente.

No sé si es que el vendedor me vio cara de «jugón empedernido» o qué; pero me dijo aquello como quien reconoce un pecado mortal que le llevará a los infiernos de cabeza. Debió pensar que en cuanto escuchara lo de la gráfica saldría corriendo de allí, pero curiosamente aquello fue lo que me convenció del todo para comprar este equipo; pues más que potencia bruta buscaba fiabilidad, y por lo que este hombre me dijo es lo que me iba a encontrar tras aquella pequeña carcasa metálica.

En fin, el resto ya os lo podéis imaginar: llegué a casa a media tarde, hice una foto de las cajas, la colgué en el blog y a continuación empecé a montar todo y posteriormente a configurar Windows hasta tenerlo a mi gusto y con los programas que empleo habitualmente instalados. Una labor que terminé hoy a la hora de comer y tras la que hice unas cuantas fotografías para compartir con vosotros en esta entrada.

Detalle monitor

Detalle de la enorme resolución del monitor

De momento he de decir que Adobe Lightroom vuela (no en vano aprovecha las capacidadades multinúcleo del nuevo microprocesador), que Vista no me ha hecho ninguna cosa rara (posiblemente porque le he amenazado diciendo que a la mínima de cambio formateo e instalo el XP de mi antiguo portátil) y que trabajar con un monitor a 1920 x 1080 pixels de resolución es una auténtica delicia. Ya os comentaré algún que otro detallito más adelante, pero hoy me apetecía contaros un poco por encima mis primeras sensaciones a los mandos de la nueva máquina  😉

Lightroom

Abobe Lightroom 2.2 en todo su esplendor

¡Un saludo!