martes, 23 de febrero de 2010

Wi-Fi at the Speed of Light

Wireless optical networks could provide gigabit-per-second data transfer.
A wireless network that uses reflected infrared light instead of radio waves has transmitted data through the air at a speed of one gigabit per second--six to 14 times faster than the fastest Wi-Fi network. Such optical networks could provide faster, more secure communications and would be especially suitable for use in hospitals, aircraft, and factories, where radio-frequency transmission can interfere with navigation equipment, medical devices, or control systems. Another possible application is wireless networking for home theaters; a system that transmits data at 1.6 gigabits per second could broadcast two separate high-definition TV channels across a room, a capacity that exceeds the bandwidth of any existing radio system.

Penn State graduate student Jarir Fadlullah and Mohsen Kavehrad, professor of electrical engineering and director of the university's Center for Information and Communications Technology Research, built and tested the experimental system. Their setup sent data across a room by modulating a beam of infrared light that was focused on the ceiling and picking up the reflections using a specially modified photodetector. The pair says that their measurements show the system could support data rates "well beyond" the one gigabit per second they are currently claiming.

"This probably will be the next generation wireless communications technology," says Zhengyuan Daniel Xu, professor of electrical engineering at the University of California, Riverside. Xu is also the director of the UC-Light Center, a consortium of researchers working on wireless optical communications at different UC campuses. "Light will give you higher data rates than radio frequencies, and RF already has a very congested spectrum."

Optical wireless networks could also offer less interference and greater security than radio-frequency networks, Kavehrad says. While radio signals pass through walls and doors, light does not, making it easier to reuse frequencies and more difficult to intercept transmissions. He also notes that unlike radio frequencies, the spectral region for all light--infrared, visible, and ultraviolet--is unregulated worldwide. This could make it easier to commercialize optical wireless networks.

Researchers have studied indoor optical communications since the late 1970s, when engineers at IBM Zürich built the first working system. The technology languished because the Internet was still in its infancy, and there was no demand for wireless broadband systems--though interest has picked up in the past few years.

Kavehrad's demonstration is by far the highest speed that's been demonstrated for an indoor wireless optical network, says Valencia M. Joyner, assistant professor of electrical and computer engineering at Tufts University. She notes that the transmission distances that he and Fadlullah achieved, and their use of diffuse light rather than a point-to-point optical system, are especially important. "There are a lot challenges in demonstrating the high-speed capabilities of indoor optical signals," she says. "The fact that he was able to demonstrate a one-gigabit-per-second system with diffuse light is extremely significant. That drastically reduces the complexity of the transceiver system."

Kavehrad and Fadlullah built the experimental system using a low-power infrared laser to prevent possible damage to the eyes or skin. They focused the light through a lens, creating an elliptical spot on the ceiling; they then used a high-sensitivity light detector called an avalanche photodiode to pick up the light reflected off the ceiling. They used a plastic holographic lens to collect enough reflected light from the ceiling spot and focus it on to the photodiode's active area. By using the lens, Fadlullah and Kavehrad could transmit a one-gigabit-per-second optical signal across a room about eight meters long by four meters wide.

Free-space optical networks have previously been used to transmit broadband data over long distances, but the high power of the lasers and need for a clear line of sight and extremely precise alignment between the transmitter and receiver have limited their usefulness. The low-power, diffuse light approach that Kavehrad and Fadlullah chose doesn't require such precise alignment and is much more practical for indoor communications. Kavehrad says that their system should work for visible and ultraviolet light as well as infrared.

Companies such as Intel, InterDigital, Siemens, Sony, Samsung, Mitsubishi, and Sanyo are all pursuing research on optical wireless networks, say Kavehrad and Xu. Several of these companies are members of the Infrared Data Association (IrDA), an industry organization that is developing technical standards for infrared wireless communications. IrDA recently announced the GigaIR standard for very short range, line-of-sight infrared communication links operating at one gigabit per second. And the IEEE 802.15 working group, which sets standards for wireless personal area networks, is working to create standards for wireless networks that use visible light, says Fadlullah.

Kavehrad says that "a lot of engineering has to happen" before optical wireless networks are a reality. He and Fadlullah used lasers, transmitters, and receivers not designed for communications in their experimental system; all of that equipment must be optimized for data networking. However, Kavehrad says, if development of white LEDs for indoor lighting continues at its present pace, it should be possible to have practical wireless optical networks within three years. "The main limiting factors will be industries and their politics, as well as consumer demand," he says.

miércoles, 17 de febrero de 2010

Clústers de ordenadores capaces de calentar edificios

Un nuevo sistema de enfriamiento por agua hace que los ordenadores utilicen su calor de forma más eficiente para calentar edificios.
Se han utilizado para hacer modelos informáticos del cambio climático, para prever las tendencias económicas, y simular la complejidad intrínseca de las proteínas. Sin embargo, IBM tiene en mente una nueva aplicación para los ordenadores de alto rendimiento: calentar edificios.

Gracias a un nuevo sistema de enfriado por agua instalado en el propio chip que ha desarrollado la compañía, la energía térmica de un grupo de procesadores informáticos se puede reciclar de forma eficiente para suministrar agua caliente a una oficina, afirma Bruno Michel, director de empaquetado termal avanzado en el Laboratorio de Investigación de IBM en Zurich, Suiza. El objetivo, afirma, es mejorar en rendimiento energético de los grandes grupos de ordenadores y reducir el impacto ambiental que provocan.

Un esquema piloto basado en un sistema informático equipado con este tipo de tecnología se espera que logre ahorra 30 toneladas de emisiones de dióxido de carbono al año—el equivalente a un 85 por ciento de reducción en la huella de carbono. Una novedosa red de capilares microfluídicos dentro de una placa de disipación térmica se adhiere a la superficie de cada chip dentro del grupo de ordenadores, lo que permite que el agua se pueda bombear a sólo micrones del material semiconductor mismamente. A pesar de su proximidad con el circuito, no hay riesgo de gotera, afirma Michel, puesto que los capilares están herméticamente sellados. Al hacer que el agua pase tan cerca de los chips, el calor se puede disipar de forma más eficiente. El agua, calentada a 60 °C, se pasa a través de un intercambiador de calor para así generar el calor que será finalmente distribuido a otras zonas.

IBM ha empleado varios años en desarrollar esta tecnología de enfriado microfluídica, y tiene previsto ponerla a prueba con el Instituto Federal de Tecnología de Suiza, en Zurich. Un clúster de 10 teraflops consistente en dos Servidores BladeCenter de IBM será utilizado por el Laboratorio de Ciencia Informática e Ingeniería de la universidad para poder generar los modelos de las dinámicas de los fluidos que son necesarios para la investigación nanotecnológica. Después el agua se bombeará en el sistema de calefacción de la universidad, lo que ayudará a calentar 60 edificios. “Este es el primer sistema a gran escala,” afirma Michel. “Tiene un tamaño aproximadamente 20 veces menos al de un centro de datos típico.” El objetivo final de esta tecnología, afirma, es ayudar a combatir los problemas de calentamiento que sufren los centros de datos de gran tamaño.

Hasta un 50 por ciento de la energía que consumen los centros de datos modernos se gasta en enfriar el aire. La mayoría del calor se desperdicia puesto que simplemente se arroja a la atmósfera. Se han dado pocas iniciativas para reciclar el calor que generan los centros de datos convencionales. Por ejemplo, un centro de datos de 9 pisos y 18.500 metros cuadrados que la compañía de alojamiento Telehouse está construyendo en Londres será capaz de proveer calefacción a las oficinas cercanas. Otras compañías, entre las que se incluye IBM, han utilizado el exceso de calor para calentar invernaderos o piscinas. Sin embargo, la reutilización de los residuos térmicos resulta bastante cara puesto que las temperaturas que se pueden recolectar son relativamente bajas, afirma Frank Brand, director de operaciones del centro de datos de la compañía holandesa de ingeniería Imtech. “Sólo se pueden obtener de 30 a 35 grados Celsius,” afirma.
Por el contrario, y puesto que el agua es mucho más eficiente que el aire para capturar el calor, el enfriamiento a base de agua hace que se obtengan temperaturas mucho más elevadas, señala Michel. El agua se utilizó en un principio para enfriar los ordenadores, aunque este método consistía únicamente en unas tuberías de agua fría que pasaban por detrás de las cajas de los servidores para enfriar el aire cercano a los armarios de metal.

Según algunas estimaciones, la infraestructura de la tecnología de la información es responsable de un 2 por ciento de las emisiones globales de dióxido de carbono, lo que la equipara con la aviación. Y hay expertos que aseguran que esta cifra se duplicará en los próximos cinco años.

“Es más eficiente calentar el agua y trasladarla a algún otro lugar que hacer lo mismo con el aire,” afirma Jonathan Koomey, científico de proyectos en los Laboratorios Nacionales Lawrence Berkeley y profesor asesor en la Universidad de Stanford. En 2005, los centros de datos consumían un 1 por ciento de la electricidad mundial—el doble que en 2000, afirma Koomey. Sin embargo, no está convencido de que esta cifra siga subiendo. “Hay muchas formas de mejorar la eficiencia de los centros de datos,” afirma. Por ejemplo, un mejor control de los centros de ordenadores podría ayudar a mejorar los niveles de eficiencia de forma dramática. “Tenemos servidores que, como media, funcionan a un 5 o 15 por ciento de su carga máxima,” afirma Koomey. “Incluso si el servidor no lleva a cabo ninguna tarea, aún así está consumiendo entre un 60 y un 70 por ciento de potencia.”

Brand también señala que “usar el aire para enfriar resulta mucho más barato” y que los centros de datos modernos consumen mucha menos energía de enfriado que los centros más antiguos.

La tendencia hacia el apilamiento de los procesadores unos encima de otros para incrementar la densidad de potencia es otra razón por la que IBM sigue apostando por este sistema microfluídico de enfriamiento con agua, afirma Michel. Los chips tridimensionales de este tipo suponen un serio problema para los sistemas de enfriamiento tradicionales a base de aire,” afirma.

lunes, 8 de febrero de 2010

¿Qué hay dentro del chip del iPad?

El coste y la eficiencia de energía podrían haber empujado a Apple a crear su propio microchip.

A pesar de todas las especulaciones, no se sabe nada más sobre el chip A4, incluido en el corazón del iPad de Apple, que lo que Steve Jobs anunció la semana pasada.

Jobs describió el chip con su moderación habitual durante la presentación del iPad. “Funciona con nuestro propio silicio—el chip A4 de un gigahercio de Apple,” afirmó, añadiendo que el chip A4 incluye la integración de una CPU y un chip gráfico en un único sistema en un chip (SoC, en inglés).

Poco después del comunicado, los expertos empezaron a especular con el hecho de que el chip podría estar basado en la misma arquitectura ARM del iPhone y el iPod Touch.

“No he podido encontrar ninguna fuente oficial que confirme que el A4 utilice ARM,” afirma Tom Halfhill, analista senior de Microprocessor Report. Sin embargo, señala, es lógico asumir que el iPad esté utilizando un procesador basado en la arquitectura ARM. “Tiene sentido, puesto que así Apple no tendría que transportar el SO del iPhone a una nueva arquitectura de CPU.”

Hay quienes han sugerido que el chip podría estar basado en los últimos diseños ARM, más veloces, aunque tanto el núcleo ligeramente más antiguo y lento ARM Cortex 8 como el más reciente ARM Cortex 9 son capaces de funcionar a velocidades de reloj de un gigahercio, señala Halfhill. Aumentar la velocidad de un núcleo ARM Cortex 8—el núcleo que se pensaba que estaba incluido en el chip fabricado por Samsung con el que funciona el iPhone 3GS—a un gigahercio sería posible puesto que el iPad tiene más espacio para las baterías, lo que permite a los ingenieros hacer que el A4 vaya a más voltaje y, por tanto, una mayor frecuencia de reloj.

Gene Munster, analista de investigación senior en Piper Jaffray, afirma que Apple podría haber sentido la necesidad de desarrollar su propio chip por una razón simple. “Una de las razones por las que Apple lo ha hecho es por ahorrar dinero en el chip,” señala Munster. “En el iPhone, el chip de Samsung cuesta 15 dólares—es la tercera parte más cara del teléfono. Pasar de 15 a 5 dólares no suena como que sea mucho, pero si lo multiplicas por 15 millones de dispositivos, la suma es importante.”

La velocidad ‘cruda’ ha sido otra de las razones citadas para explicar el paso de Apple hacia la fabricación de su propio chip, sin embargo Munster no lo cree así—no teniendo cuenta que compañías como NVidia y Qualcomm ofrecen diseños de potencia similar para los netbooks y otros dispositivos. “No puedo imaginar que Apple fuera capaz de construir algo por si misma que fuese mejor que lo que construyen estas compañías,” afirma.

Una razón más probable que explique por qué Apple ha construido su propio chip, afirma Munster, se haya en la necesidad de mantener el consumo de energía al mínimo. “Podrían crear algo que no fuese tan rápido, pero que tuviera un mejor consumo,” señala. “Si te fijas en la vida de la batería de la que están hablando, la tableta es más grande que el iPhone pero parece ser que han hecho un mejor trabajo en cuanto a la vida de la batería.”

El núcleo de gráficos del A4 puede que también use la arquitectura ARM, aunque esto requeriría un tipo de traducción una traducción sobre la marcha del código de las aplicaciones ya existentes para el iPhone. Puesto que “casi todas” las aplicaciones del iPhone ya existentes se podrán ejecutar en el iPad, es más que probable que Apple continue usando versiones mejoradas de los mismos núcleos gráficos presentes en el iPhone y el iPhone 3GS, que fueron creados a partir de diseños cuya licencia pertenece a Imagination Technologies, con sede en el Reino Unido.

Los representantes de Imagination no han querido comentar si el Soc del A4 utiliza un núcleo de Imagination. No obstante Apple posee un poco menos del 10 por ciento de la compañía y todos los modelos del iPhone y el iPod Touch utilizan la familia de núcleos gráficos PowerVR MBC de Imagination. La compañía también confirmó recientemente que el iPhone 3GS utiliza el diseño mejorado del PowerVR SGX. Si el iPad sigue con esta tendencia, podría aprovechar aquellas características del núcleo gráfico de Imagination que resultan excepcionalmente apropiadas para hacer funcionar una pantalla tan grande como la del iPad.

Por ejemplo, Imagination utiliza un sistema llamado “tile-based deferred rendering,” que ayuda a que la interfaz de usuario sea más rápida. “Lo que hacemos es dividir la pantalla en pequeñas zonas,” señala Kristof Beets, director de desarrollo de negocio de gráficos en Imagination. Esto permite a los núcleos gráficos del chip computar las distintas zonas individuales de la pantalla—por ejemplo, 32 por 32 píxeles en una pantalla de 800 por 480, con los datos almacenados en los cachés del chip. El chip evita el acceso a la RAM cada vez que haya que hacer un renderizado a pantalla completa, con lo que es capaz de renderizar una pantalla llena de imágenes mucho más rápidamente.

Una segunda característica de la tecnología de Imagination que podría ser relevante es la del “renderizado diferido”. Normalmente, los algoritmos de 3-D computan los datos de la localización de un objeto dado después de computar su forma y los efectos de luz que se aplican sobre él. Esto significa que cuando los píxeles de la pantalla corresponden a objetos bloqueados por otros objetos, parte de esa computación es desaprovechada. Lo mismo ocurre con los objetos en ventanas puestas unas sobre otras en entornos de escritorio. Los chips de Imagination, por el contrario, computan en primer lugar la localización de los datos, minimizando el número de computaciones que deben hacerse y por tanto permitiendo un menos consumo de energía.

En abril de 2008, Apple adquirió P.A. Semi, un fabricante de chips especializado en procesadores con eficiencia energética y que utilizan la arquitectura PowerPC—la misma arquitectura utilizada por Apple en sus computadoras hasta que cambiaron a las CPUs de Intel en 2006.

“Algunos de los ingenieros de P.A. Semi tenían experiencia con el entorno ARM y, por supuesto, sus conocimientos sobre diseño de chips serían transferibles a cualquier arquitectura de CPU,” señala Halfhill. “No obstante, se tardaría al menos 12 ó 18 meses en diseñar, depurar y manufacturar un SoC altamente integrado como el Apple A4, lo que hace poco probable que los ingenieros de P.A. Semi lo hayan diseñado partiendo desde cero.”

Bajo el punto de vista de Halfhill, esto hace que sea mucho más probable que el chip A4 esté principalmente hecho a partir de diseños que sigan con gran detalle los núcleos ARM existentes. “Apple tendría que trabajar a una enorme velocidad para diseñar su propio núcleo compatible con ARM y el SoC del A4 en tan poco tiempo,” afirma. “Por eso creo que el A4 está construido sobre núcleos de ARM ya existentes.”

Halfhill sugiere que los ingenieros de P.A. Semi podrían haber sido convocados para trabajar en otro proyecto distinto al chip A4. “No me sorprendería si muchos o la mayoría de los ingenieros de P.A. Semi estuvieran asignados a otro proyecto—como por ejemplo un futuro chip A5 de Apple,” afirma.