viernes, 9 de abril de 2010

Aviones robóticos para la captura de datos climáticos

Unos nuevos aviones robot analizarán la atmósfera superior de la Tierra con mayor detalle.

Por primera vez, la NASA ha empezado a realizar vuelos con un vehículo no tripulado por humanos y en el que se incluyen instrumentos científicos específicos para observar la atmósfera de la Tierra con gran detalle. La agencia se ha asociado con Northrop Grumman para equipar a tres aeronaves, llamadas Global Hawks, que fueron entregadas a las NASA por la Fuerza Aérea de los EE.UU. Al contrario que con las aeronaves tripuladas por humanos y equipadas con herramientas de observación terráqueas, los Global Hawks pueden volar durante 30 horas y viajar a distancias más lejanas, así como a mayores altitudes; también pueden tomar datos más precisos que los satélites y se pueden estacionar para analizar un área durante periodos de tiempo extendidos.

“Hay ciertos tipos de datos científicos atmosféricos y terráqueos que aún no poseemos, a pesar de que contamos con cosas como los satélites, las aeronaves tripuladas por humanos y las redes con base en la superficie,” afirma Robbie Hood, directora del programa de Sistemas de Aeronaves sin Tripulación Humana de la Administración Nacional Oceánica y Atmosférica (NOAA, en sus siglas en inglés). NOAA ha alcanzado un acuerdo con la NASA para ayudar en la construcción de instrumentos científicos y en la guía de misiones científicas para los Global Hawks. Hood evaluará las aeronaves para determinar cómo pueden utilizadas del mejor modo. Por ejemplo, afirma, podrían sobrevolar un huracán para analizar si su intensidad cambia o volar sobre el ártico para analizar cambios en el hielo marino con más detalle.

La primera misión de los Global Hawks fue lanzada la semana pasada—una aeronave voló desde el Centro de Investigación Dryden Flight de la NASA en la Base de la Fuerza Aérea Edwards en California sobre el Océano Pacífico. Los científicos del proyecto lanzarán aproximadamente un vuelo a la semana hasta finales de abril. El aparato está equipado con 11 instrumentos distintos para tomar medidas y hacer mapas de los aerosoles y gases de la atmósfera, hacer perfiles de las nubes, y obtener datos meteorológicos como por ejemplo la temperatura, los vientos y las presiones. También posee cámaras de alta definición para tomar imágenes de los océanos en distintos colores.

“La primera misión es principalmente una misión de demostración para probar las capacidades del sistema,” afirma Paul Newman, co-científico del proyecto y físico atmosférico en el Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland. La aeronave también volará bajo el Satélite Aura, un satélite de la NASA que en la actualidad se dedica al estudio del ozono de la Tierra, la calidad del aire, y el clima, para validar sus mediciones, haciendo comparaciones entre sus lecturas y las nuevas mediciones que puede llevar a cabo la aeronave. “Los satélites nos proporcionan cobertura global cada día, pero no pueden observar una región con demasiada precisión. La aeronave nos puede proporcionar observaciones con frecuencia y una resolución muy alta,” señala Newman.

Los aeroplanos robóticos operan de forma completamente autónoma—los científicos programan el avión antes de su salida con los destinos a los que se desee llegar, y el avión navega por sí mismo. Sin embargo, los científicos pueden cambiar la vía de vuelo del avión una vez esté en ruta, o pilotarlo de forma remota en caso de emergencia. Puesto que los vuelos del Global Hawk pueden durar hasta 30 horas (en comparación con las 12 horas de un vuelo tripulado por humanos), el avión puede volar a regiones, tales como el ártico, que normalmente resultan demasiado peligrosas para las misiones tripuladas por humanos.

La NASA adquirió las aeronaves de la Fuerza Aérea de los EE.UU. en 2007. En un principio fueron desarrolladas para misiones de vigilancia y reconocimiento. En la actualidad, los investigadores están modificándolas para que lleven a cabo sus primeras misiones científicas extensas en la Tierra. “Podemos obtener mediciones de alta resolución in situ, y ese es realmente el estándar al que aspiramos, y algo que no hemos sido capaces de alcanzar hasta ahora,” señala Randy Albertson, director del Programa de Ciencia Aérea de la NASA en la división de ciencia terráquea en Dryden.

Entre los instrumentos a bordo de la primera misión se incluyen: un instrumento LIDAR que utiliza un pulso de láser para medir la forma, tamaño y densidad de las nubes y aerosoles; un espectrógrafo que mide y crea un mapa de contaminantes como el dióxido de nitrógeno, el ozono y los aerosoles; un fotómetro ultravioleta para mediciones de ozono; un cromatógrafo de gas para calcular los gases de efecto invernadero; un puñado de otros instrumentos capaces de medir con precisión el vapor de agua atmosférico y los clorofluorocarbonos reductores de ozono; además de cámaras de alta definición para tomar imágenes de los océanos en distintos colores y aprender acerca de sus procesos biológicos.

Los investigadores también podrán tomar muestras de la atmósfera que no hayan sido capaces de alcanzar o analizar durante grandes periodos de tiempo—la troposfera superior y la estratosfera inferior. La aeronave puede volar a una altitud de 19,812 kilómetros y puede viajar a casi 22.800 kilómetros. Esa parte de la atmósfera es “una región crucial que responde y contribuye al cambio climático en la superficie, y nos hemos dado cuenta de que apenas tomamos muestras de ella,” señala David Fahey, co-científico del proyecto y físico de investigación en el Laboratorio de Investigación de Ciencia en la Tierra de NOAA, en Boulder, Colorado. “No sabes lo que ocurre en ciertas regiones de la atmósfera, acabas malinterpretando lo que ocurre en la superficie.”

La NASA y Northrop Grumman modificaron las aeronaves para que fuesen un sistema de tipo plug-in, y que los instrumentos pudiesen extraerse fácilmente para ser repuestos por otros nuevos, dependiendo de la misión. El avión también puede ser rediseñado para misiones específicas, si así fuese necesario.

“Los aviones son realmente híbridos robóticos entre satélites y aeronaves, y que van a revolucionar el modo en que llevamos a cabo la ciencia,” afirma Newman. La siguiente misión consistirá en estudiar huracanes en el Caribe, e incluirá una nueva serie de instrumentos para los aviones.

viernes, 19 de marzo de 2010

El Gobierno deja intacta la 'ley antidescargas'

Varias 'webs' de enlaces, como Seriesyonkis.com, llevan a cabo un 'apagón' en señal de protesta.

El Gobierno no ha dado ni un solo pasa atrás en la disposición final de la Ley de Economía Sostenible (LES) que regula las descargas de Internet y la persecución de las páginas web que enlazan o alojan sin permiso archivos protegidos bajo derechos de autor como películas, música o videjuegos, según confirmaron en fuentes gubernamentales. El Ejecutivo ha aprobado el proyecto de la LES en un Consejo de Ministros celebrado en Sevilla.

Aunque el Ejecutivo no ha difundido aún el texto del proyecto de ley salido del Consejo, fuentes ministeriales han indicado que no se ha tocado el texto de la disposición final aprobada el 8 de enero pasado, en el que se incluyó la tutela de la Audiencia Nacional en el bloqueo de las webs denunciadas por la Comisión de Propiedad Intelectual.

De esta forma, y tal y como se esperaba el Ejecutivo da por suficiente la modificación introducida en enero respecto al texto original del anteproyecto aprobado en noviembre pasado, en el que no existía esa tutela judicial. La denominada ley Sinde, llamada así porque su principal impulsora es la ministra de Cultura, Ángeles González-Sinde, tendrá ahora que tramitarse junto al resto de la LES en el Parlamento que se espera que la apruebe antes de que acabe el primer periodo de sesiones, a finales de junio. En ese trámite los grupos parlamentarios podrán introducir sus enmiendas.

Posteriormente, deberá redactarse el reglamento que desarrolle la ley y, en particular, la forma de elección y la composición de la Comisión de Propiedad Intelectual dependiente del Ministerio de Cultura , que se encargará de tramitar las denuncias contra las páginas webs, en un procedimiento rápido, que incluye el bloqueo de las páginas infractoras.

El anteproyecto de ley ha sido informado por distintos órganos consultivos como el Consejo General del Poder Judicial, La Fiscalía General del Estado, la Comisión del Mercado de Telecomunicaciones y el Consejo de Estado.

Pese a la polémica que ha suscitado esta medida en la opinión pública, el presidente del Gobierno, José Luís Rodríguez Zapatero, no se ha referido en ningún momento a ella en la rueda de prensa posterior al Consejo de Ministros celebrado en Sevilla este mediodía. Tampoco los periodistas que estaban allí le han preguntado al presidente sobre la cuestión. Y en la nota que se distribuye tras el Consejo, disponible también en la página de La Moncloa , hay referencia alguna a la polémica disposición adicional primera que posibilita el cierre de páginas webs.

Actos de protesta

La aprobación del proyecto de ley ha vuelto a desatar reacciones de protesta desde gran parte de la comunidad internauta. Blogs, páginas de Internet y webs de medios informativos y especializados han vuelto a colgar en sus portadas el Manifiesto en defensa de los derechos fundamentales en Internet que se publicó el pasado 2 de diciembre cuando se conoció el anteproyecto de la LES.

No obstante la acción más impactante ha sido el "apagón" de varias webs de enlaces entre los que figuran Cinetube oSeries Yonkis dos de los portales más populares para el visionado de series de televisión y vídeos. Al abrir las webs se puede leer sobre un fondo negro "Por la libertad en la Red. No al cierre de webs", Estos sitios prolongarán su medida de protesta hasta las 00.00 horas del sábado, día 20, cuando volverán a funcionar con normalidad.

La organización Facua-Consumidores en Acción ha lanzado una campaña para solicitar al Gobierno un cambio en su política cultural, al considerar que ha criminalizado a los usuarios por las descargas de Internet, según ha informado hoy la asociación en un comunicado.

La campaña se desarrollará bajo el lema 'Si es legal, es legal' y dará la posibilidad a los consumidores de adherirse a un manifiesto contra las medidas promovidas por el Ministerio de Cultura contra las descargas.

En el manifiesto se denuncia que "el Ministerio de Cultura viene desarrollando una política de criminalización de los usuarios al dictado de las entidades de gestión de derechos de autores y editores y las multinacinales que dominan la industria cultural".

"Ya está bien de insultar a millones de ciudadanos calificándolos de piratas, llamándolos criminales, por el mero hecho de compartir cultura", señala el manifiesto, que pide "un cambio en las formas de gobernar, comenzando a escuchar a los ciudadanos y no sólo a la industria".

No es la única reacción. El mismo Tsunami que sacudió Internet cuando El País destapó las intenciones del Gobierno socialista está incendiando hoy la Red. Cientos de páginas y blogs han incluido en sus páginas este banner, iniciativa que promueve Red Sostenible, que ya ha conseguido sumar a su causa a más de 33.000 páginas y otras 340.000 webs lo referencian. Las redes sociales y Twitter, como ya viene siendo habitual, son un hervidero de mensajes contrarios al polémico proyecto de ley.

martes, 23 de febrero de 2010

Wi-Fi at the Speed of Light

Wireless optical networks could provide gigabit-per-second data transfer.
A wireless network that uses reflected infrared light instead of radio waves has transmitted data through the air at a speed of one gigabit per second--six to 14 times faster than the fastest Wi-Fi network. Such optical networks could provide faster, more secure communications and would be especially suitable for use in hospitals, aircraft, and factories, where radio-frequency transmission can interfere with navigation equipment, medical devices, or control systems. Another possible application is wireless networking for home theaters; a system that transmits data at 1.6 gigabits per second could broadcast two separate high-definition TV channels across a room, a capacity that exceeds the bandwidth of any existing radio system.

Penn State graduate student Jarir Fadlullah and Mohsen Kavehrad, professor of electrical engineering and director of the university's Center for Information and Communications Technology Research, built and tested the experimental system. Their setup sent data across a room by modulating a beam of infrared light that was focused on the ceiling and picking up the reflections using a specially modified photodetector. The pair says that their measurements show the system could support data rates "well beyond" the one gigabit per second they are currently claiming.

"This probably will be the next generation wireless communications technology," says Zhengyuan Daniel Xu, professor of electrical engineering at the University of California, Riverside. Xu is also the director of the UC-Light Center, a consortium of researchers working on wireless optical communications at different UC campuses. "Light will give you higher data rates than radio frequencies, and RF already has a very congested spectrum."

Optical wireless networks could also offer less interference and greater security than radio-frequency networks, Kavehrad says. While radio signals pass through walls and doors, light does not, making it easier to reuse frequencies and more difficult to intercept transmissions. He also notes that unlike radio frequencies, the spectral region for all light--infrared, visible, and ultraviolet--is unregulated worldwide. This could make it easier to commercialize optical wireless networks.

Researchers have studied indoor optical communications since the late 1970s, when engineers at IBM Zürich built the first working system. The technology languished because the Internet was still in its infancy, and there was no demand for wireless broadband systems--though interest has picked up in the past few years.

Kavehrad's demonstration is by far the highest speed that's been demonstrated for an indoor wireless optical network, says Valencia M. Joyner, assistant professor of electrical and computer engineering at Tufts University. She notes that the transmission distances that he and Fadlullah achieved, and their use of diffuse light rather than a point-to-point optical system, are especially important. "There are a lot challenges in demonstrating the high-speed capabilities of indoor optical signals," she says. "The fact that he was able to demonstrate a one-gigabit-per-second system with diffuse light is extremely significant. That drastically reduces the complexity of the transceiver system."

Kavehrad and Fadlullah built the experimental system using a low-power infrared laser to prevent possible damage to the eyes or skin. They focused the light through a lens, creating an elliptical spot on the ceiling; they then used a high-sensitivity light detector called an avalanche photodiode to pick up the light reflected off the ceiling. They used a plastic holographic lens to collect enough reflected light from the ceiling spot and focus it on to the photodiode's active area. By using the lens, Fadlullah and Kavehrad could transmit a one-gigabit-per-second optical signal across a room about eight meters long by four meters wide.

Free-space optical networks have previously been used to transmit broadband data over long distances, but the high power of the lasers and need for a clear line of sight and extremely precise alignment between the transmitter and receiver have limited their usefulness. The low-power, diffuse light approach that Kavehrad and Fadlullah chose doesn't require such precise alignment and is much more practical for indoor communications. Kavehrad says that their system should work for visible and ultraviolet light as well as infrared.

Companies such as Intel, InterDigital, Siemens, Sony, Samsung, Mitsubishi, and Sanyo are all pursuing research on optical wireless networks, say Kavehrad and Xu. Several of these companies are members of the Infrared Data Association (IrDA), an industry organization that is developing technical standards for infrared wireless communications. IrDA recently announced the GigaIR standard for very short range, line-of-sight infrared communication links operating at one gigabit per second. And the IEEE 802.15 working group, which sets standards for wireless personal area networks, is working to create standards for wireless networks that use visible light, says Fadlullah.

Kavehrad says that "a lot of engineering has to happen" before optical wireless networks are a reality. He and Fadlullah used lasers, transmitters, and receivers not designed for communications in their experimental system; all of that equipment must be optimized for data networking. However, Kavehrad says, if development of white LEDs for indoor lighting continues at its present pace, it should be possible to have practical wireless optical networks within three years. "The main limiting factors will be industries and their politics, as well as consumer demand," he says.

miércoles, 17 de febrero de 2010

Clústers de ordenadores capaces de calentar edificios

Un nuevo sistema de enfriamiento por agua hace que los ordenadores utilicen su calor de forma más eficiente para calentar edificios.
Se han utilizado para hacer modelos informáticos del cambio climático, para prever las tendencias económicas, y simular la complejidad intrínseca de las proteínas. Sin embargo, IBM tiene en mente una nueva aplicación para los ordenadores de alto rendimiento: calentar edificios.

Gracias a un nuevo sistema de enfriado por agua instalado en el propio chip que ha desarrollado la compañía, la energía térmica de un grupo de procesadores informáticos se puede reciclar de forma eficiente para suministrar agua caliente a una oficina, afirma Bruno Michel, director de empaquetado termal avanzado en el Laboratorio de Investigación de IBM en Zurich, Suiza. El objetivo, afirma, es mejorar en rendimiento energético de los grandes grupos de ordenadores y reducir el impacto ambiental que provocan.

Un esquema piloto basado en un sistema informático equipado con este tipo de tecnología se espera que logre ahorra 30 toneladas de emisiones de dióxido de carbono al año—el equivalente a un 85 por ciento de reducción en la huella de carbono. Una novedosa red de capilares microfluídicos dentro de una placa de disipación térmica se adhiere a la superficie de cada chip dentro del grupo de ordenadores, lo que permite que el agua se pueda bombear a sólo micrones del material semiconductor mismamente. A pesar de su proximidad con el circuito, no hay riesgo de gotera, afirma Michel, puesto que los capilares están herméticamente sellados. Al hacer que el agua pase tan cerca de los chips, el calor se puede disipar de forma más eficiente. El agua, calentada a 60 °C, se pasa a través de un intercambiador de calor para así generar el calor que será finalmente distribuido a otras zonas.

IBM ha empleado varios años en desarrollar esta tecnología de enfriado microfluídica, y tiene previsto ponerla a prueba con el Instituto Federal de Tecnología de Suiza, en Zurich. Un clúster de 10 teraflops consistente en dos Servidores BladeCenter de IBM será utilizado por el Laboratorio de Ciencia Informática e Ingeniería de la universidad para poder generar los modelos de las dinámicas de los fluidos que son necesarios para la investigación nanotecnológica. Después el agua se bombeará en el sistema de calefacción de la universidad, lo que ayudará a calentar 60 edificios. “Este es el primer sistema a gran escala,” afirma Michel. “Tiene un tamaño aproximadamente 20 veces menos al de un centro de datos típico.” El objetivo final de esta tecnología, afirma, es ayudar a combatir los problemas de calentamiento que sufren los centros de datos de gran tamaño.

Hasta un 50 por ciento de la energía que consumen los centros de datos modernos se gasta en enfriar el aire. La mayoría del calor se desperdicia puesto que simplemente se arroja a la atmósfera. Se han dado pocas iniciativas para reciclar el calor que generan los centros de datos convencionales. Por ejemplo, un centro de datos de 9 pisos y 18.500 metros cuadrados que la compañía de alojamiento Telehouse está construyendo en Londres será capaz de proveer calefacción a las oficinas cercanas. Otras compañías, entre las que se incluye IBM, han utilizado el exceso de calor para calentar invernaderos o piscinas. Sin embargo, la reutilización de los residuos térmicos resulta bastante cara puesto que las temperaturas que se pueden recolectar son relativamente bajas, afirma Frank Brand, director de operaciones del centro de datos de la compañía holandesa de ingeniería Imtech. “Sólo se pueden obtener de 30 a 35 grados Celsius,” afirma.
Por el contrario, y puesto que el agua es mucho más eficiente que el aire para capturar el calor, el enfriamiento a base de agua hace que se obtengan temperaturas mucho más elevadas, señala Michel. El agua se utilizó en un principio para enfriar los ordenadores, aunque este método consistía únicamente en unas tuberías de agua fría que pasaban por detrás de las cajas de los servidores para enfriar el aire cercano a los armarios de metal.

Según algunas estimaciones, la infraestructura de la tecnología de la información es responsable de un 2 por ciento de las emisiones globales de dióxido de carbono, lo que la equipara con la aviación. Y hay expertos que aseguran que esta cifra se duplicará en los próximos cinco años.

“Es más eficiente calentar el agua y trasladarla a algún otro lugar que hacer lo mismo con el aire,” afirma Jonathan Koomey, científico de proyectos en los Laboratorios Nacionales Lawrence Berkeley y profesor asesor en la Universidad de Stanford. En 2005, los centros de datos consumían un 1 por ciento de la electricidad mundial—el doble que en 2000, afirma Koomey. Sin embargo, no está convencido de que esta cifra siga subiendo. “Hay muchas formas de mejorar la eficiencia de los centros de datos,” afirma. Por ejemplo, un mejor control de los centros de ordenadores podría ayudar a mejorar los niveles de eficiencia de forma dramática. “Tenemos servidores que, como media, funcionan a un 5 o 15 por ciento de su carga máxima,” afirma Koomey. “Incluso si el servidor no lleva a cabo ninguna tarea, aún así está consumiendo entre un 60 y un 70 por ciento de potencia.”

Brand también señala que “usar el aire para enfriar resulta mucho más barato” y que los centros de datos modernos consumen mucha menos energía de enfriado que los centros más antiguos.

La tendencia hacia el apilamiento de los procesadores unos encima de otros para incrementar la densidad de potencia es otra razón por la que IBM sigue apostando por este sistema microfluídico de enfriamiento con agua, afirma Michel. Los chips tridimensionales de este tipo suponen un serio problema para los sistemas de enfriamiento tradicionales a base de aire,” afirma.

lunes, 8 de febrero de 2010

¿Qué hay dentro del chip del iPad?

El coste y la eficiencia de energía podrían haber empujado a Apple a crear su propio microchip.

A pesar de todas las especulaciones, no se sabe nada más sobre el chip A4, incluido en el corazón del iPad de Apple, que lo que Steve Jobs anunció la semana pasada.

Jobs describió el chip con su moderación habitual durante la presentación del iPad. “Funciona con nuestro propio silicio—el chip A4 de un gigahercio de Apple,” afirmó, añadiendo que el chip A4 incluye la integración de una CPU y un chip gráfico en un único sistema en un chip (SoC, en inglés).

Poco después del comunicado, los expertos empezaron a especular con el hecho de que el chip podría estar basado en la misma arquitectura ARM del iPhone y el iPod Touch.

“No he podido encontrar ninguna fuente oficial que confirme que el A4 utilice ARM,” afirma Tom Halfhill, analista senior de Microprocessor Report. Sin embargo, señala, es lógico asumir que el iPad esté utilizando un procesador basado en la arquitectura ARM. “Tiene sentido, puesto que así Apple no tendría que transportar el SO del iPhone a una nueva arquitectura de CPU.”

Hay quienes han sugerido que el chip podría estar basado en los últimos diseños ARM, más veloces, aunque tanto el núcleo ligeramente más antiguo y lento ARM Cortex 8 como el más reciente ARM Cortex 9 son capaces de funcionar a velocidades de reloj de un gigahercio, señala Halfhill. Aumentar la velocidad de un núcleo ARM Cortex 8—el núcleo que se pensaba que estaba incluido en el chip fabricado por Samsung con el que funciona el iPhone 3GS—a un gigahercio sería posible puesto que el iPad tiene más espacio para las baterías, lo que permite a los ingenieros hacer que el A4 vaya a más voltaje y, por tanto, una mayor frecuencia de reloj.

Gene Munster, analista de investigación senior en Piper Jaffray, afirma que Apple podría haber sentido la necesidad de desarrollar su propio chip por una razón simple. “Una de las razones por las que Apple lo ha hecho es por ahorrar dinero en el chip,” señala Munster. “En el iPhone, el chip de Samsung cuesta 15 dólares—es la tercera parte más cara del teléfono. Pasar de 15 a 5 dólares no suena como que sea mucho, pero si lo multiplicas por 15 millones de dispositivos, la suma es importante.”

La velocidad ‘cruda’ ha sido otra de las razones citadas para explicar el paso de Apple hacia la fabricación de su propio chip, sin embargo Munster no lo cree así—no teniendo cuenta que compañías como NVidia y Qualcomm ofrecen diseños de potencia similar para los netbooks y otros dispositivos. “No puedo imaginar que Apple fuera capaz de construir algo por si misma que fuese mejor que lo que construyen estas compañías,” afirma.

Una razón más probable que explique por qué Apple ha construido su propio chip, afirma Munster, se haya en la necesidad de mantener el consumo de energía al mínimo. “Podrían crear algo que no fuese tan rápido, pero que tuviera un mejor consumo,” señala. “Si te fijas en la vida de la batería de la que están hablando, la tableta es más grande que el iPhone pero parece ser que han hecho un mejor trabajo en cuanto a la vida de la batería.”

El núcleo de gráficos del A4 puede que también use la arquitectura ARM, aunque esto requeriría un tipo de traducción una traducción sobre la marcha del código de las aplicaciones ya existentes para el iPhone. Puesto que “casi todas” las aplicaciones del iPhone ya existentes se podrán ejecutar en el iPad, es más que probable que Apple continue usando versiones mejoradas de los mismos núcleos gráficos presentes en el iPhone y el iPhone 3GS, que fueron creados a partir de diseños cuya licencia pertenece a Imagination Technologies, con sede en el Reino Unido.

Los representantes de Imagination no han querido comentar si el Soc del A4 utiliza un núcleo de Imagination. No obstante Apple posee un poco menos del 10 por ciento de la compañía y todos los modelos del iPhone y el iPod Touch utilizan la familia de núcleos gráficos PowerVR MBC de Imagination. La compañía también confirmó recientemente que el iPhone 3GS utiliza el diseño mejorado del PowerVR SGX. Si el iPad sigue con esta tendencia, podría aprovechar aquellas características del núcleo gráfico de Imagination que resultan excepcionalmente apropiadas para hacer funcionar una pantalla tan grande como la del iPad.

Por ejemplo, Imagination utiliza un sistema llamado “tile-based deferred rendering,” que ayuda a que la interfaz de usuario sea más rápida. “Lo que hacemos es dividir la pantalla en pequeñas zonas,” señala Kristof Beets, director de desarrollo de negocio de gráficos en Imagination. Esto permite a los núcleos gráficos del chip computar las distintas zonas individuales de la pantalla—por ejemplo, 32 por 32 píxeles en una pantalla de 800 por 480, con los datos almacenados en los cachés del chip. El chip evita el acceso a la RAM cada vez que haya que hacer un renderizado a pantalla completa, con lo que es capaz de renderizar una pantalla llena de imágenes mucho más rápidamente.

Una segunda característica de la tecnología de Imagination que podría ser relevante es la del “renderizado diferido”. Normalmente, los algoritmos de 3-D computan los datos de la localización de un objeto dado después de computar su forma y los efectos de luz que se aplican sobre él. Esto significa que cuando los píxeles de la pantalla corresponden a objetos bloqueados por otros objetos, parte de esa computación es desaprovechada. Lo mismo ocurre con los objetos en ventanas puestas unas sobre otras en entornos de escritorio. Los chips de Imagination, por el contrario, computan en primer lugar la localización de los datos, minimizando el número de computaciones que deben hacerse y por tanto permitiendo un menos consumo de energía.

En abril de 2008, Apple adquirió P.A. Semi, un fabricante de chips especializado en procesadores con eficiencia energética y que utilizan la arquitectura PowerPC—la misma arquitectura utilizada por Apple en sus computadoras hasta que cambiaron a las CPUs de Intel en 2006.

“Algunos de los ingenieros de P.A. Semi tenían experiencia con el entorno ARM y, por supuesto, sus conocimientos sobre diseño de chips serían transferibles a cualquier arquitectura de CPU,” señala Halfhill. “No obstante, se tardaría al menos 12 ó 18 meses en diseñar, depurar y manufacturar un SoC altamente integrado como el Apple A4, lo que hace poco probable que los ingenieros de P.A. Semi lo hayan diseñado partiendo desde cero.”

Bajo el punto de vista de Halfhill, esto hace que sea mucho más probable que el chip A4 esté principalmente hecho a partir de diseños que sigan con gran detalle los núcleos ARM existentes. “Apple tendría que trabajar a una enorme velocidad para diseñar su propio núcleo compatible con ARM y el SoC del A4 en tan poco tiempo,” afirma. “Por eso creo que el A4 está construido sobre núcleos de ARM ya existentes.”

Halfhill sugiere que los ingenieros de P.A. Semi podrían haber sido convocados para trabajar en otro proyecto distinto al chip A4. “No me sorprendería si muchos o la mayoría de los ingenieros de P.A. Semi estuvieran asignados a otro proyecto—como por ejemplo un futuro chip A5 de Apple,” afirma.

jueves, 28 de enero de 2010

Apple presenta su iPad

El aparato tiene una pantalla de 9,7 pulgadas.- El modelo más barato costará 355 euros.- Ofrece descarga de libros digitales.

Primero fue el iPod, y con él cambió la industria musical; luego llegó el iPhone, y con él la telefonía y el Internet móvil. Ahora Apple pretende cautivar de nuevo al mundo, esta vez con el foco en el mundo editorial, con su iPad . En una demostración más de su hombre fuerte, Steve Jobs, de que la tecnología puede ser bella, fácil y ligera , el iPad se ha presentado, en medio de una histeria mediática, para revolucionar la industria editorial. Este sector lleva años sufriendo la caída de la circulación por el efecto de Internet y busca fórmulas creativas que contenten al consumidor y a la industria.
A medio camino entre el teléfono y el portátil", según el consejero delegado de Apple, Steve Jobs, iPad es un navegador de Internet, un reproductor multimedia para escuchar música o ver vídeos, películas y programas de televisión; una consola de videojuegos y, tiembla Amazon, un lector de libros electrónicos con pantalla a color. El eReader, que soporta el formato abierto ePUB, va asociado a la nueva tienda iBooks que viene a completar la oferta de contenidos de Apple en la Red. Una compañía que Jobs autodefinió como "la mayor empresa de aparatos móviles del mundo". De momento, Apple cuenta con el apoyo de cinco de las grandes editoriales, como Penguin, Harper Collins, Simon & Schuster, MacMillan o Hachette, que ofertarán sus contenidos en iBooks.

El iPad es un aparato multitáctil, con pantalla de 9,7 pulgadas, ligero (680 gramos) y fino, muy fino (12 milímetros de espesor). Un aparato con la mayoría de funcionalidades que el iPod Touch, salvo que no lleva cámara (aunque ofrece un kit de conexión) ni Webcam. Tampoco es un teléfono, aunque algunos modelos sí llevan una conexión de datos 3G. iPad, según Jobs, "mejora la experiencia visual de sus anteriores creaciones" con una batería que dura hasta 10 horas "para poder ver vídeos sin parar en un trayecto en avión hasta Tokio", aseguró el consejero delegado.

También incluye otras 12 nuevas aplicaciones específicas para el aparato, como Keynotes para crear y realizar presentaciones simplemente con los dedos, tal y como popularizó iPhone. Además, los 140.000 programas disponibles en la tienda de aplicaciones también correrán sobre el nuevo aparato "sin necesidad de que los desarrolladores los modifiquen". Gigantes del videojuego, como Electronic Arts o Gameloft y The New York Times, el diario favorito de Steve Jobs, salieron ayer al escenario para demostrar al auditorio las mejoras que iPad supone para sus respectivos sectores. Martin Nisenholtz, representante del rotativo, aseguró que con este aparato "realmente entramos en la próxima generación del periodismo digital".

El aparato estará disponible en todo el mundo dentro de dos meses en su versión con conexión inalámbrica Wi-Fi por 499 dólares (16GB), 599 dólares (32GB) y 699 dólares (64GB). Las versiones con 3G aparecerán un mes después, a 629 dólares (16GB), 729 dólares (32GB) y 829 dólares (64GB). De momento, sólo hay acuerdo con la operadora AT&T, que, sin contrato obligatorio, suministrará a los estadounidenses la conexión móvil por 14,99 dólares para descargas de hasta 250 MB al mes o por 29,99 dólares para un acceso ilimitado. Jobs aseguró que desde ya mismo "trabajaremos para llegar a acuerdos con otras operadoras en el mundo", y que esperaba no se dilataría hasta más allá del próximo mes de julio. Además, quienes quieran, podrán acoplar un teclado físico al aparato.

El reproductor musical iPod y el teléfono inteligente iPhone han significado un antes y un después en la historia de Apple. De ser una empresa de ordenadores pasó a ser una vendedora de tocadiscos y luego una vendedora de teléfonos.

Y de fabricar para una élite a producir para las masas y -más milagroso aún- sin bajar de precios. Apple es la envidia de cualquier empresario, pero no sólo por sus productos sino por el margen de beneficio que obtiene de cada uno que vende. Con el margen de beneficio y el cerebro de Steve Jobs se entiende que Apple valiera en bolsa hace diez años 6.000 millones de dólares y hoy 50.000 millones de dólares.

El éxito no se entendería sin dos tiendas online, iTunes (principalmente para música y películas) y App Store, la tienda de aplicaciones para el teléfono. Primero, Apple probó que las descargas de canciones en Internet podían dar (y dan) beneficios; después que, más allá de la voz, las aplicaciones para los smartphones o teléfonos inteligentes (auténticos ordenadores de pantalla táctil, con Wi-Fi, conexión 3G a Internet, música, vídeo, y que además sirven para hablar) son el futuro de la telefonía móvil. El año pasado este mercado recaudó 4.200 millones de dólares en todo el mundo.

Con 140.000 programas disponibles (desde juegos como el Tetris a utilidades de oficina o curiosidades como tocar la ocarina) y 3.000 millones de descargas (gratuitas y de pago) desde su lanzamiento en 2008, la tienda de aplicaciones ha revitalizado, sobre todo, las ventas de iPhone (25 millones el año pasado y 47 desde su lanzamiento en junio de 2007) ya que los ingresos por estas pequeñas compras se reparten en un 70-30 entre el desarrollador y el propietario de la tienda.

Dos días antes del lanzamiento del iPad, Apple informó de que duplicó sus ganancias en el último trimestre de 2009 respecto al mismo periodo anterior, fundamentalmente gracias a los iPhone y a los ordenadores Macintosh. El beneficio neto fue de 3.380 millones de dólares (2.390 millones de euros).

Sólo el tiempo dirá si, por enésima vez, el mundo deberá descubrirse ante el creador de los Macs, el creador de los iPod, el creador de los iPhone, el creador de los estudios Pixar, Steve Jobs.

jueves, 14 de enero de 2010

Tesla usará baterías de alta energía de Panasonic

Una nueva alianza empresarial podría ayudar al fabricante de automóviles a incrementar el rango de autonomía de sus vehículos.


Tesla Motors, el fabricante de vehículos eléctricos de alto rendimiento, está trabajando con Panasonic, el gigante de las baterías y la electrónica de consumo, para desarrollar su nueva generación de baterías. La alianza tiene como objetivo ayudar a que Tesla reduzca el coste de sus baterías y mejore la autonomía de sus vehículos.

El mes pasado Panasonic anunció dos baterías de alta energía para vehículos eléctricos. Estas nuevas baterías almacenan hasta un 30 por ciento más de energía que las baterías de litio-ion precedentes, y este aumento del almacenaje podría, en teoría, incrementar la autonomía del vehículo en un porcentaje similar, con lo que se solucionaría uno de los principales problemas de los vehículos eléctricos. El Roadster de Tesla en la actualidad tiene un rango de autonomía de 244 millas (393 kilómetros) y tarda tres horas y media en cargarse con un cargador especial.

El otro reto principal de los vehículos eléctricos es el coste de los paquetes de baterías. Tesla no ha anunciado el ahorro potencial en cuanto a costes de las futuras baterías, aunque JB Straubel, el director tecnológico de Tesla Motor, afirma que los costes de las baterías han estado bajando de forma constante alrededor de un 8 por ciento cada año.

Tesla tiene previsto incorporar las células de Panasonic en sus paquetes de baterías, y trabajará con esta misma compañía para desarrollar células ajustadas para su uso en vehículos, afirma Straubel. Para ello, Tesla se basará en datos extraídos de los 1.000 vehículos que ha construido hasta ahora, que han sido conducidos alrededor de más de un millón de millas (1.609.344 kilómetros). En la actualidad Tesla obtiene sus baterías de diversos fabricantes.

Aquellos que conduzcan automóviles de Tesla no notarán de forma inmediata el aumento en el rango de las nuevas células de alta energía, señala Straubel, puesto que el proceso para validar el rendimiento de las nuevas células lleva tiempo. Es más, los incrementos en el rango pueden variar. (Por ejemplo, los controles electrónicos evitan que la batería se descargue completamente y así ayudar a mantener la seguridad y la fiabilidad—las descargas completas pueden dañar algunos materiales de las baterías. La forma en que la batería se controla depende de su química y de otros detalles relativos al diseño de la célula.)

Una de las nuevas células en particular requerirá que se lleven a cabo pruebas exhaustivas, puesto que depende de electrodos basados en silicio. En teoría, los electrodos de silicio pueden almacenar mucha más energía que los electrodos de carbono a los que vienen a reemplazar, aunque sin embargo los electrodos de silicio tienden a hincharse y a romperse. Tendrán que ser puestos a prueba para asegurarse de que estos problemas pueden superarse.

El método que está siguiendo Tesla con Panasonic es distinto al de otros fabricantes de automóviles, tales como Nissan y General Motors, dedicados al desarrollo de vehículos eléctricos e híbridos conectables (que se mueven en gran medida con energía eléctrica). Tesla utiliza pequeñas células cilíndricas del tipo que se usan en los paquetes de baterías de los ordenadores portátiles y otros aparatos electrónicos de consumo, mientras que los otros fabricantes se decantan por células de batería más grandes y planas, desarrolladas específicamente para su uso en automóviles.

Sin embargo las baterías planas desarrolladas específicamente para automóviles puede que finalmente sean mejores para los vehículos eléctricos, puesto que están diseñadas para durar más tiempo, afirma Menahem Anderman, analista de la industria de la baterías para automóviles. También, y puesto que las baterías planas son más grandes, se necesitan muchas menos células, con lo que se reduce el número de cosas que pueden salir mal dentro de los paquetes de baterías. Tesla utiliza miles de células, mientras que los otros fabricantes usan sólo un par de centenares.

También está la cuestión de la seguridad. Las nuevas baterías planas normalmente utilizan químicas que son menos volátiles en comparación con las usadas en los portátiles, lo que dificulta que empiecen a arder o que exploten. De hecho, la química litio-níquel que usa Panasonic en sus células de alta energía puede llegar a ser incluso menos estable que los materiales usados en los portátiles convencionales. Tesla ha trabajado para solucionar este problema mediante la implantación de unas medidas de seguridad especiales dentro de los paquetes de baterías.

Straubel afirma que, por ahora, la experiencia de fabricación con células cilíndricas sobrepasa las ventajas potenciales de las células planas, aunque a medida que Tesla y Panasonic sigan colaborando, puede que finalmente se pasen a las células planas.

La asociación de Panasonic con Tesla es parte de una estrategia mayor por dominar el mercado de las baterías avanzadas para automóviles. Panasonic ya es hoy día uno de los fabricantes líder de baterías para vehículos híbridos, que normalmente utilizan baterías de hidruro de níquel-metal. Junto a Sanyo, una subsidiaria que adquirió a finales del año pasado, proporciona baterías de hidruro de níquel-metal para varios fabricantes importantes, entre los que se incluyen Toyota, Honda y Ford, y tiene un acuerdo para desarrollar baterías con Volkswagen. En noviembre, una alianza entre Toyota y Panasonic hizo que comenzase la fabricación de baterías de litio-ion para la versión híbrida conectable del Toyota Prius.