jueves, 23 de diciembre de 2010

Sistema de Tele-gestión para sistemas de Frío Industrial

Se trata de instalar un sistema para saber el estado de la instalación frigorífica, recibiendo un mensaje vía SMS, o email cuando se produce cualquier anomalía en la misma.

Este sistema puede ser meramente informativo o bien que nos deje interactuar a distancia.

Nosotros utilizamos un sistema mediante el cual tenemos la instalación controlada las 24 horas todos los días del año, nos apoyamos en una Receptora de alarmas (CRA), allí están pendientes todos los días del año y cuando hay cualquier anomalía de cualquier instalación, nos lo comunican. Hay varios tipos de averías, en función de lo importante de la misma avisan inmediatamente o bien esperan al horario de trabajo , es decir a la mañana siguiente, (por ejemplo, las averías que bloquean totalmente la instalación tienen máxima prioridad y avisan al momento).
También tienen en cuenta la época del año, en época de entradas las averías son más importantes.

Opciones:

  • BÁSICO:
    Este sistema gestiona averías como: avería general compresor 1-2-3 o los que tengamos instalados, también gestiona temperaturas por encima del máximo, por debajo del mínimo, se podrían entrar averías como puerta de la cámara abierta, luces abiertas etc.
    El sistema funciona de la siguiente forma, tendríamos un equipo capaz de transmitir las alarmas a la CRA, ellos gestionarán la avería según las indicaciones facilitadas por nosotros, en función del tipo, es decir: si es una avería de tipo 1, considerada muy urgente, avisaran en el momento que se produce, si es tipo 2 esperarían a las 8:00 de la mañana para comunicarla.
    • Opciones de este sistema:
      • Llamar a la propiedad indicando la avería producida.
      • Avisar al responsable de la instalación.
      • Avisar directamente a la empresa instaladora.
      • O bien a ambos.
  • BÁSICO 2:
    Este sistema gestiona averías como: térmicos, alta, baja, recalentamiento, paro por aceite, etc. es decir que concreta mas el tipo de avería, seria indispensable que la instalación tuviera instalado un autómata de control.
    Con este sistema también podemos enviar alarmas de temperatura, precisando incluso los grados de temperatura de la cámara.
    El sistema funciona de la siguiente manera, tendríamos un autómata que controlaría la instalación de frío, conectado a un módem (puede ser móvil GSM o bien línea fija), que enviaría un SMS la CRA, ellos gestionaran la avería según las indicaciones que nosotros les facilitaremos, en función del tipo, es decir: si es una avería tipo 1 considerada muy urgente, avisaran en el momento que se produce, si es tipo 2 esperarían a las 8:00 de la mañana para comunicarla.
    • Opciones de este sistema:
      • Llamar a la propiedad indicando la avería producida.
      • Avisar al responsable de la instalación.
      • Avisar directamente a la empresa instaladora.
      • O bien a ambos.
  • TELE-COMPUTER:
    Esta opción a demás de gestionar las averías de sistema BASIC-2, nos permite interactuar, es decir, podemos conectar remotamente con el equipo desde un PC, pudiendo modificar parámetros, rearmar averías, parar y poner en marcha cámaras, cambiar prioridades, ver temperaturas e incluso se pueden conectar cámaras de TV y ver que ocurre en diferentes puntos de la instalación a tiempo real.
    El sistema igualmente nos avisaría si ocurriera cualquier tipo de avería o alarma, también estaría conectado a la CRA donde se gestionarían las alarmas, enviándolas según nuestras indicaciones a las personas responsables de la instalación
    • Opciones de este sistema:
      • Llamar a la propiedad indicando la avería producida.
      • Avisar al responsable de la instalación.
      • Avisar directamente a la empresa instaladora.
      • O bien a ambos.

viernes, 12 de noviembre de 2010

Las empresas se vuelven totalmente inalámbricas

Los servicios móviles de banda ancha son cada vez más competitivos frente a los enlaces de datos fijos—lo que significa que las empresas deberían ser capaces de reducir sus conexiones mediante cables.

Durante la primera ola de la revolución inalámbrica, las empresas se dieron cuenta de que estar fuera de la oficina no significaba estar fuera de acción. Las Blackberries, los iPhones, y las conexiones 3G para portátiles permitieron a los ejecutivos permanecer

conectados estando en movimiento.

Sin embargo la segunda ola, introducida por el desarrollo de la banda ancha móvil 4G, llevará la revolución móvil a los recintos interiores. Aunque el entusiasmo de los consumidores en cuanto a aplicaciones y teléfonos inteligentes es alto, y ha atraído gran parte de la atención de la prensa, las empresas serán el primer consumidor serio de

servicios 4G. Las redes móviles y otros proveedores de servicios están preparando los servicios que llegarán a las oficinas con el potencial de destruir los últimos vestigios de la infraestructura cableada, como los teléfonos de escritorio y los enlaces de Internet con cables.

"Los primeros usuarios pesados de la nueva red serán los usuarios de negocios", afirma Lindsay Notwell, director ejecutivo y encargado del despliegue del servicio LTE de Verizon (las siglas LTE significan Long Term Evolution, un conjunto de estándares para las redes del futuro). Se debería poner en marcha a finales de 2010, dando cobertura a más de 100 millones de personas. "Primero anunciaremos los módems 4G y el soporte para teléfonos móviles a mediados de 2011".

La compañía no está construyendo una red de telefonía móvil, sino una red de datos, una tan rápida como la de los enlaces con cables. Notwell afirma que cuando lleven el portátil a un recinto interior y usen el servicio LTE, los usuarios no deberían notar ninguna diferencia entre el rendimiento inalámbrico y por cable.

Sprint Nextel ha estado desplegando su servicio 4G en las principales ciudades de EE.UU. durante todo el año, y hoy día lo ofrece en 55 ciudades. Esa red se basa en el estándar WiMAX, una alternativa al LTE. Bob Azzi, vicepresidente senior de red de Sprint Nextel, afirma que su red puede ofrecer velocidades de tres hasta cinco megabits por segundo para las descargas—y uno o varios megabits por segundo para las subidas. "Eso es absolutamente suficiente para reemplazar las conexiones T1 por cable de cualquier empresa", añade.

Un servicio así de rápido podría generar nuevos tipos de productos, afirma Azzi. La tecnología debería tener un impacto en la industria al por menor, por ejemplo. Las tiendas normalmente necesitan redes de gran capacidad en las cajas para buscar información sobre los productos, datos de referencia del cliente, y procesar las tarjetas de crédito. "La estructuración de una tienda es mucho más fácil cuando no se está limitado por tener que llevar los cables a cada lugar", añade. "Podemos usar un módem inalámbrico 4G en su lugar". En tal escenario, los vendedores podrían caminar por las tiendas con tabletas para ayudar a los clientes y procesar las transacciones. O podrían trasladar su cajas registradoras completamente conectadas al aire libre, asegura, para eventos en parques u otros lugares al aire libre.

miércoles, 10 de noviembre de 2010

La tecnología inalámbrica podría reducir los costes de salud

Los sensores y los dispositivos de control son cruciales para hacer que no suban los gastos hospitalarios a largo plazo.

Después de que un endocrinólogo en Walnut Creek, California, diagnosticase hipertensión a un paciente varón de mediana edad, lo puso bajo un régimen de Diovan, un medicamento que disminuye la presión arterial, y lo envió a casa con varios suministros: una parche resistente al agua y una botella de microchips.

El parche se adhería como una tirita en el abdomen del paciente y medía la temperatura corporal, así como otros signos vitales. Los microchips, adheridos a la parte exterior de las píldoras, de aspecto corriente, enviaban una señal al parche cuando los líquidos del estómago los activaban, lo que indicaba que habían sido tragados. Después, siempre que el paciente tuviese al alcance su teléfono inteligente, los datos recogidos por el parche se subían a Internet a través de una conexión Bluetooth. Los datos se agregaban y se enviaban a una interfaz de usuario, y con el permiso del paciente, los resultados se ponían a disposición del médico.

El médico observó que su paciente estaba tomando su Diovan con consistencia casi perfecta, todas las mañanas casi al mismo tiempo. Hasta que, de repente, dejó de hacerlo. Cuando lo descubrió, llamó al paciente por teléfono. "¿Pasa algo?" preguntó.

"Es curioso que me lo pregunte", contestó el paciente. "Mi perro se acaba de morir".

Andrew Thompson es cofundador y director general de Proteus Biomedical, la startup responsable del sistema inteligente de píldoras, y su voz se acelera llena de entusiasmo al relatar el incidente y sus consecuencias. La muerte del perro representa "un cambio significativo en la capacidad de una persona para controlar su enfermedad a causa de un acontecimiento vital completamente ajeno y que causa estrés", asegura Thompson. "Esto demuestra que las personas no son robots. Necesitan ayuda. Necesitan herramientas".

Estas herramientas podrían tener un impacto importante sobre los cuidados de salud, y ayudarían a los pacientes a evitar tener que pasar por caras hospitalizaciones. Podrían ayudar a las personas con enfermedades crónicas a tomar el control de su salud y a compartir sus signos vitales con sus médicos en tiempo real. El resultado podría ser una disminución gradual de los costes médicos. Eric Topol, director del Instituto de Ciencia Traslacional Scripps en La Jolla, California, cree que la ampliación del alcance de los cuidados médicos de atención primaria es la clave para la reducción de costes, y piensa que la tecnología inalámbrica es la mejor manera de conseguirlo. "Es el comienzo de una era de análisis remoto", afirma Topol. "¿Para qué necesitamos las camas de hospital, sino para proporcionar cuidados intensivos de mayor gravedad?"

En resumen, estas tecnologías podrían ayudar a evitar desastres inminentes. Los hospitales poseen espacio y dinero limitados, y los médicos de atención primaria trabajan hasta el límite en un momento en que la ola de ‘baby boomers’ que han llegado a la edad madura está a punto de inundar el sistema de salud. La mejor solución es evitar el mayor número posible de visitas al hospital. Don Jones, vicepresidente de desarrollo empresarial de ciencias de la salud y la vida en la división de tecnología inalámbrica de Qualcomm, afirma: "Sólo a través de la conectividad inalámbrica podremos crear un tipo de oportunidad como esa".

Proteus es sólo una de entre un creciente número de startups con tecnologías de control dedicadas a la solución de enfermedades que van desde la insuficiencia cardíaca congestiva (Corventis, CardioMEMS) al asma (PHT, Cambridge Consultants), pasando por la diabetes (DexCom, Airstrip).

Los dispositivos de seguimiento tienen el potencial de actuar como el equivalente humano de un panel de instrumentos en un automóvil: cuantos más indicadores y luces indicadoras haya, mejor advertidos podremos estar sobre si algo está fallando, y así poder tomar medidas de prevención de averías del motor y asistencia de emergencia en carretera. Los medidores de glucosa continuos permitirían a los diabéticos comprobar sus niveles de azúcar en la sangre mediante la consulta de una pantalla en sus teléfonos inteligentes, del mismo modo que los conductores pueden revisar de un vistazo el indicador de gasolina. Un tipo de sensores que vigilasen la apnea del sueño—que aumenta el riesgo de enfermedad cardíaca y accidente cerebrovascular—serían como una luz de aviso del filtro de aire. Un medidor de flujo máximo que se adhiriese a un inhalador, transmitiendo los datos sobre la exhalación de un paciente con asma, sería análogo al indicador del sistema de escape.

Los hospitales están especialmente interesados en una tecnología que pueda detectar señales de advertencia de insuficiencia cardíaca. La mayoría de los casos de insuficiencia cardíaca congestiva son totalmente controlables con los medicamentos adecuados y una serie de cambios en el estilo de vida (hacer más ejercicio, comer menos sal), aunque más de un tercio de los pacientes dados de alta después del tratamiento de esta enfermedad son readmitidos durante los 12 meses posteriores. Una simple readmisión puede costar entre 10.000 y 40.000 dólares, o más. A partir de 2012, Medicare y Medicaid dejarán de reembolsar a los hospitales por aquellas readmisiones por insuficiencia cardíaca que se produzcan dentro de un margen de 60 días. El cambio de política ha llevado a algunos hospitales a prestar una mayor atención a las medidas preventivas, como por ejemplo el seguimiento sanitario inalámbrico. Después de todo, su supervivencia podría depender de ello.

Sin embargo, aún persisten muchos obstáculos burocráticos para la aplicación de estas tecnologías. La FDA ha tardado mucho en aprobar la mayoría de los dispositivos inalámbricos de salud debido a las preocupaciones sobre la privacidad, la seguridad y la pérdida de datos. Los hospitales y las aseguradoras se resisten a su adopción, ya que les preocupa el aumento de los costes a corto plazo.

Los médicos, por su parte, están preocupados por la calidad de los datos, la responsabilidad y los gastos. "No existen muchos incentivos para que los proveedores adopten este tipo de datos de seguimiento", afirma Ronald Dixon, médico y director del proyecto de práctica virtual en el Hospital General de Massachusetts."El servicio de seguimiento recibe fondos, pero no existen incentivos para que yo le preste atención. Quiero ayudar al paciente, pero [bajo el sistema actual] no se me paga por hacerlo".

En el pasado, las nuevas tecnologías médicas tenían probabilidades de ser consideradas valiosas si lograban mejorar la atención. Eso puede que deje de ser cierto a menos que también disminuyan significativamente los costes. Incluso si el seguimiento inalámbrico produce algún tipo de ahorro a medio plazo, como es casi seguro que ocurra, los hospitales y las aseguradoras quizá no tengan la sensación de que los gastos por adelantado estén justificados.

"Todas las innovaciones en el campo del seguimiento tienen que ser, en el peor de los casos, neutrales en cuanto a costes, y en el mejor de los casos, efectivas", señaló Dixon. "Si son caras, sólo van a ser adoptadas por una parte relativamente pequeña de la población".

Los gigantes de la administración de cuidados médicos son el elemento imprevisible a la hora de predecir cómo será adoptada esta gran diversidad de tecnologías. Medco, la compañía de atención sanitaria y gigante de los beneficios farmacéuticos, no quiso hacer comentarios sobre si tenía algún interés en este enfoque. Otras empresas están empezando a participar con cautela en el juego. United Healthcare, por ejemplo, recientemente aprobó el reembolso de un dispositivo fabricado por Watermark Medical capaz de detectar la apnea obstructiva del sueño en la propia habitación del paciente, eliminando la necesidad de pasar la noche en un laboratorio del sueño.

Kaiser Permanente, con sede en Oakland, California, opera un sistema más integrado de hospitales y planes de atención sanitaria. Debido a que el gasto en prevención ahorra dinero a sus hospitales, la empresa tiende a pensar de modo más progresista. En la actualidad, está estudiando el mejor modo en que las tecnologías de seguimiento—incluyendo las píldoras inteligentes de Proteus—podrían ser utilizadas. "Hemos estado llevando a cabo experimentos con varios prototipos para ver cómo se podrían integrar con nuestro sistema", asegura Faye Sahai, director ejecutivo de innovación y tecnología avanzada en Kaiser.

Las tecnologías inalámbricas podrían asegurar a los médicos que están viendo a aquellos pacientes más urgentes, aunque también podrían imponer nuevas tareas que acabarían consumiendo gran cantidad de tiempo. Dichas tareas van desde la observación de las pulsaciones y la respiración hasta medir los niveles de glucosa en la sangre, pasando por el control de la cantidad de líquido en un paciente con insuficiencia cardíaca crónica. Incluso con el acceso a todos los datos de un paciente a través de teléfonos inteligentes, los médicos no tienen mucho tiempo para analizarlos. Cualquier flujo de trabajo que incorporase estas tecnologías requeriría un sistema integrado de alertas que no interfiriese con la abarrotada rutina diaria de los médicos.

Algunas empresas han construido centros de vigilancia que revisan los datos del paciente, los interpretan, y los envían al médico que prescribe las recetas. Sin embargo, este tipo de configuraciones son todavía relativamente poco frecuentes, y existe una gran oportunidad de negocio para empresas que compilen y sinteticen lo que algunas personas en el campo denominan el "tsunami de datos". "Finalmente, serán una serie de intermediarios inteligentes los que empaqueten la información y la pongan en manos del médico, y después tendremos que confiar en que el médico haga lo que es apropiado", afirma Don Jones desde Qualcomm.

En última instancia, la infraestructura inalámbrica para la vigilancia de la salud es más probable que se construya en Europa e incluso en países en desarrollo, mucho antes de que se dé en los Estados Unidos. Hasta que haya un cambio en el modelo de pago por servicio utilizado por la mayoría de las aseguradoras de EE.UU.—hasta que exista un incentivo financiero para la prevención, y un sistema que compense a los médicos por el tiempo dedicado a mantener a sus pacientes fuera del hospital—las tecnologías de seguimiento sanitario seguirán siendo un mercado limitado.

Pegatinas inalámbricas: Un parche adhesivo con una aguja muy pequeña, creado por DexCom (arriba), se pega al abdomen de un paciente diabético para controlar los niveles de glucosa. Los datos se suben a un receptor de mano. La startup Proteus Biomedical está a la búsqueda de la aprobación por parte de la FDA de un kit (abajo) que incluye un parche inalámbrico, así como píldoras con microchips que detectan cuándo se toman los medicamentos. Después de hacer su trabajo, los chips del tamaño de granos de arena son procesados por el cuerpo.
Fuente: DexCom and Proteus

martes, 9 de noviembre de 2010

Al Mercado: Teléfonos móviles con múltiples antenas

Fuente: "Directional antenna diversity for mobile devices: characterizations and ­solutions" Ardalan Amiri Sani et al.

Conferencia Internacional ACM sobre Computación y Redes Móviles (MobiCom), 20-24 de Septiembre, 2010, Chicago

Resultados: múltiples antenas direccionales que transmiten señales en direcciones específicas gastan menos energía en un dispositivo inalámbrico que esté conectado a su estación base. El transmisor selecciona una antena determinada de forma que la energía sólo se utiliza para enviar la señal en la dirección óptima. La rápida rotación del dispositivo, lo que le obligaba a cambiar de una antena a otra, no interrumpió la reproducción de una película que se estaba visualizando mediante la conexión inalámbrica.

Por qué es importante: Actualmente, los dispositivos como los teléfonos móviles transmiten una señal en todas direcciones, pero sólo una pequeña parte de ésta llega al receptor. El envío de toda esta energía desaprovechada gasta la batería. La dirección de esta señal hacia la estación de recepción más cercana conseguiría que la batería durara más y reduciría las interferencias para los otros usuarios.

Métodos: Un equipo de investigadores de la Universidad Rice, en Houston, conectó un transmisor inalámbrico a tres antenas de parche, las cuales parecen tiretas, y montaron el dispositivo prototipo en una plataforma rodante para determinar si éste podía procesar los cambios de orientación que afectan a los dispositivos portátiles. También compararon su consumo de energía con el de un dispositivo de una sola antena que envía una señal en todas direcciones. Además, testearon la habilidad del sistema para cambiar de una antena a otra rápidamente en caso que la antena usada quedara en una cara menos ventajosa al voltear el dispositivo.

Próximos pasos: Los investigadores están modificando un teléfono de tipo smartphone comercial para validas su enfoque en un teléfono real. También tienen planeado probar si es posible obtener una mejor calidad de señal y alargar la vida de la batería con un teléfono de una sola antena direccional en su parte posterior o anterior.

Is RockMelt the Browser You've been Waiting For?

Co-founder of the start-up reckons users will switch to the new "app-like" browser.

RockMelt, a brand spanking new, Google Chrome-based web browser backed by some Netscape-era heavyweights, is studded with appealing gew-gaws for interacting with your favorite social networks and websites. Basically, it's an attempt to solve the one problem that even HTML5 couldn't rid us of: No matter how good a web service is, it remains trapped in a tab in your browser.

Web tabs are not the greatest way to consume what are essentially streaming media like Facebook, Twitter and all the others sites we refresh multiple times every day. Worse yet, while then Web allows us to have a consistent experience across browsers, few sites retain detailed state information--Twitter on your phone won't remember which tweets you've already read.

People who are serious about these mediums are forced to rely on clients--apps built for their operating system that interact with the APIs of these services, pulling down data and making it accessible in custom-built environments.

One way to think of RockMelt is as the Swiss Army Knife of web clients. Sure, it's a browser, pretty much exactly the same one you'll get if you download Google's Chrome. But the real intention of its creators is a transformation of the web--to make our activities almost as effortless as they would be if they could be accessed with an app instead of a webpage.

In service of that goal, RockMelt uses two strips on either side of the browser window as launch bars for all the services, sites and people with which a user might want to keep up. The best way to understand how it works is to see it in action. Here's RockMelt's demo video:

"The way we think about it is that we're trying to build a browser that pulls functionality out of various sites and puts in more convenient place in browser," says Tim Howes, who, along with Eric Vishria, co-founded RockMelt in 2008.

The pair decided to build RockMelt on top of Google's Chrome web browser when it was only 8 weeks old--a bet that Howes says paid off big. "It wasn't at all obvious that it was the right bet to make at the time, but we're really happy with it," says Howes. The decision may mark an end of an era for Firefox, which has become bloated enough that, despite its it's open-source code base, it no longer appeals to developers who want to build new browsers on top of it.

"Chrome [...] just had a more modular architecture, and had thought through the challenges of performance and security better," says Howes. "It was just much smaller and clearner."

RockMelt has a few other tricks up its sleeve, such as making search "less like hunting and pecking, and more like flipping through pages in a magazine," says Howes. In addition, the browser's sync features remember everything about the user, from who their friends are to which Twitter, Facebook and RSS updates they have read.

Howes believes Rockmelt's current feature set is "only the beginning" of what the browser could enable in the future, as it adds app-like support for everything from e-commerce to gaming and more advanced communication services.

For the critics who believe that the already-crowded field of web browsers allows little room for a newcomer, Howes points to the success of both FireFox and Chrome--neither of which, to the average user, are all that different from other browsers.

"Over the last three years over 500 million people have switched browsers," says Howes. "If you give people a better product, they will switch."

viernes, 24 de septiembre de 2010

Pacientes prueban un brazo prostético avanzado

Un procedimiento quirúrgico permite el control intuitivo de un brazo robótico sofisticado.

Al reordenar quirúrgicamente los nervios que normalmente están conectados al miembro faltante, los médicos han desarrollado un modo intuitivo para que los pacientes, a quienes les falta un miembro, puedan controlar un brazo robótico.

Todd Kuiken y sus colegas en el Centro de Rehabilitación de Chicago informaron, por primera vez, sobre la utilización de esta técnica en un único paciente en 2007, y ahora lo han probado en más. Todos los nuevos pacientes pudieron controlar con éxito la prótesis que posee hombros, codos, muñecas y manos motorizados. Pudieron mover el brazo, imitar movimientos de las manos y levantar una variedad de objetos, incluído un vaso lleno de agua, una delicada galleta y una pieza del juego de damas que iba rodando a lo largo de una mesa. (En el video de abajo se puede ver a tres pacientes utilizando el brazo). Los hallazgos fueron informados en el Journal of the American Medical Association en el día de ayer.

La mayoría de las prótesis de brazo motorizado utilizadas en la actualidad capturan los movimientos del hombro para poder controlar la mano, el codo o la muñeca del miembro ortopédico. Estos dispositivos pueden ser lentos y a veces frustran al paciente: el usuario debe concientemente contraer los músculos para impulsar un movimiento, y solamente puede realizarse un movimiento por vez.

Kuiken ha desarrollado un nuevo tipo de interfaz completamente nuevo. Utilizando un procedimiento quirúrgico llamado re-innervación muscular dirigido (targeted muscle reinnervation), los cirujanos transfieren nervios que previamente llevaban señales a la extremidad ahora faltante, a músculos en el tórax y en el brazo superior. Los nervios re-dirigidos producirán la contracción de músculos cuando el paciente piensa en mover el miembro perdido. Estas señales son leídas por un sensor en el brazo prostético y traducidas en movimiento.

Tres pacientes que fueron sometidos a este procedimiento probaron el prototipo de brazo que está desarrollando el programa de prótesis revolucionarias de DARPA (Defense Advanced Research Project Agency). Los voluntarios pudieron controlar el dispositivo de manera efectiva en sólo dos semanas.

"La velocidad y la precisión de los movimientos representan mejoras importantes comparado los sistemas mioeléctricos anteriores", escribe Gerald Loeb, médico y científico del departamento de ingeniería biomédica y neurología el la Universidad de Southern California, en una editorial. "Todavía más importante, sin embargo, es la facilidad con que los pacientes aprendieron a realizar tareas que implican movimientos coordinados de una articulación".

Kuiken y sus colegas se encuentran trabajando en el agregado de una retro-alimentación sensorial al sistema por medio del transplante de los nervios que una vez llevaron señales sensoriales del brazo amputado al cerebro. Este tipo de retro-alimentación es especialmente importante en la determinación de, por ejemplo, cuánta fuerza utilizar para agarrar un vaso sin romperlo. Los investigadores ya han demostrado que los pacientes que han tenido este nervio trasplantado pueden sentir sensaciones de la mano perdida en el tórax . El objetivo a largo plazo es de agregar dedos prostéticos, los cuales podrían transferir información táctil a los nervios transplantados, haciendo que el paciente sienta que tiene una mano de verdad.

Video

Empresas chinas desarrollan plantas fotovoltaicas que producen a menos de 0,11 €/kWh

El coste de la producción fotovoltaica baja a pasos agigantados, cada vez se acerca más al precio de mercado. En una reciente ronda de licitaciones para la construcción de plantas fotovoltaicas a gran escala, en China, para servicios públicos, las empresas adjudicatarias ganaron el concurso con un precio inferior a 1 Yuan por kWh, unos 0,1135 €/kWh.

.Este precio es un nuevo hito en la economía de la energía solar. Para lograr este impresionante número, el gobierno chino ha utilizado empresas bajo control público para subvencionar el coste, hasta el punto alcanzado, que le haga competitivo. Pekin, parece haber decidido – al menos por el momento – que el desarrollo a gran escala de energía solar se producirá más rápido si se coordina un esfuerzo que haga aumentar la producción de los componentes de modo que se permita la inversión en investigación.

Hace unos días leímos cómo una empresa aseguraba que a finales de 2010 podría fabricar módulos fotovoltaicos a 0,55 €/Wp, sin duda la industria está avanzando a paso de gigante para reducir sus costes. ¿Está más cerca la paridad con el mercado?

A su manera, China invierte una cantidad muy elevada en I+D, utilizando las empresas estatales para la financiación. Esto pone en el ojo de mira a EE.UU. dónde se ha abierto un debate entre Richard Rosen del Tellus Institute y Bill Gates de Microsoft, a cuenta de la inversión en investigación y financiación de las energías renovables. China es un ejemplo de cómo los recursos estatales han dado resultado llevando a la fotovoltaica a reducir enormemente sus costes.

En esta licitación, más del 70% de las ofertas ganadoras fueron presentadas empresas controladas por el Gobierno.The China Power Investment Group dominó la última ronda de la licitación con un total de siete ofertas aceptadas. The Upper Yellow River Hydropower Development Co., del grupo de The China Power Investment Group, presentó la oferta más baja para esta ronda (0,7288 yuanes / kWh) y se convirtió en el ganador del proyecto Gonghe Qinghai de 30 MW. A 0,9907 yuan / kWh, el Xinjiang Energy Co., Ltd., también filial de la China Power Investment Group, fue el mejor postor del proyecto de 20 MW de Xinjiang Hetian.

martes, 4 de mayo de 2010

Una batería recargada para tu coche eléctrico en un minuto

Una batería recargada para tu coche eléctrico en un minuto

Hasta ahora uno de los mayores problemas que los coches eléctricos están encontrando es la recarga de sus baterías. Una recarga completa puede tardar horas con un enchufe convencional, y por el momento no muchos disponemos de enchufes trifásicos. Aún así una recarga duraría de media unos 20 minutos con corriente de 380 voltios. De camino al trabajo o en desplazamientos medios no podemos permitirnos parar mucho tiempo para recargar las baterías, un repostaje de gasolina se despacha en muy pocos minutos.

Este problema podría desaparecer rápidamente si la idea de Better Place prospera. Se trata de una “electrolinera” en la que en lugar de cargar nuestras baterías las sustituyen por otras iguales ya cargadas. Sobre el papel la idea es brillante, y en la práctica completamente viable. El coche se coloca sobre unas marcas en el suelo y un robot extrae la batería descargada, acoplando una batería cargada exactamente igual en poco más de un minuto, notablemente más rápido que echar 50€ de gasolina.

Una batería recargada para tu coche eléctrico en un minuto

La empresa Better Place es de reciente creación, pero ya ha conseguido excelentes contratos con los estados de Israel y Japón por ejemplo. Ya ha instalado 17 puntos de recarga eléctrica en Israel, y pretende aumentar esa cifra hasta 1.500 en el menor tiempo posible. El proveedor tambien está colaborando con fabricantes como Subaru, Mitsubishi o Renault en el desarrollo de baterías para sus futuros modelos eléctricos. La idea es que dichas baterías tengan un formato estándar compatible con su “electrolinera”.

Precisamente, ese ha sido una de las mayores críticas de grandes fabricantes de automóviles inmersos en el desarrollo de eléctricos propios. Cuando se masifiquen los coches eléctricos, los fabricantes no producirán una batería estándar, y no estarán tampoco dispuestos a ello a priori; es un problema que no existe con los combustibles líquidos. También alegan – sin demasiado fundamento – que las carcasas de los packs de baterías se pueden dañar tras muchos ciclos de acople y desacople.

Una batería recargada para tu coche eléctrico en un minuto

Otra de las razones que esgrimen es que poner una batería distinta cada vez es el equivalente a cambiar de motor cada vez que vayamos a repostar. Maticemos, inicialmente fabricantes como Renault pretenden alquilar en regimen de leasing las baterías, debido al alto coste para el usuario. Better Place idea algo similar, las baterías serán de su propiedad, simplemente nos cobrarán por su uso y recarga una cantidad fija. No nos compliquemos la vida, será tan sencillo como pagar por repostar y olvidarnos.

Para los estados que quieran adquirir estas electrolineras, Agassi – presidente de Better Place – admite que el coste es alto por el momento, el sistema cuesta 500.000$. Pero las economías de escala también juegan aquí un papel importante, la tecnología se abaratará a medida que sus ventas despeguen. “El reto no son los coches ni las baterías, es la integración y estandarización de tecnologías e infraestructuras“. Agassi se muestra optimista, “todo acabrá encajando”. Ojalá tenga razón.


viernes, 30 de abril de 2010

Impacto del coche eléctrico en la red

El Instituto Tecnológico de la Energía (ITE), junto a Iberdrola y otras ocho empresas valencianas, coordina un proyecto cuyo objetivo es estudiar y validar el sistema en el que queden definidos tanto un vehículo eléctrico como su recarga en puntos determinados de la red. Este proyecto cuenta con el apoyo de la Consellería de Industria, Comercio e Innovación.

Las empresas que participan en este proyecto multidisciplinar son: Iberdrola Distribución, Mobilidad Urbana Sostenible, Power Electronics, Nutai, GND, Tecnibat, CPD, IDOM y Montesol. Estas provienen de diversos sectores como la energía, ingeniería de automoción, electrónica, movilidad urbana, automatización, baterías y consultoría.

En este proyecto se realiza el análisis de la Red eléctrica y de su evolución para conocer la disponibilidad energética, los momentos de máximo y mínimo consumo y valorar el impacto en la demanda de energía que puede tener la introducción a gran escala de vehículos eléctricos. Con estos datos las compañías distribuidoras podrán realizar la planificación de sus redes para poder soportar la carga que significa la introducción del coche eléctrico como medio de transporte.

Los datos que salgan de este proyecto permitirán obtener una distribución geográfica de los puntos de carga de forma que el usuario del vehículo eléctrico tenga la seguridad de “abastecimiento”, una de las barreras que hay que vencer para la introducción masiva de estos coches. También se analiza la posibilidad de carga en casa del usuario.

Proyecto piloto:


Según han confirmado los técnicos del ITE, está previsto que en el año 2014 se pueda introducir una flota de 60.000 vehículos eléctricos en el conjunto de la Comunidad Valenciana que se completará con unas 150.000 estaciones inteligentes de recarga para poder verificar el comportamiento de todo el sistema.

Para los técnicos del ITE, el coche eléctrico sólo será un éxito si se sortean algunos inconvenientes como una “red de recarga distribuida geográficamente de forma óptima y que responda a las necesidades reales de movilidad de los ciudadanos”. Según Sixto Santonja, coordinador del proyecto “tal y como se ve en todos los foros sobre vehículos eléctricos es necesaria la creación de una infraestructura de transporte para la recarga de las baterías que permita ubicar de forma óptima los puntos de recarga y los contadores asociados, de ahí que nuestro proyecto incida tanto en este sistema de unidades inteligentes de recarga”.

Para Alfredo Quijano, director del ITE “desde el ITE queremos apoyar a las empresas valencianas y a la sociedad en general en el desarrollo de un proyecto que beneficia al conjunto de la sociedad. Además nos ponemos en sintonía con la estrategia marcada por la Unión Europea de una producción masiva en 2014 de vehículos eléctricos como alternativa a los combustibles fósiles”.

La apuesta del ITE es ayudar en los desarrollos tecnológicos y coordinar a las diferentes partes para que el proyecto salga adelante. El vehículo eléctrico es el único medio de transporte individual a través del cual se puede utilizar la energía de manera más eficiente, mediante el aprovechamiento óptimo de la energía renovable que se distribuye en la red eléctrica.

Con este proyecto se afianzan las capacidades necesarias para cooperar con los planificadores de despliegues de vehículo eléctrico.

Además del apoyo de la Conselleria de Industria, Comercio e Innovación, a través de fondos FEDER, este proyecto cuenta con la asesoría de la Asociación Valenciana de la Energía (AVEN) y REDITA (Red Tecnológica de Automoción), perteneciente a REDIT, del cual ITE es miembro fundador.

viernes, 23 de abril de 2010

Desalación con energía solar

Arabia Saudí cubre gran parte de sus necesidades de agua potable mediante la eliminación de la sal y otros minerales del agua marina. En la actualidad, el país tiene previsto utilizar uno de sus recursos más abundantes para hacer frente a su escasez de agua dulce: el sol. La agencia nacional de investigación de Arabia Saudí, la Ciudad para la Ciencia y la Tecnología del rey Abdulaziz (la KACST, en sus siglas en inglés), está construyendo lo que será la mayor planta mundial de desalinización mediante energía solar en la ciudad de Al-Khafji.

La planta utilizará un nuevo tipo de tecnología de concentración solar fotovoltaica (FV), así como nuevas tecnologías de filtración de agua, que la KACST ha desarrollado junto a IBM. Cuando se haya completado a finales de 2012, la planta producirá 30.000 metros cúbicos de agua desalada al día para satisfacer las necesidades de 100.000 personas.

El objetivo principal de la KACST es reducir el coste de la desalinización del agua. La mitad de los gastos de funcionamiento de una planta de desalación en la actualidad provienen del consumo de la energía, y la mayoría de las plantas actuales funcionan con combustibles fósiles. Dependiendo del precio del combustible, producir un metro cúbico cuesta en la actualidad entre 40 y 90 centavos.

La reducción de costes no es la única razón por la que llevamos soñando con la unión de las energías renovables y el proceso de desalación durante décadas, afirma Lisa Henthorne, directora de la Asociación Internacional de Desalación. "Será buena cualquier cosa que podamos hacer para reducir este coste a lo largo del tiempo, o para reducir las emisiones de gases de efecto invernadero asociados con ese consumo de energía", afirma Henthorne. "Esta es realmente una demostración con el fin de pulir los errores, y ver si las tecnologías pueden funcionar bien juntas."

Si bien la nueva tecnología FV concentrada podría generar electricidad a precios asequibles, la energía solar todavía cuesta más que los combustibles fósiles en muchas partes del mundo. No obstante, a pesar de los altos costes, utilizarla para los procesos de desalinización tiene sentido, señala Henthorne. "No lo hacemos porque sea lo más barato ahora mismo, sino porque sería lo más barato a largo plazo."

Las plantas de desalinización suelen utilizar procesos de destilación. La mayoría de las plantas de próxima apertura, entre ellas la de Al-Khafji, utilizarán un proceso llamado ósmosis inversa, que hace pasar el agua marina a través de una membrana de polímero y utilizando la presión para filtrar la sal. Ambos métodos son de alto consumo energético. Arabia Saudí, el principal productor de agua desalinizada en el mundo, utiliza 1,5 millones de barriles de petróleo al día en sus plantas, según Arab News.

La FV concentrada de la nueva planta y los sistemas de ósmosis inversa utilizarán materiales avanzados y desarrollados por IBM para la fabricación de chips de ordenador.

En una instalación fotovoltaica concentrada, las lentes o espejos enfocan la luz del sol en unas células solares ultra-eficientes que convierten la luz en electricidad. La idea es reducir los costes al utilizar menos materiales semiconductores de células solares. Sin embargo, al multiplicar la energía del sol cientos de veces se crea una gran cantidad de calor. "Si no enfriamos el dispositivo, se terminan sobrecalentando los circuitos y podemos destruirlos", afirma Sharon Nunes, que ocupa la vicepresidencia de Grandes Innovaciones Verdes de IBM. La solución de IBM consiste en utilizar un metal líquido altamente conductor—una aleación de galio indio—en la parte inferior de los chips de ordenador de silicio para extraer el calor. Al usar este metal líquido, los investigadores han sido capaces de concentrar el poder del sol 2.300 veces sobre un dispositivo solar de un centímetro cuadrado. Eso es tres veces superior a lo que es posible con los sistemas de concentración actuales, afirma Nunes.

Para la desalinización, IBM ha trabajado con investigadores de la Universidad de Texas en Austin para desarrollar una membrana sólida que hace que la ósmosis inversa sea más eficiente en cuanto a energía. La desalinización se lleva a cabo hoy día con membranas de poliamida que acaban atascándose con el aceite y los organismos del agua marina. El cloro utilizado para el tratamiento previo del agua marina también acaba descomponiendo las membranas con el paso del tiempo.

La nueva membrana de polímero contiene alcoholes de hexafluoro, un material que IBM utiliza para los patrones de los circuitos de cobre en los chips de ordenador. A un pH elevado, los grupos de flúor se cargan y protegen la membrana contra el cloro y las obstrucciones. Como resultado, el agua fluye a través de ellas entre un 25 y un 50 por ciento más rápidamente que a través de las membranas de ósmosis inversa usadas en la actualidad, según señala IBM.

La nueva membrana elimina el 99,5 por ciento de la sal en el agua marina. Esto es comparable con las membranas de poliamida convencionales, afirma Menachem Elimelech, presidente de ingeniería química en la Universidad de Yale. "Hay que lograr este alto nivel de rechazo, de lo contrario no podríamos conseguir una buena calidad de agua con sólo una pasada, y habría que desalar de nuevo".

La planta desalinizadora de Al-Khafji es el primer paso dentro de un programa de energía solar de tres pasos puesto en marcha por la KACST para reducir los costes de la desalinización. El segundo paso será una instalación de 300.000 metros cúbicos, y en la tercera fase participarán varias plantas de desalinización mediante energía solar localizadas en diversos puntos.

jueves, 15 de abril de 2010

La NASA pone a prueba el nuevo todoterreno lunar

Los ingenieros hicieron varios tests con el todoterreno eléctrico en el desierto de Arizona.

Si los astronautas de la NASA vuelven a la luna la década próxima, surcarán la superficie lunar con estilo.

El plan actual de la agencia espacial es enviar humanos de vuelta a la luna en 2020, y esto incluye el uso de un nuevo vehículo de exploración llamado Lunar Electric rover (LER). En relación al tamaño de esta pequeña furgoneta, el LER tiene 12 ruegas pivotantes que permiten a este todoterreno moverse en cualquier dirección o girar rápidamente; también incluye una cabina basculante para ver el terrero de cerca; además funciona con baterías y células de combustible.

Esta semana, la NASA completó unas pruebas de campo del todoterreno en Black Point Lava Flow, Arizona, como parte de un evento anual denominado Desert Reseach and Technology Studies (D-RATS). El paisaje desértico—un terreno escabroso de dunas y sujeto a tormentas de arena y cambios violentos de temperatura—es ideal para la simulación de la exploración lunar.

La NASA empezó a desarrollar el LER en 2007. Hoy día “está lo más cerca posible de ser [completamente] operativo,” afirma Michael Gernhardt, astronauta y director del Laboratorio de Fisiología Ambiental del Centro Espacial Johnson de la NASA (JSC) en Houston.

El nuevo todoterreno está presurizado para que los astronautas puedan explorar con seguridad una mayor parte de la superficie lunar. Durante el programa Apollo, la exploración se limitó a la distancia que los astronautas pudieran caminar en sus trajes espaciales en caso de que el todoterreno dejase de funcionar—aproximadamente 9,7 kilómetros. El LER tiene un rango de unos 241 kilómetros puesto que los astronautas podrían permanecer dentro en condiciones seguras hasta que fuesen rescatados por otro todoterreno—la NASA planea tener al menos dos al mismo tiempo en la superficie.

El nuevo vehículo pesa cuatro toneladas, tiene un motor de 20 caballos y puede atravesar colinas de 30 grados y escalar rocas de hasta un metro. “Es una bestia,” afirma Rob Ambrose, ingeniero de robótica humana en JSC, y que trabaja en el LER.

Las 12 ruedas del LER funcionan a partir de dos motores eléctricos y pueden pivotar 360 grados, lo que permite al vehículo moverse de forma lateral, como si fuera un cangrejo. “Si las cosas se complican, tiene un método para escabullirse, y además puede levantar sus ruedas y bajarlas para evitar cualquier tipo de problema,” afirma Ambrose.

El LER es un vehículo eléctrico conectable que utiliza unas tecnologías de baterías similares a las de los vehículos eléctricos comerciales o destinados al consumidor. En la actualidad, utiliza una batería de litio-ion con 125 vatios-hora por kilogramo, aunque el todoterreno final necesitará 200 vatios-hora por kilogramo. Dentro del vehículo existe una bicicleta de ejercicio que los astronautas pueden utilizar para recargar las baterías.

Las pruebas de campo de Arizona fueron importantes tanto para el vehículo como para los astronautas. Los tests “nos dan la oportunidad de desarrollar los requerimientos que necesitaríamos realmente para la exploración, los distintos escenarios de las misiones, como por ejemplo las actividades científicas, y las distintas fases temporales del control de la misión,” afirma Joe Kosmos, director de misiones del D-RATS.

La NASA llevó a cabo un simulacro de misión de 14 días durante el cual dos tripulantes vivieron dentro del todoterreno y sólo salieron, poniéndose los trajes espaciales, para ejecutar paseos espaciales simulados. Además de evaluar el rendimiento del todoterreno, Kosmos afirma que el objetivo era también evaluar las condiciones para los astronautas. Los investigadores del D-RATS también pusieron a prueba cómo los distintos escenarios de comunicación—continua, limitada y en tiempo no real—afectaban a la productividad de la tripulación.

Los así llamados “trajepuertos” permiten a los astronautas entrar y salir de sus trajes sin ni siquiera tener que meterlos en el vehículo, dejando la cabina libre de polvo y contaminantes. En la parte de atrás de la cabina se abre una escotilla, y el sistema o paquete de respiración artificial sirve como puerta de entrada para que el astronauta pueda salir del traje y entrar en el vehículo. Esto también significa que los astronautas se pueden meter en el traje en menos de 10 minutos, algo realmente significativo si se compara con las seis horas que tarda este procedimiento en la Estación Espacial Internacional.

La cabina del LER, que igualmente hace las funciones de resguardo contra tormentas de polvo o el sol, también se puede desenganchar. En ese caso, los astronautas pueden utilizar la base del todoterreno, llamada Chariot, para la exploración o para llevar grandes cargas explosivas. El Chariot se puede conducir por astronautas o se puede manejar de forma remota.

Durante la misión simulada, el todoterreno cubrió un total de 142 kilómetros y llevó a cabo un simulacro de rescate de miembros de la tripulación “perdidos”, utilizando un nuevo software de navegación para encontrar a los astronautas en menos de una hora. El LER se acopló con un segundo todoterreno, llamado Athlete—un vehículo para subir cargas pesadas y que se operaba de forma remota. Un tercer todoterreno, llamado K-10, se utilizó para explorar la zona de pruebas unos cuantos meses atrás, analizar el área, hacer un mapa, obtener datos y planear las tareas del LER.

“Hemos llevado a cabo con éxito nuestra misión de 14 días y hemos demostrado que dos miembros de la tripulación se pueden mantener dentro del vehículo eléctrico durante todo ese periodo de tiempo,” afirma Kosmos.

Aquí adjunto el video, donde se puede ver las prestaciones del nuevo todo terreno de la NASA:

http://link.brightcove.com/services/player/bcpid8670904001?bctid=50605388001

viernes, 9 de abril de 2010

Aviones robóticos para la captura de datos climáticos

Unos nuevos aviones robot analizarán la atmósfera superior de la Tierra con mayor detalle.

Por primera vez, la NASA ha empezado a realizar vuelos con un vehículo no tripulado por humanos y en el que se incluyen instrumentos científicos específicos para observar la atmósfera de la Tierra con gran detalle. La agencia se ha asociado con Northrop Grumman para equipar a tres aeronaves, llamadas Global Hawks, que fueron entregadas a las NASA por la Fuerza Aérea de los EE.UU. Al contrario que con las aeronaves tripuladas por humanos y equipadas con herramientas de observación terráqueas, los Global Hawks pueden volar durante 30 horas y viajar a distancias más lejanas, así como a mayores altitudes; también pueden tomar datos más precisos que los satélites y se pueden estacionar para analizar un área durante periodos de tiempo extendidos.

“Hay ciertos tipos de datos científicos atmosféricos y terráqueos que aún no poseemos, a pesar de que contamos con cosas como los satélites, las aeronaves tripuladas por humanos y las redes con base en la superficie,” afirma Robbie Hood, directora del programa de Sistemas de Aeronaves sin Tripulación Humana de la Administración Nacional Oceánica y Atmosférica (NOAA, en sus siglas en inglés). NOAA ha alcanzado un acuerdo con la NASA para ayudar en la construcción de instrumentos científicos y en la guía de misiones científicas para los Global Hawks. Hood evaluará las aeronaves para determinar cómo pueden utilizadas del mejor modo. Por ejemplo, afirma, podrían sobrevolar un huracán para analizar si su intensidad cambia o volar sobre el ártico para analizar cambios en el hielo marino con más detalle.

La primera misión de los Global Hawks fue lanzada la semana pasada—una aeronave voló desde el Centro de Investigación Dryden Flight de la NASA en la Base de la Fuerza Aérea Edwards en California sobre el Océano Pacífico. Los científicos del proyecto lanzarán aproximadamente un vuelo a la semana hasta finales de abril. El aparato está equipado con 11 instrumentos distintos para tomar medidas y hacer mapas de los aerosoles y gases de la atmósfera, hacer perfiles de las nubes, y obtener datos meteorológicos como por ejemplo la temperatura, los vientos y las presiones. También posee cámaras de alta definición para tomar imágenes de los océanos en distintos colores.

“La primera misión es principalmente una misión de demostración para probar las capacidades del sistema,” afirma Paul Newman, co-científico del proyecto y físico atmosférico en el Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland. La aeronave también volará bajo el Satélite Aura, un satélite de la NASA que en la actualidad se dedica al estudio del ozono de la Tierra, la calidad del aire, y el clima, para validar sus mediciones, haciendo comparaciones entre sus lecturas y las nuevas mediciones que puede llevar a cabo la aeronave. “Los satélites nos proporcionan cobertura global cada día, pero no pueden observar una región con demasiada precisión. La aeronave nos puede proporcionar observaciones con frecuencia y una resolución muy alta,” señala Newman.

Los aeroplanos robóticos operan de forma completamente autónoma—los científicos programan el avión antes de su salida con los destinos a los que se desee llegar, y el avión navega por sí mismo. Sin embargo, los científicos pueden cambiar la vía de vuelo del avión una vez esté en ruta, o pilotarlo de forma remota en caso de emergencia. Puesto que los vuelos del Global Hawk pueden durar hasta 30 horas (en comparación con las 12 horas de un vuelo tripulado por humanos), el avión puede volar a regiones, tales como el ártico, que normalmente resultan demasiado peligrosas para las misiones tripuladas por humanos.

La NASA adquirió las aeronaves de la Fuerza Aérea de los EE.UU. en 2007. En un principio fueron desarrolladas para misiones de vigilancia y reconocimiento. En la actualidad, los investigadores están modificándolas para que lleven a cabo sus primeras misiones científicas extensas en la Tierra. “Podemos obtener mediciones de alta resolución in situ, y ese es realmente el estándar al que aspiramos, y algo que no hemos sido capaces de alcanzar hasta ahora,” señala Randy Albertson, director del Programa de Ciencia Aérea de la NASA en la división de ciencia terráquea en Dryden.

Entre los instrumentos a bordo de la primera misión se incluyen: un instrumento LIDAR que utiliza un pulso de láser para medir la forma, tamaño y densidad de las nubes y aerosoles; un espectrógrafo que mide y crea un mapa de contaminantes como el dióxido de nitrógeno, el ozono y los aerosoles; un fotómetro ultravioleta para mediciones de ozono; un cromatógrafo de gas para calcular los gases de efecto invernadero; un puñado de otros instrumentos capaces de medir con precisión el vapor de agua atmosférico y los clorofluorocarbonos reductores de ozono; además de cámaras de alta definición para tomar imágenes de los océanos en distintos colores y aprender acerca de sus procesos biológicos.

Los investigadores también podrán tomar muestras de la atmósfera que no hayan sido capaces de alcanzar o analizar durante grandes periodos de tiempo—la troposfera superior y la estratosfera inferior. La aeronave puede volar a una altitud de 19,812 kilómetros y puede viajar a casi 22.800 kilómetros. Esa parte de la atmósfera es “una región crucial que responde y contribuye al cambio climático en la superficie, y nos hemos dado cuenta de que apenas tomamos muestras de ella,” señala David Fahey, co-científico del proyecto y físico de investigación en el Laboratorio de Investigación de Ciencia en la Tierra de NOAA, en Boulder, Colorado. “No sabes lo que ocurre en ciertas regiones de la atmósfera, acabas malinterpretando lo que ocurre en la superficie.”

La NASA y Northrop Grumman modificaron las aeronaves para que fuesen un sistema de tipo plug-in, y que los instrumentos pudiesen extraerse fácilmente para ser repuestos por otros nuevos, dependiendo de la misión. El avión también puede ser rediseñado para misiones específicas, si así fuese necesario.

“Los aviones son realmente híbridos robóticos entre satélites y aeronaves, y que van a revolucionar el modo en que llevamos a cabo la ciencia,” afirma Newman. La siguiente misión consistirá en estudiar huracanes en el Caribe, e incluirá una nueva serie de instrumentos para los aviones.

viernes, 19 de marzo de 2010

El Gobierno deja intacta la 'ley antidescargas'

Varias 'webs' de enlaces, como Seriesyonkis.com, llevan a cabo un 'apagón' en señal de protesta.

El Gobierno no ha dado ni un solo pasa atrás en la disposición final de la Ley de Economía Sostenible (LES) que regula las descargas de Internet y la persecución de las páginas web que enlazan o alojan sin permiso archivos protegidos bajo derechos de autor como películas, música o videjuegos, según confirmaron en fuentes gubernamentales. El Ejecutivo ha aprobado el proyecto de la LES en un Consejo de Ministros celebrado en Sevilla.

Aunque el Ejecutivo no ha difundido aún el texto del proyecto de ley salido del Consejo, fuentes ministeriales han indicado que no se ha tocado el texto de la disposición final aprobada el 8 de enero pasado, en el que se incluyó la tutela de la Audiencia Nacional en el bloqueo de las webs denunciadas por la Comisión de Propiedad Intelectual.

De esta forma, y tal y como se esperaba el Ejecutivo da por suficiente la modificación introducida en enero respecto al texto original del anteproyecto aprobado en noviembre pasado, en el que no existía esa tutela judicial. La denominada ley Sinde, llamada así porque su principal impulsora es la ministra de Cultura, Ángeles González-Sinde, tendrá ahora que tramitarse junto al resto de la LES en el Parlamento que se espera que la apruebe antes de que acabe el primer periodo de sesiones, a finales de junio. En ese trámite los grupos parlamentarios podrán introducir sus enmiendas.

Posteriormente, deberá redactarse el reglamento que desarrolle la ley y, en particular, la forma de elección y la composición de la Comisión de Propiedad Intelectual dependiente del Ministerio de Cultura , que se encargará de tramitar las denuncias contra las páginas webs, en un procedimiento rápido, que incluye el bloqueo de las páginas infractoras.

El anteproyecto de ley ha sido informado por distintos órganos consultivos como el Consejo General del Poder Judicial, La Fiscalía General del Estado, la Comisión del Mercado de Telecomunicaciones y el Consejo de Estado.

Pese a la polémica que ha suscitado esta medida en la opinión pública, el presidente del Gobierno, José Luís Rodríguez Zapatero, no se ha referido en ningún momento a ella en la rueda de prensa posterior al Consejo de Ministros celebrado en Sevilla este mediodía. Tampoco los periodistas que estaban allí le han preguntado al presidente sobre la cuestión. Y en la nota que se distribuye tras el Consejo, disponible también en la página de La Moncloa , hay referencia alguna a la polémica disposición adicional primera que posibilita el cierre de páginas webs.

Actos de protesta

La aprobación del proyecto de ley ha vuelto a desatar reacciones de protesta desde gran parte de la comunidad internauta. Blogs, páginas de Internet y webs de medios informativos y especializados han vuelto a colgar en sus portadas el Manifiesto en defensa de los derechos fundamentales en Internet que se publicó el pasado 2 de diciembre cuando se conoció el anteproyecto de la LES.

No obstante la acción más impactante ha sido el "apagón" de varias webs de enlaces entre los que figuran Cinetube oSeries Yonkis dos de los portales más populares para el visionado de series de televisión y vídeos. Al abrir las webs se puede leer sobre un fondo negro "Por la libertad en la Red. No al cierre de webs", Estos sitios prolongarán su medida de protesta hasta las 00.00 horas del sábado, día 20, cuando volverán a funcionar con normalidad.

La organización Facua-Consumidores en Acción ha lanzado una campaña para solicitar al Gobierno un cambio en su política cultural, al considerar que ha criminalizado a los usuarios por las descargas de Internet, según ha informado hoy la asociación en un comunicado.

La campaña se desarrollará bajo el lema 'Si es legal, es legal' y dará la posibilidad a los consumidores de adherirse a un manifiesto contra las medidas promovidas por el Ministerio de Cultura contra las descargas.

En el manifiesto se denuncia que "el Ministerio de Cultura viene desarrollando una política de criminalización de los usuarios al dictado de las entidades de gestión de derechos de autores y editores y las multinacinales que dominan la industria cultural".

"Ya está bien de insultar a millones de ciudadanos calificándolos de piratas, llamándolos criminales, por el mero hecho de compartir cultura", señala el manifiesto, que pide "un cambio en las formas de gobernar, comenzando a escuchar a los ciudadanos y no sólo a la industria".

No es la única reacción. El mismo Tsunami que sacudió Internet cuando El País destapó las intenciones del Gobierno socialista está incendiando hoy la Red. Cientos de páginas y blogs han incluido en sus páginas este banner, iniciativa que promueve Red Sostenible, que ya ha conseguido sumar a su causa a más de 33.000 páginas y otras 340.000 webs lo referencian. Las redes sociales y Twitter, como ya viene siendo habitual, son un hervidero de mensajes contrarios al polémico proyecto de ley.

martes, 23 de febrero de 2010

Wi-Fi at the Speed of Light

Wireless optical networks could provide gigabit-per-second data transfer.
A wireless network that uses reflected infrared light instead of radio waves has transmitted data through the air at a speed of one gigabit per second--six to 14 times faster than the fastest Wi-Fi network. Such optical networks could provide faster, more secure communications and would be especially suitable for use in hospitals, aircraft, and factories, where radio-frequency transmission can interfere with navigation equipment, medical devices, or control systems. Another possible application is wireless networking for home theaters; a system that transmits data at 1.6 gigabits per second could broadcast two separate high-definition TV channels across a room, a capacity that exceeds the bandwidth of any existing radio system.

Penn State graduate student Jarir Fadlullah and Mohsen Kavehrad, professor of electrical engineering and director of the university's Center for Information and Communications Technology Research, built and tested the experimental system. Their setup sent data across a room by modulating a beam of infrared light that was focused on the ceiling and picking up the reflections using a specially modified photodetector. The pair says that their measurements show the system could support data rates "well beyond" the one gigabit per second they are currently claiming.

"This probably will be the next generation wireless communications technology," says Zhengyuan Daniel Xu, professor of electrical engineering at the University of California, Riverside. Xu is also the director of the UC-Light Center, a consortium of researchers working on wireless optical communications at different UC campuses. "Light will give you higher data rates than radio frequencies, and RF already has a very congested spectrum."

Optical wireless networks could also offer less interference and greater security than radio-frequency networks, Kavehrad says. While radio signals pass through walls and doors, light does not, making it easier to reuse frequencies and more difficult to intercept transmissions. He also notes that unlike radio frequencies, the spectral region for all light--infrared, visible, and ultraviolet--is unregulated worldwide. This could make it easier to commercialize optical wireless networks.

Researchers have studied indoor optical communications since the late 1970s, when engineers at IBM Zürich built the first working system. The technology languished because the Internet was still in its infancy, and there was no demand for wireless broadband systems--though interest has picked up in the past few years.

Kavehrad's demonstration is by far the highest speed that's been demonstrated for an indoor wireless optical network, says Valencia M. Joyner, assistant professor of electrical and computer engineering at Tufts University. She notes that the transmission distances that he and Fadlullah achieved, and their use of diffuse light rather than a point-to-point optical system, are especially important. "There are a lot challenges in demonstrating the high-speed capabilities of indoor optical signals," she says. "The fact that he was able to demonstrate a one-gigabit-per-second system with diffuse light is extremely significant. That drastically reduces the complexity of the transceiver system."

Kavehrad and Fadlullah built the experimental system using a low-power infrared laser to prevent possible damage to the eyes or skin. They focused the light through a lens, creating an elliptical spot on the ceiling; they then used a high-sensitivity light detector called an avalanche photodiode to pick up the light reflected off the ceiling. They used a plastic holographic lens to collect enough reflected light from the ceiling spot and focus it on to the photodiode's active area. By using the lens, Fadlullah and Kavehrad could transmit a one-gigabit-per-second optical signal across a room about eight meters long by four meters wide.

Free-space optical networks have previously been used to transmit broadband data over long distances, but the high power of the lasers and need for a clear line of sight and extremely precise alignment between the transmitter and receiver have limited their usefulness. The low-power, diffuse light approach that Kavehrad and Fadlullah chose doesn't require such precise alignment and is much more practical for indoor communications. Kavehrad says that their system should work for visible and ultraviolet light as well as infrared.

Companies such as Intel, InterDigital, Siemens, Sony, Samsung, Mitsubishi, and Sanyo are all pursuing research on optical wireless networks, say Kavehrad and Xu. Several of these companies are members of the Infrared Data Association (IrDA), an industry organization that is developing technical standards for infrared wireless communications. IrDA recently announced the GigaIR standard for very short range, line-of-sight infrared communication links operating at one gigabit per second. And the IEEE 802.15 working group, which sets standards for wireless personal area networks, is working to create standards for wireless networks that use visible light, says Fadlullah.

Kavehrad says that "a lot of engineering has to happen" before optical wireless networks are a reality. He and Fadlullah used lasers, transmitters, and receivers not designed for communications in their experimental system; all of that equipment must be optimized for data networking. However, Kavehrad says, if development of white LEDs for indoor lighting continues at its present pace, it should be possible to have practical wireless optical networks within three years. "The main limiting factors will be industries and their politics, as well as consumer demand," he says.

miércoles, 17 de febrero de 2010

Clústers de ordenadores capaces de calentar edificios

Un nuevo sistema de enfriamiento por agua hace que los ordenadores utilicen su calor de forma más eficiente para calentar edificios.
Se han utilizado para hacer modelos informáticos del cambio climático, para prever las tendencias económicas, y simular la complejidad intrínseca de las proteínas. Sin embargo, IBM tiene en mente una nueva aplicación para los ordenadores de alto rendimiento: calentar edificios.

Gracias a un nuevo sistema de enfriado por agua instalado en el propio chip que ha desarrollado la compañía, la energía térmica de un grupo de procesadores informáticos se puede reciclar de forma eficiente para suministrar agua caliente a una oficina, afirma Bruno Michel, director de empaquetado termal avanzado en el Laboratorio de Investigación de IBM en Zurich, Suiza. El objetivo, afirma, es mejorar en rendimiento energético de los grandes grupos de ordenadores y reducir el impacto ambiental que provocan.

Un esquema piloto basado en un sistema informático equipado con este tipo de tecnología se espera que logre ahorra 30 toneladas de emisiones de dióxido de carbono al año—el equivalente a un 85 por ciento de reducción en la huella de carbono. Una novedosa red de capilares microfluídicos dentro de una placa de disipación térmica se adhiere a la superficie de cada chip dentro del grupo de ordenadores, lo que permite que el agua se pueda bombear a sólo micrones del material semiconductor mismamente. A pesar de su proximidad con el circuito, no hay riesgo de gotera, afirma Michel, puesto que los capilares están herméticamente sellados. Al hacer que el agua pase tan cerca de los chips, el calor se puede disipar de forma más eficiente. El agua, calentada a 60 °C, se pasa a través de un intercambiador de calor para así generar el calor que será finalmente distribuido a otras zonas.

IBM ha empleado varios años en desarrollar esta tecnología de enfriado microfluídica, y tiene previsto ponerla a prueba con el Instituto Federal de Tecnología de Suiza, en Zurich. Un clúster de 10 teraflops consistente en dos Servidores BladeCenter de IBM será utilizado por el Laboratorio de Ciencia Informática e Ingeniería de la universidad para poder generar los modelos de las dinámicas de los fluidos que son necesarios para la investigación nanotecnológica. Después el agua se bombeará en el sistema de calefacción de la universidad, lo que ayudará a calentar 60 edificios. “Este es el primer sistema a gran escala,” afirma Michel. “Tiene un tamaño aproximadamente 20 veces menos al de un centro de datos típico.” El objetivo final de esta tecnología, afirma, es ayudar a combatir los problemas de calentamiento que sufren los centros de datos de gran tamaño.

Hasta un 50 por ciento de la energía que consumen los centros de datos modernos se gasta en enfriar el aire. La mayoría del calor se desperdicia puesto que simplemente se arroja a la atmósfera. Se han dado pocas iniciativas para reciclar el calor que generan los centros de datos convencionales. Por ejemplo, un centro de datos de 9 pisos y 18.500 metros cuadrados que la compañía de alojamiento Telehouse está construyendo en Londres será capaz de proveer calefacción a las oficinas cercanas. Otras compañías, entre las que se incluye IBM, han utilizado el exceso de calor para calentar invernaderos o piscinas. Sin embargo, la reutilización de los residuos térmicos resulta bastante cara puesto que las temperaturas que se pueden recolectar son relativamente bajas, afirma Frank Brand, director de operaciones del centro de datos de la compañía holandesa de ingeniería Imtech. “Sólo se pueden obtener de 30 a 35 grados Celsius,” afirma.
Por el contrario, y puesto que el agua es mucho más eficiente que el aire para capturar el calor, el enfriamiento a base de agua hace que se obtengan temperaturas mucho más elevadas, señala Michel. El agua se utilizó en un principio para enfriar los ordenadores, aunque este método consistía únicamente en unas tuberías de agua fría que pasaban por detrás de las cajas de los servidores para enfriar el aire cercano a los armarios de metal.

Según algunas estimaciones, la infraestructura de la tecnología de la información es responsable de un 2 por ciento de las emisiones globales de dióxido de carbono, lo que la equipara con la aviación. Y hay expertos que aseguran que esta cifra se duplicará en los próximos cinco años.

“Es más eficiente calentar el agua y trasladarla a algún otro lugar que hacer lo mismo con el aire,” afirma Jonathan Koomey, científico de proyectos en los Laboratorios Nacionales Lawrence Berkeley y profesor asesor en la Universidad de Stanford. En 2005, los centros de datos consumían un 1 por ciento de la electricidad mundial—el doble que en 2000, afirma Koomey. Sin embargo, no está convencido de que esta cifra siga subiendo. “Hay muchas formas de mejorar la eficiencia de los centros de datos,” afirma. Por ejemplo, un mejor control de los centros de ordenadores podría ayudar a mejorar los niveles de eficiencia de forma dramática. “Tenemos servidores que, como media, funcionan a un 5 o 15 por ciento de su carga máxima,” afirma Koomey. “Incluso si el servidor no lleva a cabo ninguna tarea, aún así está consumiendo entre un 60 y un 70 por ciento de potencia.”

Brand también señala que “usar el aire para enfriar resulta mucho más barato” y que los centros de datos modernos consumen mucha menos energía de enfriado que los centros más antiguos.

La tendencia hacia el apilamiento de los procesadores unos encima de otros para incrementar la densidad de potencia es otra razón por la que IBM sigue apostando por este sistema microfluídico de enfriamiento con agua, afirma Michel. Los chips tridimensionales de este tipo suponen un serio problema para los sistemas de enfriamiento tradicionales a base de aire,” afirma.

lunes, 8 de febrero de 2010

¿Qué hay dentro del chip del iPad?

El coste y la eficiencia de energía podrían haber empujado a Apple a crear su propio microchip.

A pesar de todas las especulaciones, no se sabe nada más sobre el chip A4, incluido en el corazón del iPad de Apple, que lo que Steve Jobs anunció la semana pasada.

Jobs describió el chip con su moderación habitual durante la presentación del iPad. “Funciona con nuestro propio silicio—el chip A4 de un gigahercio de Apple,” afirmó, añadiendo que el chip A4 incluye la integración de una CPU y un chip gráfico en un único sistema en un chip (SoC, en inglés).

Poco después del comunicado, los expertos empezaron a especular con el hecho de que el chip podría estar basado en la misma arquitectura ARM del iPhone y el iPod Touch.

“No he podido encontrar ninguna fuente oficial que confirme que el A4 utilice ARM,” afirma Tom Halfhill, analista senior de Microprocessor Report. Sin embargo, señala, es lógico asumir que el iPad esté utilizando un procesador basado en la arquitectura ARM. “Tiene sentido, puesto que así Apple no tendría que transportar el SO del iPhone a una nueva arquitectura de CPU.”

Hay quienes han sugerido que el chip podría estar basado en los últimos diseños ARM, más veloces, aunque tanto el núcleo ligeramente más antiguo y lento ARM Cortex 8 como el más reciente ARM Cortex 9 son capaces de funcionar a velocidades de reloj de un gigahercio, señala Halfhill. Aumentar la velocidad de un núcleo ARM Cortex 8—el núcleo que se pensaba que estaba incluido en el chip fabricado por Samsung con el que funciona el iPhone 3GS—a un gigahercio sería posible puesto que el iPad tiene más espacio para las baterías, lo que permite a los ingenieros hacer que el A4 vaya a más voltaje y, por tanto, una mayor frecuencia de reloj.

Gene Munster, analista de investigación senior en Piper Jaffray, afirma que Apple podría haber sentido la necesidad de desarrollar su propio chip por una razón simple. “Una de las razones por las que Apple lo ha hecho es por ahorrar dinero en el chip,” señala Munster. “En el iPhone, el chip de Samsung cuesta 15 dólares—es la tercera parte más cara del teléfono. Pasar de 15 a 5 dólares no suena como que sea mucho, pero si lo multiplicas por 15 millones de dispositivos, la suma es importante.”

La velocidad ‘cruda’ ha sido otra de las razones citadas para explicar el paso de Apple hacia la fabricación de su propio chip, sin embargo Munster no lo cree así—no teniendo cuenta que compañías como NVidia y Qualcomm ofrecen diseños de potencia similar para los netbooks y otros dispositivos. “No puedo imaginar que Apple fuera capaz de construir algo por si misma que fuese mejor que lo que construyen estas compañías,” afirma.

Una razón más probable que explique por qué Apple ha construido su propio chip, afirma Munster, se haya en la necesidad de mantener el consumo de energía al mínimo. “Podrían crear algo que no fuese tan rápido, pero que tuviera un mejor consumo,” señala. “Si te fijas en la vida de la batería de la que están hablando, la tableta es más grande que el iPhone pero parece ser que han hecho un mejor trabajo en cuanto a la vida de la batería.”

El núcleo de gráficos del A4 puede que también use la arquitectura ARM, aunque esto requeriría un tipo de traducción una traducción sobre la marcha del código de las aplicaciones ya existentes para el iPhone. Puesto que “casi todas” las aplicaciones del iPhone ya existentes se podrán ejecutar en el iPad, es más que probable que Apple continue usando versiones mejoradas de los mismos núcleos gráficos presentes en el iPhone y el iPhone 3GS, que fueron creados a partir de diseños cuya licencia pertenece a Imagination Technologies, con sede en el Reino Unido.

Los representantes de Imagination no han querido comentar si el Soc del A4 utiliza un núcleo de Imagination. No obstante Apple posee un poco menos del 10 por ciento de la compañía y todos los modelos del iPhone y el iPod Touch utilizan la familia de núcleos gráficos PowerVR MBC de Imagination. La compañía también confirmó recientemente que el iPhone 3GS utiliza el diseño mejorado del PowerVR SGX. Si el iPad sigue con esta tendencia, podría aprovechar aquellas características del núcleo gráfico de Imagination que resultan excepcionalmente apropiadas para hacer funcionar una pantalla tan grande como la del iPad.

Por ejemplo, Imagination utiliza un sistema llamado “tile-based deferred rendering,” que ayuda a que la interfaz de usuario sea más rápida. “Lo que hacemos es dividir la pantalla en pequeñas zonas,” señala Kristof Beets, director de desarrollo de negocio de gráficos en Imagination. Esto permite a los núcleos gráficos del chip computar las distintas zonas individuales de la pantalla—por ejemplo, 32 por 32 píxeles en una pantalla de 800 por 480, con los datos almacenados en los cachés del chip. El chip evita el acceso a la RAM cada vez que haya que hacer un renderizado a pantalla completa, con lo que es capaz de renderizar una pantalla llena de imágenes mucho más rápidamente.

Una segunda característica de la tecnología de Imagination que podría ser relevante es la del “renderizado diferido”. Normalmente, los algoritmos de 3-D computan los datos de la localización de un objeto dado después de computar su forma y los efectos de luz que se aplican sobre él. Esto significa que cuando los píxeles de la pantalla corresponden a objetos bloqueados por otros objetos, parte de esa computación es desaprovechada. Lo mismo ocurre con los objetos en ventanas puestas unas sobre otras en entornos de escritorio. Los chips de Imagination, por el contrario, computan en primer lugar la localización de los datos, minimizando el número de computaciones que deben hacerse y por tanto permitiendo un menos consumo de energía.

En abril de 2008, Apple adquirió P.A. Semi, un fabricante de chips especializado en procesadores con eficiencia energética y que utilizan la arquitectura PowerPC—la misma arquitectura utilizada por Apple en sus computadoras hasta que cambiaron a las CPUs de Intel en 2006.

“Algunos de los ingenieros de P.A. Semi tenían experiencia con el entorno ARM y, por supuesto, sus conocimientos sobre diseño de chips serían transferibles a cualquier arquitectura de CPU,” señala Halfhill. “No obstante, se tardaría al menos 12 ó 18 meses en diseñar, depurar y manufacturar un SoC altamente integrado como el Apple A4, lo que hace poco probable que los ingenieros de P.A. Semi lo hayan diseñado partiendo desde cero.”

Bajo el punto de vista de Halfhill, esto hace que sea mucho más probable que el chip A4 esté principalmente hecho a partir de diseños que sigan con gran detalle los núcleos ARM existentes. “Apple tendría que trabajar a una enorme velocidad para diseñar su propio núcleo compatible con ARM y el SoC del A4 en tan poco tiempo,” afirma. “Por eso creo que el A4 está construido sobre núcleos de ARM ya existentes.”

Halfhill sugiere que los ingenieros de P.A. Semi podrían haber sido convocados para trabajar en otro proyecto distinto al chip A4. “No me sorprendería si muchos o la mayoría de los ingenieros de P.A. Semi estuvieran asignados a otro proyecto—como por ejemplo un futuro chip A5 de Apple,” afirma.

jueves, 28 de enero de 2010

Apple presenta su iPad

El aparato tiene una pantalla de 9,7 pulgadas.- El modelo más barato costará 355 euros.- Ofrece descarga de libros digitales.

Primero fue el iPod, y con él cambió la industria musical; luego llegó el iPhone, y con él la telefonía y el Internet móvil. Ahora Apple pretende cautivar de nuevo al mundo, esta vez con el foco en el mundo editorial, con su iPad . En una demostración más de su hombre fuerte, Steve Jobs, de que la tecnología puede ser bella, fácil y ligera , el iPad se ha presentado, en medio de una histeria mediática, para revolucionar la industria editorial. Este sector lleva años sufriendo la caída de la circulación por el efecto de Internet y busca fórmulas creativas que contenten al consumidor y a la industria.
A medio camino entre el teléfono y el portátil", según el consejero delegado de Apple, Steve Jobs, iPad es un navegador de Internet, un reproductor multimedia para escuchar música o ver vídeos, películas y programas de televisión; una consola de videojuegos y, tiembla Amazon, un lector de libros electrónicos con pantalla a color. El eReader, que soporta el formato abierto ePUB, va asociado a la nueva tienda iBooks que viene a completar la oferta de contenidos de Apple en la Red. Una compañía que Jobs autodefinió como "la mayor empresa de aparatos móviles del mundo". De momento, Apple cuenta con el apoyo de cinco de las grandes editoriales, como Penguin, Harper Collins, Simon & Schuster, MacMillan o Hachette, que ofertarán sus contenidos en iBooks.

El iPad es un aparato multitáctil, con pantalla de 9,7 pulgadas, ligero (680 gramos) y fino, muy fino (12 milímetros de espesor). Un aparato con la mayoría de funcionalidades que el iPod Touch, salvo que no lleva cámara (aunque ofrece un kit de conexión) ni Webcam. Tampoco es un teléfono, aunque algunos modelos sí llevan una conexión de datos 3G. iPad, según Jobs, "mejora la experiencia visual de sus anteriores creaciones" con una batería que dura hasta 10 horas "para poder ver vídeos sin parar en un trayecto en avión hasta Tokio", aseguró el consejero delegado.

También incluye otras 12 nuevas aplicaciones específicas para el aparato, como Keynotes para crear y realizar presentaciones simplemente con los dedos, tal y como popularizó iPhone. Además, los 140.000 programas disponibles en la tienda de aplicaciones también correrán sobre el nuevo aparato "sin necesidad de que los desarrolladores los modifiquen". Gigantes del videojuego, como Electronic Arts o Gameloft y The New York Times, el diario favorito de Steve Jobs, salieron ayer al escenario para demostrar al auditorio las mejoras que iPad supone para sus respectivos sectores. Martin Nisenholtz, representante del rotativo, aseguró que con este aparato "realmente entramos en la próxima generación del periodismo digital".

El aparato estará disponible en todo el mundo dentro de dos meses en su versión con conexión inalámbrica Wi-Fi por 499 dólares (16GB), 599 dólares (32GB) y 699 dólares (64GB). Las versiones con 3G aparecerán un mes después, a 629 dólares (16GB), 729 dólares (32GB) y 829 dólares (64GB). De momento, sólo hay acuerdo con la operadora AT&T, que, sin contrato obligatorio, suministrará a los estadounidenses la conexión móvil por 14,99 dólares para descargas de hasta 250 MB al mes o por 29,99 dólares para un acceso ilimitado. Jobs aseguró que desde ya mismo "trabajaremos para llegar a acuerdos con otras operadoras en el mundo", y que esperaba no se dilataría hasta más allá del próximo mes de julio. Además, quienes quieran, podrán acoplar un teclado físico al aparato.

El reproductor musical iPod y el teléfono inteligente iPhone han significado un antes y un después en la historia de Apple. De ser una empresa de ordenadores pasó a ser una vendedora de tocadiscos y luego una vendedora de teléfonos.

Y de fabricar para una élite a producir para las masas y -más milagroso aún- sin bajar de precios. Apple es la envidia de cualquier empresario, pero no sólo por sus productos sino por el margen de beneficio que obtiene de cada uno que vende. Con el margen de beneficio y el cerebro de Steve Jobs se entiende que Apple valiera en bolsa hace diez años 6.000 millones de dólares y hoy 50.000 millones de dólares.

El éxito no se entendería sin dos tiendas online, iTunes (principalmente para música y películas) y App Store, la tienda de aplicaciones para el teléfono. Primero, Apple probó que las descargas de canciones en Internet podían dar (y dan) beneficios; después que, más allá de la voz, las aplicaciones para los smartphones o teléfonos inteligentes (auténticos ordenadores de pantalla táctil, con Wi-Fi, conexión 3G a Internet, música, vídeo, y que además sirven para hablar) son el futuro de la telefonía móvil. El año pasado este mercado recaudó 4.200 millones de dólares en todo el mundo.

Con 140.000 programas disponibles (desde juegos como el Tetris a utilidades de oficina o curiosidades como tocar la ocarina) y 3.000 millones de descargas (gratuitas y de pago) desde su lanzamiento en 2008, la tienda de aplicaciones ha revitalizado, sobre todo, las ventas de iPhone (25 millones el año pasado y 47 desde su lanzamiento en junio de 2007) ya que los ingresos por estas pequeñas compras se reparten en un 70-30 entre el desarrollador y el propietario de la tienda.

Dos días antes del lanzamiento del iPad, Apple informó de que duplicó sus ganancias en el último trimestre de 2009 respecto al mismo periodo anterior, fundamentalmente gracias a los iPhone y a los ordenadores Macintosh. El beneficio neto fue de 3.380 millones de dólares (2.390 millones de euros).

Sólo el tiempo dirá si, por enésima vez, el mundo deberá descubrirse ante el creador de los Macs, el creador de los iPod, el creador de los iPhone, el creador de los estudios Pixar, Steve Jobs.