Llegamos a ustedes gracias a:



Reportajes y análisis

Directo de los laboratorios: El futuro de las TI, hoy

[08/07/2010] Debido a su permanente promesa de revolución, no pocas veces la industria informática ha decepcionado a los consumidores. Al fin y al cabo, la netbook, en el fondo, no es más que una laptop, solo que más pequeña y menos cara. El chip que hoy le da vida a la PC es un descendiente directo de los Pentiums de ayer. Y pese a sus 2TB de almacenamiento, el disco duro sigue siendo un disco duro. Entonces, ¿de qué hablamos cuando hablamos de innovación?

En los laboratorios de los principales proveedores de TI y las más renombradas universidades, un ejército de investigadores va marcando la pauta del futuro. Los productos y las ideas concebidas en estos laboratorios son capaces de provocar terremotos en la industria de TI. Desde las redes hasta los sistemas de almacenamiento, pasando por la protección de información sensible y la manera en que los usuarios interactuarán algún día con las interfases de cómputo; cada faceta de la empresa se encamina por rutas revolucionarias.
Estas son solo algunas de las ideas que se cocinan en los laboratorios de hoy, tecnologías futuras que podrían ver la luz antes de lo que usted se imagina. 
Procesadores: Romper la Ley de Moore
Desde mediados del siglo 20, la historia de la computación ha estado marcada por la obsesión de desafiar la Ley de Moore. Bautizada así por el cofundador de Intel, Gordon E. Moore, la premisa propone que los circuitos integrados duplicarán su performance cada 18 meses. En la práctica, las predicciones de Moore han resultado bastante acertadas. Aunque los fabricantes de chips prácticamente alcanzaron los límites del diseño moderno de procesadores, la llegada de los CPU de núcleo múltiple les permitió dar aun mayor potencia a los cada vez más compactos paquetes de chips.
Sin embargo, algunos científicos consideran que la Ley de Moore tiene los días contados, aunque no precisamente debido a que los procesadores vayan a dejar de ganar velocidad. Al contrario, su pronóstico consiste en que, dentro de poco, la computación experimentará un salto espectacular. Las computadoras cuánticas, que obtienen su capacidad de procesamiento de las singulares propiedades de las partículas subatómicas, son señaladas por muchos expertos como la próxima gran evolución de la informática. Pero mientras los científicos se devanan los sesos tratando de armar computadoras quantum de uso práctico -hasta el momento, los experimentos más exitosos apenas han logrado resolver cálculos simples-, otras tecnologías de procesamiento, aún en ciernes, pueden resultar tanto o más revolucionarias.
En la Universidad de Illinois, el profesor Rakesh Kumar ha propuesto una novedosa manera de mejorar la velocidad de los actuales CPU: quitar los frenos. Actualmente, afirma, los chips gastan demasiado tiempo tratando de ejecutar de manera absolutamente correcta cada cálculo, mientras que los circuitos integrados de la vida real cometen errores a cada rato. La obsesión de garantizar una performance impecable, hace que los chips consuman más energía que la necesaria, dificultando así la reducción del tamaño de sus componentes. No todas las fallas son una catástrofe, opina Kumar, cuyo equipo está trabajando bajo el concepto de diseño de procesadores con tolerancia a fallas en vez de los error-free o libres de errores. Combinados con un software que pueda lidiar con los errores de la CPU, estos chips, llamados stochastic o estocásticos, pueden correr más rápidamente bajo menores niveles de potencia sin riesgo de perder el control. 
Mientras tanto, equipos de la Universidad Tecnológica de Michigan y del Instituto Nacional de de Ciencias de Materiales, de Japón, están probando un enfoque mucho más radical: renunciar completamente al silicio y optar por el DDQ -un compuesto formado por carbono, nitrógeno, oxígeno y cloro- para construir una computadora molecular que, según afirman, imita la estructura de procesamiento paralelo del cerebro humano. Una computadora que realmente reprodujera los procesos cerebrales, tendría una envergadura ampliamente superior a los CPU actuales. Como este diseño usa moléculas orgánicas, los investigadores creen que sus computadoras podrían obtenerse a partir de algas, en vez de tener que construirlas mediante procesos químicos industriales. 
 
Networking: Adiós a las recargas de tráfico
La frase "la red es la computadora" fue acuñada en 1984 por el investigador de Sun Microsystems, John Gage, pero hoy resulta más acertada que nunca. Desde el servidor más potente hasta el dispositivo móvil más pequeño, el único requisito para un sistema moderno de cómputo es brindar un acceso inmediato, rápido y confiable a la red. Sin embargo, debido a la creciente demanda de contenido multimedia, alcanzar ese objetivo sigue siendo todo un desafío. Afortunadamente, ya están emergiendo nuevas tecnologías de red que prometen recuperar el sentido del concepto "ancho de banda de alta velocidad "; y podrían estar a nuestro alcance antes de lo que imaginamos. 
El estándar 802.11n, que ofrece networking inalámbrico a velocidades de hasta 600Mbps, es un proyecto de larga data. Si bien los clientes recién comienzan a actualizarse desde los estándares, más lentos, 802.11b y 802.11g, eso no significa que el trabajo en Wi-Fi se haya detenido. Al contrario, Wi-Fi Alliance y Wireless Gigabit Alliance han unido fuerzas para desarrollar la nueva generación de Wi-Fi, que promete ser un avance tan significativo como lo fue el 802.11n. El nuevo estándar trabajará con el espectro de radio a 60GHz y podrá alcanzar tasas de transferencia de datos de hasta 7Gbps, suficiente como para emitir video de calidad Blu-ray.
Sin embargo, las velocidades Wi-Fi solo afectan el área local. La velocidad de acceso a la web sigue dependiendo de la conexión al ISP (proveedor de servicio de internet, por sus siglas en inglés). Aunque, por ahora, las conexiones más veloces solo han estado disponibles para los clientes que tienen acceso a enlaces directos de fibra óptica, gracias a una tecnología que se está desarrollando en Alcatel-Lucent, los ISP deberían, en breve, estar en capacidad de ofrecer acceso de bajo costo a velocidades cercanas a las de la fibra óptica para un público mucho más numeroso. Dicha tecnología, que usa una combinación de técnicas de procesamiento de señales, promete velocidades de hasta 300Mbps en cables ordinarios de cobre, a una distancia de hasta 400 metros desde puerto de comunicación.
Almacenamiento: Más, más y más
Los data centers son como pichones recién nacidos: siempre tienen hambre. Más capacidad de almacenamiento, mayor densidad, menor consumo de energía y tiempos de acceso más breves, las exigencias son innumerables. Afortunadamente, durante los últimos años, el almacenamiento ha sido una de las áreas de más rápida evolución en las TI, y la tendencia no va a cambiar. Los fabricantes de discos duros están incrementando la capacidad a un ritmo alarmante, aunque los fabricantes de chips les están allanando el camino con dispositivos de alta velocidad en estado sólido. Pero las tecnologías de almacenamiento de datos más novedosas todavía están por llegar, y serán completamente originales.
Los científicos del Almaden Research Center, de IBM, están trabajando en una forma de almacenamiento en estado sólido, llamada "racetrack memory". Usando cables de nanoescala para almacenar información basada en la dirección de los electrones individuales, la memoria racetrack almacena data a una densidad mayor que la flash tradicional, y brinda acceso a esa data a velocidades comparables a las de la RAM tradicional. Tal como en los otros medios de almacenamiento en estado sólido, en este caso los datos se conservan aunque el sistema esté apagado. Sin embargo, a diferencia del actual almacenamiento basado en flash, la performance no se ve perjudicada al escribir en un dispositivo de memoria racetrack, y la memoria nunca se agota.
Por su parte, los ingenieros de HP se han propuesto darle nuevos bríos a una vieja idea. El concepto de "memristor" -unión de las palabras "memoria" y "transistor"- circula en el mundo de las TI desde 1971, cuando apareció en un trabajo del profesor Leon Chua de la UC Berkeley. Sin embargo, no fue hasta el 2008 que HP anunció que había producido exitosamente un memristor. Ahora, HP afirma que la tecnología tiene mucho más potencial del que Chua le atribuyó. Como los memristores tienen algunas de las propiedades de los transistores convencionales, se abre la puerta para un tipo de almacenamiento capaz de ejecutar sus propios cálculos, además de alojar información. Es más, los memristores ofrecen casi el doble de densidad de almacenamiento de los dispositivos flash y son mucho más resistentes a la radiación. HP espera comercializar la nueva tecnología dentro de algunos años. 
Seguridad: La puerta infranqueable
Dado que los negocios y los usuarios acumulan cada vez más información digital, la protección de ese material se ha vuelto un asunto prioritario. Si bien la criptografía sigue siendo una de las herramientas claves para poner a buen recaudo los datos, la creciente potencia de procesamiento ha desatado una vertiginosa carrera armamentista entre los métodos de encriptación y las herramientas para quebrarlos. Es por eso que tanto matemáticos como ingenieros y científicos informáticos están abocados a desarrollar métodos de encriptación menos vulnerables.
Uno de ellos es la criptografía cuántica. Considerada como la primera "aplicación asesina" para la computación cuántica, este tipo de criptografía aprovecha el hecho de que para perturbar un sistema de partículas cuánticas basta con observarlo: cualquier persona que observe -lea- un mensaje que ha sido encriptado usando criptografía cuántica deja una huella indeleble en el mismo mensaje. De manera que resulta teóricamente imposible husmear en un canal que ha sido protegido mediante criptografía cuántica sin que los participantes se percaten de la intromisión. Sin embargo, como ya dijimos anteriormente, la computación cuántica sigue siendo puramente experimental, y sus aplicaciones comerciales ni siquiera están en pañales.
Recientemente, el investigador de IBM, Craig Gentry, descubrió lo que podría ser todo un hito para los actuales sistemas de cómputo. Se trata de un algoritmo capaz de lograr una hazaña que por mucho tiempo fue considerada imposible por los criptógrafos: permite que un sistema de cómputo ejecute operaciones con data encriptada sin tener que desencriptarla previamente. Los datos que llegan encriptados salen encriptados; no hay una etapa intermedia en que la información quede expuesta a miradas extrañas. Aunque harán falta varios años para que podamos ver sus primeras aplicaciones prácticas, el descubrimiento de Gentry podría tener importantes repercusiones en una amplia variedad de sistemas de seguridad digital, desde la banca online hasta los medios digitales.
Displays: Ver para creer
Cuando IBM popularizó la PC, los monitores de pantalla verde eran la norma. Luego, gracias a la evolución de las tarjetas gráficas, estas pantallas monocromas dieron paso al color. Hoy por hoy, los voluminosos monitores CRT a color ya son cosa del pasado. En su lugar tenemos LCD ultradelgados y, además, ahorradores de energía. Nuestras pantallas planas ganan cada vez mayor brillo y precisión gracias a nuevos avances, como la retroiluminación OLED. Pero esto no es todo lo que nos depara el futuro de la tecnología de displays.
Para comenzar, como puede corroborar cualquiera que se haya sentado sobre su celular o lo haya dejado caer desde cierta altura, la actual generación de paneles LCD es más bien frágil. Es por eso que Sony está desarrollando una tecnología de LCD flexible que, según se espera, dará lugar no solo a equipos más durables sino también menos costosos y sencillos de fabricar. Aunque de baja resolución, los prototipos disponibles son tan flexibles que se pueden enrollar en un tubo de 4mm de espesor.
Otra idea es eliminar el monitor. Aunque los proyectores LCD están por todas partes, por lo general son muy aparatosos y funcionan con focos bastantes costosos. Además, la calidad de la imagen varía significativamente dependiendo de la iluminación ambiental. Todo esto podría cambiar con la introducción de proyectores digitales basados en tecnología laser. Para producir color, los monitores tradicionales usan una combinación de luz roja, verde y azul. Hasta el momento los fabricantes no habían podido usar el laser en los dispositivos de proyección debido a que resultaba muy difícil producir esa confiable luz verde. Pero Corning asegura que ha logrado resolver ese problema, de manera que pronto podría ser posible proyectar imágenes nítidas mediante un dispositivo del tamaño de un celular. 
Otro desafío pendiente es conseguir que la luz del día no afecte la imagen; y dada la creciente popularidad de los e-readers, tanto científicos como ingenieros están ansiosos de salvar ese obstáculo. Mirasol es el nombre de una prometedora tecnología de Qualcomm que refleja la luz ambiental, mediante finos espejos electromecánicos, para producir imágenes a color. Debería estar disponible en productos de consumo a partir del 2011. De otro lado, aunque su comercialización es aún muy remota, Liquavista, un derivado de Philips, funciona tanto con el reflejo de la luz ambiental como con retroiluminación propia.
Interfase usuario: Más allá del mouse
Desde la irrupción de la informática en nuestras vidas, la forma en que usamos la PC ha sufrido radicales transformaciones. Sin embargo, la manera en que interactuamos con las computadoras sigue siendo básicamente la misma desde que Apple lanzó la primera Macintosh, en 1984. La metáfora desktop, con sus cursores, dispositivos apuntadores, archivos, carpetas, ventanas, menús y otros artilugios de control todavía predominan en la plataforma gráfica de casi cualquier sistema operativo.
Por lo menos, eso es lo que ocurre en la vida real. Sin embargo, si damos una mirada a los imaginativos escenarios de Hollywood, veremos un deslumbrante abanico de conceptos de interfases de usuario (UI, por sus siglas en inglés), desde las pantallas flotantes de "Minority Report" hasta los cascos con display de Iron Man. ¿Alguna de estas ideas podría tener un uso práctico?
Microsoft piensa que sí. Su plataforma Surface UI ofrece nuevas maneras de transformar objetos cotidianos -como una mesa, por ejemplo- en espacios de computación colaborativo, junto con novedosos dispositivos de ingreso de datos que desafían las limitaciones del mouse común y corriente. La más esperada innovación de Microsoft en este campo es Kinect for Xbox 360, anteriormente conocido como Project Natal. Concebido como un refuerzo para el Xbox Microsoft en su pugilato contra la consola Nintendo Wii, Kinect for Xbox 360 es una interfase de juego sin controladores: para manipular los objetos del juego, los usuarios solo tienen que moverse y hacer gestos en el aire. Si el concepto tiene buena acogida, podría utilizarse también para aplicaciones de dispositivos touchscreen y kioskos.
Sin embargo, el mejor ejemplo de tecnología UI hollywoodense llevada a la vida real es probablemente el entorno espacial operativo g-speak de Oblong Industries. Creado en el Media Laboratory del MIT, g-speak permite controlar mediante gestos y movimientos los objetos gráficos de numerosas aplicaciones potenciales. Ahora que se anuncia el inminente aterrizaje de televisiones 3D y pantallas de monitor en los hogares, no sería raro que g-speak o algo parecido desembarque pronto en nuestra PC. 
Neil McAllister, InfoWorld (US)