Llegamos a ustedes gracias a:



Noticias

Un grupo de expertos del MIT reflexiona sobre el futuro de las redes

[06/03/2013] Un panel de discusión que ha tenido lugar esta semana en el MIT ha elogiado los grandes avances registrados en la tecnología de redes, pero advierte que los desafíos que afronta la infraestructura mundial de información son graves.
La mayoría de los problemas se derivan de la rápida multiplicación de la demanda, tanto en términos de dispositivos como de los datos, según destacó el analista de IDC, Rohit Mehra, que moderó el debate. En él participaron profesores de universidad y jefes de estrategia de compañías, como Akami o Venian Works.
Ya no podemos hablar de millones, sino de miles de millones de dispositivos que están operativos, aseguró Mehra. En los últimos tiempos, en la industria hemos empezado a hablar de la enorme cantidad de dispositivos por persona que hay en el planeta.
Pero, en opinión de Mehra, no se trata solo de la proliferación de dispositivos conectados a la red, sino también de fenómenos como el muy conocido de internet de las cosas que trata el creciente número de objetos y electrodomésticos que antes no eran online y ahora están en la red, lo que supone que podría haber 30 mil millones de dispositivos funcionando en todo el mundo en el 2020.
A pesar de que un gran número de estos equipos son automóviles o neveras, Alexander Akami subrayó que una parte sustancial de crecimiento total de la demanda en el futuro será resultado del incremento en el ratio de dispositivos por persona.
En el 2005, explicó, había un poco más de mil millones de usuarios de Internet y 1.500 millones de equipos online conectados. En el 2010, estas cifras pasaron a 1.800 millones y cinco mil millones, respectivamente, y las proyecciones indican que podrían alcanzar los 2.900 y 15 mil millones en el 2015. Hay una explosión de puntos finales de red, asegura Alexander.
Y aunque el aumento de la velocidad de conexión máxima puede indicar que el servicio cubre el aumento de la demanda, en su opinión, es importante observarlo más de cerca.
Para Kristofer Alexander, estratega de Akami, hay mejoras indudables en este mundo hiperconectado. También participó como panelista Roy Russell de Veniam Works, que forma parte de este fenómeno. Su compañía ha iniciado el desarrollo de una red en forma de malla que pretende ofrecer servicio de conexión en carretera, para disponer de Wi-Fi y otras aplicaciones dentro de un auto.
En esta línea, mencionó un proyecto piloto que monitoriza las constantes vitales de los conductores de autobuses y se conecta con la red. Entre otras ideas posibles, alució a la posibilidad de detectar la huella de carbono de un tramo concreto de la carretera y la mejora en cuanto a navegación y detección de tráfico.
Sin embargo, algunos expertos consideran que esta hiperconectividad es problemática, especialmente en cuatro puntos importantes. El primero es el protocolo de Internet en sí mismo. La norma que hace posible tener una Internet global, como se concibió originalmente, es esencialmente el número de direcciones IP que se puede utilizar. Nunca se concibió que todos los habitantes del planeta tendrían múltiples direcciones IP.
Esta limitación de IPv4 se ha resuelto con la nueva versión IPv6, pero no es compatible con lo anterior, convirtiendo la transición en un serio dolor de cabeza.
El segundo problema es el protocolo de control de transporte TCP. Este sistema, diseñado para resolver los problemas de congestión de red y mejorar su fiabilidad, tiene un problema aparentemente menor, pero que sin embargo complica su uso en conexiones inalámbricas, que son cada vez más frecuentes.
El miembro de la Universidad de Boston, Marcos Crovella, señaló que el problema es, como estamos viendo, que nos estamos moviendo hacia un mundo en el que la mayoría de los datos procede o se sincroniza con una red inalámbrica, Y las redes wireless tienen propiedades diferentes y pierden paquetes, por varias razones. Una red inalámbrica puede perder un paquete por razones que no tienen nada que ver con la congestión de la red, señaló.
Esto significa que la pérdida de paquetes provocaría que el TCP asuma que la red está congestionada y actúe en consecuencia.
El tercer problema es la falta de seguridad en los niveles más altos de Internet. El protocolo de Gateway fronterizo que regula el tráfico entre ISP grandes no tiene un plus de seguridad, aseguró el profesor, un hecho que ha sido explotado en varios incidentes de alto perfil, en los últimos años.
Por último, según Crovella, hay una escasez de espectro inalámbrico disponible para proyectos de redes a gran escala, lo que significa que las frecuencias existentes pueden tener que ser reutilizadas y obligar a realizar nuevas subastas de espectro.
Por ejemplo, el espacio en blanco entre canales de televisión, será probablemente utilizado para redes domésticas y vamos a tratar de desalojar las frecuencias que se han utilizado en el pasado para ello, explicó.
Jon Gold, Network World (EE.UU.)