Llegamos a ustedes gracias a:



Conversando con...

Carlos Miñambres, director de proyectos del departamento de operaciones y tecnología de Gowex, antigua IBER-X

“La recomendación es esperar a que 802.11n sea definitivo”

[06/11/2008] Hace meses que abundan en el mercado dispositivos con conectividad inalámbrica basada en el borrador de 802.11n, y ya no solo routers o tarjetas; sino, incluso, impresoras, que se están preparando para la llegada de una norma que finalmente se retrasará hasta el primer trimestre del 2009. No obstante, muchos suministradores se han volcado con sus mensajes de márketing en este pre-n, que dicen, ha roto los moldes en cuanto a adopción de un estándar aún no ratificado.

Se trata, ésta última, de una opinión con la que difiere Carlos Miñambres, director de proyectos del departamento de operaciones y tecnología de Gowex, antigua IBER-X, que desde su posición como suministrador de servicios de telecomunicaciones ve que las empresas aún no están demandando esta conectividad con demasiada contundencia. Pese a todo, aconseja aguantar hasta la ratificación del estándar con la salvedad de aquellas empresas que tengan que desplegar su red inalámbrica desde cero: entonces, habría que confiar en un proveedor de referencia que garantice que los dispositivos serán compatibles con la norma final.
La industria de redes se está volcando con el futuro estándar 802.11n. ¿En qué entornos es más apropiada su implantación?
Es un estándar adecuado para interior nada más. Al utilizar varias antenas y aprovechar rebotes de señal, está indicado para sitios cerrados porque asegura cobertura de una manera o en otra mediante sus diferentes frecuencias. En zonas abiertas, no se está implantando, al menos nosotros no lo estamos planteando porque, al no existir ese rebote de la señal, no puedes aprovechar las ventajas que va a dar. En ese caso es mejor enlaces punto a punto, el típico WiMAX u otro estándar con el que se consiga una mayor direccionabilidad.
¿Qué nos promete el estándar definitivo?
Las capacidades teóricas proceden de la suma de tres enlaces. El dispositivo tiene tres tarjetas de radio y transmite por dos de ellas en 2,4 GHz y por otra en 5 GHz. El equipo divide la señal entre esas tres y la transmite, y el aparato receptor recibe por las tres antenas y reconstruye esa señal. En condiciones ideales, implica la suma de tres enlaces que dicen da hasta 300 Mbps; ejecutando el modo turbo podrías obtener hasta  600 Mbps. Pero, la realidad es que uno de los tres canales puede tener interferencias o estar muy saturado, no puede montar la señal en condiciones y tiene que bajar la velocidad. Además, hay que hacerlo compatible con las versiones anteriores y ahí, lógicamente, el aparato tendrá que disminuir su rendimiento para poder funcionar a 11 Mbps o lo que te pueda dar otro Wi-Fi. Si quieres adoptar 11n, tienes que dar el cambio completo, con la inversión que eso supone.
Desde su perspectiva como compañía de servicios para empresas, ¿están estas organizaciones solicitando equipos bajo este borrador de n?
No. Primero porque al estar en borrador no consigues encontrar un fabricante que luego te garantice que vaya a ser actualizable con la norma y que sea compatible con todos los dispositivos. Además, requiere que todos los equipos de la oficina incorporen esas tarjetas, lo que implica un nuevo despliegue para algo que todavía está en borrador. Hay sitios donde sí te planteas, por fracaso del estándar g o b, para aprovechar el uso de varios canales, de los rebotes, porque necesitas conexión inalámbrica en un lugar difícil de cablear. Pero, en principio, no te va a dar nada más que no te vaya a dar el Wi-Fi 802.11b/g. Las velocidades teóricas sostenidas del estándar n, en la práctica, no son así; no te da 300 Mbps.
Es más el márketing de los fabricantes?
Sí, desde un punto de vista de márketing es verdad que te dicen que dará 300 megas, que tendrá mucha cobertura, pero luego hay los típicos chascos que lees en Internet donde dicen que les va igual que el Wi-Fi, que tienen los mismos problemas, las mismas deficiencias de cobertura, interferencias con móviles, etc.; tienen los mismos problemas que con 802.11b/g pero sin tener una aplicación real en entornos abiertos, como redes metropolitanas. Hubo otro estándar, el g plus, que pretendía llegar a 125 Mbps en conexiones punto a punto, y sí era de aplicación en exteriores por temas bidireccionales y sí podías pretender conseguir más velocidad utilizando el modo turbo. Pero ahora mismo, no te planteas utilizar n porque necesitarías tres antenas apuntando a tres sitios diferentes y tendrías que separarlas más de dos metros una de otra, y montar una torre enorme para hacer un solo enlace. No hay una diferencia en rendimiento tan grande como para que justifique el gasto. Y volviendo al principio, por ahora, hay que hacerlo todo con el mismo fabricante porque no todos lo hacen igual. Todos te prometen que va a ser actualizable, pero de momento no se sabe si será así.
Algunos expertos hablan de que 11n podría incluso sustituir al cable. ¿Está de acuerdo con esta afirmación?
Es un poco capcioso porque te prometen que con n vas a conseguir velocidades superiores a Ethernet pero con un cable Ethernet puedes llegar a transmitir hasta 1.000 Mbps, que no es posible utilizando estándar n. Te hacen esa comparación entre algo que es estable y funciona frente a algo que todavía es teórico, y gana el estándar Wi-Fi. Es capcioso porque para pasar de una red de 100 a una de 1.000 solo tienes que cambiar switches; las computadoras, prácticamente cualquiera, ya viene con tarjeta de 1000.
¿Y en cuanto a la seguridad?
El estándar n intenta mejorar las dos primeras capas de la red con nuevas medidas de seguridad y sistemas de encriptación; pero, siempre encontrarás, sobre todo a la hora de desplegarlo, que las personas que tienen que adoptar esos cambios de tecnología son reacios porque la información va por el aire. Es una barrera que siempre tienes que romper. Pero si está bien implementado y bien seguido, sí, es seguro, pero tan seguro como puede ser b, g o a, porque básicamente es lo mismo.
Se consideraría más bien como un complemento?
Te viene bien donde no puedes o no quieres desplegar cable, en instalaciones temporales, eventos, sitios donde no vas a desplegar kilómetros de cable para poco tiempo. Te promete una velocidad superior, no tienes que tender infraestructura, es seguro, pero como una red fija? En mi opinión, no da nada que no pueda dar una red cableada o un Wi-Fi normal, siempre que esté bien instalado.
La excusa de la velocidad es uno de los principales motivos para dar el salto a este nuevo estándar. ¿Qué contenidos se están transmitiendo que necesitan esta mayor tasa de transferencia?
Desde el punto de vista doméstico, todos estamos incorporando reproductores multimedia, utilizando programas para la descarga de archivos y al mismo tiempo estamos navegando, jugando en línea, vemos videos en páginas? Todo ese contenido, cuando pasa por una sola red, si es b, se queda pequeño y, entre repeticiones de paquetes y errores de transmisión, notas que no puedes ver la película a la vez que descargas. Si tienes una red Wi-Fi que te promete más velocidad, podrás hacer todo eso, y estaría justificado desde un punto de vista doméstico. Pero por el momento, no se nota la diferencia de rendimiento. Hay que ver que ese estándar no solo se ha probado y es estable, sino que los equipos incorporan suficiente memoria RAM y suficiente procesador para procesar esas tres señales y exprimir el estándar. Porque puede ser que se fabrique un router o un dispositivo de transmisión justo, para que puedan anunciar que es pre-n, pero luego el aparato no tiene capacidad para procesar tres señales encriptadas, protegidas, desmontarlas en trozos, enviarlas y por otro lado, recibir y volver a montar en unos tiempos tan rápidos.
Una vez ratificado el estándar, ¿cuándo prevén que se produzca el gran salto?
Aprobado el estándar y suponiendo que todos los portátiles puedan actualizarse, no todo el mundo sabe actualizar el firmware de una tarjeta de su portátil si el suministrador no se lo facilita, porque siempre te sale algún mensaje de advertencia que te frena a la hora de actualizarlo. El salto será cuando obliguen al cambio a ese estándar; cuando todos los equipos y dispositivos traigan un chip con tecnología n, vayan desapareciendo del mercado los g, o los b, o
los a y se fuerce ese cambio como lo hacen las compañías de software a una nueva versión de su aplicativo. Pero no creo que sea un cambio buscado por la gente.
¿El consejo que dan, entonces, es esperar?
Siempre. Una empresa no puede arriesgarse a implantar algo que no sea compatible con lo demás porque tienes que volver a gastar el dinero otra vez. La recomendación es espera a que el estándar esté aprobado y así podrás consultar ofertas, mezclar marcas, y saber que funciona. Porque te puedes encontrar con un sistema aislado y tendrías que volver a invertir dinero para ser compatible. La única ventaja es que serás seguro; nadie va a entrar en tu red porque es única, por verle algo bueno. Sin embargo, las empresas no pueden arriesgarse a experimentar, sobre todo si tienes que sacarle un rendimiento económico, una amortización en años. Una empresa grande se va a gastar mucho dinero en implantar algo a gran escala y en unos meses no puede exponerse a perderlo todo. En el caso de una empresa que tenga que desplegar toda la infraestructura partiendo de cero, habría que ver en qué condiciones pretenden tener esa red. Yéndose a un fabricante con prestigio, podrían aplicar el estándar pre-n, pero siempre con gente que sabes que van a responder.
CIO, España