
[18/07/2022] El sector del almacenamiento de datos está experimentando una gran transformación impulsada por múltiples factores, como la necesidad de seguridad, velocidad, eficiencia y menores costos. La empresa de investigación de TI, Gartner, predijo recientemente un crecimiento de 23 veces en los petabytes enviados hasta el 2030, una trayectoria que promete remodelar y redefinir radicalmente el centro de datos actual y las operaciones de TI. Para mantenerse en la cima del juego del almacenamiento, siga de cerca estas ocho tendencias.
[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]
1. Almacenamiento en ADN
El ADN, cuando se utiliza como medio de almacenamiento de datos, promete una capacidad mucho mayor y un entorno de almacenamiento más resistente que la arquitectura de almacenamiento tradicional. El almacenamiento en ADN permite el almacenamiento de datos a nivel molecular, archivando la información directamente en las moléculas del ADN.
"Las ventajas del almacenamiento de datos basado en ADN son su densidad y estabilidad”, afirma Nick Heudecker, exanalista de Gartner. "Un gramo de ADN puede almacenar aproximadamente 215 petabytes de datos con una vida útil mínima de 500 años”. Pero no los deje al sol, ya que los rayos UV descomponen el ADN.
Sin embargo, es importante tener en cuenta que esta es una tendencia a largo plazo. Si bien el almacenamiento en ADN está avanzando rápidamente, no es probable que los medios [de almacenamiento] en ADN se conviertan en algo usual en mucho tiempo. Actualmente no hay un cronograma firme para la disponibilidad del almacenamiento en ADN, aunque algunos optimistas esperan que pueda estar disponible comercialmente para fines de la década.
"Las tecnologías actuales de secuenciación y síntesis de ADN son demasiado caras y lentas para competir con la infraestructura tradicional [de almacenamiento]”, señala Heudecker. La latencia de acceso sigue siendo alta, actualmente se mide en minutos a horas, con un rendimiento máximo de escritura que llega a los kilobits por segundo. "Para que una unidad de ADN pueda competir con el almacenamiento en cintas debería soportar un rendimiento de escritura de gigabits por segundo”, señala. Lograr tal velocidad requeriría que la síntesis del ADN, el proceso de escritura, se haga seis órdenes de magnitud más rápido. La secuenciación del ADN, el proceso de lectura debería ser de dos a tres veces más rápido.
Incluso si los desafíos de la latencia de acceso y del rendimiento se pueden resolver con éxito, todavía hay un gran obstáculo de costos que superar. "Los medios de almacenamiento en cinta cuestan aproximadamente entre 16 a 20 dólares por terabyte”, indica Heudecker. Los costos de síntesis y secuenciación del ADN rondan los 800 millones de dólares por terabyte.
2. Seguridad del almacenamiento
Todas las empresas prestan mucha atención a la seguridad de la red, pero muchas descuidan la seguridad total de sus datos, tanto en reposo como en movimiento. "Hoy en día, muchas organizaciones comparten los almacenes de datos entre sus centros de datos locales y los entornos de nube pública o privada", afirma Cindy LaChapelle, consultora principal de la empresa de investigación y asesoramiento tecnológico ISG. "En una época de ransomware, es importante invertir también en la creación de copias de seguridad de los datos que sean air-gapping para que las copias de datos sean inaccesibles en caso de una brecha importante". Air-gapping significa utilizar una computadora independiente que no esté conectada a ningún tipo de red.
Scott Reder, principal especialista en almacenamiento de la consultora de transformación digital AHEAD, afirma que ve un interés creciente en añadir y mejorar las capacidades de resistencia cibernética. La tecnología write-once, read-many (WORM), desarrollada hace años para responder a las necesidades de las organizaciones financieras que cumplen la normativa de la Comisión de Valores de Estados Unidos, está siendo adoptada ahora por las empresas del sector sanitario y de otros ámbitos para evitar la alteración de los datos. Como resultado, herramientas como NetApp SnapLock y Dell OneFS SmartLock han encontrado una nueva vida debido a las crecientes amenazas cibernéticas, sostiene Reder.
Para la protección del almacenamiento primario de archivos/NAS, están disponibles las funciones de análisis en tiempo real que ofrecen productos como Superna Ransomware Defender para Dell OneFS y NetApp Cloud Insights con Cloud Secure para ONTAP, afirma Reder. Para los usuarios de almacenamiento en bloque, hay disponibles instantáneas multifactoriales y/o protegidas para proteger los datos críticos.
A medida que maduran las herramientas de seguridad del almacenamiento, las organizaciones trabajan de forma más proactiva para desplegar productos de almacenamiento con capacidades de seguridad incorporadas que complementan las iniciativas de seguridad más amplias de la empresa, como la adopción del acceso a la red de confianza cero (ZTNA), para proteger los datos de la empresa.
3. Reducción de datos en SSD
La reducción de datos es el proceso de reducir la cantidad de capacidad necesaria para almacenar datos. Esta tecnología puede aumentar la eficiencia del almacenamiento y reducir los costos. Las técnicas de reducción de datos, como la compresión y la deduplicación, se han aplicado a muchos tipos de sistemas de almacenamiento, pero aún no están ampliamente disponibles para las unidades de estado sólido (SSD).
Para garantizar la fiabilidad, la compresión debe ser sin pérdidas, un factor que ha supuesto un reto para los fabricantes de SSD. "Muchos de los fabricantes de almacenamiento all-flash tienen opciones de compresión en línea, pero la tecnología suele ser propiedad del proveedor de almacenamiento", afirma LaChapelle. Es probable que esta situación mejore en un futuro próximo, señala, ya que los proveedores de SSD trabajan para ofrecer la máxima capacidad al menor precio posible.
Además, más allá de la compresión, los proveedores de SSD están buscando en la especificación PCI-Express 4.0 mejoras en el ancho de banda, incluyendo mayores velocidades de lectura y escritura.
4. Conocimiento más profundo de la nube pública
Mapear y modelar el uso de los datos en todo el panorama de aplicaciones de la empresa es fundamental para comprender cómo se aprovechará finalmente el almacenamiento en la nube pública.
Dado que las soluciones de almacenamiento en la nube pública suelen cobrar por la entrada y la salida, así como por el tránsito de datos entre zonas y regiones, poder predecir el grado de movimiento de los datos es fundamental para gestionar los costos y la eficacia del almacenamiento público, señala LaChapelle. Las conversaciones imprevistas entre los centros de datos locales y el almacenamiento de datos en la nube pública pueden crear problemas de rendimiento debido a la latencia. "Es mejor entender completamente las implicaciones de esto antes de que las aplicaciones con codependencias se dividan entre la nube pública y los entornos locales", aconseja.
Los proveedores de almacenamiento han impulsado sus capacidades de análisis. HPE InfoSight, NetApp ActiveIQ y Pure Storage Pure1 Meta son algunas de las herramientas que las empresas pueden utilizar para obtener una visión más completa del almacenamiento.
5. Almacenamiento de objetos
El mundo del almacenamiento está experimentando un cambio espoleado por las aplicaciones nativas de la nube, que incluyen bases de datos, análisis, lagos de datos, inteligencia artificial y tecnologías de lenguaje de máquina. "Estas aplicaciones están impulsando la adopción del almacenamiento de objetos como almacenamiento principal", afirma David Boland, vicepresidente de estrategia en la nube del proveedor de almacenamiento en la nube Wasabi.
Boland señala que existen tres tipos principales de almacenamiento: de objetos, de bloques y de archivos. "El almacenamiento de objetos es el único que ofrece bajo costo y alto rendimiento a escala de exabytes", observa. Boland añade que una reciente encuesta de IDC mostró que el 80% de los encuestados cree que el almacenamiento de objetos puede apoyar sus principales iniciativas de TI, incluyendo IoT, informes y análisis.
El almacenamiento de objetos ha estado ampliamente disponible desde principios de la década del 2000, pero es solo en el último par de años que un sistema de almacenamiento híbrido que consiste en una combinación de mejoras en el rendimiento de NVMe SSD, y la disminución significativa de los precios, ha hecho económicamente factible el despliegue a gran escala, anota Boland.
El rendimiento ya no es un inconveniente del almacenamiento de objetos. Al principio, el almacenamiento de objetos tendía a ser más lento que los enfoques de archivos o bloques a la hora de localizar los datos. Eso ya no es así. Las bases de datos de metadatos de alto rendimiento, los motores de bases de datos y las unidades SSD NVMe ofrecen el rendimiento necesario para aplicaciones de contenido estructurado muy activas, como las bases de datos, explica Boland.
6. Copias de seguridad inmutables
La tecnología de copias de seguridad inmutables está atrayendo el interés de un número creciente de empresas, en particular de organizaciones financieras y jurídicas, y por una muy buena razón. "Inmutable significa 'no se puede cambiar'", señala Chris Karounos, administrador de SAN en el distribuidor de TI, SHI International. "Una copia de seguridad inmutable es una forma de proteger los datos que garantiza que los datos son fijos, inmutables, y que nunca pueden ser borrados, encriptados o modificados", explica.
El almacenamiento inmutable puede aplicarse a los soportes de disco, SSD y cinta, así como al almacenamiento en la nube. El almacenamiento inmutable es fácil y cómodo: el usuario simplemente crea un archivo que incorpora la política de inmutabilidad deseada. "Las copias de seguridad inmutables representan la única manera de estar 100% protegido de cualquier tipo de borrado o cambio en las copias de seguridad", afirma Karounos. "En un entorno empresarial cada vez más acelerado, en el que las amenazas evolucionan constantemente, las copias de seguridad inmutables salvan el juego".
7. Tecnología de bases de datos de series temporales
Una base de datos de series temporales (TSDB, por sus siglas en inglés) está diseñada para soportar lecturas y escrituras de datos a alta velocidad. Las TSDB desbloquean nuevos niveles de flexibilidad que ofrecen las soluciones de almacenamiento de objetos existentes, afirma Jesse White, CTO del proveedor de plataformas de gestión y monitorización de redes de código abierto, OpenNMS Group. "En concreto, las disposiciones de almacenamiento y los índices de estas TSDB se han diseñado de forma inteligente para aprovechar la escalabilidad, la resistencia y los costos baratos asociados al almacenamiento de objetos, al tiempo que se mitigan los impactos de la latencia".
Las TSDB que se ejecutan en el almacenamiento de objetos están dirigidas a empresas, proveedores de servicios gestionados y otras organizaciones que recogen grandes volúmenes de datos de series temporales con fines de observación y/o análisis.
Las construcciones estables de TSDB que pueden aprovechar el almacenamiento de objetos, como Cortex, Mimir e InfluxDB IOx, están fácilmente disponibles. "Las soluciones de almacenamiento de objetos de las que dependen están presentes en todos los principales proveedores de la nube, y las soluciones de código abierto, como MinIO y Ceph, ofrecen API compatibles", señala White.
White informa de que, aunque las TSDB que aprovechan el almacenamiento de objetos suelen ser compatibles con muchas API, las API de almacenamiento de objetos aún no están estandarizadas. "Es posible que las aplicaciones tengan que adaptarse a la solución desplegada", añade.
8. Minimización del almacenamiento
Tong Zhang, profesor del Departamento de Ingeniería Eléctrica, Informática y de Sistemas del Instituto Politécnico Rensselaer, cree que la tendencia más candente en materia de almacenamiento es la necesidad de reducirlo.
La idea de que el almacenamiento es barato, así que guardemos todo, ya no sirve, sostiene Zhang, que también es el científico jefe de la empresa de tecnología de almacenamiento, ScaleFlux. "Los costos compuestos del almacenamiento están pasando factura", señala.
Zhang cree que los datos se acumulan más rápido de lo que las empresas pueden desplegar las arquitecturas de los centros de datos. "Tenemos que poner nuestra energía en ser eficientes, y hay varias estrategias que pueden emplearse en conjunto, como el procesamiento de metadatos para reducir la carga útil, el prefiltrado para reducir la congestión de la red, las funciones de compresión transparente integradas en las unidades y el aumento de la densidad de capacidad sin sobrecargar la CPU", afirma.
Basado en el artículo de John Edwards (Network World) y editado por CIO Perú
Puede ver también: