FotoReportaje - Galería de fotos

Los ganadores del premio Tecnología del Año 2017 de InfoWorld

Los editores y columnistas de InfoWorld eligen el mejor hardware, software, herramientas de desarrollo y servicios en la nube del año.

  • Premios Tecnología del año 2017

    ¿Notó que Google está regalando su salsa mágica? Los ingenieros de Google solían simplemente escribir artículos sobre sus creaciones y luego dejar que otros elaboren el software. Ahora tenemos la suerte de obtener los bienes reales, para la orquestación del centro de datos, o el aprendizaje profundo, o lo que tenga, directamente desde la fuente.

    Del mismo modo, otros gigantes de la nube están resolviendo problemas comunes y compartiendo las soluciones a través de proyectos de código abierto. ¿Es una sorpresa que Facebook haya creado una mejor manera de crear aplicaciones para móviles? ¿O una opción mejorada para que los clientes obtengan datos de un servidor? Tal vez no, pero puede sorprenderse por el enfoque inteligente que Facebook ha tomado por la seguridad de punto final.

    Encontrará estas y otras innovaciones que nacieron, se diseñaron o se inspiraron en la nube, entre nuestros últimos ganadores del premio Tecnología del Año. Seleccionados por los editores de InfoWorld y quienes revisan los productos, estas son las mejores herramientas para el desarrollo de aplicaciones, los centros de datos y las operaciones en la nube, el análisis de datos y la seguridad de la información que encontramos en el último año. Siga leyendo para conocer a nuestros ganadores.

    Staff de InfoWorld, 27/febrero/2017, Crédito foto:Jane Van Ginkel

  • Amazon Alexa

    La familia de dispositivos Echo de Amazon ha demostrado ser un gran éxito, ya que tanto el Echo como el Echo Dot se vendieron a montones en Navidad. Al proporcionar una interfaz impulsada por voz a los servicios de Amazon y sus socios, Echo es una herramienta poderosa, pero también es un ejemplo interesante de un movimiento hacia un modelo de computación ubicua, utilizando las herramientas de reconocimiento de voz de Amazon Alexa. Amazon ofrece un conjunto de herramientas para crear aplicaciones de Alexa (también conocidas como "habilidades"), aprovechando la computación sin servidor de AWS Lambda para ejecutar aplicaciones solo cuando son activadas por un dispositivo Echo.

    Las habilidades de Alexa se pueden usar para conectarse a servicios web de uso general, permitiendo a los usuarios acceder a contenidos y servicios web existentes y nuevos a través de comandos de voz, mediante la vinculación de las solicitudes de servicio a los "enunciados" de los usuarios. APIs más específicas proporcionan acceso a la automatización del hogar ("Alexa, enciende las luces de la cocina") y los dispositivos IoT ("Alexa, ¿cuál es la temperatura en la habitación del niño?"), mientras que otras APIs desencadenan la entrega de paquetes rápidos de información narrada.

    Muchos pueden ver a Echo como otra vía para que Amazon venda productos, y eso es cierto. Para los desarrolladores, también les permite ofrecer aplicaciones AWS a los usuarios, especialmente las aplicaciones que pueden utilizar AWS para reflejar los mensajes de Alexa a los dispositivos IoT. Es mucho más fácil decir, "Alexa, enciende las luces de la oficina", que rastrear la aplicación correcta para las luces en un teléfono inteligente cargado con innumerables otras aplicaciones. Echo y Alexa hacen interfaces de usuario naturales, así, naturales. Eso es una buena noticia para los desarrolladores y para la IoT.

    -Simon Bisson

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • TensorFlow

    Mientras que muchas empresas grandes de tecnología han construido servicios populares que cuentan con reconocimiento de voz basado en IA, análisis de lenguaje natural y traducción de idiomas, por mayoría de las cifras el líder en este campo es Google. Debajo de la superficie, los servicios Traductor, Mapas, Búsqueda y Google Now dependen de una biblioteca de aprendizaje y de redes neuronales, TensorFlow. Teniendo en cuenta que TensorFlow ha sido de código abierto desde el 2015, puede aplicar la salsa secreta de Google para sus propios proyectos una vez que aprenda cómo hacerlo.

    No estoy diciendo que TensorFlow sea fácil de aprender o usar, pero si tiene conocimientos necesarios de Python, cálculo, estadísticas y aprendizaje profundo, y está dispuesto a poner el esfuerzo, encontrará que TensorFlow es útil, potente, portátil y ampliamente aplicable. El propio paquete puede manejar todo tipo de redes neuronales, incluyendo las redes convolucionales profundas y los modelos recurrentes de memoria de largo plazo (LSTM, por sus siglas en inglés) que actualmente están transformando los campos de reconocimiento de imagen y procesamiento de lenguaje. El código para definir las capas puede ser un poco más detallado de lo que es conveniente, pero puede arreglarlo con cualquiera de las tres interfaces de aprendizaje profundas opcionales. Si bien la depuración de un solucionador de red asíncrona puede no ser trivial, el software TensorBoard ayuda al permitirle visualizar el gráfico.

    Puede instalar TensorFlow localmente o utilizar la nube. Quizás la manera más poderosa de usar TensorFlow es configurar un proyecto de Google Cloud Platform con Cloud Machine Learning junto con una instalación TensorFlow local. Quizás la manera más fácil de usar TensorFlow es hacer girar un AMI de Aprendizaje Profundo en Amazon Linux, que ya tiene TensorFlow y otras cuatro bibliotecas de aprendizaje profundo instaladas. Si planea entrenar muchos modelos de aprendizaje profundo con big data, arregle definitivamente las instancias de nube con GPUs compatibles con CUDA, que están disponibles actualmente en Amazon y Azure y pronto estarán disponibles en Google.

    - Martin Heller

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Databricks

    Databricks, el hogar actual de los desarrolladores de Apache Spark, ofrece Spark como un servicio (que se ejecuta en la parte superior de Amazon Web Services), junto con un gestor de clúster, una interfaz de cuadros de mando y trabajos compatibles con Jupyter-notebook. Cuenta con un surtido completo de funciones de ingestión, selección de funciones, creación de modelos y evaluación, además de una gran integración con fuentes de datos y excelente escalabilidad.

    Si bien la instalación independiente de Spark es relativamente simple, la instalación de clústeres Hadoop es un poco más complicada y requiere un hardware considerable. El uso de Databricks elimina cualquier necesidad de manejar hardware o instalar Hadoop o Spark o un administrador de clúster.

    La biblioteca Spark ML proporciona algoritmos de aprendizaje automático comunes tales como clasificación, regresión, agrupación y filtrado colaborativo (pero no redes neurales profundas). Existen herramientas para la extracción de características, transformación, reducción de dimensionalidad y selección, así como herramientas para construir, evaluar y afinar engranajes de ML. Spark ML también incluye utilidades para guardar y cargar algoritmos, modelos y engranajes, para el manejo de datos y para hacer álgebra lineal y estadísticas.

    Spark ML tiene APIs completas para Scala y Java, en su mayoría APIs completas para Python, y APIs parciales para R. Un clúster de comunidad de Databricks gratuito le da un nodo con 6GB de RAM y núcleo 0.88. Los clústers pagados pueden ser tan grandes como su presupuesto lo permita. Puede crear clústers a voluntad en Databricks utilizando cualquier versión de Spark de 1.3 a la versión actual (2.1.0 al momento de redactar este artículo).

    - Martin Heller

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Apache Spark

    Si está escribiendo código que requiere distribuir el procesamiento sobre un clúster grande y quiere que sea rápido y en memoria, Spark, es cómo lo hacemos ahora. Si está capturando flujos de eventos y desea una API simple para manejarlos, especialmente si tiene que hacer algo con ellos a medida que vienen, Spark es ahora el predeterminado de la industria. Todo esto sucedió prácticamente de la noche a la mañana.

    Spark está cambiando el mundo de big data más rápido de lo que los vendedores de Hadoop pueden redibujar sus diagramas de plataforma. El proyecto no vio uno sino dos lanzamientos importantes en el 2016: 1.6 y 2.0. Ambos aportaron importantes mejoras en el rendimiento y las principales novedades en general (SQL, streaming, aprendizaje automático y procesamiento de gráficos), pero particularmente en streaming. Si ha estado esperando que Spark esté "listo para la producción", ya no tiene excusas. Spark está listo para su carga de trabajo, y es un placer usarlo.

    - Andrew C. Oliver

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Nvidia CUDA

    Si el 2016 fue el año del aprendizaje profundo, también fue el año de Nvidia CUDA. Es probable que tenga conocimiento de unidades de procesamiento gráfico (GPU), que sirvieron originalmente para acelerar los juegos en 3D en computadoras personales. La computación de propósito general en unidades de procesamiento gráfico (GPGPU, por sus siglas en inglés) es el uso de GPUs para la programación no-gráfica, la mayoría de las veces computación científica con grandes matrices y álgebra lineal básica.

    El campo GPGPU comenzó en el 2001 y ganó relevancia a mediados de los años 2000. Hoy GPGPUs se encuentran en la mayoría de los equipos más rápidos del mundo. Computación heterogénea, en su mayoría utilizando las unidades de procesamiento gráfico de Nvidia, GPU, como co-procesadores de las CPUs Intel o AMD, es una opción popular para llegar a una mejor relación de rendimiento por vatio y un rendimiento absoluto más alto.

    Si bien hay varios estándares abiertos, independiente del proveedor de alto rendimiento GPGPU de computación, tales como OpenCL, OpenACC, y OpenHMPP, el marco dominante en este espacio es propiedad de la plataforma y API CUDA de Nvidia, que soportan GPUs Nvidia de la serie G8x en adelante. CUDA ha sido ampliamente adoptada en biología computacional, criptografía y otros campos, donde a menudo proporciona un orden de magnitud de aceleración sobre los cálculos solo de la CPU.

    Lo más revelador de este año es que el soporte de CUDA está presente en todos los grandes paquetes de redes neuronales y de aprendizaje profundo, y todos los principales proveedores de nube han anunciado o lanzado tipos de instancias de computación que incluyen GPUs Nvidia. Una placa Nvidia K80 (con dos GPUs) es suficiente para acelerar un gran número de entrenamientos de modelos de aprendizaje profundo por un factor de 10, y las placas P100 que están a punto de estar disponibles al público en general son aún más rápidas.

    - Martin Heller

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Instancias de Amazon EC2 P2

    Mientras que los métodos tradicionales de aprendizaje automático todavía se utilizan extensamente, muchos han abrazado técnicas profundas del aprendizaje como alternativa superior. Las cadenas de aprendizaje profundas unen unidades de procesamiento que transforman características de entrada o extracción, donde cada capa de la cadena toma la salida de la capa anterior. Estas cadenas pueden ser arbitrariamente largas y en algunos casos los datos pueden fluir a través de partes o de toda la cadena más de una vez.

    La naturaleza de esta computación -ejecutar el mismo programa en muchos elementos de datos en paralelo- es el tipo de procesamiento para el que se diseñaron las GPU, por lo que muchas bibliotecas de aprendizaje profundo soportan la optimización de la GPU de forma inmediata. Para abordar la creciente demanda de este procesamiento, Amazon lanzó el nuevo tipo de instancia P2 el otoño pasado.

    Repleto de hasta 16 GPUs Nvidia Tesla GK210, las instancias de Amazon EC2 P2, acortan el trabajo de las redes neuronales profundas de formación sobre una conveniente infraestructura bajo demanda. Si una sola máquina de 16 GPU no es suficiente, Amazon le permite crear clústeres de instancias P2, con redes de 10 o 20 Gigabits entre máquinas. Junto con el tipo de instancia P2, Amazon lanzó un nuevo AMI de aprendizaje profundo que viene precocido con un puñado de bibliotecas y frameworks optimizados para GPU para que pueda sumergirse directamente. Las instancias P2 están actualmente disponibles en US East, US West, EU y GovCloud (EE.UU.).

    - Jonathan Freeman

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Google Cloud Bigtable

    A veces "big data" realmente significa grandes datos, como cientos de petabytes o incluso exabytes. Cuando llega a esa escala, la mayoría de los servicios de base de datos en la nube no pueden mantenerse al día.

    Amazon Aurora, una de las bases de datos relacionales más escalables de la nube, llega hasta 64 terabytes. Amazon Redshift, la segunda base de datos más escalable de la nube de NoSQL, remata con alrededor de un petabyte de datos comprimidos y maneja solamente esa cantidad de datos con el almacenaje de disco duro.

    Para manejar cientos de petabytes o más, necesita ejecutar sus propios grupos gigantescos de HBase, Cassandra o Accumulo, ninguno de los cuales es fácil ni barato de construir, instalar o administrar; o (golpe de tambores) utilice Google Cloud Bigtable.

    Cloud Bigtable es una base de datos NoSQL pública orientada a columnas altamente escalable como un servicio que utiliza el mismo código que la versión interna de Google, inventada por Google a principios de los años 2000 y publicada en el 2006. Bigtable era y es la base de datos subyacente para muchos servicios de Google ampliamente utilizados, incluidos Google Search, Google Analytics, Google Maps y Gmail. El documento de Bigtable, fue la inspiración para Apache HBase, Apache Cassandra, y Apache Accumulo.

    Cloud Bigtable tiene un precio 65 centavos de dólar por nodo por hora (mínimo tres nodos), más 17 centavos de dólar por gigabyte por mes (SSD), y el egreso de la red. Para 30 nodos Bigtable (probablemente el extremo inferior para propósitos de rendimiento) con almacenamiento SSD y un petabyte de datos, suma aproximadamente 185 mil dólares al mes. Es barato teniendo en cuenta que 30 nodos deberían darle 300 mil consultas por segundo y 6.6GB por segundo en una latencia de seis milisegundos en ese petabyte de datos.

    - Martin Heller

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • DeepSQL

    Los fundamentos de las estructuras de datos del motor de base de datos relacional se establecieron en los años setenta. B-tress o árboles B están más o menos optimizados para la lectura, y los árboles de fusión con estructura de registro se optimizan más o menos para la escritura. La base de datos relacional más popular, MySQL, utiliza como motor predeterminado InnoDB, que se basa en B-trees para sus índices. Amazon Aurora, que figuró en los premios del año pasado, es una implementación muy bien implementada de MySQL ejecutándose en gran infraestructura.

    Ahora, 40 años después de los árboles B, Tom Hazel, de Deep Information Sciences, ha encontrado algo mejor. Esencialmente, el proceso de adaptación continua del resumen secuencial de información (CASSI, por sus siglas en inglés) de DeepSQL utiliza algoritmos de aprendizaje automático para mantener estructuras de datos dinámicos optimizados en memoria y programación optimizada de recursos; mientras tanto, la base de datos física en disco es sólo un apéndice. El resultado es lo más cercano que se puede llegar a la teoría de disco mínimo de búsqueda de costos de 0 para las escrituras y 1 para las lecturas.

    La prueba de fuego es que DeepSQL puede superar a Amazon Aurora para cargas transaccionales híbridas y analíticas de factores entre dos y 10 en caso de grandes bases de datos, como lo demuestran los dos puntos de referencia que revisé. Como ventaja, DeepSQL no necesita ajuste manual, puede ejecutarse en las instalaciones o en cualquier nube, y es gratuito para propósitos de desarrollo y prueba.

    - Martin Heller

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Redis

    Este almacén de datos de código abierto, en memoria, respaldado por disco y NoSQL lleva muchos sombreros. Redis no solo es una caché de aceleración de aplicaciones, sino un versátil "servidor de estructura de datos" capaz de soportar una amplia gama de posibles aplicaciones. Incluso puede agregar un impulso de rendimiento a grandes marcos de datos como Spark. La capacidad de Redis para satisfacer las diversas necesidades de una amplia audiencia de usuarios es una gran parte de su atractivo.

    En mayo del 2016, Redis dio a conocer detalles de una nueva y muy esperada función destinada a hacer que Redis sea aún más multiusos: Redis Modules, que permite a los desarrolladores traer nuevas estructuras de datos y funcionalidad a Redis a través de una API. Aunque la API sigue siendo un trabajo en progreso, los módulos para Redis ya han comenzado a aparecer para proporcionar valiosas funciones del mundo real, incluyendo la búsqueda de texto completo, el procesamiento de imágenes y el aprendizaje automático.

    Los módulos abren posibilidades mucho más allá del método tradicional de extender los scripts Redis, Lua, que solo pueden agregar funcionalidad a los tipos de datos existentes de Redis. Y debido a que los módulos están escritos en C, funcionan a una velocidad verdadera de Redis.

    - Serdar Yegulalp

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Visual Studio Code

    El último par de años ha habido un renacimiento para el editor del programador clásico. Construido sobre el framework HTML5 de GitHub, el Microsoft Visual Studio Code, fue rápido, ligero y multiplataforma desde el principio, y rápidamente se convirtió en una herramienta popular para el desarrollo de JavaScript y TypeScript. Entonces, en el 2016, Microsoft agregó un marco de extensibilidad que permite a los desarrolladores aportar características y soporte de idiomas. El resultado fue cientos de extensiones, apoyando cada lenguaje de programación importante, en cuestión de meses.

    Una de las descargas más populares hace que VS Code sea una poderosa herramienta para crear aplicaciones en el lenguaje Go de Google. Otros complementos han traído mapeo de claves para Emacs o Vim, y depuradores para lenguajes como Python y PHP, sin mencionar C, C ++ y C #. También existe la posibilidad de vincularlo a herramientas y servicios externos, permitiéndole crear VS Code en su desarrollo continuo y en las tuberías de integración continua.

    VS Code puede no tener la GUI completa de Visual Studio IDE, pero expone sus características de configuración a través de una paleta de línea de comandos integrada, así como archivos de configuración JSON. Los temas pueden cambiar la apariencia y los complementos pueden aprovechar las herramientas de finalización de código IntelliSense de Microsoft, y el soporte de fragmentos de código incorporado de VS Code para acelerar el desarrollo. El uso del entorno de desarrollo HTML5 de Electron también significa que Microsoft puede entregar código de Visual Studio para MacOS y Linux, así como Windows. El proyecto es de código abierto, con código fuente en GitHub, y muy activo, con Microsoft lanzando nuevas versiones sobre una base mensual.

    - Simon Bisson

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Rust

    El pequeño lenguaje en condicional se ha convertido en el gran lenguaje que puede y hace. En diez años, Rust ha crecido hasta convertirse en la alternativa creíble a C, y C ++ siempre estaba destinado a ser un idioma para la escritura de bajo nivel, que también es seguro por defecto. Rust apareció en una serie de nuevos lanzamientos en el 2016 que hacían todo, desde acelerar la compilación y los tiempos de ejecución, y proporcionar mejores mensajes de error para estabilizar las bibliotecas principales del idioma.

    Pero lo que sucedió en torno a la lengua fue aún más importante. Fedora añadió Rust como un lenguaje compatible en esa distribución, y los creadores de Rust Mozilla se pusieron de acuerdo para ayudar con un proyecto que ayuda a los desarrolladores a portar el código C a Rust. Este último se considera un paso crucial en la reescritura del código de infraestructura heredada en Rust para la seguridad y la estabilidad. Eso no sucederá de la noche a la mañana -los proyectos de software heredados son notoriamente ocultos- pero el impulso detrás de Rust parece superar cualquier desafío.

    - Serdar Yegulalp

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • React Native

    Los desafíos del desarrollo móvil nativo son bien conocidos: los programadores son caros, las aplicaciones tardan más tiempo en construirse, los errores multiplataforma son legionarios y el mantenimiento es costoso. Pero tendrá dificultades para lograr animaciones suaves de 60fps o algo parecido a una sensación nativa usando las WebViews de Apache Cordova. Si realmente quiere curar los problemas de la interfaz de usuario móvil, pruebe el marco de código abierto de Facebook, React Native.

    Con React Native, construye interfaces de usuario declarativas utilizando JavaScript y React, la biblioteca de interfaz web UI también de Facebook. React Native ofrece un puente a JavaScript y APIs de plataforma subyacente con llamadas directas de Java u Objective-C que generan componentes nativos de iOS o componentes de interfaces de usuario de Android en el dispositivo. Las vistas resultantes parecen nativas y se sienten nativas porque son nativas. Además, el framework expone interfaces para comunicarse directamente con periféricos de dispositivos, como una cámara y servicios de geolocalización.

    React Native admite la recarga en caliente, por lo que las actualizaciones de código están disponibles sin recopilar toda la aplicación. Todavía puede utilizar módulos nativos también; React Native trabaja a su lado con sus propios componentes Java, Objective-C y Swift.

    El año pasado trajo la madurez para combinar la resolución de conflictos durante las actualizaciones del marco, gracias a Git. Y el nuevo gestor de paquetes de Yarn simplifica el seguimiento de dependencias de aplicaciones.

    React Native reduce las capas de complejidad en el desarrollo móvil para ofrecer experiencias fluidas y nativas sin la sobrecarga de la dependencia y el costo del desarrollo nativo de la plataforma.

    - James R. Borck

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • GraphQL

    Para los desarrolladores de aplicaciones web, la gestión de datos eficiente es la mejor defensa contra la latencia de la aplicación. GraphQL es un nuevo lenguaje de consulta para ir a buscar datos que superan los paradigmas existentes.

    Con GraphQL, se combinan múltiples orígenes de datos y dependencias incrustadas en un objeto de gráfico JSON unificado, que se obtiene desde un único punto final de API. Obtiene solo los datos que necesita, exactamente en el formato que necesita, para satisfacer una determinada vista. El resultado es un mecanismo escalable de búsqueda de datos que simplifica el desarrollo, conserva el ancho de banda y proporciona más eficiencia que el enfoque REST de ensamblar las respuestas de múltiples puntos finales.

    De fuente abierta por parte de Facebook, GraphQL se ha convertido rápidamente en una herramienta para los desarrolladores de aplicaciones debido a su validación de tipo robusto, la introspección de metadatos para el desarrollo de consultas y la postura agnóstica hacia fuentes de datos back-end. Hay un creciente apoyo de la comunidad, también -incluyendo herramientas de terceros como GraphCool para AWS Lambda, y los clientes GraphQL y el desarrollo del servidor de herramientas de datos de Apolo.

    Con GraphQL, gran parte de la complejidad del desarrollo de aplicaciones basadas en datos se resuelve del lado del servidor, donde las relaciones de esquema entre las fuentes de datos se pre mapean. La buena noticia es que colocar un punto final GraphQL está lejos de ser laborioso. Dadas las claras ventajas de rendimiento y las respuestas de esquema previsibles que GraphQL obtiene, vale la pena el esfuerzo.

    - James R. Borck

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • MongoDB Atlas

    Después de años de construir la base de datos y herramientas auxiliares, MongoDB Inc. ha entrado finalmente en el mundo de la base de datos como servicio con MongoDB Atlas. Lanzado el verano pasado, MongoDB Atlas trae una plataforma totalmente administrada para los usuarios a través de una sencilla interfaz web. En cuestión de minutos, cualquiera puede proporcionar un conjunto de réplicas altamente disponibles en la infraestructura de AWS, completas con el tamaño de la instancia configurable y el cifrado de volumen de almacenamiento.

    Dada una selección de la lista actual de cuatro regiones AWS, Atlas distribuirá sus réplicas (tres, cinco o siete) en tres zonas de disponibilidad para maximizar el tiempo de actividad. Una vez que el clúster se haya aprovisionado, puede aprovechar las herramientas de supervisión y alerta disponibles a través de Atlas. Las alertas buscan las condiciones especificadas por el usuario en una plétora de métricas disponibles. Cuando se cumplen estas condiciones, Atlas puede enviar un correo electrónico o SMS directamente, o puede enviar mensajes a través de otras integraciones como Slack o PagerDuty.

    La interfaz de usuario para MongoDB Atlas es simple y elegante, lo que hace que sea más amigable que el suministro de la infraestructura AWS por sí misma, sin mencionar todas las prácticas de configuración y clúster incorporadas en el servicio. Si bien el servicio es todavía joven y creciente, sin duda vale la pena darle una mirada cuando se considera que es mantenido por los creadores de la base de datos y generalmente cuesta entre la mitad y un cuarto de lo que los competidores cobran por racimos comparables.

    - Jonathan Freeman

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Docker

    Docker permite empaquetar, enviar y ejecutar "máquinas virtuales" ligeras llamadas contenedores. ¿Ha captado esas citas alrededor de "máquinas virtuales"? Sí, aquí hay algo muy diferente. A diferencia de las tecnologías de virtualización "tradicionales" como VMware, Docker no emula hardware ni encapsula una máquina entera, sino que se basa en la virtualización de nivel OS. La diferencia en términos de portabilidad y gastos generales es como de plumas frente a pesas.

    Docker representa tres poderosos y viejos conceptos envueltos en uno. Primero está el concepto de la virtualización de contenedores que conocemos de BSD Jails y Solaris Zones. En segundo lugar, está el embalaje básico con una especie de herencia. El tercero es el concepto de repositorios. Ninguno de ellos es nuevo, pero Docker los unió en una poderosa sinergia. Y no se detuvo allí.

    Uno podría preferir Linux, pero para gobernar totalmente el mercado, Docker tuvo que soportar Windows. Lo hizo. La virtualización de nivel OS es grande, pero para ejecutar infraestructura real necesita algún tipo de soporte de clustering. Ingrese la función Swarm de Docker. Sobre todo, a diferencia de la mayoría de las tecnologías de virtualización, Docker no hace que los desarrolladores deseen tirar sus computadoras portátiles a través de la sala. A los desarrolladores les gusta Docker. Al final eso puede importar más que todo.

    - Andrew C. Oliver

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Kubernetes

    Kubernetes ha tenido un gran año. El gestor de clúster de contenedores de código abierto ha experimentado un desarrollo considerable en los últimos 12 meses, mejorando su compatibilidad con Amazon Web Services, Microsoft Azure y otras plataformas en la nube. Pero la verdadera historia de Kubernetes en el 2016 fue su impresionante impulso para convertirse en el gestor de clústers de elección para los emprendimientos y, cada vez más, para la empresa.

    Al entrar en el 2017, el proyecto respaldado por Google ahora tiene soporte para aplicaciones con estado y tecnologías de contenedores alternativos como CoreOS Rkt (aunque el soporte de Docker, por supuesto, sigue siendo el rey). Kubernetes está integrado en la plataforma Photons de VMware y forma el núcleo de la plataforma OpenShift de Red Hat. Kubernetes incluso ha añadido soporte para Windows, con la capacidad de orquestar tanto los contenedores de Hyper-V como los contenedores de Windows Server.

    Espere que en el 2017 Kubernetes se refuerce, probablemente comenzando a invadir las instalaciones de OpenStack en todo el mundo. Si es un administrador de sistemas o un ingeniero de devops y no se has metido todavía, es mejor que lo haga ahora. No querrá quedarse atrás.

    - Ian Pointer

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Nano Server

    La creación de aplicaciones para la nube requiere un modo de pensar diferente, centrándose en microservicios escalables y nuevas vías de despliegue de esos servicios. Una de las tecnologías clave que impulsa este cambio es la 'contenedorización', que combina la virtualización de userland con un método de envolver aplicaciones y servicios para un despliegue rápido y fácil. Para obtener el mayor beneficio de los contenedores, necesitará un sistema operativo ligero con un conjunto mínimo de servicios.

    Ahí es donde Windows Server 2016 Nano Server entra en juego. Esta nueva opción de instalación de Windows Server proporciona un sistema operativo mucho más delgado y fácil de mantener que puede utilizar para alojar contenedores de Windows Server, contenedores de Hyper-V o aplicaciones creadas en el núcleo de código abierto .Net. No hay GUI ni inicio de sesión local. La administración se realiza únicamente a través de las API y una versión específica de Nano Server de PowerShell, con gigabytes de las conocidas comodidades de Windows Server eliminadas para soportar trabajar a escala con despliegues automatizados de servidores.

    El resultado es un servidor que se inicia casi instantáneamente, se despliega casi tan rápido y reduce los requisitos de almacenamiento, la superficie de ataque y la huella de mantenimiento de forma espectacular. Además, Nano Server puede utilizarse como núcleo tanto para la infraestructura virtual, como para los contenedores. Puede que no sea un sistema operativo unikernel, pero es probable que sea mucho más flexible y mucho más estrechamente relacionado con Windows Server.

    - Simon Bisson

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • HashiCorp Consul

    Consul es una herramienta para el descubrimiento de servicios, monitoreo y configuración. Estos sistemas han existido desde la década de 1980 (¿alguien recuerda los espacios de nombres de Genera?), pero son aún más importantes hoy en día con el surgimiento de sistemas distribuidos, donde los procesos necesitan coordinarse entre sí.

    ZooKeeper fue el primer intento de crear un servicio de coordinación para aplicaciones distribuidas, y Consul y ZooKeeper comparten una arquitectura similar de nodos de servidor que requieren un quórum de nodos para operar. ZooKeeper funciona perfectamente bien, pero expone solo la semántica de valor clave, por lo que cada aplicación distribuida necesita construir su propia capa de descubrimiento y coordinación de servicios en la parte superior de ZooKeeper. Para los desarrolladores, ese es un elemento más del que preferirían no tener que preocuparse.

    Por el contrario, Consul soporta muchos patrones comunes de box. Por ejemplo, están incorporados el soporte nativo para múltiples centros de datos, controles integrados de salud y control de acceso. Los servicios registrados y los nodos se pueden consultar usando una interfaz DNS y HTTP, lo que reduce el tiempo de desarrollo de las partes de coordinación de las aplicaciones distribuidas.

    Consul es de código abierto y viene con buena documentación para un proyecto de código abierto. El soporte está disponible desde HashiCorp.

    - Steven Núñez

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • HashiCorp Vault

    Internet no es un lugar seguro para almacenar información sensible. La mayoría del software se escribió sin la seguridad en mente, y construir una seguridad sólida después de los hechos no es fácil. Vault ayuda a los desarrolladores a escribir aplicaciones más seguras, proporcionando una herramienta para acceder de forma segura a la información sensible.

    Vault protege la información confidencial en tránsito y en reposo, y proporciona múltiples mecanismos de autenticación y registro de auditoría. la generación secreta dinámica permite que Vault evite proporcionar a los clientes privilegios de root para los sistemas subyacentes y hace que sea posible crear la rodadura clave y revocación. Vault también puede cifrar los datos sin almacenarlos, por lo que los equipos de seguridad pueden tener las claves y los desarrolladores pueden almacenar datos cifrados de la forma que deseen.

    Hay mucho solapamiento en las soluciones de seguridad de hoy en día. Algunas soluciones, como Kerberos, son maduras y bien probados, pero tienen una alta aplicación. Otras soluciones, como Identity de AWS y Access Management, ofrecen una pieza del rompecabezas protegiendo los scripts, pero no mucho más. Vault combina un poco de todo lo que una empresa puede necesitar en una solución de alta calidad que es fácil de implementar. Es un enfoque generalmente práctico para dar a los desarrolladores lo que necesitan con el fin de que puedan construir aplicaciones más seguras.

    - Steven Núñez

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • SourceClear

    Para obtener mejores aplicaciones, más seguras, los desarrolladores deben tener herramientas de seguridad que quepan en el flujo de trabajo de desarrollo de aplicaciones y se integren con las herramientas que ya están utilizando. Los desarrolladores no siempre se dan cuenta exactamente de cuántas bibliotecas deben valerse para un proyecto de software determinado, o incluso cómo se incluyeron esos componentes. Por ejemplo, una aplicación de Node.js podría tener fácilmente más de 350 dependencias, la mayoría de las cuales no se incluyen de forma explícita, por lo que es casi imposible para los desarrolladores estar al tanto de los últimos anuncios de vulnerabilidad y actualizaciones de versión.

    SourceClear aborda el problema de la seguridad del desarrollo de aplicaciones con una plataforma en la nube que explora los proyectos y detalla qué bibliotecas de código abierto y marcos se están utilizando, cómo se utilizan, si esos componentes incluyen código vulnerable, y los tipos de vulnerabilidades que incluyen. La compañía lanzó una edición de la comunidad de su plataforma en mayo del 2016, denominado SourceClear Open, y ha añadido grandes integraciones con JIRA, Bitbucket, y GitHub, por lo que es más fácil que los desarrolladores realicen un seguimiento de los problemas de seguridad en su código. Dependency Visualizer de SourceClear ayuda a que los desarrolladores descubran qué bibliotecas de código abierto están en uso, cuáles tienen vulnerabilidades, y cuáles están disponibles en las versiones más seguras. Los desarrolladores también pueden ver los posibles conflictos de licencias.

    Es una cuestión que importa sobre el código inseguro. Hasta que los desarrolladores tengan soluciones prácticas, la seguridad de aplicaciones permanecerá literalmente hasta el último momento. SourceClear está proporcionando herramientas para ayudar a que los desarrolladores detecten problemas de seguridad en las bibliotecas que están usando y los solucionen antes de que se conviertan en catástrofes de seguridad.

    - Fahmida Y. Rashid

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • OSquery

    Imagínese si los archivos, procesos y eventos en toda su red de Windows, MacOS, Linux y los puntos finales fueran registrados en una base de datos en tiempo real. Encontrar a los procesos maliciosos, vulnerabilidades de software y otros artefactos malignos sería tan fácil como pedirlos a la base de datos. Ese es el poder de OSquery, un proyecto de código abierto de Facebook que hace tamizage a través del sistema, y procesa información con el fin de que descubrir los problemas de seguridad sea tan simple como escribir una consulta SQL.

    Facebook portó OSquery a Windows en el 2016, finalmente, dejando que los administradores utilicen la poderosa herramienta de seguridad de punto final de código abierto en las tres plataformas principales. En cada sistema Linux, MacOS y Windows, OSquery crea varias tablas que contienen información del sistema operativo tales como los procesos en ejecución, módulos de núcleo que se cargan, conexiones de red abiertas, los plugins del navegador, eventos de hardware, y hash de archivos. Cuando los administradores necesitan respuestas, pueden pedir la infraestructura.

    El lenguaje de consulta es similar a SQL. Por ejemplo, la siguiente consulta devolverá los procesos maliciosos puesto en marcha por el malware que se ha eliminado del disco a sí mismo:

    SELECT nombre, ruta, PID procesos DONDE on_disk = 0;

    Esta capacidad ha estado disponible para los administradores de Linux y MacOS desde 2014 -los administradores de Windows recién ahora están llegando a la mesa.

    Portar OSquery desde Linux a Windows no fue fácil. Se necesitaba algo de ingeniería creativa para superar ciertos desafíos técnicos, como re implementar la tabla de procesos para que la funcionalidad de gestión de instrumentación de Windows (WMI, por sus siglas en inglés) existente pueda ser utilizada para recuperar la lista de procesos en ejecución. (El rastro de bits, una consultoría de seguridad que trabajó en el proyecto, comparte los detalles en su blog).

    Los administradores no necesitan depender de pasos manuales complicados para llevar a cabo la respuesta a incidentes, diagnosticar problemas de operación de sistemas y gestionar el mantenimiento de seguridad para los sistemas Windows. Con OSquery, todo está en la base de datos.

    - Fahmida Y. Rashid

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • MazeRunner

    La plataforma Cyberdeception de Cymmetria MazeRunner, reconoce la dura realidad que enfrentan muchos profesionales de la seguridad: si los atacantes quieren entrar, lo harán. Cyberdeception acepta la intrusión como un hecho, y neutraliza a los atacantes salpicando la red con "migas de pan" de credenciales, así como otras cositas jugosas de información para disuadir a los atacantes de los activos reales y guiarlos en máquinas virtuales de señuelo, en las que se aíslan y son perfiladas.

    Estas máquinas señuelo ejecutan sistemas operativos reales y servicios reales, pero le permiten estudiar su atacante, aprender sus herramientas y técnicas, y utilizar esa información para detectar y prevenir futuros ataques. El enfoque es similar a, pero más intenso que, ejecutar honeypots.

    El objetivo es hacer que moverse alrededor de la red sea más lento y más costoso para los atacantes, pero es más fácil que los defensores identifiquen y analicen las amenazas. Después de todo, con los señuelos, no hay tal cosa como un falso positivo. Si un atacante alcanza el anfitrión falso, el ataque queda marcado y las firmas del ataque se generan y se distribuyen a los defensores.

    Los malos van a encontrar un camino hacia las redes no importa cuántos servidores de seguridad o herramientas antimalware se implementen, ¿por qué no llevarlos al camino equivocado? Si los atacantes aprenden a temer que la próxima herramienta o comando que tratan de ejecutar puede conducirlos a un host diseñado para atraparlos, entonces sí habremos comenzado a cambiar las reglas.

    - Fahmida Y. Rashid

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • AWS Shield

    Amazon no podría haber elegido un momento más fortuito para dar a conocer AWS Shield, un servicio gestionado destinado a ayudar a que los clientes de Amazon mitiguen ataques DDoS contra la infraestructura de Amazon Web Services. Viniendo pocos días después de un ataque masivo DDoS contra el proveedor de DNS Dyn, la llegada de AWS Shield abordó la cuestión enfrentando a los equipos de TI cara a cara: ¿Cómo tapar los agujeros de seguridad con los proveedores de nube?

    Hasta AWS Shield, la única forma práctica para mitigar ataques DDoS contra la infraestructura de AWS era poner alguna otra plataforma en frente de AWS, como Cloudflare, para detectar y filtrar el tráfico malicioso. Si bien es posible la autoescala de servidores para absorber el tráfico de ataque, se traducirá en una factura astronómica al final del mes, y en su defecto en que un servidor o proveedor diferente añada complejidad a la infraestructura general.

    AWS Shield trabaja en conjunto con equilibradores de carga elásticos, Amazon CloudFront, y Amazon Route 53 para hacer que los sistemas que se ejecutan en AWS sean más resistente contra los ataques DDoS. Disponible para todos los clientes, el servicio protege las aplicaciones web contra ataques volumétricos, los ataques de reflexión, ataques de estado de agotamiento, y ataques a nivel de aplicación. La versión "pro", AWS Shield Advanced, proporciona capacidades adicionales de mitigación e inteligencia de detección de ataques.

    Teniendo en cuenta que los ataques DDoS han ido aumentando de manera exponencial en el tamaño, es sorprendente que todos los proveedores de la nube no ofrezcan herramientas de mitigación de DDoS nativas. Su turno, Google y Microsoft.

    - Fahmida Y. Rashid

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Apache Spot

    Apache Hadoop resuelve el problema de la recolección de grandes volúmenes de datos a partir de una variedad de fuentes, y Apache Spark proporciona un marco de análisis de datos en memoria, pero para los analistas de seguridad de la información, todavía había una pieza que faltaba en el rompecabezas de big data: una manera de procesar los grandes volúmenes de datos que representan los flujos de tráfico de red y separan el buen tráfico del malo. Ahí es donde Apache Spot entra en acción.

    En lugar de basarse en reglas y firmas para identificar amenazas a la seguridad de carácter retrospectivo, Spot aplica técnicas avanzadas de análisis para detectar el tráfico anómalo de red y concentrarse en los ataques nuevos y complejos. Por ejemplo, Spot puede utilizar el aprendizaje automático como un filtro para distinguir el mal tráfico del benigno, así como para caracterizar el comportamiento del tráfico de red. Spot también puede utilizar el enriquecimiento del contexto, filtrado de ruido, listas blancas y heurística para generar una lista de posibles amenazas a la seguridad.

    Apache Spot se basa en Intel y el proyecto Open Network Insight de Cloudera, pero se ha ampliado para incluir capacidades adicionales como el soporte para los registros DNS y servidor proxy (NetFlow ya fue apoyado). Los modelos de datos abiertos comunes para la red, punto final y los datos de los usuarios proporcionan formatos estándar de datos de eventos enriquecidos que hacen más fácil la integración de datos entre aplicaciones. El modelo de datos también hace que sea más fácil para las organizaciones compartir la analítica, y a su vez anima a los desarrolladores de aplicaciones para que aporten nuevas capacidades de análisis de seguridad para que todo el mundo pueda beneficiarse.

    - Fahmida Y. Rashid

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Confluent Platform

    Los sistemas de mensajería son nuevos otra vez, excepto que ahora nuestros flujos de datos en tiempo real se describen más acertadamente como firehoses en tiempo real. Apache Kafka ofrece un alto rendimiento, red troncal de mensajería de baja latencia, pero su falta de características de la empresa hace que no pueda levantar objetos pesados.

    Confluent Platform -construida sobre Kafka y disponible en las ediciones libres de código abierto y empresariales- llenan los vacíos, proporcionando un marco y herramientas más completas para los flujos de datos doma Kafka.

    La configuración sin código le permite encontrar su manera de cablear las fuentes de transmisión, e incorporar características empresariales esenciales como la tolerancia a fallas de alta capacidad. El análisis, monitorización y alertas integradas hacen el trabajo rápido de la superficie con una perspectiva interesante y pistas de auditoría verificables.

    Para el cliente Java de Kafka, Confluent trae soporte adicional para Python y C/ C++, conectores prediseñados para HDFS y JDBC, su propio proxy de descanso, y un registro de esquema que incorpora control de versiones y capacidades de metadatos de introspección.

    Lo más impresionante, el Confluent Control Center reemplaza la supervisión de rendimiento de base de Kafka con las métricas de rendimiento de profundidad y realimentación de estado de mensajería a través de su panel de control basado en el navegador. Y a diferencia de Kafka nativa, Confluent vuelve a alinear de forma transparente las operaciones asincrónicas y marcas de tiempo fuera de secuencia para revelar errores en la entrega y problemas de latencia en cualquier lugar a lo largo de la tubería.

    Incluso más campanas y silbatos están disponibles en la edición Confluent Enterprise, incluyendo el reequilibrio de la carga, la gestión de clusters, y el soporte técnico.

    Kafka es bueno para la mensajería simple. Se unen más operaciones avanzadas como la corriente y las agregaciones exigen algo más. Para la depuración, el seguimiento y la optimización del rendimiento sobre los flujos en tiempo real, Confluent Platform ofrece ese adicional.

    - James R. Borck

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Lucidworks Fusión

    Apache Solr es algo así como un tesoro escondido en el gran ecosistema de datos, pero ha desarrollado una reputación de ser difícil de configurar y operar. Conozca Lucidworks Fusión. Fusion no solo hace que la administración de los clústeres Solr sea sencillo, sino que incluye conectores a una vasta multitud de fuentes de datos. Saque la conectividad fuera de la caja con Spark Apache y la capacidad de construir la ingestión de datos y consulta de tuberías, y tiene una gran opción de extender la búsqueda a todas las áreas de su empresa.

    El año pasado ha traído muchas mejoras a Fusion, incluyendo conectores para servicio de IA Watson de IBM, una mayor integración de Apache Spark en la plataforma, y un mejor manejo de los datos de series de tiempo, junto con características empresariales necesarias como la autenticación SAML enchufable.

    Mientras que el lado intratable de Apache Solr puede ser un poco exagerado en estos días, Lucidworks Fusión trae sin esfuerzo el potencial de una instalación Solr existente o nueva, lo que le permite aprovechar los beneficios de la capacidad de Solr para consultar miles de millones de documentos en menos de un segundo con menos molestias operativas.

    - Ian Pointer

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Elastic Stack

    El análisis de registros en algo grande. El día y la noche, los servidores baten gigabyte sobre gigabyte de texto no estructurado, y las empresas mantienen ahora todo lo que habría ido a / dev / null hace solo unos pocos años. El desafío: ¿Cómo se encuentra la aguja en estos grandes y crecientes montones de paja?

    Elastic Stack -Elasticsearch, Logstash, y Kibana- es la inmensamente popular pila de código abierto diseñada para hacer exactamente eso. Altamente escalable, con excelentes capacidades de búsqueda, la pila elástica es cómo los operadores a gran escala como Netflix, Verizon, y Salesforce hacen análisis de registro.

    Aunque las herramientas de análisis de registro han sido durante mucho tiempo populares en el dominio de seguridad de la información, están siendo adoptados rápidamente en otros lugares, especialmente en operaciones de nubes y la IoT. Con la capacidad de capturar y buscar datos de miles de fuentes, Elastic es el conjunto de herramientas ideal para el análisis de grandes nubes de sistemas o dispositivos. Y la acumulación constante de conectores (para las estadísticas a nivel de sistema, datos de tráfico de red, eventos de Windows) y plugins (para monitoreo, alertas, informes, gestión de usuarios) está haciendo de Elastic un ajuste más fácil en la empresa.

    Elastic y Splunk son las mayores soluciones de calidad empresarial en este espacio. Hace tres años, Elastic ni siquiera estaba en el mapa; hoy en día, muchas empresas están migrando, en gran parte debido al modelo de pago por byte de Splunk. No se puede negar que Splunk es más pulido y más rico en características, pero Elastic tiene la mayor parte de lo que necesita un usuario típico. Si está dispuesto a invertir un poco de tiempo en la adaptación a sus necesidades, Elastic puede ser la solución correcta.

    - Steven Núñez

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • MapR-FS

    Si ha implementado algo sustantivo sobre HDFS, sabe que es una tecnología un poco rara: un sistema de archivos distribuido escrito en Java que distribuye todo a través de unos pocos "Namenodes." A pesar de que el rendimiento de bloques en bruto no es malo después de que haya sintonizado el infierno de HDFS y las máquinas virtuales que lo dirigen, NameNode nunca parece salir del camino. Ah, y si tiene una falla, la recuperación de HDFS está recuperando no es como recuperar la mayoría de los sistemas de archivos.

    Conozca MAPR-FS. No es de código abierto, pero es puramente código nativo y sigue los principios de diseño de sistemas de archivos distribuidos probados. Esto significa menos bloqueo y mejor conmutación por error y recuperación. MAPR-FS es compatible con la API de HDFS, para que pueda utilizarla en su aplicación Hadoop existente.

    Al final, sería agradable ver un sistema de archivos de código abierto distribuido en el núcleo del nuevo universo de computación distribuida. Sin embargo, después de tantos despliegues de producción, cada vez es bastante claro que el HDFS no está realmente a la altura. Si necesita un sistema de archivos recuperable más confiable, distribuido ahora -debe buscar en MAPR-FS en su lugar.

    - Andrew C. Oliver

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Let's Encrypt

    Todo el tráfico web debe ser cifrado por defecto. Let's Encrypt tiene la misión de hacer que esto suceda.

    Construido por el grupo sin fines Internet Security Investigación Group (ISRG, con la participación de la Fundación Mozilla y la Universidad de Michigan), Let's Encrypt es una autoridad de certificación gratuita que reemplaza el costo y la complejidad de los mecanismos abiertos y automatizados para la emisión de certificados SHA-2- de dominio validado. Si posee un nombre de dominio, se puede obtener un certificado de confianza de Let's Encrypt de forma absolutamente gratuita.

    El proceso de solicitud de certificado y la renovación es automática a través Certbot, un sistema automatizado de Certificado de Gestión Ambiental (ACME, por sus siglas en inglés) de la Electronic Frontier Foundation. Otros clientes están disponibles, incluidos los scripts Bash, C, Java, PHP y Perl, así como la adquisición manual -pero la caducidad de 90 días en los certificados de Let's Encrypt alienta encarecidamente el uso de una herramienta automatizada.

    Let's Encrypt lleva a cuestas la autoridad Root X3 DST de IdenTrust, asegurando que sus certificados cruzados se validan en la mayoría de los navegadores modernos. Aunque Let's Encrypt ha estado activo durante poco más de un año, ya es una de las autoridades de certificación más grandes.

    Let's Encrypt no se ocupa de todas las necesidades. No proporciona la validación de la organización (OV) o validación certs extendida (EV) o el soporte de comodín. Además, los nombres alternativos del sujeto están limitados a 100 por cada certificado, aunque esto debe ser práctico para la mayoría de los usos principales.

    HTTPS ofrece una garantía esencial para proteger el tráfico de espionaje nefasto. Let's Encrypt finalmente hace que esta protección sea una propuesta fácil y asequible.

    - James R. Borck

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Actualización de Windows 10 Anniversary

    Acéptelo: la mayoría de organizaciones de TI siguen el ejemplo de Microsoft cuando se trata de la gestión y el despliegue. Así que es un gran problema que Microsoft haya entregado la gestión de actualización de Windows 10 Anniversary (versión 1607) y la posterior actualización de la protección de información de Windows, adoptando el núcleo que Apple inventó hace varios años para dispositivos móviles y llevarlos a las computadoras de escritorio, computadoras portátiles, dos en-uno, tabtops, y todas las otras variantes de la PC que están surgiendo. El movimiento será en última instancia, poner fin a la falsa dicotomía entre el dispositivo móvil y la computadora, dando como resultado un control de la seguridad más coherente.

    La gestión 'omnidevice' de Windows 10 es un trabajo en progreso, como todas las herramientas de gestión y de seguridad, pero el núcleo se encuentra ahora en el lugar adecuado para las organizaciones de TI para que comiencen la prueba e implementación a medida que implementan dispositivos Windows 10. Aún mejor, aunque Microsoft espera que utilice sus propias herramientas de gestión, las nuevas capacidades de gestión de omnidevice son compatibles en gran medida en las herramientas de gestión móvil empresarial (EMM) que probablemente ya tenga.

    Mención honrosa: MobileIron Bridge, que permite el uso de objetos de directiva de grupo existentes para retener las normas de gestión heredadas en el nuevo enfoque omnidevice.

    - Galen Gruman

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Dashlane

    "Estilo" no es una palabra típicamente asociada con la administración de contraseñas, pero Dashlane es la excepción. Dashlane ha envuelto todo lo que cabe esperar de un administrador de contraseñas, junto con algunas sorpresas, en una mejor experiencia de usuario. El navegador e integraciones móviles son sólidas y limpias, proporcionando una interfaz de usuario sencilla para rellenar las contraseñas o crear otras nuevas. Las contraseñas se almacenan localmente y se cifran, con la sincronización de dispositivo opcional, si compra una suscripción Premium por menos de 40 dólares cada año.

    Dashlane va más allá de un simple recuerdo y la generación de contraseñas. En algunos sitios, se registrará automáticamente en lugar de proporcionar un modo interactivo para llenar la información, ahorrando aún más clics. El panel de seguridad de Dashlane no solo evalúa la fuerza de cada contraseña, sino que le indica si la contraseña está envejeciendo o se ha reutilizado.

    Además de las contraseñas, puede guardar otra información personal en Dashlane para rellenar formularios automáticamente. Dashlane maneja muy bien los pagos en línea mediante el ahorro y recuperación de tarjetas de crédito, detalles de cuentas bancarias y cuentas de PayPal. Una vez que haya guardado sus métodos de pago en Dashlane, también salvará los recibos de sus pagos, lo que facilita el seguimiento de sus compras anteriores. La versión gratuita de Dashlane es más que suficiente en la mayoría de los casos, y esto significa que puede descargarlo y probarlo antes de poner el dinero en efectivo.

    - Jonathan Freeman

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

  • Servicio de migración de AWS

    A pesar de lo generalizada que se ha vuelto la computación en la nube, muchas empresas siguen siendo escépticas en cuanto a cómo empezar. Incluso para aquellos de nosotros que sabemos exactamente a qué servidores queremos migrar, el camino para llegar allí no siempre es fácil o claro.

    Deje que Amazon allane el camino. El Servicio de Migración AWS, que hace uso de un conector descargable que ayuda a simplificar el proceso de migración de servidor, es a la vez libre y fácil.

    En lugar de la implementación de agentes en cada servidor que ejecuta, como lo hace para Azure Site Recovery, el conector de servidor de migración de Amazon instala un dispositivo de FreeBSD que funciona como una puerta de enlace entre el entorno local de VMware y la nube de Amazon.

    Server Migration Connector olfatea volúmenes de servidor existentes y hace una topología de la red a través de un proceso guiado por asistente. Captura el inventario básico del servidor y el volumen de instantáneas básicas; a continuación, funciona en segundo plano para replicar volúmenes como Amazon Machine Images en Amazon EC2.

    Los buenos cuadros de mando ofrecen información sobre el estado de la migración y la salud de cada servidor a medida que migra. Una vez completada la migración, sólo tiene que girar los nuevos volúmenes como instancias EC2 desde su AWS Management Console.

    Las réplicas de máquinas virtuales en vivo ahorran ancho de banda empujando actualizaciones incrementales, y pueden ser automatizadas a través de un programador a bordo. Con todo lo anterior, el Servicio de Migración AWS no solo simplifica la migración del servidor, sino que sirve como una continuidad de negocio fiable y modelo de recuperación de desastres.

    Actualmente AWS Server Migration Service solo es compatible con el hipervisor VMware y VMotion, pero la cobertura expandida para KVM y Hyper-V no puede estar muy lejos. El servicio de migración de AWS es un enfoque integrado sin problemas que minimiza el tiempo de inactividad y la interrupción, y representa una notable mejora de las opciones básicas disponibles en la actualidad en la función de importación EC2 VM.

    - James R. Borck

    Staff de InfoWorld, 27/febrero/2017, Crédito fotos: InfoWorld

Llegamos a ustedes gracias a:

FOTO REPORTAJES

Más »
10 aplicaciones de colaboración que vale la pena probar

10 aplicaciones de colaboración que vale la pena probar

Estas 10 aplicaciones le permiten usar chat de video, enviar mensajes, compartir pantallas y colaborar con sus compañeros de trabajo en tiempo real.
9 herramientas gratuitas para encontrar y analizar la Wi-Fi

9 herramientas gratuitas para encontrar y analizar la Wi-Fi

Descubra los SSID, la intensidad de señal, canales, direcciones MAC, estados de seguridad y más.
Las 10 habilidades más buscadas de la Internet de las cosas

Las 10 habilidades más buscadas de la Internet de las cosas

A continuación, las 10 habilidades principales que debe dominar para triunfar en este campo.
Samsung Galaxy S8 o S8+: 17 consejos y trucos para sacarle provecho

Samsung Galaxy S8 o S8+: 17 consejos y trucos para sacarle provecho

Sáquele el mayor provecho al último superphone de Samsung.