
[14/04/2021] No hay duda de que la analítica de datos puede ser un importante diferenciador competitivo para las empresas, ya que proporciona información que puede ayudar a aumentar las ventas y la cuota de mercado. Pero lo que las empresas ganen con la analítica puede depender en gran medida de lo bien que aprovechen las últimas tecnologías y de lo preparadas que estén para futuros desarrollos.
A continuación, se sugieren algunas de las mejores prácticas para sacar el máximo partido a los esfuerzos de análisis de datos.
Aproveche las ventajas de la analítica de autoservicio
La analítica de autoservicio permite a los usuarios de la empresa realizar consultas y generar informes por sí mismos, con un apoyo mínimo o nulo del departamento de TI, y sin necesidad de tener conocimientos avanzados de analítica. Pueden aprovechar herramientas de inteligencia de negocios (BI, por sus siglas en inglés) fáciles de usar que tienen capacidades analíticas básicas.
Un enfoque analítico de autoservicio puede ayudar a llenar el vacío creado por la escasez de analistas de datos formados, y puede hacer llegar los datos directamente a los usuarios que más los necesitan para hacer su trabajo.
Los usuarios empresariales pueden tomar decisiones basadas en el análisis de los datos, sin esperar a que los científicos de datos u otros expertos en análisis generen informes. Esto puede ser un gran beneficio para las empresas que necesitan moverse rápidamente para adaptarse a los cambios del mercado o a las cambiantes demandas de los clientes.
El primer paso en la implantación de la analítica de autoservicio debe ser comprender plenamente a la comunidad de usuarios, incluidos los requisitos de información que tienen y las herramientas que necesitarán, afirma John Walton, arquitecto de soluciones senior de la empresa de consultoría informática Computer Task Group.
"Los consumidores de información y las partes interesadas ejecutivas requieren un conjunto de herramientas analíticas muy diferente al de los científicos de datos, y es importante alinear las herramientas con los requisitos del negocio", señala Walton. "Además, la analítica de autoservicio depende en gran medida de la limpieza de los datos. Si una parte interesada en la información pierde la confianza en el cuadro de mando que está utilizando, es realmente difícil recuperar su confianza. Dirán: 'No me creo lo que estoy viendo', y a partir de ahí todo irá mal".
También es una buena idea establecer la consistencia de la información a través de una iniciativa de gobierno de datos, comenta Walton. "Una vez que esto está en su lugar, se puede utilizar una arquitectura de datos dimensionales como la "fontanería" para el análisis de autoservicio", añade.
En una arquitectura de este tipo, los indicadores clave de rendimiento y las medidas que se muestran en un cuadro de mando se han calculado previamente sobre la base de reglas empresariales aprobadas, se han asociado a los filtros empresariales adecuados o a las dimensiones de análisis, y se han almacenado en la base de datos. El usuario de la herramienta de análisis no tiene que hacer todo este trabajo pesado, comenta Walton.
Implantar capacidades de aprendizaje automático
El aprendizaje automático (ML, por sus siglas en inglés) puede desempeñar un papel importante en la mejora del proceso de análisis de datos, especialmente para las organizaciones que manejan cantidades masivas de información.
El aprendizaje automático requerirá una arquitectura diferente a la de los análisis, afirma Walton. "En este caso no se quiere aplicar métricas precalculadas que distorsionen los datos y oscurezcan perspectivas potencialmente valiosas", afirma. "El ML quiere rastrear una gran cantidad de datos muy granulares, muy probablemente dentro de una base de datos relacional, para aplicar con mayor eficacia sus capacidades".
Por ejemplo, en el sector de los seguros de salud, una empresa podría estar tratando con conjuntos de datos masivos de datos de reclamaciones, datos de encuentros de pacientes y notas estructuradas y no estructuradas.
Una de las mejores prácticas para el aprendizaje automático es utilizar la capa de datos correcta para los fines adecuados, afirma Walton. La capa inferior de "ingesta" son todos los datos que llegan de las diferentes fuentes, los datos más crudos que son ideales para el ML", anota.
La capa intermedia, o de "conformidad", es aquella en la que los datos se han tomado de diversas fuentes y se han ajustado a las normas según las reglas de gobernanza de datos establecidas, afirma Walton. La capa superior, compuesta por una serie de mercados de datos centrados, es ideal para el análisis, afirma.
Gestionar los datos de principio a fin
Muchas organizaciones se esfuerzan por gestionar volúmenes enormes y crecientes de datos procedentes de diversas fuentes, lo que puede obstaculizar los esfuerzos de análisis. La implantación de tecnologías que ayuden a gestionar los datos en toda la empresa puede ser una solución.
La empresa de suministros sanitarios Paul Hartmann AG utiliza una plataforma de gestión central de SAP, denominada Data Hub, para unificar, acceder y analizar datos de múltiples fuentes internas y externas. El objetivo es maximizar el potencial de los datos y obtener los conocimientos necesarios para optimizar las cadenas de fabricación y suministro, afirma Sinanudin Omerhodzic, CIO y director de datos.
"Con el acceso a estos datos, podemos y mantenemos a nuestros clientes abastecidos con los productos que necesitan en cada momento, salvando en última instancia la vida de los pacientes", afirma Omerhodzic.
Al aprovechar la tecnología de Data Hub, Hartman pudo establecer una "única fuente de verdad" para los datos de clientes, proveedores y operaciones, lo que le ayudó a comprender mejor los retos de los clientes.
La empresa está ahora en condiciones de aprovechar mejor tecnologías como la inteligencia artificial (IA), la Internet de las cosas (IoT) y el análisis predictivo. Y puede utilizar potencialmente nuevas fuentes de datos sobre factores como el clima y las epidemias para predecir mejor la demanda en los hospitales y las farmacias, y asegurarse de que tienen los suministros que necesitan en el momento adecuado y en las cantidades correctas.
Educar a los usuarios empresariales sobre la estrategia general de datos
Los usuarios empresariales que aprovecharán los conocimientos de los datos deben comprender la estrategia de la empresa en materia de ciencia de datos, IA, aprendizaje automático y análisis de datos en general. De esta manera, es más probable que den sentido a lo que están viendo.
"Realice sesiones de descubrimiento para que los líderes empresariales y operativos entiendan los beneficios de la IA y el ML", señala Venu Gooty, jefe de práctica global de ciencias de datos y análisis en HGS Digital, una consultora de transformación digital que ayuda a las organizaciones a utilizar los datos para elevar su experiencia de cliente.
"Esto es particularmente importante para las organizaciones que se embarcan en el viaje de la ciencia de datos por primera vez", indica Gooty. "El mayor obstáculo al que se enfrentó [HGS Digital] cuando implementó [la IA y el ML] fue educar a los usuarios de negocio sobre los resultados obtenidos después de entregar proyectos de ciencia de datos, y explicar nuestro enfoque para entregar proyectos de ciencia de datos", anota.
Las organizaciones deben contar con una estrategia de datos que explique cómo colaboran los distintos departamentos, afirma Gooty. "Esto es necesario porque las iniciativas de ML requieren trabajar con múltiples departamentos", como el de marketing, el de TI y el de operaciones, entre otros, añade.
El aprendizaje automático implica trabajar con grandes volúmenes de datos, sostiene Gooty. Por ejemplo, para que un minorista pueda predecir la pérdida de clientes, necesita muchos conjuntos de datos, como los datos demográficos del cliente, el historial de compras, los productos adquiridos por el cliente, etc.
"Estos conjuntos de datos suelen proceder de fuentes de datos dispares y puede que no haya una fuente consolidada para extraer los datos", indica Gooty. "Así que el equipo tendrá que trabajar con diferentes departamentos para obtener los datos en una plataforma consolidada". En las organizaciones en las que la estrategia de datos y la gobernanza de datos están definidas, este es un proceso mucho más fluido, que en las organizaciones que no tienen una estrategia de datos clara."
Aprovechar la analítica en la nube
Como ocurre con casi todo en el ámbito de las TI, la nube ofrece opciones rentables y eficientes para el análisis de datos. Es especialmente beneficioso para las organizaciones que necesitan analizar volúmenes masivos de datos y no tienen la capacidad interna para manejar las demandas.
Cualquier empresa que esté planeando realizar análisis en la nube, debe definir primero una estrategia clara de migración, señala Gooty. "Para la mayoría de las organizaciones, ésta será la primera vez que los datos se trasladen a la nube", afirma. Lo mejor es empezar poco a poco, aprender de la experiencia y hacer los cambios necesarios, dice.
Además, hay que definir un marco de gobernanza claro con políticas de seguridad. "Pasar a la nube significa trasladar los datos internos y externos y los usuarios a la nube", anota Gooty. "Las políticas de seguridad y privacidad deben estar claramente definidas, y los propietarios de cada sección deben estar claramente definidos. Hay que proporcionar el nivel de acceso adecuado a cada usuario".
Otra buena práctica es automatizar todo lo posible, agrega Gooty. "El poder de la nube es la agilidad y la automatización", dice. "Habrá un montón de solicitudes para hacer cargas manuales o puntuales, y es mejor empujar hacia atrás ya que estas solicitudes puntuales se acumulan".
Establecer un centro de análisis o de excelencia
Las organizaciones forman centros de excelencia (CoE, por sus siglas en inglés) para proporcionar liderazgo, compartir las mejores prácticas, desarrollar la investigación y ofrecer formación en un área de interés particular. Dado el importante papel estratégico de la analítica de datos hoy en día, un CoE centrado en estos esfuerzos tiene mucho sentido.
Una encuesta realizada en el 2019 por la empresa de investigación International Data Corp. (IDC) mostró que el 93% dijo que su organización está utilizando algún tipo de CoE para impulsar las iniciativas de IA y ciencia de datos. "El centro de excelencia es el eje principal para todo lo relacionado con la IA, la BI y la analítica", afirma Serge Findling, vicepresidente de los Programas Ejecutivos de TI de IDC. "Como organización con recursos tanto centrales como distribuidos, se centra en la coordinación a nivel de toda la empresa".
La consultora global Keyrus señala que, para obtener el mejor rendimiento de la inversión y el mayor valor de sus datos, una organización debe establecer un CoE de análisis. El CoE agiliza todos los esfuerzos de análisis en la organización.
"Imagínese un equipo de expertos altamente capacitado que conozca su organización desde dentro y esté bien familiarizado con sus fuentes de datos", afirma la empresa. "Este equipo posee las habilidades y capacidades para aprovechar los datos a su disposición para dirigir todos sus esfuerzos en la dirección correcta".
Keyrus afirma que un CoE de análisis debe desempeñar funciones como la definición de la visión analítica de la organización, incluida la selección de las herramientas que se van a utilizar y la determinación de los indicadores clave de rendimiento (KPI) necesarios; la creación de un proyecto tecnológico; el establecimiento de normas para áreas como la forma de compartir las fuentes de datos; la gestión de programas y el control de la financiación; el desarrollo de las habilidades de los usuarios; y la organización del liderazgo metodológico.
La empresa señala que no hay dos CoE iguales y que la estructura del grupo puede depender del tamaño de la empresa, su sector, sus objetivos y otros factores. El CoE debe adaptarse a los objetivos empresariales específicos de una organización y a su estructura organizativa.
Basado en el artículo de Bob Violino (InfoWorld) y editado por CIO Perú