Llegamos a ustedes gracias a:



Reportajes y análisis

Brindando confianza a la adopción de la IA empresarial

[25/10/2019] Cuando se trata de utilizar la inteligencia artificial (IA) y el aprendizaje automático, la confianza es clave en los resultados. Muchas organizaciones, en particular las de las industrias reguladas, pueden dudar en aprovechar los sistemas de IA gracias a lo que se conoce como el problema de la "caja negra" de la IA: que los algoritmos derivan sus decisiones de manera opaca sin explicación del razonamiento que siguen.

Este es un problema obvio. ¿Cómo podemos confiar en la IA con decisiones de vida o muerte en áreas tales como diagnósticos médicos o automóviles autónomos, si no sabemos cómo funcionan?

En el centro de este problema existe una cuestión técnica envuelta por el mito. Hoy existe una creencia generalizada de que la tecnología de IA se ha vuelto tan compleja que es imposible que los sistemas expliquen por qué toman las decisiones que toman. E incluso si pudieran, las explicaciones serían demasiado complicadas para que nuestros cerebros humanos las entiendan.

La realidad es que muchos de los algoritmos más comunes utilizados hoy en día en los sistemas de aprendizaje automático e inteligencia artificial pueden tener incorporado lo que se conoce como "explicabilidad. Simplemente no lo estamos usando, o no tenemos acceso a él. Para otros algoritmos, las funciones de explicabilidad y trazabilidad aún se están desarrollando.

Aquí encontrará lo que significa AI explicable, por qué es importante para el uso empresarial, qué fuerzas están impulsando su adopción y cuáles la están frenando.

Por qué es importante la IA explicable

Según un informe publicado por KPMG y Forrester Research el año pasado, solo el 21% de los ejecutivos estadounidenses tienen un alto nivel de confianza en sus analíticas. "Y eso no se refiere solo a la IA, sino a todas las analíticas, señala Martin Sokalski, líder global de KPMG para el riesgo de tecnología emergente.

Esta falta de confianza está ralentizando la adopción de la inteligencia artificial, indica; en particular, el ritmo al que las empresas pasan la inteligencia artificial del laboratorio a implementaciones de gran escala.

"Hay científicos de datos inteligentes que desarrollan estos modelos asombrosos, pero son arrinconados porque los líderes empresariales no confían en estas cosas, señala. "No voy a desplegarlos en un proceso que me va a meter en lo más profundo de los reguladores, o que me haga terminar en la primera plana del periódico.

Y no son solo las industrias de servicios de salud y financieros quienes tienen que considerar el escrutinio regulatorio. Según el RGPD, todas las empresas deben poder explicarles a sus clientes por qué un sistema automatizado tomó la decisión que tomó.

Además, sin la capacidad de analizar cómo un algoritmo llega a sus conclusiones, las empresas deben confiar ciegamente en las recomendaciones del sistema de IA cuando su negocio puede estar en peligro.

La empresa minorista Bluestem Brands, por ejemplo, está utilizando inteligencia artificial para ofrecer recomendaciones de compra personalizadas. Pero ¿qué pasa si el sistema de IA recomienda artículos que no son bestsellers históricos, o que no coinciden con el instinto de un experto en ventas?

"La respuesta usual suele ser 'No, esa IA está malograda, deberíamos recomendar los pantalones mejor vendidos', anota Jacob Wagner, director de TI de Bluestem Brands.

La solución a estos problemas de confianza es ofrecer una explicación. ¿Qué factores utilizó el sistema de IA para hacer su recomendación? Aquí es donde entra en juego la IA explicable, y es una característica que cada vez tiene más demanda.

La IA explicable abarca las herramientas y técnicas que tienen como objetivo hacer que las soluciones resultantes de un sistema de IA sean más fácilmente entendidas por humanos con experiencia en el dominio. La IA explicable permite a los humanos ingresar al proceso de derivación de decisiones, aumentando tanto la confianza en esos sistemas como la responsabilidad por los resultados. A menudo, esto equivale a generar reglas que la IA aprende a través de entrenamiento, y permitir a los humanos auditar esas reglas para comprender cómo la IA podría sacar conclusiones de datos futuros más allá del conjunto de entrenamiento.

Para Bluestem Brands, Wagner dice que puede obtener alrededor del 85% de la explicación que necesita de su sistema actual, proporcionado por Lucidworks, pero le gustaría ver más.

"Hacer que las personas pasen la barrera de la confianza es un desafío, señala. "Cuanta más información tengamos sobre por qué se recomendó algo, más fácil será la experiencia.

Una cuestión de gobernanza

Gran parte de la IA usada por las empresas hoy en día se basa en análisis estadísticos. Estos algoritmos de aprendizaje automático se utilizan para una variedad de propósitos, desde mejorar las recomendaciones de compras y los resultados de búsqueda, hasta calcular el riesgo de crédito y detectar comportamientos sospechosos en las redes de computadoras.

Para hacer sus recomendaciones, los algoritmos analizan características particulares, campos de datos, factores o, como se les llama en la industria, funciones. Cada función tiene un peso particular para ayudar a la IA a agrupar las cosas en categorías o identificar anomalías. Entonces, por ejemplo, al determinar si un animal es un gato o un perro, un algoritmo puede basarse en el peso del animal como factor principal, luego el tamaño del animal y luego su color.

Entonces, entender qué factores intervienen en una decisión debería ser un proceso sencillo. Pero las empresas todavía no están haciendo que sea prioridad la lista de los factores relevantes para las decisiones.

"Una de las tendencias clave que hemos notado es la falta de gobernanza interna y gestión efectiva sobre la IA, afirma Sokalski de KPMG. "Descubrimos que solo el 25% de las empresas están invirtiendo en el desarrollo de marcos y métodos de control.

Es un problema de madurez de procesos de negocio más que de tecnología, asegura. "Se trata de desarrollar capacidades internas, gobernanza de extremo a extremo, y administración de extremo a extremo de la IA en todo el ciclo de vida.

El estado actual de la IA explicable

Todos los proveedores principales de plataformas de IA, así como la mayoría de los proyectos principales de IA de código abierto, tienen alguna forma de explicabilidad y auditabilidad incorporada, comenta Sokalski.

KMPG ha estado trabajando con uno de esos proveedores, IBM, para desarrollar su propio kit de herramientas, AI In Control, para ofrecer a los clientes. Tales marcos facilitan que las empresas desarrollen sistemas de inteligencia artificial con explicabilidad incorporada, en lugar de tener que juntar la funcionalidad de varios proyectos de código abierto.

En agosto, IBM lanzó su propio kit de herramientas, AI Explainability 360, que contiene algoritmos de código abierto para la interpretabilidad y la explicabilidad de todos los principales tipos de aprendizaje automático en uso actualmente; con la excepción de las redes neuronales recurrentes, que a menudo se usan para problemas de series temporales como las predicciones del mercado de valores.

Hay ocho algoritmos en el kit de herramientas, la mayoría de los cuales no han estado disponibles públicamente en forma de código utilizable. Y la investigación subyacente se publicó este año o a fines del 2018, señala Kush Varshney, miembro principal del personal de investigación de IBM y gerente del Centro de Investigación Thomas J. Watson de IBM.

"Cualquiera puede usar el kit de herramientas, ya sea cliente de IBM o no, asegura.

Pero agregar explicabilidad a un sistema de IA no es tan simple como proporcionar una lista de los factores que formaron parte de una decisión, advierte. "Hay diferentes formas de explicar las cosas.

Tome como ejemplo una decisión sobre si otorgarle a alguien un préstamo bancario. El cliente quiere saber por qué se rechazó su solicitud y qué puede hacer para aumentar sus posibilidades de obtener un préstamo en el futuro, comenta Varshney.

"Y al regulador realmente no le importa tanto cada solicitante, comenta. "Quiere revisar la totalidad del proceso de toma de decisiones, obtener una explicación global de cómo funciona el proceso. Quiere poder simular para cualquier entrada cómo es que el modelo toma sus decisiones y descubrir si existen problemas como la equidad u otros temas potenciales.

En cuanto al banco, tiene un conjunto de preguntas totalmente diferente para asegurarse de que el sistema esté haciendo predicciones precisas.

Explicando las redes neuronales

A medida que los sistemas de IA se vuelven más avanzados y dependen menos de listas predefinidas de características y pesos, las explicaciones se vuelven más difíciles. Digamos, por ejemplo, que el sistema de clasificación de gatos y perros no funciona a partir de un conjunto tabulado de puntos de datos, sino que se trata de fotografías de animales.

Las redes neuronales convolucionales, que a menudo se usan para el procesamiento de imágenes, observan los datos de entrenamiento y descubren las características importantes por sí mismos. La forma que toman esas características puede involucrar matemáticas muy complejas.

"Si cuenta con un modelo de caja negra complicado que toma todas esas características y las combina en millones de maneras, entonces el humano no podrá entenderlo, señala Varshney.

Declarar una imagen como la de un gato y no un perro debido a una relación compleja entre píxeles particulares es tan inútil como que un humano le diga a otro que se trata de un gato porque una neurona particular en su cerebro se disparó en un momento determinado. Pero aún hay formas de hacer que los sistemas sean explicables, asegura Varshney, trabajando en un nivel más alto de abstracción.

"Puede encontrar representaciones que sean semánticamente significativas, indica. "Por ejemplo, si es una imagen de gatos, descubrirá que los bigotes son una característica importante, la forma de la nariz y el color de sus ojos.

Luego, para explicar su decisión, la IA puede resaltar aquellos lugares en la fotografía que demuestran que se trata de un gato, o mostrar una foto de comparación de una imagen prototipo de un gato.

"Es realmente una forma de generar confianza en el sistema, comenta. "Si las personas pueden entender la lógica de cómo funcionan estas cosas, pueden confiar en su uso.

Este es exactamente el enfoque adoptado por Mark Michalski, director ejecutivo del Hospital General de Massachusetts y el Birgham and Women's Hospital Center for Clinical Data Science.

El hospital usa IA para detectar cánceres en imágenes de radiología. El personal médico debe confiar altamente en el sistema para usarlo. Para ello, los proveedores de atención médica no solo obtienen una respuesta simple de sí o no a la pregunta de si la exploración muestra que el paciente tiene cáncer.

"Puede proporcionar mapas de calor sobre la parte superior de las imágenes para explicar por qué la máquina señala ese lugar, anota Michalski.

Sistemas propietarios y proveedores reacios

La transparencia total no siempre beneficia a todos. Para algunos proveedores de IA, regalar los detalles de cómo sus IA toman decisiones es como renunciar a sus recetas secretas.

"Las compañías de software son algo codiciosas y suponen que todos tienen malas intenciones y quieren robar sus ideas, comenta Justin Richie, director de ciencia de datos en Nerdery, una consultora de servicios digitales que ayuda a las empresas con sus proyectos de inteligencia artificial. "Hay proveedores que han dejado que clientes se vayan por no exponer sus formas. Otros proveedores muestran la interpretación directamente en sus herramientas.

Es un problema de mercado más que uno de limitaciones técnicas, agrega. Y a medida que las tecnologías de IA se vuelvan comunes, el juego cambiará.

Los algoritmos comerciales de venta libre a menudo carecen de características de explicabilidad críticas, señala Alex Spinelli, CTO de LivePerson, que fabrica chatbots con inteligencia artificial.

"Algunos de los mejores sí vienen con capacidades de inspección y auditoría, pero no todos, señala. "No hay muchos estándares. La auditabilidad, la trazabilidad, la posibilidad de consultar al algoritmo por qué tomó la decisión, son capacidades poco frecuentes".

LivePerson escribe sus propios algoritmos con explicabilidad incorporada o utiliza herramientas de código abierto que vienen con esas capacidades, asegura Spinelli, como los algoritmos de procesamiento de lenguaje natural de código abierto Ernie de Baidu y Bert de Google.

Estándares de IA en aumento

Por otro lado, existen esfuerzos generalizados de la industria para hacer que los sistemas de IA sean más transparentes, señala. Por ejemplo, LivePerson está involucrado en la iniciativa EqualAI, enfocándose en prevenir y corregir sesgos en inteligencia artificial mediante el desarrollo de pautas, estándares y herramientas.

Los organismos de normalización existentes también han estado trabajando para abordar estos problemas. Red Hat, por ejemplo, está trabajando con varios estándares diseñados para ayudar a que la IA y los sistemas de aprendizaje automático sean más transparentes, comenta Edson Tirelli, gerente de desarrollo de Red Hat para la automatización empresarial.

"Estas normas ayudan a abrir la caja, señala.

Uno de esos estándares es el estándar Decision Model and Notation del Object Management Group.

Este estándar relativamente reciente ayuda a cerrar algunas brechas en la comprensión de todos los pasos involucrados en el proceso de toma de decisiones de una empresa, señala Tirelli. "Puede obtener todo el seguimiento de cada paso de la decisión o proceso empresarial, hasta la parte de IA".

Los estándares también facilitan el movimiento de procesos y modelos entre plataformas de proveedores. Pero además de Red Hat, solo un puñado de compañías están apoyando a DMN.

Sin embargo, Tirelli agrega que el estándar Business Process Model and Notation de Object Management Group es compatible con cientos de proveedores.

"Prácticamente todas las herramientas existentes lo soportan, o el estándar hermano, Portable Format for Analytics, indica. "Es compatible básicamente con todas las herramientas que crean modelos de aprendizaje automático.

Estos estándares se conectan entre sí para proporcionar la funcionalidad para una IA explicable, dice.

Fronteras finales

A medida que la IA se utiliza para tareas más complicadas, la explicabilidad se vuelve más desafiante, señala Mark Stefik, investigador en PARC.

"No ayuda si la explicación le da cinco mil reglas, comenta.

Por ejemplo, PARC ha estado trabajando en un proyecto para DARPA, la Agencia de Proyectos de Investigación Avanzados de Defensa, que involucra entrenamiento de drones para misiones de rescate de guardabosques. Es más fácil saber cuándo confiar en el sistema para tareas simples que para misiones de nivel experto en escenarios complejos de montañas o desiertos.

"Estamos avanzando mucho en ese tema, pero no diría que tenemos explicabilidad para todo tipo de IA, señala.

El desafío final, que puede ser el más difícil hasta ahora, es el del sentido común.

"El santo grial es un razonamiento causal, y esa es la dirección hacia la que yo y otras personas como yo nos dirigimos, menciona Alexander Wong, Canada Research Chair en el campo de la IA en la Universidad de Waterloo.

Dice que hoy en día es difícil para los sistemas informáticos desacoplar la correlación y la causalidad. ¿El sonido del despertador hace que salga el sol?

"Queremos encontrar una manera de separar las correlaciones espurias de la verdadera causalidad, indica. "Es difícil incluso entrenar a una persona para que haga un razonamiento causal adecuado. Es un problema muy, muy difícil.

Esta capacidad de pensar a través de una cadena de causalidad es de lo que habla la gente cuando habla de inteligencia artificial general, asegura.

"Estamos avanzando en esa dirección, agrega Wong. "Pero la última forma de razonamiento causal, si tuviera que adivinar, sería dentro de un marco de tiempo.

Aunque la IA explicable esté en su infancia, no significa que las empresas deban esperar.

"La explicabilidad, incluso en su forma actual, sigue siendo muy útil para muchos procesos empresariales, asegura Wong. "Si alguien comienza a usarla en este momento, el sistema que construya será mucho más importante que otras personas, y también será mucho más justo. Cuando se trata de IA responsable, una de mis creencias fundamentales es que la explicabilidad y la transparencia son parte clave de la misma.