
[11/03/2021] Los desarrolladores de inteligencia artificial siempre han tenido un aire de "Mago de Oz". Detrás de un telón magistral, realizan hazañas asombrosas que parecen otorgar cerebros algorítmicos a los espantapájaros computarizados de este mundo.
La prueba de Turing de la IA se centró en la magia necesaria para hacernos creer que los espantapájaros podrían ser humanos de carne y hueso (si ignoramos las pajas que salen de sus pantalones). Sin embargo, estoy de acuerdo con el argumento expresado recientemente por Rohit Prasad, director científico de Amazon para Alexa, que sostiene que el marco del "juego de imitación" de Alan Turing ya no es relevante como un gran reto para los profesionales de la IA.
Crear una nueva prueba de Turing para la IA ética
Prasad señala que imitar diálogos en lenguaje natural ya no es un objetivo inalcanzable. La prueba de Turing supuso un importante avance conceptual a principios del siglo XX, cuando lo que hoy llamamos computación cognitiva y procesamiento del lenguaje natural eran tan futuristas como viajar a la luna. Pero nunca pretendió ser un punto de referencia técnico, sino simplemente un experimento mental para ilustrar cómo una máquina abstracta podría emular las habilidades cognitivas.
Prasad sostiene que el valor de la IA reside en las capacidades avanzadas que van mucho más allá de la imitación de conversaciones en lenguaje natural. Señala las capacidades bien establecidas de la IA para consultar y digerir grandes cantidades de información mucho más rápido de lo que cualquier humano podría lograr sin ayuda. La IA puede procesar video, audio, imágenes, sensores y otros tipos de datos más allá de los intercambios basados en texto. Puede llevar a cabo acciones automatizadas de acuerdo con las intenciones inferidas o pre especificadas del usuario, en lugar de mediante diálogos de ida y vuelta.
Es posible incluir todas estas facultades de la IA en un marco más amplio centrado en la IA ética. La toma de decisiones éticas es de gran interés para cualquiera que se preocupe por cómo pueden programarse los sistemas de IA para evitar invadir inadvertidamente la privacidad, o realizar otras acciones que transgredan los principios normativos fundamentales. La IA ética también intriga a los aficionados a la ciencia ficción, que llevan mucho tiempo debatiendo si las leyes intrínsecamente éticas de la robótica de Isaac Asimov pueden programarse de forma efectiva en robots reales (físicos o virtuales).
Si esperamos que los robots impulsados por la IA sean lo que los filósofos llaman "agentes morales", entonces necesitamos una nueva prueba de Turing. Un juego de imitación centrado en la ética dependería de lo bien que un dispositivo, un robot o una aplicación impulsados por la IA puedan convencer a un humano de que sus respuestas verbales y otros comportamientos podrían ser producidos por un ser humano moral real en las mismas circunstancias.
Construir marcos éticos de IA para la era de la robótica
Desde un punto de vista práctico, esta nueva prueba de Turing debería desafiar a los magos de la IA no solo a otorgar a sus "espantapájaros" robóticos su inteligencia algorítmica, sino también a equipar a los "hombres de hojalata" con la empatía artificial necesaria para enfrentarse a los humanos en contextos enmarcados en la ética, y a dotar a los "leones cobardes" de la eficacia artificial necesaria para lograr resultados éticos en el mundo real.
La ética es un atributo conductual complicado en torno al cual desarrollar métricas concretas de rendimiento de la IA. Está claro que incluso el conjunto más completo de puntos de referencia técnicos de hoy en día -como MLPerf- es un criterio inadecuado para medir si los sistemas de IA pueden imitar de forma convincente a un ser humano moral.
Las facultades éticas de las personas son una misteriosa mezcla de intuición, experiencia, circunstancias y cultura, además de variables situacionales que guían a los individuos a lo largo de su vida. Según una nueva prueba de Turing centrada en la ética, las prácticas generales de desarrollo de la IA se clasifican en las siguientes categorías:
- Computación cognitiva: Los sistemas algorítmicos manejan los modos de pensamiento conscientes, críticos, lógicos, atentos y razonados, como los que encontramos en los sistemas expertos y los programas de PNL.
- Computación afectiva: Los programas infieren y se comprometen con las señales emocionales que los humanos emiten a través de modalidades como las expresiones faciales, las palabras habladas y los gestos de comportamiento. Las aplicaciones incluyen el monitoreo de las redes sociales, el análisis de sentimientos, la optimización de la experiencia y la empatía robótica.
- Computación sensorial: Utilizando información sensorial y otra información contextual del entorno, los algoritmos impulsan el reconocimiento facial, el reconocimiento de voz, el reconocimiento de gestos, la visión por ordenador y la teledetección.
- Computación volitiva: Los sistemas de IA traducen la cognición, el afecto y/o las impresiones sensoriales en acciones voluntarias, intencionadas y efectivas, lo que crea escenarios de "próxima mejor acción" en la robótica inteligente, motores de recomendación, automatización de procesos robóticos y vehículos autónomos.
Incorporación de prácticas éticas de IA en el proceso de desarrollo del aprendizaje automático (ML)
La ética no es algo que se pueda programar de forma directa en la IA o en cualquier otra aplicación. Esto explica, en parte, por qué vemos una creciente gama de proveedores de soluciones de IA y consultorías que ofrecen asistencia a las empresas que están tratando de reformar sus canales de desarrollo para garantizar que más iniciativas de IA produzcan productos finales impregnados de ética.
En gran medida, la creación de una IA que pueda pasar una prueba de Turing de próxima generación requeriría que estas aplicaciones sean construidas y entrenadas dentro de los canales de desarrollo que hayan sido diseñados para garantizar las siguientes prácticas éticas:
- Revisión de las partes interesadas: La retroalimentación ética de los expertos en la materia y las partes interesadas son integrados en los procesos de colaboración, prueba y evaluación que rodean el desarrollo iterativo de las aplicaciones de IA.
- Transparencia algorítmica: Los procedimientos garantizan la explicabilidad en un lenguaje sencillo de cada tarea de desarrollo de IA, producto de trabajo intermedio y aplicación entregable en términos de su adhesión a las restricciones u objetivos éticos pertinentes.
- Garantía de calidad: Los puntos de control de calidad aparecen a lo largo del proceso de IA devops. Las revisiones y los exámenes adicionales verifican que no queden vulnerabilidades ocultas -como correlaciones sesgadas de características de segundo orden- que puedan socavar los objetivos éticos que se persiguen.
- Mitigación de riesgos: Los desarrolladores tienen en cuenta los riesgos derivados de confiar en algoritmos o modelos específicos de IA -como el reconocimiento facial- cuyo uso benigno previsto (como la autenticación de los inicios de sesión de los usuarios) también podría ser vulnerable al abuso en escenarios de doble uso (como la selección de grupos demográficos específicos).
- Controles de acceso: Se incorpora una gama completa de controles que cumplen con la normativa sobre el acceso, el uso y el modelado de la información personal identificable en las aplicaciones de IA.
- Auditoría operativa: Los procesos de desarrollo de la IA crean un registro de auditoría inmutable para garantizar la visibilidad de cada elemento de datos, variable del modelo, tarea de desarrollo y proceso operativo que se utilizó para construir, capacitar/entrenar, desplegar y administrar aplicaciones éticamente alineadas.
Confiar en el robot ético de la IA en nuestras vidas
La prueba definitiva de los robots éticos de IA es si la gente real confía en ellos lo suficiente como para adoptarlos en sus vidas.
El texto en lenguaje natural es un buen lugar para empezar a buscar principios éticos que puedan incorporarse a los programas de aprendizaje automático, pero los sesgos de estos conjuntos de datos son bien conocidos. Es seguro asumir que la mayoría de las personas no se comportan de forma ética todo el tiempo, y no siempre expresan sentimientos éticos en todos los canales y contextos. Seguramente usted no querrá incorporar principios éticos sospechosos a sus robots de IA solo porque la gran mayoría de los humanos puedan (hipócritamente o no) apoyarlos.
Sin embargo, algunos investigadores de IA han construido modelos de aprendizaje automático, basados en el procesamiento de lenguaje natural (NLP), para inferir patrones de comportamiento asociados a la toma de decisiones éticas del ser humano. Estos proyectos se basan en la fe de los profesionales de la IA en que pueden identificar dentro de los conjuntos de datos textuales los patrones estadísticos de comportamiento ético en los agregados sociales. En teoría, debería ser posible complementar estos principios derivados del texto con principios de comportamiento inferidos a través del aprendizaje profundo en conjuntos de datos de video, audio u otros medios.
Al crear datos de entrenamiento para los algoritmos de la IA ética, los desarrolladores necesitan un etiquetado y una curación sólidos proporcionados por personas a las que se les pueda confiar esta responsabilidad. Aunque puede ser difícil medir cualidades éticas como la prudencia, la empatía, la compasión y la tolerancia, todos sabemos lo que son cuando las vemos. Si se nos preguntara, probablemente podríamos etiquetar cualquier caso específico de comportamiento humano como un ejemplo o una carencia de ellas.
Es posible que un programa de IA entrenado a partir de estos conjuntos de datos curados engañe a un evaluador humano para que piense que un robot es un homo sapiens de buena fe con conciencia. Sin embargo, incluso en ese caso, los usuarios nunca podrán confiar del todo en que el robot de IA tomará las acciones más éticas en todas las circunstancias del mundo real. Por lo menos, puede que no haya suficientes registros de datos históricos válidos de casos del mundo real para entrenar modelos de IA éticos en escenarios inusuales o anómalos.
Igualmente significativo es el hecho de que incluso un algoritmo ético de IA bien entrenado puede no ser capaz de superar una prueba de Turing multinivel en la que los evaluadores consideren los siguientes escenarios contingentes:
- ¿Qué ocurre cuando diversos algoritmos éticos de IA, cada uno con autoridad en su propio ámbito, interactúan de forma imprevista y producen resultados éticamente dudosos en un contexto más amplio?
- ¿Qué ocurre si estos algoritmos de IA éticamente seguros entran en conflicto? ¿Cómo hacen concesiones entre valores igualmente válidos para resolver la situación?
- ¿Y si ninguno de los algoritmos de IA en conflicto, cada uno de los cuales está asegurado éticamente en su propio dominio, es competente para resolver el conflicto?
- ¿Y si construimos algoritmos de IA éticamente asegurados para tratar estos equilibrios de orden superior, pero dos o más de estos algoritmos de orden superior entran en conflicto?
Estos escenarios complejos pueden ser fáciles de responder para un ser humano moral, como un líder religioso, un erudito legal o su madre, pero pueden poner en aprietos a un robot de IA que ha sido construido y entrenado específicamente para una estrecha gama de escenarios. En consecuencia, la toma de decisiones éticas siempre tendrá que contar con la participación de un ser humano, al menos hasta ese glorioso (o temido) día en que podamos confiar en la IA para que haga todo y cualquier cosa en nuestras vidas.
En un futuro previsible, los algoritmos de IA solo pueden ser fiables en ámbitos de decisión específicos y solamente si su desarrollo y mantenimiento es supervisado por humanos competentes en los valores subyacentes que se codifican. En cualquier caso, la comunidad de la IA debería considerar el desarrollo de un nuevo juego de imitación centrado en la ética para guiar la I+D durante los próximos 50 o 60 años. Eso es más o menos lo que tardó el mundo en hacer justicia al experimento mental original de Alan Turing.
James Kobielus, InfoWorld
James Kobielus es analista principal de Franconia Research.