
[18/09/2023] ¿Cómo podemos ayudar a las personas con discapacidad visual a utilizar nuestros productos y sentirse más seguras de sí mismas? Esa es la pregunta que The Estée Lauder Companies (ELC) se propuso responder en el 2022 con la ayuda de la IA y la realidad aumentada (RA).
El resultado es el asistente de maquillaje por voz (VMA, por sus siglas en inglés), que ya se ha lanzado en el Reino Unido y Estados Unidos, y que pronto se estrenará en todo el mundo.
"Nos propusimos abordar un importante problema empresarial en el sector de la belleza: la falta de soluciones accesibles", afirma Michael Smith, vicepresidente senior y director de Informática de ELC. "En el mundo hay 2.200 millones de personas con algún tipo de discapacidad visual. Sólo en el Reino Unido hay más de dos millones, que es nuestro mercado piloto. Pero es algo más que una oportunidad de negocio. También es algo que encaja con nuestra misión de ser la empresa de belleza más integradora y diversa del mundo, tanto para nuestros empleados como para todos nuestros consumidores".
Christopher Aidan, vicepresidente de innovación y tecnologías emergentes de ELC, agrega que las personas con discapacidad visual a menudo deben depender de otras personas para obtener ayuda, por lo que la visión de VMA fue utilizar la plataforma de aplicación inmersiva de realidad aumentada (ARIA, por sus siglas en inglés) existente de ELC, que aprovecha AR, AI y algoritmos de aprendizaje automático (ML, por sus siglas en inglés) para analizar el maquillaje en la cara de un usuario. A continuación, VMA utiliza la guía de voz para ayudar al usuario a crear su look ideal.
VMA es una aplicación móvil que aprovecha las preferencias que el usuario ya ha configurado en su dispositivo para los controles de voz, pero también da la opción de personalizar la voz y su velocidad mediante los ajustes de accesibilidad.
Acertar con la IA
Aunque el equipo de Aidan fue capaz de crear la aplicación con relativa rapidez, las fases de investigación para llegar a ese punto resultaron todo un reto. Con la inclusión como principio rector del proyecto, el equipo reconoció la necesidad de que la aplicación se adaptara a todas las formas, tamaños, tonos y rasgos únicos del rostro de cualquier usuario potencial. Garantizar que la IA pudiera adaptarse y reaccionar a la diversidad de colores, tonos, rasgos faciales, pelo y otras inclusiones hizo que el proceso de entrenamiento de la IA fuera más complejo de lo previsto inicialmente, ya que requería una gran diversidad de rostros para el corpus de entrenamiento.
El diseño original consistía en tomarse un selfie, que el algoritmo analizaba para evaluar la uniformidad de la aplicación y luego proporcionaba orientación al usuario. Sin embargo, el equipo no tardó en utilizar un video en tiempo real para escanear la cara del usuario. Por ejemplo, si el video muestra que el usuario se ha aplicado la base de maquillaje o el pintalabios de forma desigual, la aplicación proporciona descripciones verbales de las zonas específicas que necesitan un retoque y orientación para corregir el problema. El usuario puede entonces hacer ajustes, volver a escanear y la aplicación le avisará cuando todo esté correctamente aplicado.
Sin embargo, la prioridad de Aidan y su equipo era colaborar directamente con la comunidad de discapacitados visuales. "Queríamos conocer a fondo sus necesidades específicas, sus puntos débiles y preferencias, y lo que deseaban de nuestros productos", explica. "Reunimos grupos de discusión e hicimos preguntas, pero sobre todo los escuchamos hablar de sus experiencias personales con el maquillaje y la tecnología".
Es importante señalar que algunos miembros de los grupos de discusión eran completamente ciegos, otros sufrían diversos grados de baja visión y otros tenían una excelente visión periférica. Esto permitió a su equipo obtener información de diversas experiencias individuales y cuestionar sus propias suposiciones.
"Supusimos que la voz natural, de sonido más humanista, sería la preferida para la aplicación, pero la investigación de usuarios confirmó que la familiaridad era en realidad lo más importante para nuestros usuarios", sostiene Aidan. "Lo que tuvieran configurado en su dispositivo era lo que querían experimentar".
El equipo también se asoció con grupos de defensa internos del ELC, grupos de defensa externos y expertos en accesibilidad e inclusión, y combinó sus ideas con los comentarios de los grupos de discusión para reunir los requisitos de la VMA. El equipo aprovechó la investigación de usuarios para todo, desde el nombre de la aplicación hasta el tono de voz.
"A lo largo de las fases de diseño, creación y prueba, sus comentarios influyeron en nuestras decisiones, incluso en las funciones más pequeñas, como la posibilidad de ajustar la velocidad del habla del asistente virtual", explica Aidan.
Un trabajo en curso
El equipo ha seguido observando los comentarios sobre la aplicación desde su lanzamiento inicial en el Reino Unido en enero, y Aidan señala que incluso con las pruebas exhaustivas previas al lanzamiento, los usuarios han identificado desde entonces nuevos problemas.
"Empezamos a recibir preguntas que nadie había formulado en las primeras entrevistas", explica. "¿Qué pasa cuando elimino el producto? ¿Puede decirme si he hecho un buen trabajo al retirarlo?".
Smith dice que ELC está midiendo el éxito de VMA por los comentarios de los usuarios, que han sido tan positivos como constructivos.
"Un usuario dijo: 'Esta es una de esas aplicaciones en las que me voy a preguntar cómo he podido vivir sin ella'", comenta Smith. "La aplicación les permite sentir que tienen poder y probar nuevos productos, y evitar sentir que tienen que depender de otras personas cuando pueden dudar incluso de preguntar. La aplicación no juzga, sólo es sincera".
Smith también dice que VMA no sólo beneficia a los discapacitados visuales. Por ejemplo, los jóvenes que no tienen un adulto en su vida que les apoye, o aquellos que no se sienten cómodos preguntando a un adulto, podrían utilizar esta aplicación para aprender a maquillarse.
"Desafiaría a otros CIO a dar prioridad a la creación de productos más accesibles e inclusivos", afirma. "Cuando diseña para todas las capacidades y personas de forma inclusiva, beneficia a todos".
Basado en el artículo de Thor Olavsrud (CIO) y editado por CIO Perú