Llegamos a ustedes gracias a:



Noticias

Investigadores de IA traducen el lenguaje al movimiento físico

[17/09/2019] La Universidad Carnegie Mellon ha creado un agente de inteligencia artificial que puede traducir palabras en movimientos físicos. En última instancia, esto puede ayudar a los robots a realizar tareas físicas o animar personajes virtuales.

Se llama Joint Language-to-Pose, o JL2P y combina lenguaje natural con modelos de poses en 3D, escribe Venturebeat. JL2P ha sido entrenado con aprendizaje curricular de principio a fin, un enfoque que enfatiza secuencias más cortas de tareas antes de pasar a objetivos más difíciles.

"Primero optimizamos el modelo para predecir dos pasos basados "en la oración completa", dijeron los investigadores. "Esta tarea simple ayuda al modelo a realizar secuencias muy cortas, como movimientos de piernas para caminar y movimientos de manos para agitar", escriben los investigadores. "Tan pronto como la pérdida en el conjunto de validación comience a aumentar, procederemos a la siguiente fase. Ahora el modelo obtiene el doble de poses para la predicción".

JL2P recibió capacitación utilizando el conjunto de datos KIT Motion-Language. Este conjunto de datos fue introducido en el 2016 por High Performance Humanoid Technologies en Alemania. El conjunto de datos combina movimientos humanos con descripciones en lenguaje natural. Para ello, se mapearon un total de once horas de movimientos humanos registrados, con más de 6.200 oraciones en inglés de aproximadamente ocho palabras.

Existen otro tipo de proyectos exitosos en inteligencia artificial; por ejemplo, Microsoft tiene un proyecto llamado ObjGAN, que dibuja imágenes y guiones gráficos basados en títulos. Disney usa una IA que usa palabras en un guion para crear guiones gráficos, y GauGAN de Nvidia permite a los usuarios pintar paisajes usando pinceles con nombres como "árboles", "montaña" o "cielo".