Llegamos a ustedes gracias a:



Noticias

Un nuevo algoritmo ayuda a las computadoras a aprender

De la misma forma en que nosotros lo hacemos

[18/12/2015] El aprendizaje de máquina se trata de hacer que las computadoras "entiendan nuevos conceptos, pero aún es un proceso bastante ineficiente, que requiere a menudo cientos de ejemplos para su entrenamiento. Sin embargo, eso puede cambiar pronto gracias a una nueva investigación publicada el viernes.

Con el objetivo de acortar el proceso de aprendizaje y hacerlo más parecido a la forma en que los seres humanos adquieren y aplican nuevos conocimientos sobre la base de solo algunos ejemplos, un equipo de investigadores ha desarrollado lo que ellos llaman un marco Bayesian Program Learning, y luego lo usó para enseñar a las computadoras a identificar y reproducir caracteres escritos a mano sobre la base de un solo ejemplo.

Aunque los algoritmos estándar de reconocimiento de patrones representan conceptos como las configuraciones de píxeles o colecciones de características, el enfoque BPL aprende "explicando los datos proporcionados al algoritmo -en este caso, el carácter de muestra. Los conceptos se representan como programas probabilísticos de computadora y el algoritmo básicamente se programa a sí mismo construyendo código para producir la letra que ve. También puede capturar las variaciones en la forma en que diferentes personas dibujan una letra dada.

Una nueva investigación enfrentó a los humanos contra las máquinas en una prueba de Turing visual. Crédito: Danqing Wang.
Bayesian Program Learning

El modelo también "aprende a aprender mediante el uso del conocimiento de los conceptos previos para acelerar el aprendizaje de los nuevos, por lo que puede utilizar el conocimiento del alfabeto latino para aprender las letras en el alfabeto griego con mayor rapidez, por ejemplo.

Lo más convincente de todo es que el algoritmo permitió a las computadoras pasar una especie de "prueba de Turing visual. Específicamente, los investigadores pidieron a seres humanos y a computadoras reproducir una serie de caracteres escritos a mano después de haberles mostrado un solo ejemplo de cada uno; en algunos casos, se pidió a los sujetos crear caracteres completamente nuevos del estilo de los que se mostraron en un principio. El resultado: Los jueces humanos no pudieron diferenciar los resultados.

Los investigadores han aplicado su modelo a más de 1.600 tipos de caracteres escritos a mano en 50 sistemas de escritura, incluyendo sánscrito, tibetano, gujarati y glagolítico. Incluso probaron con caracteres inventados, como los de la serie de televisión "Futurama.

El viernes se publicó en el journal Science un paper que describía la investigación. Sus autores fueron Brenden Lake, Moore-Sloan Data Science Fellow de la Universidad de Nueva York; Ruslan Salakhutdinov, profesor asistente de Ciencias de la Computación de la Universidad de Toronto; y Joshua Tenenbaum, profesor del Departamento de Ciencias Cerebrales y Cognitivas del MIT y del Centro de Cerebros, Mentes y Máquinas.

"Ha sido muy difícil construir máquinas que requieran tan pocos datos como los humanos para aprender un nuevo concepto, afirmó Salakhutdinov. "Replicar estas capacidades es un área emocionante de investigación que conecta el aprendizaje de máquina, la estadística, la visión de computadora y las ciencias cognitivas.

Katherine Noyes, CIO (EE.UU.)