Llegamos a ustedes gracias a:



Columnas de opinión

El estado de la IA, bots y los asistentes inteligentes

Por: Galen Gruman, editor ejecutivo de InfoWorld

[03/10/2017] La inteligencia artificial -disfrazada de asistentes personales, bots, automóviles autodirigidos y aprendizaje automático- es nuevamente popular, dominando las conversaciones en Silicon Valley, los informes de medios técnicos y las ferias comerciales de proveedores.

IA es una de esas tecnologías cuya promesa es resucitada periódicamente, y que avanza lentamente hacia el mundo real. Recuerdo las presentaciones de IA del perro y el pony en IBM, MIT, Carnegie-Mellon, Thinking Machines y similares a mediados de la década de 1980, así como los defensores del technohippie como Jaron Lanier, que a menudo adornaba las portadas de las revistas gee-whiz como Omni.

IA es un área donde gran parte de la ciencia está bien establecida, pero la implementación es todavía muy inmadura. No es que el emperador no tenga ropa, sino que el por ahora solo está usando ropa interior. Hay mucho más por vestir.

Por lo tanto, tome todas estas promesas de máquina/software inteligentes con cierta reserva. Estamos décadas atrás de una computadora de conversación estilo Star Trek, y mucho más lejos de la inteligencia artificial de Stephen I. Spielberg.

Sin embargo, sucede mucho dentro de la IA general. Los desarrolladores y las empresas inteligentes se centrarán en las áreas específicas que tienen un potencial actual real y dejarán el resto para los escritores de ciencia ficción y la prensa gee-whiz.

La robótica y la inteligencia artificial son disciplinas separadas

Durante años, la ficción popular ha fundido robots con inteligencia artificial, desde Gort de El día que la tierra se detuvo hasta los Cylons de Battlestar Galactica, desde los robots pseudo-humanos de la novela I Robot de Isaac Asimov hasta Data de Star Trek: La nueva generación. Sin embargo, los robots no son inteligencias de silicio, sino máquinas que pueden realizar tareas mecánicas anteriormente manejadas por personas; a menudo con mayor fiabilidad, rapidez y sin exigencias de un salario digno o beneficios.

La fabricación de los robots es común y se están utilizando en los hospitales para la entrega y el cumplimiento de medicinas (ya que no se roban drogas para uso personal), pero no tanto en edificios de oficinas y hogares.

Últimamente, se han visto avances increíbles en el campo de la biónica, en gran medida impulsados por veteranos de guerra que han perdido miembros en las guerras de las últimas dos décadas. Ahora vemos extremidades que pueden responder a impulsos neuronales y ondas cerebrales como si fueran apéndices naturales, y está claro que pronto no necesitarán todos esos cables y computadoras externas para funcionar.

Tal vez un día fusionemos la IA con robots y acabemos esclavos de los Cylons... o peor. Pero no por mucho tiempo. Mientras tanto, algunos avances en IA ayudarán a los robots a trabajar mejor, ya que su software puede volverse más sofisticado.

La concordancia de patrones es el enfoque de hoy, pero a menudo poco sofisticado

La mayor parte de lo que ahora está posicionado como la base de la inteligencia artificial -las recomendaciones de productos en Amazon, recomendaciones de contenido en Facebook, reconocimiento de voz por Siri de Apple, sugerencias de conducción de Google Maps, etc. - es simplemente concordancia de patrones.

Gracias a los continuos avances en el almacenamiento de datos y la capacidad computacional, impulsados por cloud computing, se pueden almacenar, identificar y utilizar más patrones que nunca. Mucho de lo que la gente hace está basado en la concordancia de patrones -para resolver un problema, primero intenta averiguar qué es lo que ya sabe y luego prueba las soluciones que ya conoce. Cuanto más rápido coincida el patrón con las acciones o resultados más probables, más inteligente parecerá el sistema.

Pero todavía estamos en los primeros días. Existen algunos casos, como la navegación, en los que los sistemas se han vuelto muy buenos, hasta el punto en que (algunos) personas ahora se dirigen a una pista de aterrizaje del aeropuerto, un lago o una carretera rural nevada porque su GPS les dijo, contrariamente a todas las señales.

Pero sobre todo, estos sistemas son tontos. Es por eso que cuando se dirige a Amazon y mira productos, muchos sitios web que visita incluyen esos productos en sus anuncios. Eso es especialmente absurdo si compró el producto o decidió no hacerlo; pero lo único que estos sistemas saben es que ha mirado el producto X, así que seguirán mostrándole más de lo mismo. Eso es todo menos que inteligente. Y no son solo los anuncios de productos de Amazon; la función de Genius de Apple y las recomendaciones de Google Now tampoco tienen idea del contexto, por lo que lo llevan hacia un mar de igualdad muy rápidamente.

Realmente pueden trabajar en su contra, como ocurre con la autocorrección de Apple actualmente. Representa un fracaso del crowdsourcing, donde la mala gramática de la gente, la falta de claridad sobre cómo formar plurales o usar apóstrofes, mayúsculas inconsistentes y errores tipográficos se imponen a todos los demás. (He encontrado que apagarlo puede resultar en menos errores, incluso para pésimos mecanógrafos como yo.)

Lo que falta es el matiz de un contexto más completo; como saber lo que compró o rechazó, para no recibir anuncios sobre más de lo mismo, sino de otro elemento en el que puede estar más interesado. Igualmente con la música -si sus listas de reproducción son variadas, también deberían serlo las recomendaciones. También con, por ejemplo, la recomendación de Google Now sobre dónde comer -me gusta la comida india, pero no me provoca cada vez que salgo. ¿Qué más me gusta y no he comido últimamente? ¿Y qué hay de los patrones y preferencias de la gente con la que estoy comiendo?

El autocorrector es otro ejemplo de dónde es necesario el contexto. En primer lugar, alguien debería decirle a Apple la diferencia entre "its" e "it's", así como explicar que hay variaciones legítimas y correctas en inglés que las personas deberían poder especificar. Por ejemplo, los prefijos pueden formar parte de una palabra (como "preconfigurado") o con guión (como "pre-configurado"), y los usuarios deben tener la posibilidad de especificar esa preferencia. (Poner un espacio después del prefijo siempre es incorrecto, como "pre configurado"; sin embargo, eso es lo que impone la autocorrección de Apple a menos que sea separado con un guión).

No espere que los robots -asistentes automatizados de software que hacen cosas para usted basándose en todos los datos que han monitoreado- sean útiles para cualquier cosa más allá de las tareas simples hasta que los problemas de dominios, como la autocorrección, funcionen. De hecho, son el mismo tipo de problemas.

La identificación de patrones va en aumento como el aprendizaje automático

La concordancia de patrones, incluso con un contexto rico, no es suficiente; pues debe ser predefinido. Ahí es donde entra en juego la identificación de patrones, lo que significa que el software detecta nuevos patrones o patrones modificados supervisando sus actividades.

Eso no es fácil, ya que algo tiene que definir los parámetros para las reglas que soportan tales sistemas. Es fácil tratar de hervir el océano y terminar con un lío indiferenciado, o ser demasiado restrictivo y terminar no siendo útil en el mundo real.

Este esfuerzo de identificación es una gran parte de lo que el aprendizaje automático es hoy en día, ya sea para hacer clic en más anuncios o comprar más productos, diagnosticar mejor las fallas en fotocopiadoras y motores de aeronaves, reencaminar camiones de reparto basados en el tiempo y el tráfico, o responder a peligros durante la conducción (la tecnología de la evitación de colisión pronto será un estándar en los carros en EEUU).

Debido a que el aprendizaje automático es tan difícil -especialmente fuera de dominios altamente definidos y diseñados- debería esperar un progreso lento, donde los sistemas mejoran, pero no se nota por un tiempo.

El reconocimiento de voz es un gran ejemplo: los primeros sistemas (para los sistemas de ayuda telefónicos) eran horribles, pero ahora tenemos Siri, Google Now, Alexa y Cortana, que son bastante buenos para muchas personas para muchas frases. Siguen siendo propensos a errores, malos en frases complejas y dominios del campo, y malos en muchos acentos y patrones de pronunciación; pero utilizables en contextos suficientes donde pueden ser útiles. Algunas personas realmente pueden usarlas como si fueran un transcriptor humano.

Pero cuanto más desordenado el contexto, más difícil es que las máquinas aprendan, pues sus modelos están incompletos o demasiado deformados por el mundo en el que funcionan. Los automóviles de conducción automática son un buen ejemplo: un automóvil puede aprender a conducir basándose en patrones y señales de la carretera y otros carros, pero las fuerzas externas como el clima, los comportamientos de peatones y ciclistas, los automóviles estacionados en doble vía, los ajustes de construcción, etc.; confunden gran parte de ese aprendizaje, y son difíciles de reconocer, dadas sus idiosincrasias y variabilidad. ¿Es posible superar todo eso? Sí, la tecnología de evasión de choques que se está usando con mayor frecuencia es un claro paso hacia el futuro autodirigido -pero no al ritmo que la blogosfera parece pensar.

El análisis predictivo sigue al aprendizaje automático

Durante muchos años, se le ha vendido a TI el concepto de análisis predictivo, que ha tenido otras formas, como la inteligencia empresarial operacional. Es un gran concepto, pero requiere concordancia de patrones, aprendizaje automático y perspicacia y conocimiento. Estos últimos son los que permiten que la gente tome el salto mental hacia una nueva área.

Para el análisis predictivo, eso no llega tan lejos como a un pensamiento innovador, pero sí llega a la identificación y aceptación de patrones y resultados inusuales. Eso es difícil, porque la "inteligencia" basada en patrones -desde qué resultado de búsqueda mostrar, a qué ruta tomar, a qué movimientos realizar en el ajedrez- se basa en la suposición de que los patrones y caminos de la mayoría son los mejores. De lo contrario, la gente no los usaría tanto.

La mayoría de los sistemas de asistencia utilizan las condiciones actuales para guiarlo hacia un camino probado. Los sistemas predictivos combinan las condiciones futuras actuales y derivables usando todo tipo de matemáticas de probabilidades. Pero esas son las predicciones fáciles. Las que realmente importan son aquellas difíciles de ver, por lo general por un puñado de razones: el contexto es demasiado complejo para la mayoría de gente, o el camino calculado es un valor atípico y por lo tanto rechazado como tal -por el algoritmo o el usuario.

Como puede ver, hay mucho por hacer, así que tome el futuro gee-whiz que vemos en la prensa popular y en conferencias de tecnología con cierta reserva. El futuro llegará, pero lento y de manera irregular.

Galen Gruman es editor ejecutivo de InfoWorld; editor editorial de CTO para IDG US Media, la empresa matriz de InfoWorld; analista adjunto especializado en movilidad empresarial en el Programa Ejecutivo de TI de IDC; y autor de más de 40 libros de computación.