Llegamos a ustedes gracias a:



Columnas de opinión

7 obstáculos en el camino hacia la inteligencia artificial

Por: Peter Wayner, colaborador de InfoWorld

[12/05/2023] Todos se asombran cuando las mariposas de la inteligencia artificial (IA) emergen de sus capullos. Los grandes modelos de lenguaje están equilibrados, aprendidos y son expertos en comunicarse en una amplia gama de idiomas y estilos. Los modelos de arte pueden producir prácticamente cualquier cosa con la que podamos soñar y explicar con palabras, cuanto más loco, mejor. Los científicos están enseñando a las IA a componer música, explorar el espacio y -para nuestra preocupación- realizar tareas repetitivas tradicionalmente realizadas por trabajadores remunerados.

A pesar de todos estos sorprendentes resultados, justo debajo de la superficie, graves problemas acechan. Tal vez no nos hayamos dado cuenta todavía porque todavía estamos en un estado de asombro. En el futuro, no tendremos más remedio que lidiar con los dilemas materiales y éticos planteados por la IA. A continuación, siete problemas que no podremos ignorar cuando la maravilla comience a desvanecerse.

Escasez de recursos

La mayoría de los grandes modelos de IA se basan en enormes cálculos paralelos que pueden acelerarse mediante GPUs o chips especializados conocidos como TPUs. Estos también son utilizados a menudo por los mineros de criptomonedas, participantes en las reuniones de video y gamers. Todos quieren el hardware y en los últimos años su costo se ha disparado a medida que la demanda superó la oferta. Para empeorar las cosas, muchos usan la nube y, a veces, la nube simplemente no puede expandirse lo suficientemente rápido. Desarrollar modelos de IA en todo su potencial requerirá mucho hardware y no será barato.

El hardware no es el único recurso escaso necesario para una implementación exitosa de IA. Los grandes trabajos de IA requieren mucha energía eléctrica, que no todas las regiones pueden abastecer. Entre los conflictos geopolíticos y las fuentes renovables volubles, simplemente obtener suficiente electricidad a un precio predecible es un desafío. Algunos proveedores de nube están aumentando los precios en ciertas regiones solo para compensar el incremento en su facturación debido a la agitación geopolítica.

Ética de la IA

Hay muchos temas y debates que los humanos saben que deben evitar en ciertos contextos, como las cenas festivas o el lugar de trabajo. Sin embargo, es necesario enseñar a las IA cómo manejar estos problemas en todos los contextos. Algunos grandes modelos de lenguaje están programados para desviar preguntas cargadas o simplemente negarse a responderlas, pero algunos usuarios simplemente no dejarán que esto suceda. Cuando un usuario de este tipo nota que la IA esquiva una pregunta engañosa, como una que invoca prejuicios raciales o de género, inmediatamente buscará formas de pasar por debajo de esas barreras.

El sesgo en los datos y la insuficiencia de datos son problemas que se pueden corregir con el tiempo, pero mientras tanto, el potencial de daño y mal uso es enorme. Y, si bien lograr que la IA genere discursos de odio es bastante malo, la trama se complica considerablemente cuando comenzamos a usar la IA para explorar las implicaciones morales de las decisiones de la vida real.

Desigualdad laboral mundial

Muchos proyectos de IA dependen de la retroalimentación humana para guiar su aprendizaje. A menudo, un proyecto de escala necesita un gran volumen de personas para construir el conjunto de entrenamiento y ajustar el comportamiento del modelo a medida que crece. Para muchos proyectos, el volumen necesario solo es económicamente factible si los capacitadores reciben salarios bajos en países pobres. Existe un profundo debate sobre lo que es justo y equitativo, pero nadie ha descubierto una solución económicamente viable para proyectos más grandes. Así como a la industria de las piedras preciosas no le gusta pensar en el trabajo arduo y peligroso de la minería, la industria de la IA no tiene una solución simple para el costo de la mano de obra.

Circuitos de mala retroalimentación

La desinformación en forma de noticias falsas y reseñas ha estado con nosotros desde hace algún tiempo, y se crea por cualquier motivo, desde la política hasta el lucro. En el caso de las reseñas, los proveedores crean reseñas positivas falsas de sus productos y reseñas negativas falsas de productos de la competencia. Los algoritmos para bloquear a los malos actores son sorprendentemente complejos y requieren un mantenimiento considerable. Parece que no hay 'almuerzo gratis'.

Pero ahora imagine lo que sucede cuando las IA comienzan a usarse para producir desinformación. Por un lado, el volumen de información falsa aumentará exponencialmente. Por otro lado, hay una buena posibilidad de que otra IA lo recoja y lo devuelva al corpus de entrenamiento. Información errónea viral ya contamina nuestras redes sociales. ¿Cómo amplificarán y corromperán los conocimientos los circuitos de mala retroalimentación? ¿Habrá conjuntos de entrenamiento cuidadosamente seleccionados de textos antiguos antes de la singularidad?

La ley

Las IA aprenden todo lo que saben copiando un enorme corpus de texto e imágenes. En la mayoría de los casos, a los humanos que crearon estos datos nunca se les indicó que su trabajo se integraría en un modelo de IA que algún día podría valer miles de millones de dólares. ¿Qué sucede cuando esos humanos comienzan a perder sus trabajos debido a la inteligencia artificial? De repente, todos tienen mucho tiempo para abogar por licencias, derechos de autor y plagio. Podemos bromear sobre simplemente entrenar a una IA en la jurisprudencia relevante, pero un juez de IA, que puede emitir un veredicto en milisegundos, da más miedo que un juez humano que tarda años en sopesar los problemas. Si contamos con la humanidad y el sistema legal, podrían pasar décadas antes de que tengamos un veredicto.

Aquí hay otro escenario en la misma línea. Cuando una IA comete un error sobre eventos históricos o la cultura pop actual, puede ser ofensivo, pero nadie resulta herido directamente. Cuando esa misma IA afirma algo despectivo sobre una persona viva, en realidad podría ser difamatorio. Es fácil imaginar una IA pegando fragmentos de oraciones para decir algo muy malo sobre una persona viva. Entonces digamos que esa persona tiene los medios para contratar un equipo de abogados para vengarse. ¿Es la propia IA culpable? ¿O es la empresa que la posee? Si hay mucho dinero en alguna parte, los abogados lo encontrarán.

Muerte y destrucción

Hasta donde yo sé, no hay ejemplos obvios de IA malvadas que se comporten como villanos en películas de ciencia ficción. Se sabe que los automóviles autónomos y la maquinaria de fábrica cometen errores, pero hasta ahora no parece haber malicia artificial involucrada. Un ser humano tonto, que desayuna detrás del volante mientras envía mensajes de texto y conduce, es de alguna manera más aceptable -aunque no menos potencialmente trágico- que un automóvil autónomo que choca. Parece que todavía no sabemos cómo explicar la posibilidad de lesiones graves o muerte por parte de la inteligencia artificial.

Entonces, ¿qué pasa con eso? Los usuarios inteligentes ya han comenzado a descubrir las formas en que las IA tienden a cometer errores. Una IA puede sobresalir en la obtención correcta de información oscura, pero incluso tareas simples como contar hasta cinco pueden hacerla tropezar. Pero ¿y si las grietas son más profundas que los simples errores de conteo? Como mínimo, podríamos concluir que algunos trabajos no están destinados a la IA, sin importar cuánto queramos obtener ganancias.

Grandes expectativas

Los humanos tienden a imaginar que los animales y las IA piensan igual que nosotros. Esto puede asustarnos porque otros humanos a menudo son decepcionantes o francamente peligrosos. El problema real es que las IA tienen una forma de inteligencia claramente diferente, que aún tenemos que entender. Como especie, tenemos mucho que aprender sobre las fortalezas y debilidades únicas de la IA.

Mientras tanto, el campo de la inteligencia artificial está muy publicitado y animado por el optimismo humano que nunca podría estar a la altura de nuestros sueños. No es culpa de los científicos que no puedan acotar nuestras expectativas; incluso las corporaciones no tienen la culpa de capitalizarlas. Es culpa nuestra por dejar que nuestros corazones y esperanzas superen la realidad. El campo está condenado a decepcionar, aunque solo sea porque estamos esperando demasiado.

Peter Wayner es autor de más de 16 libros sobre diversos temas, como software de código abierto ("Free for All"), coches autónomos ("Future Ride"), computación con privacidad mejorada ("Translucent Databases"), transacciones digitales ("Digital Cash") y esteganografía ("Disappearing Cryptography").

Casos de éxito

Más »