
[10/04/2023] ¿Recuerda cuando en el 2016 Microsoft se vio obligada a detener a un bot de conversación basado en inteligencia artificial llamado Tay? En ese entonces Tay comenzó a mostrar comportamientos inapropiados en Twitter, publicó mensajes racistas y xenófobos, e incluso mostró empatía por Hitler a tan solo unas horas de su lanzamiento. Los responsables de Tay señalaron que ese comportamiento se debía a que los usuarios de la red social que interactuaron con ¿ella? -el bot mostraba un rostro de mujer en su perfil- le indujeron a esa conducta a través de las interacciones de las cuales ella se nutría. A las 16 horas fue desactivada.
Siete años después, nuevamente, la inteligencia artificial genera preocupaciones. Ahora no se trata de un chatbot en particular, sino de todas las inteligencias artificiales que se están desarrollando en los diferentes laboratorios dedicados a ellas. Una carta abierta, firmada por reconocidos personajes de la industria TI, pide que se detengan los entrenamientos de los sistemas de inteligencia artificial más poderosos al menos por seis meses, ya que representan "riesgos profundos hacia la sociedad y la humanidad”. Entonces, ¿cuáles son esos riesgos?
Las preocupaciones de la carta
La misiva abierta -que ha sido firmada por más de 16 mil personas al momento de escribir esta nota- levanta cuestionamientos muy válidos sobre lo que podría ocurrir si se sigue desarrollando la inteligencia artificial tal y como se ha venido haciendo hasta el momento. Por ejemplo, se pregunta ¿Deberíamos automatizar y alejar de nosotros todos los trabajos, incluyendo aquellos que nos hacen sentir realizados? ¿Deberíamos desarrollar mentes no humanas que con el tiempo nos podrían superar en número e inteligencia, dejarnos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?
"Tales decisiones no deberían ser delegadas a líderes tecnológicos que nadie ha elegido. Los poderosos sistemas de inteligencia artificial deberían ser desarrollados solo cuando tengamos la confianza de que sus efectos serán positivos y sus riesgos serán manejables”, afirma la carta.
Por ello, propone una moratoria de al menos seis meses en el entrenamiento de sistemas más poderosos que GPT-4, el desarrollo e implementación de protocolos para el diseño y implementación de la inteligencia artificial -que serán rigurosamente auditados y supervisados- y el desarrollo, en conjunto con los hacedores de políticas, de sistemas de gobernanza que deberían incluir la creación de autoridades regulatorias.
Sin duda, se trata de un llamado a la acción muy fuerte, pero a la vez muy convincente, para muchas personas. Entre los más de 16 mil firmantes de la carta abierta se encuentran figuras como el CEO de Tesla, Elon Musk; el cofundador de Apple, Steve Wozniak; y el reconocido escritor Yuval Noah Harari, autor del libro Sapiens. De animales a dioses; entre otros.
Pero entonces, ¿cuáles son los riesgos que se temen?
Los riesgos de la IA
Si se le pregunta a una inteligencia artificial (ChatGPT) cuáles son los riesgos que ella -y las demás inteligencias artificiales- puede suponer para la humanidad, el resultado es una lista corta de lo que podría ocurrir -aunque el propio ChatGPT aclara que los siguientes son tan solo algunos ejemplos.
- Desigualdad y discriminación: La IA puede perpetuar y amplificar la desigualdad y la discriminación, especialmente si se entrena con datos sesgados, o si se aplica de manera desigual. Por ejemplo, los sistemas de IA utilizados en la contratación de personal o en la evaluación crediticia, pueden exacerbar las desigualdades raciales o de género existentes.
- Pérdida de empleo: La automatización impulsada por la IA tiene el potencial de reemplazar a los trabajadores humanos en una amplia variedad de trabajos, lo que puede llevar a la pérdida de empleos y la disminución de la calidad de vida de los trabajadores afectados.
- Seguridad y privacidad: La IA puede ser explotada por personas malintencionadas para causar daño o violar la privacidad de las personas. Por ejemplo, los sistemas de reconocimiento facial pueden ser utilizados para espiar a las personas sin su conocimiento o consentimiento.
- Superinteligencia: Algunos expertos en inteligencia artificial temen que, si se desarrolla una inteligencia artificial lo suficientemente avanzada, pueda superar la capacidad humana de controlarla, lo que podría resultar en consecuencias catastróficas para la humanidad.
De hecho, de estos cuatro ejemplos de peligro, el tercero ya ha sido abordado por un país.
Como señala el artículo de Computerworld Should we fear the rise of artificial general inteligence? (¿Deberíamos temer el surgimiento de la inteligencia artificial general?), Italia ya se ha convertido en el primer país occidental en prohibir un mayor desarrollo de ChatGPT debido a preocupaciones por su seguridad. Esto ocurre ya que en marzo la plataforma experimentó una fuga de datos que involucró las conversaciones y la información de pago de los usuarios.
Además, la autoridad de protección de los datos personales en Italia ha señalado que está investigando si es que el chatbot de OpenAI ha violado la GDPR (General Data Protection Regulation) de la Unión Europea.
Pero quizás el peligro que más notoriedad ha alcanzado es el cuarto, el relacionado al posible desarrollo de una 'superinteligencia'. Es más, es evidente que la carta se refiere a este tipo de peligro.
En términos específicos, como señala la nota de Computerworld, la preocupación es que se llegue en la siguiente iteración de GPT a una inteligencia artificial general (AGI, por sus siglas en inglés).
GPT y la inteligencia artificial general
La inteligencia artificial que está de moda en estos momentos es ChatGPT, un servicio al cual se puede acceder a través de un navegador visitando la web chat.openai.com. El servicio fue creado por OpenAI, una firma de investigación de la inteligencia artificial, fundada en el 2015, y entre cuyos fundadores se puede encontrar a Elon Musk, uno de los firmantes de la carta abierta mencionada anteriormente.
OpenAI lanzó ChatGPT a finales del año pasado, y desde entonces este servicio ha cobrado bastante notoriedad por la fluidez y naturalidad con la que responde a las preguntas de sus usuarios. El servicio se basa en GPT-3 -en realidad, en GPT-3.5-, una versión de GPT (Generative Pre-Trained Transformer) que es, a su vez, un tipo de modelo de lenguaje natural basado en la arquitectura de redes neuronales transformadoras (transformer). Para darse una idea de la evolución de la herramienta, basta decir que GPT-3 fue entrenado con un total de 175 mil millones de parámetros, mientras que su predecesor, GPT-2 -lanzado en febrero del 2019-, se basó 'sólo' en 1,5 mil millones de parámetros.
El 14 de marzo pasado OpenAI anunció el lanzamiento de GPT-4, una versión que utilizaría alrededor de un billón de parámetros de acuerdo con los estimados de los analistas -OpenAI no declaró el número de parámetros que ha utilizado en esta versión- y que, por tanto, sería una versión mucho más potente que su antecesora.
Las sucesivas mejoras en la plataforma harían -o al menos eso es lo que temen algunos- que la siguiente iteración en lanzarse, la ChatGPT-5, podría ser ya no una inteligencia artificial débil, sino una inteligencia artificial general o AGI. La primera se enfoca en resolver tareas específicas y limitadas en áreas como el reconocimiento de imágenes, la comprensión del lenguaje natural -como ChatGPT- o la toma de decisiones; mientras que la segunda aspira a crear una inteligencia artificial que sea tan versátil y adaptable como la inteligencia humana, y que pueda aplicarse a una amplia variedad de tareas en diferentes dominios.
A eso se le llama la "singularidad tecnológica”.
En el libro La singularidad está cerca, escrito por Ray Kurweil en el 2005, se predecía que la singularidad llegaría en el 2025, aunque otros estudiosos, escritores y analistas han estimado fechas posteriores. Entonces, ¿qué tan cerca estamos? ¿Podrá realmente GPT-5 convertirse en una inteligencia artificial general?
En el mismo artículo de Computerworld, uno de sus entrevistados señala que "se tendrían que realizar muchos avances e innovaciones para llegar a la inteligencia artificial general. Pero si se logra, parecería que este sistema podría reemplazar a muchos humanos”.
Entonces, no queda claro que GPT-5 logre el ansiado sueño de convertirse en una inteligencia artificial general, o que los avances en otras plataformas den una pista de que pronto se llegue a la singularidad. Para ello se deberían producir muchos avances y cambios en la tecnología por lo que, por ahora, el tema aún parece parte de la ciencia ficción.
A pesar de ello, la carta abierta y un número significativo de estudiosos del tema considera que el camino hacia la AGI debería contar con muchas salvaguardas para evitar que esta inteligencia tome el pleno control de todo.
Además, el entusiasmo que despiertan estas tecnologías también se debe moderar, tomando en cuenta que no son infalibles.
Al preguntar a ChatGPT por los peligros de la inteligencia artificial ofreció cuatro ejemplos; pero el preguntarle por las fuentes que utilizó, su respuesta fue la siguiente:
"La respuesta anterior es el resultado de una combinación de conocimientos adquiridos durante mi entrenamiento como modelo de lenguaje, así como de fuentes de información confiables en el campo de la inteligencia artificial y la tecnología en general. Al ser una inteligencia artificial, no tengo acceso directo a una única fuente de información. En cambio, mi respuesta se basa en el análisis y la síntesis de una amplia variedad de datos y perspectivas para proporcionar una respuesta precisa y útil a la pregunta planteada”.
Básicamente, no nos dice qué fuentes usó. Más bien nos señala que le tengamos fe ya que ha sido bien entrenada. Además, abajo, en letras pequeñas, OpenAI nos advierte que "ChatGPT podría producir información inexacta sobre personas, lugares o hechos”.
Ese es otro problema: la inteligencia artificial nos ofrece respuestas, pero no siempre nos dice como llegó a esas respuestas. Es como una caja negra en la que no se puede ver al interior para escudriñar cómo es que llega a los resultados que proporciona, o si los resultados son verificables. Si este tipo de operación se repite en la AGI se levantarían también dudas sobre el 'razonamiento' que utilizó.
Entonces, el camino hacia la AGI aún es largo, y lo que está pidiendo un grupo de científicos, líderes de la industria y gente preocupada por el tema es que las organizaciones que están desarrollando estas inteligencias se den una pausa para meditar sobre si lo que están haciendo requiere una revisión. ¿Estarán dispuestas a parar seis meses?
CIO, Perú