Llegamos a ustedes gracias a:



Noticias

Mientras Europa es la primera en poner freno a la IA, EE.UU. le sigue

[01/05/2023] Un conjunto de normas propuestas por la Unión Europea exigiría, entre otras cosas, a los creadores de herramientas de IA generativa como ChatGPT, que hagan público cualquier material protegido por derechos de autor que utilicen las plataformas tecnológicas para crear contenidos de cualquier tipo.

Un nuevo borrador de la legislación del Parlamento Europeo, del que The Wall Street Journal ha obtenido una copia, permitiría a los creadores originales de los contenidos utilizados por las aplicaciones de IA generativa participar en los beneficios resultantes.

La "Ley de Inteligencia Artificial" (AI Act) de la Unión Europea es la primera de este tipo de un conjunto de naciones occidentales. La legislación propuesta se basa en gran medida en las normas existentes, como el Reglamento General de Protección de Datos (RGPD), la Ley de Servicios Digitales y la Ley de Mercados Digitales. La Ley de IA fue propuesta originalmente por la Comisión Europea en abril de 2021.

Las disposiciones del proyecto de ley también exigen que los grandes modelos de lenguaje (LLM) que subyacen a la tecnología de IA generativa, como el GPT-4, se diseñen con las salvaguardias adecuadas contra la generación de contenidos que infrinjan las leyes de la UE; eso podría incluir la pornografía infantil o, en algunos países de la UE, la negación del Holocausto, según The Washington Post.

Las infracciones de la Ley de Inteligencia Artificial podrían acarrear multas de hasta 30 millones de euros o el 6% de los beneficios globales, la cantidad que sea mayor.

"Para una empresa como Microsoft, que respalda a OpenAI, creadora de ChatGPT, podría suponer una multa de más de 10.000 millones de dólares si se descubre que infringe las normas", afirma un informe de Reuters.

Pero la solución para mantener la honradez de la IA no es fácil, según Avivah Litan, vicepresidenta y distinguida analista de Gartner Research. Es probable que los creadores de LLM, como OpenAI, con sede en San Francisco, y otros, tengan que desarrollar LLM potentes para comprobar que los que se entrenan inicialmente no contienen materiales protegidos por derechos de autor. Los sistemas basados en reglas para filtrar los materiales protegidos por derechos de autor serán probablemente ineficaces, afirmó Liten.

Mientras tanto, la UE está perfeccionando su Ley de Inteligencia Artificial y adoptando un enfoque líder en el mundo, según Litan, en la creación de normas que rijan el uso justo y con gestión de riesgos de la IA en el futuro.

Los reguladores deben tener en cuenta que los LLM funcionan de hecho como una caja negra, dijo, y es poco probable que los algoritmos proporcionen a las organizaciones la transparencia necesaria para llevar a cabo la evaluación de impacto sobre la privacidad requerida. "Esto debe abordarse", anotó Litan.

"Es interesante observar que en un momento dado la Ley de IA iba a excluir la supervisión de los modelos de IA Generativa, pero se incluyeron más tarde", agregó Litan. "Los reguladores generalmente quieren moverse con cuidado y metódicamente para no sofocar la innovación y para crear normas duraderas que ayuden a lograr los objetivos de protección de las sociedades sin ser demasiado prescriptivos en los medios".

El 1 de abril, Italia se convirtió en el primer país occidental en prohibir el desarrollo de ChatGPT por motivos de privacidad, después de que la aplicación de procesamiento de lenguaje natural sufriera una filtración de datos que afectaba a conversaciones de usuarios e información de pago. ChatGPT es el popular chatbot creado por OpenAI y respaldado por miles de millones de dólares de Microsoft.

A principios de este mes, los gobiernos de EE.UU. y China publicaron anuncios relacionados con regulaciones para el desarrollo de la IA, algo que ninguno de los dos países había establecido hasta la fecha.

"EE.UU. y la UE coinciden en conceptos cuando se trata de lograr una IA fiable, transparente y justa, pero sus enfoques han sido muy diferentes", afirmó Litan.

Hasta ahora, EE.UU. ha adoptado lo que Litan denominó un "enfoque muy distribuido de la gestión de riesgos de la IA", y aún no ha creado nuevas normativas o infraestructuras reguladoras.  EE.UU. se ha centrado en directrices y en un marco de gestión de riesgos de la IA.

En enero, el Instituto Nacional de Normas y Tecnología (NIST) publicó el Marco de Gestión de la Inteligencia Artificial. En febrero, la Casa Blanca promulgó una Orden Ejecutiva por la que se ordena a los organismos federales que garanticen que el uso de la IA fomenta la equidad y los derechos civiles.

El Congreso de EE.UU. está estudiando la Ley Federal de Responsabilidad Algorítmica, que, de aprobarse, exigiría a los empleadores realizar una evaluación del impacto de cualquier sistema automatizado de toma de decisiones que tenga un efecto significativo en el acceso, las condiciones o la disponibilidad de empleo de una persona.

La Administración Nacional de Telecomunicaciones e Información (NTIA), una rama del Departamento de Comercio de EE.UU., también emitió una solicitud pública de comentarios sobre qué políticas serían las más adecuadas para responsabilizar a los sistemas de IA.

Los estados y los municipios también están entrando en acción, con la vista puesta en las restricciones locales al uso de robots basados en IA para buscar, seleccionar, entrevistar y contratar a candidatos a un puesto de trabajo por cuestiones de privacidad y parcialidad. Algunos estados ya han promulgado leyes.

Microsoft y Alphabet, propietaria de Google, se han lanzado a una carrera por ofrecer chatbots de IA generativa a empresas y consumidores. Los motores de IA generativa más avanzados pueden crear su propio contenido basándose en las indicaciones o entradas del usuario. Así, por ejemplo, se puede encargar a la IA la creación de campañas de marketing o publicidad, la redacción de ensayos y la generación de imágenes fotográficas y videos realistas.

La clave de la Ley de IA de la UE es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA puede suponer para la salud y la seguridad o los derechos fundamentales de una persona. El marco incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo, según el Foro Económico Mundial.

Entre los problemas relacionados con las plataformas de IA generativa que los reguladores deben tener en cuenta, según Gartner, figuran los siguientes:

  • Los modelos de GPT no son explicables: Los resultados de los modelos son impredecibles; ni siquiera los proveedores de los modelos entienden cómo funcionan internamente. La explicabilidad o interpretabilidad son requisitos previos para la transparencia de los modelos.
  • Respuestas inexactas e inventadas: Para mitigar los riesgos de imprecisiones y alucinaciones, los resultados generados por ChatGPT/GenAI deben ser evaluados en cuanto a precisión, adecuación y utilidad real antes de ser aceptados.
  • Puesta en peligro potencial de datos confidenciales: Ausencia de garantías verificables de gobernanza y protección de datos que garanticen que la información confidencial de la empresa -por ejemplo, en forma de avisos almacenados- no se vea comprometida.
  • Sesgo en los modelos y resultados: Los desarrolladores y usuarios de modelos deben disponer de políticas o controles para detectar resultados sesgados y tratarlos de acuerdo con la política de la empresa y los requisitos legales pertinentes.
  • Riesgos relacionados con la propiedad intelectual y los derechos de autor: Los desarrolladores y usuarios de modelos deben examinar sus resultados antes de utilizarlos para asegurarse de que no infringen los derechos de autor o de propiedad intelectual, y supervisar activamente los cambios en las leyes de derechos de autor que se aplican a ChatGPT/GenAI. En la actualidad, los usuarios son los únicos que pueden filtrar el material protegido por derechos de autor de los resultados de ChatGPT.
  • Riesgos cibernéticos y de fraude: Los sistemas deben reforzarse para garantizar que los delincuentes no puedan utilizarlos para ataques cibernéticos o fraudulentos.

Lanzado por OpenAI en noviembre, ChatGPT se convirtió inmediatamente en viral y tuvo un millón de usuarios en sólo sus primeros cinco días debido a la sofisticada forma en que genera respuestas en profundidad, similares a las humanas, a las consultas. Según la empresa de pruebas de sitios web Tooltester, el sitio web de ChatGPT recibe actualmente unos mil millones de visitantes mensuales y unos 100 millones de usuarios activos.

Aunque las respuestas del chatbot parezcan humanas, ChatGPT no es sensible: es un motor de predicción de palabras, según Dan Diasio, director de consultoría global de inteligencia artificial de Ernst & Young. Por eso, pide precaución a la hora de utilizarlo.

Pero a medida que la tecnología de IA avanza a velocidad de vértigo, se prevé que en el horizonte aparezca un algoritmo más sofisticado: la inteligencia artificial general, que podría pensar por sí misma y hacerse exponencialmente más inteligente con el tiempo.

A principios de este mes, una carta abierta de miles de luminarias de la tecnología pedía que se detuviera el desarrollo de la tecnología de IA generativa por temor a que se perdiera la capacidad de controlarla si avanzaba demasiado. La carta ha conseguido más de 27 mil firmantes, entre ellos el cofundador de Apple, Steve Wozniak. La carta, publicada por el Future of Life Institute, hace especial hincapié en el algoritmo GPT-4 de OpenAI Lab, con sede en San Francisco, y afirma que la empresa debería detener su desarrollo hasta que se establezcan normas de supervisión.

Aunque la IA existe desde hace décadas, "ha alcanzado nuevas capacidades impulsadas por la potencia de cálculo", declaró en el 2021 Thierry Breton, Comisario de Mercado Interior de la UE. La Ley de Inteligencia Artificial, dijo, se creó para garantizar que "la IA en Europa respete nuestros valores y normas, y aprovechar el potencial de la IA para uso industrial".

Casos de éxito

Más »