Llegamos a ustedes gracias a:



Noticias

OpenAI utilizará GPT-4 LLM para la moderación de contenidos

Y advierte contra los sesgos

[18/08/2023] OpenAI, creadora de ChatGPT, está trabajando en el desarrollo de su modelo de lenguaje GPT-4 (LLM) para automatizar el proceso de moderación de contenidos en las plataformas digitales, especialmente en las redes sociales.

OpenAI está explorando el uso de la capacidad de GPT-4 para interpretar reglas y matices en la documentación de políticas de contenido largo, junto con su capacidad para adaptarse instantáneamente a las actualizaciones de la política, señaló la compañía en un blog.

[Reciba lo último de CIO Perú suscribiéndose a nuestro newsletter semanal]

"Creemos que esto ofrece una visión más positiva del futuro de las plataformas digitales, donde la IA puede ayudar a moderar el tráfico en línea de acuerdo con la política específica de la plataforma y aliviar la carga mental de un gran número de moderadores humanos", sostuvo la compañía, añadiendo que cualquier persona con acceso a la API de OpenAI puede implementar su propio sistema de moderación.

A diferencia de la práctica actual de moderación de contenidos, que es completamente manual y requiere mucho tiempo, el modelo de lenguaje GPT-4 de OpenAI puede utilizarse para crear políticas de contenidos personalizadas en cuestión de horas, según la empresa.

Para ello, los científicos e ingenieros de datos pueden utilizar una directriz política elaborada por expertos en la materia y conjuntos de datos que contengan ejemplos reales de infracciones de esta política para etiquetar los datos.

Los humanos ayudarán a probar la moderación de contenidos por IA

"A continuación, GPT-4 lee la política y asigna etiquetas al mismo conjunto de datos, sin ver las respuestas. Al examinar las discrepancias entre los juicios de GPT-4 y los de un humano, los expertos en políticas pueden pedir a GPT-4 que razone sus etiquetas, analice la ambigüedad en las definiciones de las políticas, resuelva la confusión y proporcione más aclaraciones en la política en consecuencia", afirmó la empresa.

Estos pasos pueden ser repetidos por científicos de datos e ingenieros antes de que el gran modelo lingüístico pueda generar resultados satisfactorios, añadió, explicando que el proceso iterativo produce políticas de contenido refinadas que se traducen en clasificadores, permitiendo el despliegue de la política y la moderación de contenidos a escala.

Según OpenAI, otras ventajas del uso de GPT-4 frente al actual enfoque manual de la moderación de contenidos son la disminución de etiquetados incoherentes y una retroalimentación más rápida.

"La gente puede interpretar las políticas de manera diferente o algunos moderadores pueden tardar más en digerir los nuevos cambios de política, lo que lleva a etiquetas inconsistentes. En comparación, los LLM son sensibles a las diferencias granulares en la redacción y pueden adaptarse instantáneamente a las actualizaciones de las políticas para ofrecer una experiencia de contenido coherente a los usuarios", anotó la empresa.

Según la empresa, el nuevo enfoque también requiere menos esfuerzo para entrenar el modelo.

Además, OpenAI afirmó que este enfoque es diferente de la llamada IA constitucional, según la cual la moderación de contenidos depende del juicio internalizado del propio modelo sobre lo que es seguro. Varias empresas, entre ellas Anthropic, han adoptado un enfoque de IA constitucional al entrenar sus modelos para que estén libres de sesgos y errores.

No obstante, OpenAI advirtió de que los sesgos no deseados pueden introducirse en los modelos de moderación de contenidos durante el entrenamiento.

"Como ocurre con cualquier aplicación de IA, los resultados y la producción deberán ser cuidadosamente supervisados, validados y refinados manteniendo a los humanos en el bucle", señaló.

Los expertos del sector creen que el enfoque de OpenAI de la moderación de contenidos tiene potencial. "GPT-4 es un modelo muy capaz y OpenAI tiene un flujo interminable de usuarios que intentan que haga cosas perjudiciales. Son unos datos de entrenamiento magníficos", indicó Tobias Zwingmann, socio director de la empresa de servicios de IA Rapyd.AI.

Si el gran modelo lingüístico de OpenAI puede utilizarse con éxito para la moderación de contenidos, se abrirá un mercado multimillonario para la empresa.

Casos de éxito

Más »