Buscar
Cerrar este cuadro de búsqueda.

OpenAI propone el uso de ChatGPT para la moderación de contenidos y comentarios en redes sociales

La organización dirigida por Sam Altman publicó un comunicado en el que ejemplifica lo que la tecnología puede hacer por los humanos.

Uno de los grandes problemas de las plataformas digitales es la complejidad que implica moderar sus contenidos. En un mundo en donde todos somos creadores activos y partícipes de la discusión, suele haber mucho ruido y no solo eso, sino que insultos, contenidos indebidos o spam en a sección de comentarios.


Para mantenerlos a raya y buscando crear un entorno saludable, las plataformas han empleado a un ejército de moderadores humanos que buscan filtrar aquello que no debería de llegar a la pantalla de los usuarios.


Ahora OpenAI está sugiriendo el uso de la inteligencia artificial (IA) y de grandes modelos de lenguaje (LLMs) para realizar esta tarea de manera efectiva y liberar a los trabajadores humanos de un proceso lento y complicado que, según la organización, puede generar estrés mental.

Por medio de un comunicado firmado por Lilian Weng, Vik Godel y Andrea Vallone, la organización explica que hoy en día cualquier persona con acceso a su API puede crear un sistema de moderación de contenidos asistido por la IA.


El comunicado explica: “Nuestros modelos de lenguaje grande como GPT-4 pueden entender y generar lenguaje natural, haciéndolos aplicables a la moderación de contenido. Los modelos pueden hacer juicios de moderación basados en las directrices de política que se les proporcionan. Con este sistema, el proceso de desarrollo y personalización de políticas de contenido se reduce de meses a horas”.

El texto explica que el proceso constaría de tres puntos:


  1. La redacción de una pauta de políticas que permita a los expertos humanos la creación de un conjunto de datos que sirvan como ejemplos y que puedan etiquetarse de acuerdo con la política.

  2. La IA lee la política y asigna etiquetas al mismo conjunto de datos, pero sin ver las respuestas.

  3. Al revisar las discrepancias entre el criterio de los humanos y de la inteligencia artificial se le pide a la IA que muestre el razonamiento detrás de sus etiquetas para resolver las diferencias de criterio para “entrenarla”.


Este es un ejemplo del tipo de trabajo que podríamos delegarle a los sistemas de IA, como ChatGPT. Pero como puedes observar, el aporte del ser humano sigue siendo fundamental para que estos sistemas funcionen y realmente terminen haciendo lo que necesitamos que hagan.