Open AI crea un detector de material nociu a les xarxes basat en el llenguatge GPT-4
El sistema requerirà d’una revisió humana final però neix per “alleujar la càrrega mental dels moderadors de continguts”
Categories:
OpenAI, el laboratori d’investigació d’intel·ligència artificial sense ànim de lucre finançat majoritàriament per Microsoft, ha anunciat la creació d’un sistema de moderació de continguts a la xarxa basat en el seu llenguatge GPT-4. Aquesta tecnologia té la capacitat de filtrar el contingut en línia i detectar-ne el considerat “tòxic i nociu”. L’objectiu és “alleujar la càrrega mental dels moderadors humans que duen a terme aquesta funció”, segons ha explicat la companyia en un comunicat penjat al seu blog.
Per utilitzar el sistema cal introduir les polítiques de continguts que es volen aplicar i fer una prova amb vídeo o textos problemàtics que les infringeixin en algun aspecte. Les decisions de la IA han de ser revisades per un usuari moderador i corregir la decisió de la màquina fins que s’ajusti l’encert en les decisions, sempre en funció de les regles preestablertes. OpenAI considera que un cop completat l’entrenament en cada cas, el procés de revisió de continguts pot reduir-se de mesos a hores.
Open AI considera que aquesta tecnologia permet un “etiquetatge més consistent” ja que els models de llenguatge són “més sensibles a les diferències de redacció i poden adaptar-se més ràpid a les actualitzacions de les polítiques en matèria de continguts”. El punt feble, tanmateix, és l’aparició de “parers esbiaixats no desitjats” que s’hagin pogut introduir al model durant els entrenaments, i que la mateixa companyia reconeix, ara per ara, com una limitació que s’haurà de polir