Facebook enseñará a su IA a distinguir los sesgos de género en los textos

Europa Press | 07 may, 2020 15:18

MADRID, 7 (Portatic/EP)

Facebook está desarrollando un nuevo método para entrenar a sus mecanismos de Inteligencia Artificial (IA) que no implique sesgos de género, y para ello ha comenzado a estudiar bases de datos de texto con un nuevo enfoque basado en papel que juega cada persona en una conversación.

"Los modelos de procesamiento de lenguaje natural pueden aprender* inadvertidamente patrones socialmente indeseables cuando se entrenan con texto sesgado", como los sesgos de género, según han explicado los investigadores de Facebook Research en un estudio académico publicado este mes.

El equipo de Facebook ha propuesto un marco de trabajo para analizar palabras y gramática en textos basado en tres pasos, y según el papel que tenga cada persona en una conversación. Así, estudiará al mismo tiempo el sesgo desde el género de la persona que escribe/habla, el género del interlocutor y el género de la persona sobre la que dice algo.

Al poder distinguir los sesgos de género en diferentes dimensiones, el marco de trabajo creado por Facebook permite "entrenar clasificadores de sesgos más precisos".

Utilizando esta metodología, los investigadores de la compañía estadounidense han analizado desde la perspectiva de género ocho bases de datos de texto utilizadas habitualmente para entrenar a algoritmos de IA, con algunas como Wikipedia, subtítulos de películas publicados en la web OpenSubtitles y valoraciones en Yelp.

Este marco ha servido a Facebook para descubrir sesgos de género en textos por ejemplo de Wikipedia, y sus conclusiones subrayan las diferencias en la clasificación de texto ofensivo.

Asimismo, Facebook realizará también un análisis colaborativo para evaluar las reescrituras de género a nivel de expresión, y ha anunciado que publicará de forma abierta los indicadores y el resto de herramientas contra el sesgo de género que desarrolle.

contador