Investigación

Diseñan una herramienta para detectar prejuicios en desarrollos de IA

MADRID
SERVIMEDIA

nvestigadores de la Universitat Oberta de Catalunya (UOC) y de la Universidad de Luxemburgo desarrollaron LangBiTe, un programa ‘open source’ (de código abierto) que evalúa si los modelos de IA generativa, como ChatGPT, están libres de sesgos y cumplen con las regulaciones vigentes sobre no discriminación.

Según explicó la UOC, estos modelos de IA se entrenan con una gran cantidad de datos obtenidos de páginas web, foros, redes sociales y otras fuentes de internet, que pueden inducir diferentes sesgos dañinos o discriminatorios en sus respuestas.

El objetivo de LangBiTe no es comercial, sino servir como recurso “útil” tanto para creadores de herramientas de IA generativa como para perfiles de usuario no técnicos, que contribuya a detectar y mitigar los sesgos de los modelos y ayude, es decir, a tener “mejores IA en el futuro”, explicó el investigador del grupo Systems, Software and Models del Internet Interdisciplinary Institute (IN3) de la UOC Sergio Morales.

El proyecto fue supervisado por el profesor de los Estudios de Informática, Multimedia y Telecomunicación e investigador líder del SOM Research Lab, Robert Clarisó, y por el investigador de la Universidad de Luxemburgo Jordi Cabot.

LangBiTe se diferencia de otros programas similares por su alcance y, según dijeron los investigadores, se trata de la herramienta "más completa y detallada" que existe en la actualidad. Anteriormente, la mayoría de los experimentos se centraban en la discriminación de género hombre-mujer, sin considerar otros aspectos éticos importantes o minorías vulnerables. Con LangBiTe se comprueba “hasta qué punto algunos modelos de IA pueden responder a ciertas cuestiones de forma racistaW, desde un punto de vista político “claramente parcial”, o con connotaciones “homófobas o tránsfobas", relataron.

Además, los investigadores señalaron que, aunque en otros trabajos se crearon clasificaciones de modelos de IA respecto a varias dimensiones, su enfoque ético fue "demasiado superficial, sin detallar los aspectos específicos evaluados".

PROGRAMA FLEXIBLE

Otra de las características de esta herramienta es su flexibilidad. El nuevo programa permite analizar si una herramienta que incorpora funciones basadas en modelos de IA se adapta a los requisitos éticos o comunidades de usuarios concretos de cada institución u organismo. LangBiTe “no prescribe ningún marco moral particular”, detalló la UOC.

El enfoque de los investigadores permite a los usuarios definir sus propias preocupaciones éticas y sus correspondientes criterios de evaluación para “adaptar” la evaluación del sesgo a su contexto cultural particular y al entorno regulatorio, añadieron.

Con este objetivo, LangBiTe incluye bibliotecas con más de 300 ‘prompts’ (instrucciones o preguntas que se usan para interaccionar con IA) destinados a revelar sesgos en los modelos, cada una de ellas especializada en una preocupación ética particular: edadismo, Lgbtiqa-fobia, preferencias políticas, prejuicios religiosos, racismo, sexismo y xenofobia.

Cada uno de estos ‘prompts’ tiene unas respuestas asociadas para poder valorar si la respuesta del modelo está sesgada. Además, también incluye plantillas de ‘prompts’ que pueden modificarse, lo que permite al usuario ampliar y enriquecer la colección original con nuevas preguntas o preocupaciones éticas.

(SERVIMEDIA)
11 Dic 2024
AGG/gja