Herramienta para detectar prejuicios

Herramienta para detectar prejuicios

Herramienta para detectar prejuicios

Los modelos de IA generativa como ChatGPT se entrenan con una gran cantidad de datos obtenidos de páginas web, foros, redes sociales y otras fuentes de Internet, que pueden inducir diferentes sesgos dañinos o discriminatorios en sus respuestas.

Investigadores de la Universitat Oberta de Catalunya (UOC) y de la Universidad de Luxemburgo han desarrollado LangBiTe, un programa open source (de código abierto) que evalúa si estos modelos están libres de sesgos y cumplen con las regulaciones vigentes sobre no discriminación.

“El objetivo de LangBiTe no es comercial, sino servir como recurso útil tanto para creadores de herramientas de IA generativa como para perfiles de usuario no técnicos, que contribuya a detectar y mitigar los sesgos de los modelos y ayude, en definitiva, a tener mejores IA en el futuro”, explica Sergio Morales, investigador del grupo Systems, Software and Models, del Internet Interdisciplinary Institute (IN3) de la UOC, cuyo trabajo de doctorado se basa en esta herramienta.

El proyecto ha sido supervisado por el profesor de los Estudios de Informática, Multimedia y Telecomunicación e investigador líder del SOM Research Lab Robert Clarisó.



El Día

Periódico independiente.