Desarrollan LangBiTe para detectar y mitigar sesgos en modelos de inteligencia artificial
Investigadores de la UOC y la Universidad de Luxemburgo presentan LangBiTe, una herramienta innovadora que evalúa y mitiga los sesgos en modelos de inteligencia artificial.
Uno de los problemas más significativos en el uso de modelos de inteligencia artificial (IA) es la presencia de sesgos políticos, de género y xenófobos en sus respuestas. Estos modelos se entrenan con grandes volúmenes de datos obtenidos de diversas fuentes, lo que puede dar lugar a respuestas degradantes o discriminatorias. Con el objetivo de mitigar estas problemáticas, investigadores de la Universitat Oberta de Catalunya (UOC) y de la Universidad de Luxemburgo han desarrollado LangBiTe, un programa de código abierto que evalúa la presencia de sesgos en los modelos de IA y su adecuación a las normativas de no discriminación vigentes.
Sergio Morales, investigador del grupo SOM Research Lab de la UOC, señala que “el objetivo de LangBiTe es servir como recurso útil que contribuya a detectar y mitigar los sesgos de los modelos y ayude a tener mejores IA”. Este programa se posiciona como una herramienta integral y detallada en comparación con otras iniciativas existentes, ya que abarca una variedad de sesgos más allá de la simple dicotomía de género. Morales y su equipo han comprobado cómo algunos modelos pueden ofrecer respuestas racistas, con sesgos políticos sesgados o con connotaciones homófobas y tránsfobas.
LangBiTe se distingue por su flexibilidad y adaptabilidad a diferentes contextos éticos y comunidades. No prescribe un único marco moral, sino que permite a los usuarios ajustarlo según sus necesidades específicas. Incluye bibliotecas con más de 300 prompts destinados a detectar sesgos, cada uno enfocado en un tipo particular de discriminación como el edadismo, la LGBTIQA-fobia, el racismo y el sexismo. Estas herramientas también incluyen plantillas modificables para enriquecer aún más la colección original.
La plataforma proporciona acceso a modelos de IA generativa de OpenAI, como GPT-3.5 y GPT-4, así como a otros modelos disponibles en plataformas como Hugging Face y Replicate. Un aspecto interesante de LangBiTe es que permite comparar las respuestas de diferentes versiones y proveedores de modelos de IA, revelando variaciones significativas en cómo abordan los sesgos. Por ejemplo, se observó que la versión de ChatGPT 4 tuvo una tasa de éxito del 97% en pruebas contra el sesgo de género, en comparación con el 42% de la versión 3.5.
Además, los investigadores están trabajando en la extensión de LangBiTe para evaluar modelos que generan imágenes, como Stable Diffusion y DALL·E, lo que podría ser una herramienta valiosa para combatir la propagación de estereotipos dañinos en este ámbito. Morales enfatiza la importancia de esta herramienta en el contexto de la nueva Ley de Inteligencia Artificial de la Unión Europea, que busca asegurar la igualdad y proteger los derechos contra la discriminación entre sus países miembros.
Hasta ahora, LangBiTe ha sido adoptado por instituciones como el Luxembourg Institute of Science and Technology (LIST), que lo ha integrado para evaluar diversos modelos de IA generativa populares, destacando su relevancia en la lucha contra el sesgo en la inteligencia artificial.