UNESCO‏

Challenging systematic prejudices : An investigation into bias against women and girls in large language models / UNESCO ; International Research Centre on Artificial Intelligence (IRCAI) .-- París : UNESCO 2024 .-- 22 p. ; 1 documento PDF

El informe examina los estereotipos en los grandes modelos de lenguaje (LLM, por sus siglas en inglés), definidos como herramientas de procesamiento de lenguaje natural que sustentan plataformas populares de inteligencia artificial (IA) generativa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real.

El estudio explora los sesgos en tres LLM significativos: GPT-2 y ChatGPT de OpenAI, junto con Llama 2 de Meta, destacando su papel tanto en sistemas avanzados de toma de decisiones como en agentes conversacionales de cara al usuario. A través de múltiples estudios, el documento revela cómo los prejuicios emergen en el texto generado por los grandes modelos de lenguaje, a través de asociaciones de palabras de género, la consideración positiva o negativa de los sujetos de género, o la diversidad en el texto generado por el género y la cultura.

Los resultados muestran evidencias de la existencia de sesgo contra las mujeres en el contenido generado por cada uno de estos grandes modelos de lenguaje, así como actitudes homofóbicas y estereotipos raciales. Los grandes modelos de lenguaje de código abierto como Llama 2 y GPT-2 –valorados porque son gratuitos y accesibles para un público amplio– exhibieron el sesgo de género más significativo. Sin embargo, el estudio también concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar esta tendencia a través de una mayor colaboración en la comunidad de investigación global, en comparación con modelos más cerrados, que incluyen GPT 3.5 y 4 (la base para ChatGPT) y Gemini de Google. El informe revela que los esfuerzos para hacer frente a la IA sesgada deben aplacar esta diferenciación cuando se origina en el ciclo de desarrollo de la tecnología, pero también mitigar el daño en el contexto de su aplicación. Esta visión no sólo requiere la participación de múltiples partes interesadas, sino también un enfoque más equitativo y responsable del desarrollo y el despliegue de la IA en general.

Mujeres digitales
Inteligencia Artificial


brecha digital
brecha de género
IA
LLM
large language models
modelos grandes de lenguaje
ChatGPT
Gemini
Llama
sesgos
homofobia
racismo
machismo


van Niekerk, Daniel
Pérez-Ortiz, María
Shawe-Taylor, John
Orlič, Davor
Drobnjak, Ivana
Kay, Jackie
Siegel, Noah
Evans, Katherine
Moorosi, Nyalleng
Eliassi-Rad, Tina
Maria Tanczer, Leonie
Holmes, Wayne
Deisenroth, Marc Peter
Straw, Isabel
Fasli, Maria
Adams, Rachel
Oliver, Nuria
Mladenić, Dunja
Aneja, Urvashi
Janickyj, Madeleine


International Research Centre on Artificial Intelligence IRCAI
Copyright© ONTSI. Todos los derechos reservados.
x
Esta web está utilizando la política de Cookies de la entidad pública empresarial Red.es, M.P. se detalla en el siguiente enlace: aviso-cookies. Acepto