000 04338nam a22006617a 4500
001 00008037
003 ES-MaONT
005 20241218012015.0
008 240802s2024 fr da||fs|||| 00| 0 eng d
040 _aES-MaONT
110 2 _aUNESCO‏
_91427
245 _aChallenging systematic prejudices :
_bAn investigation into bias against women and girls in large language models
_c/ UNESCO ; International Research Centre on Artificial Intelligence (IRCAI)
260 _aParís :
_bUNESCO
_c2024
300 _a22 p.
_c; 1 documento PDF
336 _2isbdcontent
_atexto (visual)
337 _2isbdmedia
_aelectrónico
338 _2rdacarrier
_arecurso en línea
520 _aEl informe examina los estereotipos en los grandes modelos de lenguaje (LLM, por sus siglas en inglés), definidos como herramientas de procesamiento de lenguaje natural que sustentan plataformas populares de inteligencia artificial (IA) generativa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real. El estudio explora los sesgos en tres LLM significativos: GPT-2 y ChatGPT de OpenAI, junto con Llama 2 de Meta, destacando su papel tanto en sistemas avanzados de toma de decisiones como en agentes conversacionales de cara al usuario. A través de múltiples estudios, el documento revela cómo los prejuicios emergen en el texto generado por los grandes modelos de lenguaje, a través de asociaciones de palabras de género, la consideración positiva o negativa de los sujetos de género, o la diversidad en el texto generado por el género y la cultura. Los resultados muestran evidencias de la existencia de sesgo contra las mujeres en el contenido generado por cada uno de estos grandes modelos de lenguaje, así como actitudes homofóbicas y estereotipos raciales. Los grandes modelos de lenguaje de código abierto como Llama 2 y GPT-2 –valorados porque son gratuitos y accesibles para un público amplio– exhibieron el sesgo de género más significativo. Sin embargo, el estudio también concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar esta tendencia a través de una mayor colaboración en la comunidad de investigación global, en comparación con modelos más cerrados, que incluyen GPT 3.5 y 4 (la base para ChatGPT) y Gemini de Google. El informe revela que los esfuerzos para hacer frente a la IA sesgada deben aplacar esta diferenciación cuando se origina en el ciclo de desarrollo de la tecnología, pero también mitigar el daño en el contexto de su aplicación. Esta visión no sólo requiere la participación de múltiples partes interesadas, sino también un enfoque más equitativo y responsable del desarrollo y el despliegue de la IA en general.
650 7 _92600
_aMujeres digitales
650 0 _94348
_aInteligencia Artificial
653 _abrecha digital
653 _abrecha de género
653 _aIA
653 _aLLM
653 _alarge language models
653 _amodelos grandes de lenguaje
653 _aChatGPT
653 _aGemini
653 _aLlama
653 _asesgos
653 _ahomofobia
653 _aracismo
653 _amachismo
700 _98145
_avan Niekerk, Daniel
700 _98146
_aPérez-Ortiz, María
700 _98147
_aShawe-Taylor, John
700 _98148
_aOrlič, Davor
700 _98149
_aDrobnjak, Ivana
700 _98150
_aKay, Jackie
700 _98151
_aSiegel, Noah
700 _98152
_aEvans, Katherine
700 _98153
_aMoorosi, Nyalleng
700 _98154
_aEliassi-Rad, Tina
700 _98155
_aMaria Tanczer, Leonie
700 1 _95071
_aHolmes, Wayne
700 _98156
_aDeisenroth, Marc Peter
700 _98157
_aStraw, Isabel
700 _98158
_aFasli, Maria
700 _98159
_aAdams, Rachel
700 _94487
_aOliver, Nuria
700 _98160
_aMladenić, Dunja
700 _98161
_aAneja, Urvashi
700 _98162
_aJanickyj, Madeleine
710 _98163
_aInternational Research Centre on Artificial Intelligence
_eIRCAI
856 _uhttps://unesdoc.unesco.org/ark:/48223/pf0000388971
_x0
_yAcceso a la publicación
942 _2z
_cINF
999 _c8037
_d8037