000 | 04338nam a22006617a 4500 | ||
---|---|---|---|
001 | 00008037 | ||
003 | ES-MaONT | ||
005 | 20241218012015.0 | ||
008 | 240802s2024 fr da||fs|||| 00| 0 eng d | ||
040 | _aES-MaONT | ||
110 | 2 |
_aUNESCO _91427 |
|
245 |
_aChallenging systematic prejudices : _bAn investigation into bias against women and girls in large language models _c/ UNESCO ; International Research Centre on Artificial Intelligence (IRCAI) |
||
260 |
_aParís : _bUNESCO _c2024 |
||
300 |
_a22 p. _c; 1 documento PDF |
||
336 |
_2isbdcontent _atexto (visual) |
||
337 |
_2isbdmedia _aelectrónico |
||
338 |
_2rdacarrier _arecurso en línea |
||
520 | _aEl informe examina los estereotipos en los grandes modelos de lenguaje (LLM, por sus siglas en inglés), definidos como herramientas de procesamiento de lenguaje natural que sustentan plataformas populares de inteligencia artificial (IA) generativa. Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real. El estudio explora los sesgos en tres LLM significativos: GPT-2 y ChatGPT de OpenAI, junto con Llama 2 de Meta, destacando su papel tanto en sistemas avanzados de toma de decisiones como en agentes conversacionales de cara al usuario. A través de múltiples estudios, el documento revela cómo los prejuicios emergen en el texto generado por los grandes modelos de lenguaje, a través de asociaciones de palabras de género, la consideración positiva o negativa de los sujetos de género, o la diversidad en el texto generado por el género y la cultura. Los resultados muestran evidencias de la existencia de sesgo contra las mujeres en el contenido generado por cada uno de estos grandes modelos de lenguaje, así como actitudes homofóbicas y estereotipos raciales. Los grandes modelos de lenguaje de código abierto como Llama 2 y GPT-2 –valorados porque son gratuitos y accesibles para un público amplio– exhibieron el sesgo de género más significativo. Sin embargo, el estudio también concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar esta tendencia a través de una mayor colaboración en la comunidad de investigación global, en comparación con modelos más cerrados, que incluyen GPT 3.5 y 4 (la base para ChatGPT) y Gemini de Google. El informe revela que los esfuerzos para hacer frente a la IA sesgada deben aplacar esta diferenciación cuando se origina en el ciclo de desarrollo de la tecnología, pero también mitigar el daño en el contexto de su aplicación. Esta visión no sólo requiere la participación de múltiples partes interesadas, sino también un enfoque más equitativo y responsable del desarrollo y el despliegue de la IA en general. | ||
650 | 7 |
_92600 _aMujeres digitales |
|
650 | 0 |
_94348 _aInteligencia Artificial |
|
653 | _abrecha digital | ||
653 | _abrecha de género | ||
653 | _aIA | ||
653 | _aLLM | ||
653 | _alarge language models | ||
653 | _amodelos grandes de lenguaje | ||
653 | _aChatGPT | ||
653 | _aGemini | ||
653 | _aLlama | ||
653 | _asesgos | ||
653 | _ahomofobia | ||
653 | _aracismo | ||
653 | _amachismo | ||
700 |
_98145 _avan Niekerk, Daniel |
||
700 |
_98146 _aPérez-Ortiz, María |
||
700 |
_98147 _aShawe-Taylor, John |
||
700 |
_98148 _aOrlič, Davor |
||
700 |
_98149 _aDrobnjak, Ivana |
||
700 |
_98150 _aKay, Jackie |
||
700 |
_98151 _aSiegel, Noah |
||
700 |
_98152 _aEvans, Katherine |
||
700 |
_98153 _aMoorosi, Nyalleng |
||
700 |
_98154 _aEliassi-Rad, Tina |
||
700 |
_98155 _aMaria Tanczer, Leonie |
||
700 | 1 |
_95071 _aHolmes, Wayne |
|
700 |
_98156 _aDeisenroth, Marc Peter |
||
700 |
_98157 _aStraw, Isabel |
||
700 |
_98158 _aFasli, Maria |
||
700 |
_98159 _aAdams, Rachel |
||
700 |
_94487 _aOliver, Nuria |
||
700 |
_98160 _aMladenić, Dunja |
||
700 |
_98161 _aAneja, Urvashi |
||
700 |
_98162 _aJanickyj, Madeleine |
||
710 |
_98163 _aInternational Research Centre on Artificial Intelligence _eIRCAI |
||
856 |
_uhttps://unesdoc.unesco.org/ark:/48223/pf0000388971 _x0 _yAcceso a la publicación |
||
942 |
_2z _cINF |
||
999 |
_c8037 _d8037 |