000 03978nam a22003017a 4500
001 00008136
003 ES-MaONT
005 20241218012011.0
008 241015s202410uusz cao|fq|||| 001 0 eng d
040 _aES-MaONT
110 _98316
_aGlobal Future Council on the Future of AI
245 _aAI Value Alignment: Guiding Artificial Intelligence Towards Shared Human Goals
_c/ Global Future Council on the Future of AI ; World Economic Forum
260 _aGinebra :
_bWorld Economic Forum
_c10/2024
300 _a25 p.
_c; 1 documento PDF
336 _2isbdcontent
_atexto (visual)
337 _2isbdmedia
_aelectrónico
338 _2rdacarrier
_arecurso en línea
520 _aLa alineación de valores en la inteligencia artificial (IA) es esencial para garantizar que los sistemas de IA concuerden con los valores humanos fundamentales y funcionen de forma que reflejen los diversos valores sociales y principios éticos. Este documento, elaborado por los miembros del Global Future Council on the Future of AI, explora la cuestión de la alineación de los valores en esta tecnología, centrándose en la integración de los principios éticos en el desarrollo y despliegue de las tecnologías de IA. El informe destaca los marcos y metodologías prácticos diseñados para integrar las consideraciones éticas en todo el ciclo de vida de la inteligencia artificial, desde el desarrollo hasta la aplicación y el uso posterior. De este modo, se promueve el uso responsable y ético de la inteligencia artificial, garantizando que tales tecnologías sirvan a la humanidad al mismo tiempo que respetan los derechos fundamentales y la justicia social, fomentando la confianza mutua y la responsabilidad en estos sistemas. Respecto a la metodología empleada, en primer lugar se lleva a cabo un análisis de una taxonomía de valores que muestra los distintos tipos y las preferencias humanas. A continuación, se examina cómo puede aplicarse en la práctica la alineación de valores, explorando su importancia en distintas fases del desarrollo de sistemas de inteligencia artificial en diferentes contextos y dentro de diversas comunidades. La investigación abarca herramientas esenciales como marcos, directrices y metodologías, que son cruciales para garantizar que los sistemas de IA se alineen con los valores humanos. El análisis apunta a que la alineación de los valores de la inteligencia artificial consiste en un proceso polifacético y dinámico que requiere la integración de principios éticos en cada etapa del ciclo de vida de esta tecnología. Importantes facilitadores —como los marcos, el compromiso humano, el cambio organizativo y las auditorías— proporcionan enfoques estructurados para integrar los valores en los sistemas de IA. Estas herramientas y metodologías garantizan que tales sistemas se desarrollen, desplieguen y gestionen de forma que defiendan la dignidad humana, protejan los derechos individuales y fomenten la confianza mutua y la transparencia. Mediante la participación continua de las partes interesadas, la realización de auditorías rigurosas y el mantenimiento de la flexibilidad para dar cabida a diversas interpretaciones culturales de los valores, las organizaciones pueden trabajar para mantener los sistemas de inteligencia artificial alineados con las normas sociales y los estándares éticos. El documento subraya la conexión crítica entre la alineación de valores y las líneas rojas de la ética de la IA, haciendo hincapié en que respetar estos límites es esencial para prevenir comportamientos poco éticos y mantener la confianza en estas tecnologías.
650 0 _94348
_aInteligencia Artificial
650 0 _97
_aSociedad digital
653 _asistemas IA
653 _aética
653 _avalores
710 _aWorld Economic Forum
_92608
856 _uhttps://www3.weforum.org/docs/WEF_AI_Value_Alignment_2024.pdf
_x0
_yAcceso a la publicación
942 _2z
_cINF
999 _c8136
_d8136