000 03246nam a22003257a 4500
001 00007929
003 ES-MaONT
005 20240605084418.0
008 240605s202405uufr ||||fs|||| 001 0 eng d
040 _aES-MaONT
110 _92843
_aOrganización de Cooperación y Desarrollo Económico
245 _aDefining AI incidents and related terms
_c/ Organización de Cooperación y Desarrollo Económico (OCDE)
260 _aParis :
_bOECD Publishing
_c05/2024
300 _a20 p.
_c; 1 documento PDF
336 _2isbdcontent
_atexto (visual)
337 _2isbdmedia
_aelectrónico
338 _2rdacarrier
_arecurso en línea
490 _aOECD ARTIFICIAL INTELLIGENCE PAPERS
_vMay 2024 No. 16
520 _aEste informe propone definiciones de los potenciales daños reales ("incidentes de IA") que puede provocar la inteligencia artificial (IA), así como sus potenciales peligros ("riesgos de IA") y términos relacionados. Estas definiciones pretenden fomentar la interoperabilidad internacional, al tiempo que ofrecen flexibilidad a las jurisdicciones para determinar el alcance de los incidentes y peligros de IA que desean abordar. El documento servirá de base para el desarrollo de un marco común de notificación de incidentes de IA y su aplicación a través del Monitor de Incidentes de IA (AIM) de la OCDE. Este trabajo y sus versiones anteriores fueron debatidos y revisados por los miembros del antiguo Grupo de Expertos en Clasificación de Sistemas de Inteligencia Artificial de la OCDE durante una serie de talleres informales celebrados entre julio y octubre de 2022. También fue debatido por el Grupo de Expertos en Incidentes de IA de la OCDE.AI en sus reuniones de marzo, abril, junio, agosto y noviembre de 2023 y en su reunión de febrero de 2024. El Grupo de Trabajo de la OCDE sobre Inteligencia Artificial (AIGO) debatió este informe y versiones anteriores del mismo en sus reuniones de noviembre de 2022; abril, julio y noviembre de 2023; y febrero de 2024. El marco propuesto ayudará a identificar los principales tipos de daños, como los daños físicos, medioambientales, económicos y de reputación, los daños al interés público y los daños a los derechos fundamentales. También abordará otras dimensiones del daño, como el nivel de gravedad, el alcance, la escala geográfica, la tangibilidad, la cuantificabilidad, la materialización, la reversibilidad, la recurrencia, el impacto y el calendario. Otro paso sería establecer taxonomías claras para clasificar los incidentes en función de cada dimensión del daño. La evaluación de la "gravedad" de un incidente, daño, perjuicio o perturbación de la IA (por ejemplo, para determinar si un suceso se clasifica como incidente o incidente grave) depende del contexto y también se deja para un debate posterior.
650 0 _94348
_aInteligencia Artificial
650 0 _92188
_aCiberseguridad y confianza
653 _aciberincidentes
653 _aciberriesgos
653 _aIA
653 _adefiniciones
653 _ainteroperabilidad
856 _uhttps://www.oecd-ilibrary.org/science-and-technology/defining-ai-incidents-and-related-terms_d1a8d965-en
_x0
_yAcceso a la publicación
942 _2z
_cINF
999 _c7929
_d7929