000 02865nam a22003857a 4500
001 00007927
003 ES-MaONT
005 20240604141405.0
008 240531s2024 sp a|||fq|||| 00| 0 spa d
040 _aES-MaONT
110 _97897
_aAMETIC.
_bComisión Ciberseguridad
245 _aInforme sobre seguridad de la inteligencia artificial 2024
_c/ AMETIC. Comisión Ciberseguridad
260 _aMadrid :
_bAMETIC
_c2024
300 _a6 p.
_c; 1 documento PDF
336 _2isbdcontent
_atexto (visual)
337 _2isbdmedia
_aelectrónico
338 _2rdacarrier
_arecurso en línea
520 _aEl objetivo del informe reside en determinar los elementos que configuran un entorno seguro para la adopción de la inteligencia artificial (IA) en los diversos escenarios en los que esta tecnología puede estar presente. Para ello se definen los pilares principales para caracterizar la seguridad de un sistema de información, también aplicables a caracterizar los sistemas de aprendizaje automático. A modo de ejemplo se presentan dos casos en los que los fallos de seguridad fueron perjudiciales para las empresas que los padecieron. El documento también categoriza los potenciales ataques dependiendo del componente vulnerable, bien sea el dato, el modelo o el entorno. Asimismo, apunta a que las dimensiones "trustworthiness" (confianza, en español) y marco legal han de permitir aumentar la calidad de los sistemas de IA. Por otra parte, una de las principales carencias de esta tecnología es la escasa investigación al respecto y la falta de validación de ataques contra modelos IA en entornos de producción. Aunque la IA es una herramienta de presente y futuro, esta debe desarrollarse de forma segura, minimizando todo impacto previsible. En esta línea de trabajo, asociaciones tales como MITRE o la Unión Europea están desarrollando metodologías para cuantificar e investigar las amenazas (incluyendo técnicas de ataque) a los sistemas basados en IA, así como también medidas de protección y controles adecuados. Otra oportunidad se centra en los sistemas basados en "blockchain", cuya gran ventaja es que proporcionan un entorno descentralizado, generando evidencias que permiten verificar que el modelo IA no ha sido alterado ni manipulado.
650 0 _94348
_aInteligencia Artificial
650 0 _92188
_aCiberseguridad y confianza
653 _amodelos IA
653 _asistemas IA
653 _aciberataques
653 _acomponente del dato
653 _acomponente de modelo
653 _acomponente de entorno
653 _asesgos
653 _amarco legal
653 _ablockchain
653 _acomputación
653 _acriptografía
856 _uhttps://ametic.es/wp-content/uploads/2024/04/Informe-Seguridad-de-la-IA-1-1.pdf
_x0
_yAcceso a la publicación
942 _2z
_cINF
999 _c7927
_d7927