Informe sobre seguridad de la inteligencia artificial 2024 / AMETIC. Comisión Ciberseguridad
.-- Madrid : AMETIC 2024
.-- 6 p. ; 1 documento PDF
El objetivo del informe reside en determinar los elementos que configuran un entorno seguro para la adopción de la inteligencia artificial (IA) en los diversos escenarios en los que esta tecnología puede estar presente. Para ello se definen los pilares principales para caracterizar la seguridad de un sistema de información, también aplicables a caracterizar los sistemas de aprendizaje automático. A modo de ejemplo se presentan dos casos en los que los fallos de seguridad fueron perjudiciales para las empresas que los padecieron.
El documento también categoriza los potenciales ataques dependiendo del componente vulnerable, bien sea el dato, el modelo o el entorno. Asimismo, apunta a que las dimensiones "trustworthiness" (confianza, en español) y marco legal han de permitir aumentar la calidad de los sistemas de IA. Por otra parte, una de las principales carencias de esta tecnología es la escasa investigación al respecto y la falta de validación de ataques contra modelos IA en entornos de producción.
Aunque la IA es una herramienta de presente y futuro, esta debe desarrollarse de forma segura, minimizando todo impacto previsible. En esta línea de trabajo, asociaciones tales como MITRE o la Unión Europea están desarrollando metodologías para cuantificar e investigar las amenazas (incluyendo técnicas de ataque) a los sistemas basados en IA, así como también medidas de protección y controles adecuados. Otra oportunidad se centra en los sistemas basados en "blockchain", cuya gran ventaja es que proporcionan un entorno descentralizado, generando evidencias que permiten verificar que el modelo IA no ha sido alterado ni manipulado.
Inteligencia Artificial Ciberseguridad y confianza
modelos IA sistemas IA ciberataques componente del dato componente de modelo componente de entorno sesgos marco legal blockchain computación criptografía