La Agencia de Seguridad Cibernética de Singapur (en adelante, “CSA”, por sus siglas en inglés), ha desarrollado un documento en el que establece Directrices sobre la seguridad de los sistemas de Inteligencia Artificial (en adelante “IA”). El objetivo del documento es ayudar a los titulares de sistemas de IA a proteger sus sistemas a lo largo de su ciclo de vida. Entre otros, las Directrices están orientadas a proteger los sistemas de IA frente a riesgos relacionados con la ciberseguridad: ataques a la cadena de suministro, aprendizaje automático adversario, etc.
A lo largo del documento, la CSA analiza cuestiones como:
- Importancia de la seguridad en la IA desde el diseño: Las Directrices de la CSA subrayan la idea de que los sistemas de IA deben ser seguros por diseño y por defecto, al igual que ocurre con otros sistemas de software, lo que implica la implantación de medidas de seguridad desde las primeras etapas del ciclo de vida del sistema.
- Amenazas específicas para los sistemas de IA: Las Directrices ponen de relieve la existencia de nuevas formas de ataques cibernéticos, como el aprendizaje automático adversarial, que pueden manipular modelos de IA para producir resultados erróneos o incluso maliciosos. También se describen el “envenenamiento” de los datos de entrenamiento (dirigido a provocar sesgos) y los ataques de evasión, que distorsionan los resultados de los modelos entrenados. Para la CSA, los nuevos riesgos asociados a la IA requieren de una atención específica que va más allá de las prácticas tradicionales de ciberseguridad.
- Medidas preventivas a lo largo del ciclo de vida de los sistemas de IA: La seguridad de los sistemas de IA debe ser considerada a lo largo de todo su ciclo de vida, lo que implica la adopción de medidas de seguridad en cada una de las fases del ciclo de vida del sistema, y la toma de acción constante, entre otras: evaluaciones de riesgos frecuentes, monitorización de entradas y salidas del sistema; actualización de las medidas de seguridad de forma continua, etc.