El foro político intergubernamental G7, del que forman parte Alemania, Reino Unido, Canadá, Estados Unidos, Francia, Italia y Japón, ha aprobado un “Código Internacional de Conducta” dirigido a organizaciones que desarrollen sistemas de Inteligencia Artificial “avanzados”.
El documento, que tiene por objetivo servir de Guía a la implementación segura y basada en la confianza de los sistemas de Inteligencia Artificial avanzados, contiene 11 breves apartados, y, en cada uno de ellos el G7 recomienda una serie de acciones para disminuir los riesgos que el uso de estas herramientas pudiera suponer.
Destacan especialmente los siguientes puntos y acciones del Código de Conducta aprobado por el G7:
- En el punto primero del Código de Conducta el G7 recomienda el empleo de diversas medidas de comprobación internas y externas independientes, mediante una combinación de métodos de evaluación durante todo el ciclo de vida del sistema de Inteligencia Artificial. Además, identifica una serie de riesgos específicos y los agrupa por categorías.
- El punto cuarto del documento repara en la importancia de trabajar por un intercambio responsable de información y notificación de incidentes entre organizaciones que desarrollan sistemas avanzados de IA, incluidas la industria, los gobiernos, la sociedad civil y el mundo académico.
- El epígrafe quinto del Código de Conducta menciona la necesidad e importancia de desarrollar, aplicar y divulgar políticas de gobernanza y gestión de riesgos de la IA basadas en un enfoque basado en el riesgo (risk based approach), que incluyan políticas de privacidad.