El desarrollo de la inteligencia artificial (IA) está poniendo de relieve que, pese a los indudables beneficios que reporta su aplicación, también genera importantes riesgos, existiendo un consenso generalizado en que debe ser objeto de una regulación que defina adecuadamente su alcance. Es cierto que los propios operadores internacionales de IA están adoptando medidas en este sentido. Se están celebrando reuniones al más alto nivel económico-empresarial en las que se pretenden consensuar unas líneas de actuación comunes dirigidas a mitigar los posibles riesgos de desinformación, conculcación de la privacidad y vulneración de la propiedad intelectual que su utilización y desarrollo pueden implicar. Sin embargo, dichas formulaciones de carácter voluntario, no resultan suficientes para conseguir tales objetivos. Por eso, los gobiernos se están abriendo a establecer normas legales que regulen expresamente dicha actividad. En el ámbito internacional, el Gobierno de EEUU ha dado un paso importante, al regular recientemente esta temática con el fin de controlar esta actividad a la vista de que puede comprometer importantes derechos y secretos de seguridad nacional. Así, entre otras medidas, se impone a las empresas tecnológicas la obligación de compartir con el Gobierno los resultados de sus pruebas de seguridad y cualquier información que se considere relevante en este sentido, con el fin de fortalecer la posición de EEUU en el concierto mundial, en un momento muy delicado en este crucial ámbito en el que se encuentra abiertamente enfrentada a China, su competidor más directo.
Por eso, resulta absolutamente necesaria la elaboración de una norma a nivel europeo, que trate de poner coto a la situación de indefinición existente en el ámbito de la IA. Ahora bien, la necesidad de consagrar el principio de legalidad en este terreno, no puede constituir un freno en la innovación tecnológica. Por ello, es urgente la aprobación de la primera normativa europea sobre inteligencia artificial, que está prevista que se produzca para finales de este año. Con todo, todavía no está definido el alcance que esta norma va a desplegar porque existen diferentes versiones al respecto, ya que el Parlamento Europeo ha endurecido la versión acordada inicialmente por la Comisión Europea. Sin ánimo exhaustivo, la nueva norma pretende plantear tres niveles de riesgo en la IA, sometiendo cada uno de ellos a un régimen de control diferente. Por un lado, estarían las aplicaciones de la IA, cuyo uso no represente una gran amenaza para los ciudadanos, que quedarían sometidas a unas obligaciones generales de transparencia. En segundo lugar, estarían las de riesgo alto para los derechos fundamentales o para la seguridad, que estarían sometidos a una mayor vigilancia que garantizase la seguridad e integridad en su uso. Y, en tercer grupo, se encontrarían las IAs de riesgo inaceptable, que pasarían a estar prohibidas en el territorio de la Unión Europea una vez la norma entre en vigor. El gran debate se está planteando a la hora de definir las actuaciones que se encuentran bajo esta categoría por los efectos prohibitivos que generan. También genera importantes interrogantes la conveniencia de establecer un sistema de vigilancia sobre la IA de carácter generativo (ChatGPT), a fin de que su utilización no ponga en riesgo derechos fundamentales y se establezcan, al mismo tiempo, sistemas de registro de dichos modelos antes de lanzarlos al mercado. El resultado final se conocerá en diciembre de este año. Habrá que estar atentos al tenor de la nueva norma europea porque va a tener indudables efectos no solo en el desarrollo y aplicación de la IA en el ámbito continental, sino también en el mundo empresarial en general que va a verse afectado directamente por dicho nuevo marco normativo.