Seleccionar página
Volver

Las tecnologías de inteligencia artificial (IA) están presentes en nuestras vidas desde hace ya tiempo. Nos recomiendan qué canciones escuchar, optimizan procesos productivos de nuestra industria, ayudan en el diagnóstico clínico, arrojan resultados en nuestras búsquedas de internet, predicen el riesgo de comisión de delitos, traducen automáticamente y, más recientemente, generan contenido en forma de textos, imágenes, vídeos y audios.

La inteligencia artificial necesita datos; especialmente en el caso del aprendizaje automático, para entrenar el modelo de IA se requieren grandes conjuntos de datos que permitan la detección de patrones y el descubrimiento de correlaciones. Se considera que, en general, para su “aprendizaje” necesita mil veces más datos que un ser humano.

Si los datos utilizados son personales, debe cumplirse la normativa de protección de datos y, en particular, deben respetarse sus principios, que nos obligan a disponer de una base legal adecuada que nos permita tratar los datos, informar sobre lo que pretendemos hacer con ellos, no desviarnos de esa finalidad, usar los datos mínimos necesarios y garantizar una seguridad adecuada.

Recordamos que la normativa de protección de datos vela por que las personas estén protegidas frente a usos de sus datos personales que puedan suponer un alto riesgo para sus derechos y libertades. Así, si esta normativa se respetara, una aplicación destinada a desnudar personas de manera hiperrealista nunca debería salir al mercado, ya que no superaría la evaluación de impacto.

Esta normativa también establece salvaguardas adicionales cuando se utilizan datos biométricos, por considerar que su tratamiento puede tener consecuencias perjudiciales (imaginemos una suplantación de identidad o una identificación no deseada). Asimismo, regula cuándo y cómo es posible apoyarse en decisiones automatizadas que afectan de manera significativa a una persona (por ejemplo, para contratarla o denegarle un crédito) y exige en estos casos informar sobre la lógica que ha aplicado la decisión automatizada. Porque, si no conocemos cómo se ha llegado a una determinada decisión ¿podríamos rebatirla?

Entonces, si ya disponemos de una normativa como la de protección de datos, que protege a las personas cuando se tratan sus datos personales, especialmente cuando son objeto de decisiones automatizadas (como las que adopta un sistema de inteligencia artificial), ¿realmente es necesario regular la inteligencia artificial de manera específica como pretende la Unión Europea?

La respuesta, en mi opinión, es un sí rotundo.

Cuando nos montamos en un ascensor, adquirimos un juguete, utilizamos una máquina, o conducimos un vehículo, confiamos en que sean seguros y que su utilización no nos cause ningún perjuicio. Esta idea de seguridad y fiabilidad es precisamente la que subyace en la normativa de inteligencia artificial que está preparando la Unión Europea y que previsiblemente se publicará a principios de 2024, si bien su aplicación se demorará entre uno y dos años.

Los sistemas de inteligencia artificial se destinan a usos muy variados, algunos de los cuales pueden suponer un alto riesgo para la salud, la seguridad o los derechos fundamentales de las personas. Pensemos en sistemas de IA capaces de detectar nuestras emociones a través de señales biométricas (expresiones faciales, tono de voz), o que permitan a los tribunales aplicar la ley, o que se utilicen como componente de seguridad en el funcionamiento de una instalación crítica.

La nueva normativa europea, además de prohibir ciertas prácticas, pretende que los sistemas de IA de alto riesgo estén controlados en todo su ciclo de vida y cumplan ciertos requisitos regulatorios, que garanticen que su funcionamiento sea seguro y no vulnere derechos fundamentales.

A pesar de su bondad, este Reglamento suscita algunas cuestiones: ¿quién clasifica el sistema como de alto riesgo? ¿qué ocurre con los sistemas preexistentes a la fecha de aplicación del Reglamento -que, en principio, no están obligados a cumplirlo-? ¿de qué recursos humanos y materiales dispondrán las autoridades competentes para aplicar este Reglamento en sistemas de IA opacos y complejos? ¿solo podremos controlar y auditar la inteligencia artificial con inteligencia artificial? ¿cómo evitar los usos delictivos de la IA?

Con todo, desde nuestra experiencia asesorando legalmente en proyectos de I+D+i, la innovación y el desarrollo tecnológico son posibles dentro de un marco jurídico dotado de flexibilidad, y las organizaciones deben tener presente el futuro marco regulatorio e incorporar, desde el rol que les corresponda, la gestión integral de la inteligencia artificial y la gobernanza de datos.

Lucía Arriola

LKS Next LEGAL

 

Comparte en tus redes sociales:

Diseña tu trayectoria profesional con nosotros.

Da el primer paso y pon tu talento en acción.

Lur by LKS Next

Te contactamos
+

¿Cómo puedo ayudarte?

Escribe tus dudas sobre la nueva Directiva en sostenibilidad (CSRD) o selecciona alguna de las siguientes preguntas para descubrir cómo afrontar los retos que plantea esta regulación para las empresas.

¿A qué tamaño de empresas aplica la directiva y cuándo deben presentar sus informes en función del tamaño?
¿Cuáles son los principales cambios para las empresas que trae consigo la nueva directiva?
¿Qué es la doble materialidad?

Debes escribir algo para poder enviar

Lur puede cometer errores. Considera verificar la información importante.

Contacto

¿Te gustaría saber más sobre nuestros servicios?

CONTÁCTANOS