El Gobierno pone en marcha el anteproyecto de ley para la regulación del contenido generado por inteligencia artificial.
En marzo el Ministerio de Transformación Digital y Función Pública presentó el Anteproyecto de ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial (IA). El anteproyecto, que será tramitado con vía de urgencia, está enfocado en promover un uso inclusivo, ético y beneficioso para las personas de la IA.
El ministro de Transformación Digital y Función Pública advertía que la IA puede tanto beneficiosa como perjudicial: “La IA (…) puede servir para mejorar nuestras vidas o atacar a la democracia. (…) puede ser utilizada para investigar el cáncer o el Alzheimer; (…) o puede ser usada para difundir bulos y mentiras, esparcir odio y atacar a nuestra democracia”.
El objetivo principal de este Anteproyecto es adaptar la legislación española a la regulación europea, con la finalidad de alcanzar un marco legal común en la Unión Europea, en el ámbito de la IA. Este marco legal común debe permitir prevenir riesgos para las personas, prohibir los usos maliciosos, imponer obligaciones rigurosas para los sistemas de alto riesgo, así como requisitos de transparencia para todo el contenido elaborado con IA.
Aquellas prácticas que prohibirá esta ley se sancionarán a partir del 2 de agosto con multas. Se prevén sanciones que oscilen entre los 7,5 y 35 millones de euros o entre el 2% y 7% del volumen de negocio mundial del ejercicio anterior, en caso de que la cifra sea superior. En lo que refiere a las pymes se podrá optar por la cuantía menor.
En caso de que los sistemas de alto riesgo no cumplan con dichas obligaciones, se les sancionará en función de la gravedad del incumplimiento. Para aquellas infracciones que sean consideradas muy graves, como, por ejemplo, no introducir supervisión humana en un sistema de IA que incorpore la biometría en el trabajo para controlar la presencialidad de los trabajadores; o no cumplir con la obligación de etiquetar correctamente cualquier imagen, audio o vídeo generado o manipulado con IA, generando un deepfake; las sanciones serán de entre 7,5 millones y 15 millones de euros, o hasta el 3% del volumen del negocio mundial del ejercicio interior.
Las autoridades encargadas de la vigilancia del cumplimiento de las obligaciones de los sistemas de alto riesgo serán las siguientes:
La Agencia Española de Protección de Datos (AEPD) será la encargada de supervisar los sistemas relacionados con el tratamiento de datos biométricos y la gestión de fronteras.
El Consejo General del Poder Judicial (CGPJ) tendrá competencia en los sistemas de IA aplicados en el ámbito de la justicia.
La Junta Electoral Central se encargará de la supervisión de aquellos sistemas que intervengan en los procesos democráticos.
La Agencia Española de Supervisión de la IA (AESIA) controlará el resto de los sistemas clasificados como de alto riesgo.
El reglamento europeo también obliga a los países miembros a disponer de un sandbox, es decir, un entorno de pruebas controladas, que fomente la innovación y el desarrollo de sistemas de IA, antes de su comercialización o puesta en servicio. Según la normativa europea la fecha límite para disponer de este sandbox es el 2 de agosto de 2026.
España se ha adelantado a esa fecha. En diciembre de 2024, 12 sistemas de IA de alto riesgo iniciaron su participación en un entorno de pruebas controlado durante un año. El objetivo es que está primera experiencia sirva para publicar guías técnicas que faciliten el cumplimiento de los requisitos aplicables. De esta manera quién dude del riesgo del sistema de IA que pueda desarrollar tendrá a disponibilidad un marco normativo que promueva el uso responsable y ético de la IA.
Fuentes:
https://avance.digital.gob.es/_layouts/15/HttpHandlerParticipacionPublicaAnexos.ashx?k=19128