Noticias JurídicasOrigen https://noticias.juridicas.com

Actualidad Noticias
12/03/2025 09:40:51 REDACCIÓN LEGISLACIÓN 6 minutos

El Consejo de Ministros aprueba un borrador que regula el uso ético de la IA y exige identificación de contenido artificial

Quienes no cumplan con la normativa se enfrentarán a multas que pueden alcanzar hasta los 35 millones de euros, o entre el 5% y el 7% del volumen de negocio mundial del ejercicio anterior    

El Consejo de Ministros aprueba un borrador que regula el uso ético de la IA y exige identificación de contenido artificial

El Consejo de Ministros ha dado luz verde este martes al anteproyecto de ley sobre la gobernanza de la Inteligencia Artificial (IA). Esta normativa busca alinear la legislación nacional con el Reglamento europeo de inteligencia artificial, que ya está en vigor. Entre sus disposiciones más relevantes, se establece como infracción grave el incumplimiento de la obligación de etiquetar y identificar de manera adecuada cualquier imagen, audio o vídeo que haya sido generado o alterado mediante inteligencia artificial.

"La IA es una herramienta muy poderosa, que puede servir para mejorar nuestras vidas o atacar a la democracia; puede tener buenos usos o malos usos. La IA puede ser utilizada para investigar el cáncer o el Alzheimer, para prevenir catástrofes naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir bulos y mentiras, esparcir odio y atacar a nuestra democracia. Por eso es oportuno su buen uso y gobernanza", afirmó el ministro de Transformación Digital y de la Función Pública, Óscar López, en la rueda de prensa posterior al Consejo de Ministros. En esta ocasión, estuvo acompañado por la portavoz del Gobierno y ministra de Educación y Formación Profesional, Pilar Alegría, y la ministra de Sanidad, Mónica García.

López ofreció un panorama detallado sobre esta nueva legislación, subrayando que representa la "tercera pata" de un "amplio escudo europeo" que protege los "derechos digitales en un contexto como el actual", complementando así las leyes previamente propuestas sobre servicios digitales y medios de comunicación. Este anteproyecto está diseñado para salvaguardar los derechos digitales "frente a un uso negativo" de la inteligencia artificial, identificando tanto prácticas prohibidas como sistemas considerados de alto riesgo.

El departamento que lidera Óscar López ha señalado que el anteproyecto será tramitado de forma urgente y que seguirá los procedimientos necesarios antes de regresar al Consejo de Ministros para su aprobación final y posterior envío a las Cortes.

Prácticas prohibidas

En relación con las prácticas prohibidas, el ministro especificó que su entrada en vigor fue el 2 de febrero, y desde el 2 de agosto se podrán imponer sanciones a través de multas u otras medidas, como exigir la adecuación de los sistemas para que cumplan con la normativa o incluso prohibir su comercialización.

Entre las prácticas prohibidas, se incluye el uso de técnicas subliminales (imágenes o sonidos imperceptibles) para manipular decisiones sin el consentimiento de las personas, causando un daño significativo (como adicciones, violencia de género o menoscabo de la autonomía). López citó como ejemplo un chatbot que identifica a usuarios con problemas de adicción al juego y los incita a unirse a plataformas de juego en línea.

También está prohibido aprovechar vulnerabilidades relacionadas con la edad, discapacidad o situación socioeconómica para alterar de manera significativa comportamientos que puedan causar daños considerables. "Por ejemplo, un juguete infantil que anima a niños a completar retos que acaban provocando lesiones graves. Esto también está ocurriendo", enfatizó López.

Además, se prohíbe la clasificación biométrica de las personas según su raza, orientación política, religiosa o sexual; la puntuación de individuos o grupos basándose en comportamientos sociales o características personales como criterio para denegar subsidios o préstamos; y valorar el riesgo de que una persona cometa un delito según datos personales como su historial familiar, nivel educativo o lugar de residencia, salvo excepciones legales. También se prohíbe inferir emociones en entornos laborales o educativos como método de evaluación para promociones o despidos, a menos que haya razones médicas o de seguridad.

Sanciones de hasta de 35 millones de euros

Óscar López advirtió que las sanciones para estos sistemas pueden variar entre 7,5 y 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del ejercicio anterior, si esta última cifra resulta superior, exceptuando a las pequeñas y medianas empresas (pymes), que se regirán por la cantidad menor.

Las entidades responsables de supervisar los sistemas prohibidos incluirán la Agencia Española de Protección de Datos para cuestiones de biometría y gestión de fronteras; el Consejo General del Poder Judicial para sistemas de IA en el ámbito judicial; la Junta Electoral Central para sistemas que afecten a procesos democráticos; y la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) para los demás casos.

Los sistemas de IA considerados de alto riesgo abarcarán aquellos que se integren como elementos de seguridad en productos industriales, juguetes, equipos radioeléctricos, productos sanitarios y medios de transporte; así como sistemas relacionados con biometría, infraestructuras críticas, educación y formación profesional, empleo, acceso a servicios privados y públicos esenciales, y disfrute de estos servicios; sistemas para garantizar derechos, gestionar migraciones, asilo y control fronterizo; y aquellos utilizados en la administración de justicia y procesos democráticos.

Estos sistemas estarán sujetos a diversas obligaciones y, en caso de incumplimiento, enfrentarán sanciones según la gravedad de la infracción. Por ejemplo, las infracciones muy graves pueden conllevar multas de entre 7,5 y 15 millones de euros o hasta el 2% y el 3% del volumen de negocio mundial del ejercicio anterior; mientras que las infracciones graves se penalizarán con multas de entre 500.000 euros y 7,5 millones de euros, o entre el 1% y el 2% del volumen de negocio mundial.

Las autoridades encargadas de supervisar los sistemas de alto riesgo serán aquellas que ya supervisen el sector afectado en el caso de productos regulados por legislación armonizada. También se contará con la Agencia Española de Protección de Datos para sistemas de gestión de migraciones y asilo asociados a las Fuerzas y Cuerpos de Seguridad del Estado; el CGPJ para sistemas de IA en la administración de justicia; la Junta Electoral Central para sistemas relacionados con procesos electorales; el Banco de España para sistemas de clasificación de solvencia; la Dirección General de Seguros para sistemas de seguros; y la CNMV para sistemas de mercados de capitales. En los demás casos, la autoridad competente será la AESIA.

"Un texto pionero"

Por su parte, Pilar Alegría destacó que el anteproyecto de Ley para el uso ético, inclusivo y beneficioso de la Inteligencia Artificial es "un texto pionero, no solamente desde el punto de vista nacional, sino también desde el punto de vista internacional".

La portavoz del Gobierno añadió que, con motivo del Día Mundial de las Personas Consumidoras, que se celebra el 15 de marzo, el Consejo de Ministros ha adoptado una declaración que manifiesta "un nuevo compromiso con las personas y con los derechos de las personas consumidoras". Además, subrayó la importancia de proteger al consumidor en un entorno digital en constante evolución.

Te recomendamos