La UE aprueba la ley de la IA, pero la mayoría de las disposiciones no llegarán hasta dentro de 4 años

La Ley Europea de Inteligencia Artificial (Ley de IA), el primer reglamento global sobre esta tecnología en el mundo, ha entrado en vigor este jueves, 1 de agosto. Si bien la mayoría de las normas contempladas comenzarán a aplicarse el 2 de agosto de 2026, la Comisión Europea ha subrayado la importancia de este hito en la regulación de la Inteligencia Artificial.

La normativa tiene como objetivo establecer un mercado interior armonizado para la IA en la Unión Europea (UE), fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión. Además, busca garantizar que la IA desarrollada y utilizada en la UE sea «fiable», contemplando diversas salvaguardas para proteger los derechos fundamentales de las personas.

Niveles de Riesgo y Requisitos en la Ley de IA

La Ley de IA establece diferentes niveles de riesgo sobre los sistemas de inteligencia artificial, que van desde el ‘mínimo’ hasta el ‘inaceptable’. Los sistemas de riesgo mínimo, como los de recomendación y los filtros de correo no deseado, no enfrentan obligaciones en virtud de la normativa, pero las empresas pueden adoptar códigos de conducta adicionales de manera voluntaria.

Por otro lado, los sistemas con «riesgo específico de transparencia«, como los chatbots, deberán revelar «claramente» a los usuarios que están interactuando con una máquina. Además, determinados contenidos generados por IA, como las ultrafalsificaciones, deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones.

Los sistemas de inteligencia artificial considerados de «alto riesgo» estarán obligados a cumplir requisitos estrictos, como la «alta calidad» de sus conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Entre estos sistemas se incluyen los utilizados para la contratación de personal o para evaluar si alguien tiene derecho a obtener un préstamo.

Prohibiciones y Sanciones en la Ley de IA

La IA de «riesgo inaceptable» será prohibida por la Ley de IA, como aquella que se considere una clara amenaza para los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la ‘puntuación social’ y determinadas aplicaciones de la actuación policial predictiva.

Asimismo, estarán prohibidos algunos usos de sistemas biométricos, por ejemplo, los de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).

La Comisión Europea ha subrayado que se impondrán multas a las empresas que no cumplan las normas, unas sanciones que podrían ascender hasta el 7% de su volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3% en el caso de incumplir otras obligaciones y hasta el 1,5% por el suministro de información incorrecta.

En resumen, la Ley Europea de Inteligencia Artificial representa un hito en la regulación de esta tecnología, estableciendo un marco normativo que busca garantizar el desarrollo de una IA ética y responsable, al tiempo que impulsa la innovación y la inversión en el mercado europeo.