La ley de IA: Protegiendo el futuro de la tecnología

La UE busca equilibrar la innovación tecnológica con la protección de los derechos fundamentales, marcando un hito en la regulación de la IA.

Un acuerdo histórico para regular la inteligencia artificial

Los negociadores del Parlamento Europeo y del Consejo han alcanzado un acuerdo histórico después de más de 35 horas de negociación para establecer las primeras reglas que limitarán los riesgos asociados a la Inteligencia Artificial (IA). El orbjetivo de esta nueva regulación europea es fijar estándares de seguridad y de derechos fundamentales para evitar el uso indebido de la tecnología, asegurando que no se utilice con fines represivos, de manipulación o discriminatorios.

Cuatro categorías de riesgo

El nuevo reglamento crea cuatro categorías basadas en el riesgo asociado a las actividades de la IA. Se prohíben aquellas actividades consideradas inasumibles en términos de riesgo. La intención es establecer un equilibrio entre la regulación necesaria y la competitividad de la Unión Europea.

Puntos sensibles sobre la vigilancia en tiempo real

Un punto de gran sensibilidad durante las negociaciones fue el uso de cámaras de identificación biométrica en espacios públicos para vigilancia en tiempo real. Se acordó que estas cámaras se podrán utilizar con autorización judicial para prevenir amenazas terroristas genuinas y previsibles o para identificar a personas involucradas en delitos graves como terrorismo, tráfico de personas o crímenes medioambientales.

Sistemas prohibidos para proteger derechos fundamentales

La nueva normativa prohíbe sistemas de categorización biométrica basados en creencias políticas, religiosas, filosóficas, raza y orientación sexual. También se prohíben sistemas que puntúen a las personas según su comportamiento o características personales, así como la IA capaz de manipular el comportamiento humano. Adicionalmente, quedan prohibidos sistemas que expandan o creen bases de datos faciales mediante la captación indiscriminada de datos a través de internet o grabaciones audiovisuales. En entornos laborales y educativos, se prohíben sistemas de IA capaces de reconocer emociones.

Regulación de la inteligencia artificial generativa

Un tema central en las negociaciones fue la regulación de los sistemas de inteligencia artificial generativa, como ChatGPT de OpenAI o Bard de Google. Estos sistemas deberán cumplir criterios de transparencia, especificando si un texto, canción o fotografía ha sido generado por inteligencia artificial. Además, los desarrolladores deben garantizar que los datos utilizados para entrenar los sistemas respetan los derechos de autor. Aunque la ley no prohíbe su uso, establece criterios estrictos para detectar modelos de alto riesgo y obliga a los desarrolladores a seguir salvaguardas rigurosas antes de lanzarlos al mercado.

Respeto a los derechos fundamentales

Las negociaciones fueron intensas, ya que el objetivo de la ley es regular el uso de una tecnología con grandes posibilidades para la sociedad, pero que también genera dudas y preguntas que los desarrolladores de IA aún no saben responder. El reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que genera para las personas, identificando sistemas de alto riesgo que solo podrán utilizarse si se demuestra que respetan los derechos fundamentales.

Entrada en vigor y sanciones por incumplimiento

La normativa prevé la creación de la Oficina Europea de Inteligencia Artificial, encargada de coordinar el uso de la tecnología entre las autoridades nacionales. Está programado que la ley entre en vigor en 2026, implementándose por fases. La creación inmediata de la oficina europea, la prohibición de sistemas de IA prohibidos llegarán a los seis meses, y los requisitos para los sistemas y modelos de IA generativa, a los doce. Las multas por incumplimiento oscilarán entre 35 millones de euros o el 7% del volumen global de negocio de las empresas hasta 7,5 millones de euros o el 1,5% del volumen global de negocio.

Artículos relacionados...