El pasado 13 de febrero, las Comisiones de Mercado Interno y Libertades Civiles del Parlamento Europeo llegaron a acuerdo provisional sobre la Ley de Inteligencia Artificial, que garantiza la seguridad y respeto por los Derechos Fundamentales.

Esta ley tiene un doble objetivo: de una parte proteger los derechos fundamentales, la democracia, el estado de derecho y la sostenibilidad ambiental del impacto de la Inteligencia Artificial de alto riesgo y, de otra parte, promover la innovación y establecer a Europa como líder en el campo de la Inteligencia Artificial.

La regulación contempla los siguientes puntos principales:

Aplicaciones prohibidas y Sistemas de Alto Riesgo

Se prohíben los sistemas de Inteligencia Artificial que amenazan los derechos de las personas como sistemas de categorización biométrica basados en características sensibles, recopilación no dirigida de imágenes faciales de Internet o grabaciones de CCTV para bases de datos de reconocimiento facial, reconocimiento de emociones en lugares de trabajos y escuelas, aplicaciones “scoring social”, actos policiales predictivos basados únicamente en el perfilado de una persona e IA que manipula comportamientos humanos o bien explotan vulnerabilidades de las personas.

También se definieron obligaciones para otros sistemas de Inteligencia Artificial considerados como de “alto riesgo” por su impacto en salud, seguridad, derechos fundamentales, democracia o estado de derecho. 

Los usos de alto riesgo incluyen aquellos infraestructuras críticas, educación y formación profesional, empleo, servicios esenciales (como por ejemplo, atención médica, banca etc), sistemas en fuerzas del orden, migración y gestión de fronteras, justicia y procesos democráticos (como por ejemplo, la capacidad de incidir en elecciones).

Exenciones para fuerzas del orden 

Se han definido algunas situaciones taxativas de excepción bajo las cuales las fuerzas del orden podrán utilizar sistemas de identificación biométrica: limitadas en tiempo y alcance geográfico, con autorización judicial o administrativa.

Entre sus usos se incluyen, por ejemplo: la búsqueda de personas desaparecidas o prevención de ataques terroristas.  

El uso posterior es considerado como de “alto riesgo” y necesariamente debe contar con autorización judicial y estar vinculado a la investigación de un delito.

 

Requisitos de transparencia

En aquellos sistemas de Inteligencia Artificial de propósito general deben cumplir con requisitos de transparencia y cumplir con la normativa europea de derechos de autor durante su entrenamiento.

Los modelos más potentes de Inteligencia Artificial de propósito general que podrían plantear riesgos sistémicos deberán cumplir con requisitos adicionales como la evaluación del modelo, evaluación de riesgos y presentación de informes sobre incidentes.

El contenido artificial o manipulado de imágenes, audio o video debe etiquetarse como tal.

Medidas para respaldar la innovación y las pymes 

Se contempla, además, iniciativas de “sandboxes” regulatorios y pruebas a nivel nacional para ofrecer a pymes y startups la posibilidad de desarrollar y entrenar Inteligencia Artificial innovadora antes de ser lanzadas en el mercado.

Próximos pasos 

En una próxima sesión plenaria del Parlamento Europeo se espera una adopción formal del texto y respaldo final del Consejo.

La ley tendrá un periodo de vacancia de 24 meses después de entrar en vigor, con la excepción de las prácticas prohibidas, que serán aplicadas en 6 meses.