Regulación de la IA en la Unión Europea: las claves de la futura ley

Regulación de la IA en la Unión Europea: las claves de la futura ley

Artículo
Autor
Fraternidad-Muprespa

Si hay algo de lo que llevamos meses hablando en estos artículos es del potentísimo desarrollo global de la inteligencia artificial y cómo está ya suponiendo un cambio universal en millones de procesos. Por eso era tan necesaria una regulación, y la semana pasada se llegó a un consenso en el seno de la Unión Europea. Se trata de un texto que ahora tendrá que ser adoptado formalmente por el Parlamento Europeo y el Consejo para convertirse en ley y cuya entrada en vigor está prevista para 2026.

Lo acordado pretende buscar el equilibrio entre impulsar la innovación y la adopción de la inteligencia artificial en toda Europa, garantizar que los sistemas de IA comercializados y utilizados en el mercado europeo sean seguros y que se respeten los derechos fundamentales y los valores comunitarios.

Además, persigue legislar lo que rodea a un entorno tecnológico global en permanente evolución y ebullición que, según la UE, “es clave para el futuro de nuestras sociedades y economías”. Aquí, nos atrevemos a decir que es clave para el presente. 

La secretaria de Estado de Digitalización e IA del Gobierno español, Carme Artigas, que además es una de las artífices de que Europa sea el primer continente con una regulación para limitar la inteligencia artificial, aseguraba, según la nota de prensa difundida por la UE que “es el mayor paso en la historia de la transformación digital europea. Hemos logrado el importante hito de que los ciudadanos podemos decidir qué se puede hacer y qué no con la inteligencia artificial”. 

Pero ¿qué contempla este acuerdo? Lo más llamativo es que califica sus efectos por la “cantidad” de daño que puede causar: se establecen diferentes categorías de riesgo, desde “inaceptable” (es decir, tecnologías que deberían estar prohibidas) hasta formas de IA de alto, medio y bajo riesgo.

Las obligaciones se complementan con un código de conducta voluntario que permitirá cierto margen para la autorregulación sectorial de modo que no se impida la innovación pero dentro de unos límites.

Uno de sus puntos críticos es el uso de la IA por parte de las fuerzas del orden. Se prohíbe el controvertido reconocimiento facial en tiempo real, con excepciones tan razonables como la búsqueda de víctimas, la prevención de amenazas terroristas o la localización e identificación de presuntos delincuentes.

Tampoco estarán permitidos los sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual o raza), la extracción no selectiva de imágenes faciales de para crear bases de datos de reconocimiento facial, el reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas, la puntuación social basada en el comportamiento o las características personales, la manipulación del comportamiento humano para eludir su libre albedrío, o la explotación de vulnerabilidades de las personas debido a su edad, discapacidad, situación social o económica.

Aunque pueda parecer obvio que se prohíban algunas de las cosas que acaba de leer, son prácticas que se llevan a cabo en algunos países, como China, donde el Gobierno cuenta con un sistema que recopila datos de los ciudadanos, con origen en múltiples fuentes, incluidas agencias gubernamentales, instituciones financieras o redes sociales, y cuyo fin es asignar una puntuación a individuos y empresas, para evidenciar cuánto se puede confiar en una persona física o jurídica en concreto. Hablamos de vigilar si se cruza el semáforo en rojo, ámbar o verde, o si se fuma en lugares destinados a ello o en otros, y de ahí, para arriba.

En general las ventajas de la legislación son la seguridad jurídica que otorga a ciudadanos, empresas e instituciones, la protección del consumidor y la consolidación de unos estándares éticos claros para el desarrollo y uso de la tecnología, lo que, en el terreno del emprendimiento, podría ayudar a crear soluciones. ¿Cómo? Pues por ejemplo respuestas socialmente responsables y respetuosas con los derechos humanos, seguras, justas y transparentes.

Entre los posibles inconvenientes de este texto situaríamos el coste y consumo de recursos que supone la carga regulatoria, por ejemplo en el caso de pymes o startaps que pueden ver limitada su capacidad para innovar de manera ágil. Otro posible límite es la falta de incentivo a la inversión, y es que quienes quieren colocar su capital en un proyecto pueden inclinarse por escenarios de regulación inexistente o más laxa.

Incumplir las normas abocará a los infractores a multas que van desde los 35 millones de euros, o el 7% de la facturación global, hasta los 7,5 millones, o el 1,5 % de la facturación, dependiendo de la infracción y el tamaño de la empresa.

Por cierto, no podemos finalizar este artículo sin destacar que, además del impulso dado a esta regulación por parte del Gobierno español , en su calidad de país que preside el consejo de la UE este semestre, el ejecutivo ha constituido el consejo rector de la Agencia Española de Supervisión de la Inteligencia Artificial. Ha nombrado a seis representantes de cuatro ministerios diferentes (cuatro del ministerio de Transformación Digital, una del ministerio de Hacienda y Función Pública y otra del Ministerio de Industria, Comercio y Turismo) y un experto. Ahora pondrán en marcha este órgano, comenzando por seleccionar en las próximas semanas a su director general, a propuesta de la presidencia de la agencia, ocupada por Artigas y por el ministro de Transformación Digital, José Luís Escrivá.