Table of Contents
ToggleEl pasado mes de agosto entraba en vigor la primera Ley de Inteligencia Artificial de la Unión Europea, un cuerpo legislativo de obligado cumplimiento para los 27 países que forman parte de la UE y, para sus defensores, un hito a la hora de establecer límites claros con respecto a los futuros usos de la IA y su más que seguro impacto en la vida de los ciudadanos.
Una legislación que tal y como se recoge en la segunda edición de «FEEL IT: Horizonte IA», un estudio desarrollado de manera conjunta por evercom (agencia creativa de comunicación y marketing) y UDIT (Universidad de Diseño, Innovación y Tecnología), conecta con el sentir de la mayor parte de los ciudadanos. En este sentido, tal y como refleja este estudio, un 66,6% de los encuestados demanda a los responsables de desarrollo y regulación sobre la IA, asegurar que la privacidad y la protección de datos en relación a su uso. Estos son los puntos más destacados de la nueva Ley.
Primera Ley de Inteligencia Artificial: principales puntos
Prohibiciones
Con el objetivo de proteger los derechos de privacidad de los ciudadanos, la normativa limita el uso de sistemas de identificación biométrica en espacios públicos por parte de las autoridades. Sólo se permitirá en usos específicos y siempre bajo condiciones determinadas y para delitos graves.
Dicho de otra forma, las cámaras de videovigilancia equipadas con sistemas de reconocimiento facial que tan populares son en países como China, no tienen cabida en los países que forman parte de la Unión Europea.
Propiedad Intelectual
Uno de los elementos que más preocupa al legislador es que los modelos de IA sean transparentes y «explicables». Esto implica en primer lugar que tienen que cumplir con la legislación de derechos de autor, lo que supondrá en un futuro el desarrollo de reglamentos que especifiquen de qué forma se compensará a los autores que cedan sus obras para el entrenamiento de los modelos.
Pero además, también se exigirá el poder auditar estos modelos, de modo que la Administración deberá contar con mecanismos sencillos para poder comprobar con qué datos se están entrenando los distintos algoritmos.
Gobernanza y compliance
Las organizaciones que desarrollen sus propios modelos, deberán implementar sistemas de gestión de riesgos específicos para la IA y designar responsables internos para garantizar que se cumpla la normativa.
Además, se exigirá la realización de auditorías periódicas y la presentación de documentación detallada sobre estos sistemas, facilitando así el seguimiento y la supervisión por parte de las autoridades competentes.
Evaluación de impacto
Antes de desplegar sistemas de IA de alto riesgo (por ejemplo, los que se entrenan con datos de los ciudadanos) las empresas deberán realizar evaluaciones de impacto para asegurar que estos modelos son seguros, éticos y que cumplen con la legislación.
Esta documentación estará disponible para auditorías y revisiones externas, promoviendo la transparencia en su aplicación.
Transparencia, supervisión y sanciones
Por último, la normativa establece que los usuarios tendrán derecho a ser informados de manera clara y comprensible sobre las decisiones automatizadas que les afectan, de modo que se garantice la transparencia.
En base a estos principios, la nueva normativa impulsada por la UE establece un marco de sanciones significativas en caso de que organismos y empresas hagan un uso inadecuado de la inteligencia artificial. En este sentido, las multas pueden ir desde los 7,5 millones de euros o el 1,5% de la facturación anual de la compañía, hasta un máximo de 35 millones de euros o el 7% de su volumen de negocio, dependiendo de la gravedad de la infracción. Además se crearán autoridades de supervisión a nivel nacional y comunitario, encargadas de garantizar su cumplimiento.
Está previsto que el próximo 1 de febrero la UE comience a sancionar a las empresas y aplicaciones que no cumplan con aspectos clave de la nueva directiva y, nueve meses después, los desarrolladores que trabajen en el ámbito de la inteligencia artificial deberán adherirse a los códigos de buenas prácticas.
FEEL IT: Horizonte IA
La segunda edición de FEEL IT, el informe sobre percepción tecnológica que cada año elabora evercom y que en esta ocasión se ha desarrollado de la mano de UDIT, nace con la voluntad de comprender cómo la IA se ha integrado en la vida de la ciudadanía, tanto en el espacio personal como en el profesional. No sólo se busca analizar los patrones de uso de estos recursos, sino entender cuáles son las dudas y las expectativas que generan en las personas y compañías.
La recopilación de datos para la elaboración de este informe se ha llevado a cabo a través de dos encuestas online a diferentes grupos de población: ciudadanía y representantes del sector empresarial. El trabajo de campo se desarrolló entre el 2 y el 25 de septiembre de 2024 y se han recopilado las respuestas de 700 personas y 100 perfiles de interés que ocupan puestos de alta dirección o son propietarios de compañías con actividad dentro de España.
