top of page
Foto del escritorJose Cruset

Normativa de la UE sobre inteligencia artificial: una guía para directivos


La Unión Europea ha ultimado su Ley de Inteligencia Artificial (Ley de IA de la UE), un amplio texto legislativo diseñado para regular los sistemas de IA en el mercado de la UE. Esta Ley, la primera (y hasta ahora única) de su clase a escala mundial, pretende equilibrar el inmenso potencial de la IA con la necesidad de mitigar sus riesgos inherentes, garantizando que su desarrollo y uso se ajusten a los valores y derechos fundamentales europeos. Esta entrada de blog sirve de guía para que los líderes empresariales comprendan las implicaciones de la Ley de IA de la UE y preparen a sus empresas para su promulgación.


Ámbito y cobertura

La Ley de la IA de la UE adopta un enfoque basado en el riesgo, clasificando los sistemas de IA en cuatro niveles de riesgo (artículo 6 y anexo III): inaceptable, alto, limitado y mínimo.


  • Riesgo inaceptable (artículo 5): Los sistemas de IA que planteen riesgos inaceptables están estrictamente prohibidos. Esto incluye los sistemas manipuladores o explotadores, el tanteo social por parte de las autoridades públicas y la identificación biométrica remota en tiempo real en espacios de acceso público, salvo en situaciones policiales específicas y estrictamente definidas (artículo 5.1.h)). Estas prohibiciones reflejan el compromiso de la UE con los derechos fundamentales y los valores democráticos.


  • Alto riesgo (artículo 6 y anexo III): Los sistemas de IA identificados como de alto riesgo están sujetos a requisitos estrictos antes de poder ser comercializados, puestos en servicio o utilizados. En esta categoría se incluyen los sistemas de IA utilizados en infraestructuras críticas, educación y formación profesional, empleo, acceso y disfrute de servicios esenciales (incluida la seguridad social y la calificación crediticia), aplicación de la ley, gestión de migraciones, asilo y control de fronteras, y administración de justicia. Estos sistemas exigen evaluaciones de conformidad (artículo 43), sistemas de gestión de la calidad (artículo 17), documentación técnica (artículo 11) y seguimiento posterior a la comercialización (artículo 72), entre otras obligaciones. Los anexos específicos detallan estos requisitos.


  • Riesgo limitado (artículo 52): Los sistemas de IA que plantean un riesgo limitado, principalmente aquellos con obligaciones de transparencia, como los chatbots, deben informar claramente a los usuarios de que están interactuando con un sistema de IA (artículo 50.1). Esto garantiza el consentimiento informado y la transparencia en las interacciones de IA.


  • Riesgo mínimo (implícito): La mayoría de los sistemas de IA actualmente en uso entran dentro del riesgo mínimo y se enfrentan a pocos requisitos reglamentarios. Este enfoque garantiza que la Ley no ahogue la innovación en áreas de bajo riesgo.


Implicaciones clave para las empresas

Si su empresa desarrolla, implanta o distribuye sistemas de IA en la UE, o si los resultados de su sistema de IA se utilizan en la UE, es probable que se vea afectada por la Ley de IA (artículo 2). Esto es lo que necesita saber:


  • Determine el nivel de riesgo de su sistema de IA: El primer paso es evaluar el nivel de riesgo de su sistema de IA en función de su finalidad prevista y su impacto potencial. Utilice los criterios descritos en la Ley de IA y considere la posibilidad de buscar asesoramiento jurídico para casos complejos.


  • Cumplimiento para sistemas de IA de alto riesgo: Si su sistema está clasificado como de alto riesgo, prepárese para importantes esfuerzos de cumplimiento. Esto implica establecer un sólido sistema de gestión de riesgos (artículo 9), garantizar la calidad de los datos y la gobernanza (artículo 10), desarrollar una documentación técnica exhaustiva (artículo 11), implementar mecanismos de supervisión humana (artículo 14) y garantizar la precisión, la solidez y la ciberseguridad (artículo 15). Estos requisitos se aplican independientemente de dónde esté establecida la empresa (artículo 2, apartado 1, letra a)).


  • Transparencia para los sistemas de riesgo limitado: Para los sistemas de riesgo limitado, garantice la transparencia en sus interacciones con IA informando claramente a los usuarios de que están interactuando con un sistema de IA. Esta sencilla medida fomenta la confianza y evita posibles problemas legales.


  • Exenciones: La Ley de IA exime a los sistemas de IA desarrollados y utilizados exclusivamente para la investigación y el desarrollo científicos (artículo 2, apartado 6) y la seguridad nacional o con fines militares (artículo 2, apartado 4). Sin embargo, si estos sistemas se reconvierten posteriormente para usos civiles u otros que entren en el ámbito de aplicación de la Ley, quedarán sujetos a la normativa correspondiente.


  • Modelos de IA de uso general: Los proveedores de modelos de IA de propósito general, en particular aquellos con riesgos sistémicos, se enfrentan a obligaciones específicas en materia de transparencia (artículo 53), documentación (artículo 53.1.a)) y mitigación de riesgos (artículo 55). Estos modelos se distinguen de los sistemas de IA propiamente dichos (artículo 97), y sus obligaciones se aplican una vez que los modelos se comercializan.


Calendario de aplicación

La Ley de IA de la UE entrará en vigor gradualmente, dando tiempo a las empresas para adaptarse:


  • 2025: Los elementos fundamentales de la Ley, incluida la clasificación de riesgos y los requisitos básicos de transparencia, entrarán en vigor a principios de 2025. En ese momento, las empresas deberán tener implantados sus protocolos de clasificación de riesgos.


  • 2026: Los requisitos de cumplimiento de la IA de alto riesgo, como la documentación, la supervisión humana y la gestión de datos, entrarán en vigor a mediados de 2026. Para entonces, las empresas que utilicen IA de alto riesgo deberán tener listos los mecanismos de cumplimiento y la documentación.


  • 2027: Se espera que todas las disposiciones restantes, incluidas las auditorías periódicas y los requisitos de supervisión continua de los datos, entren en vigor en 2027. Para entonces, las empresas deberán cumplir plenamente la normativa, asegurándose de que mantienen registros y pueden soportar una auditoría.


UE: Regular demasiado e invertir poco

La Ley de Inteligencia Artificial de la UE es otro ejemplo de exceso de regulación. (El objetivo de estos requisitos de cumplimiento para los sistemas de alto riesgo es contribuir al desarrollo de soluciones de IA sólidas, fiables y éticas. Aunque la Ley de IA de la UE pretende fomentar el desarrollo responsable de la IA, es innegable que su estricto marco normativo crea cargas y costes sustanciales para las empresas, especialmente las PYME y las nuevas empresas. Los amplios requisitos de cumplimiento, incluidas las evaluaciones de conformidad, los sistemas de gestión de calidad y la supervisión continua, exigen importantes recursos financieros y humanos. El Center for Data Innovation calcula que la Ley de IA de la UE costará a las empresas europeas 10 900 millones de euros al año. Este aumento de los gastos generales podría ahogar la innovación y desalentar la inversión en IA dentro de Europa. En consecuencia, las empresas podrían verse incentivadas a trasladar sus actividades de desarrollo y despliegue de IA a regiones con normativas menos estrictas, lo que podría provocar una «fuga de cerebros» de talento e inversión fuera de Europa.

Este cambio podría socavar el propósito de la Ley, creando un panorama global de IA fragmentado por diferentes niveles de consideraciones éticas y normas de seguridad. Para terminar, Emmanuel Macron dijo en octubre de 2024:"Estamos regulando demasiado e invirtiendo poco. Sólo en los próximos 2 o 3 años, si seguimos nuestra agenda clásica, estaremos fuera del mercado. No tengo ninguna duda».


1 visualización0 comentarios

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page