En 2024, la Unión Europea aprobó el Reglamento sobre la Inteligencia Artificial (Artificial intelligence act), con el objetivo de establecer un marco jurídico uniforme para el desarrollo y uso de sistemas de IA. Esta regulación, la primera de su tipo a nivel mundial, busca fomentar las oportunidades que ofrece la tecnología IA, y al mismo tiempo, minimizar sus posibles riesgos.

AI Model Hub
Tu plataforma de IA multimodal segura
  • Una plataforma diseñada para los modelos de IA más potentes
  • Precios justos y transparentes basados en tokens
  • Código abierto, sin vendor lock-in

¿Por qué se introdujo este reglamento?

El Reglamento de la IA de la UE se introdujo con el fin de establecer un marco legal claro y uniforme para el uso de la inteligencia artificial en Europa. La Comisión Europea presentó el primer borrador en abril de 2021 y, tras largas negociaciones, la versión final fue aprobada en enero de 2024. El trasfondo de esta regulación son los rápidos avances tecnológicos en el ámbito de la IA, que ofrecen tanto oportunidades como riesgos considerables. Los desafíos sociales y éticos, como la discriminación provocada por algoritmos sesgados, la falta de transparencia en decisiones automatizadas o el uso indebido de la IA para la vigilancia masiva, exigían con urgencia una regulación legal.

El objetivo del reglamento es fomentar la innovación sin poner en peligro los valores europeos fundamentales como la protección de datos, la seguridad y los derechos humanos. La UE adopta un enfoque basado en el riesgo, en el que las aplicaciones de IA especialmente peligrosas están sujetas a una regulación estricta o incluso pueden ser prohibidas. Al mismo tiempo, el reglamento pretende fortalecer a las empresas europeas en la competencia global, generando confianza y seguridad jurídica.

Clasificación de los sistemas de IA según categorías de riesgo

El reglamento adopta un enfoque basado en el riesgo y clasifica los diferentes sistemas de IA en cuatro categorías:

  1. Riesgo inaceptable: en esta categoría se incluyen todos los sistemas de IA que se consideran una amenaza para la seguridad, los medios de subsistencia o los derechos de las personas. Estos sistemas están prohibidos. Ejemplos de ello son los sistemas de social scoring, es decir, la evaluación del comportamiento o la personalidad de individuos por parte de las entidades estatales, o los sistemas de IA que se pueden usar para el reconocimiento facial en espacios públicos sin consentimiento.
  2. Alto riesgo: estos sistemas están permitidos, pero están sujetos a estrictos requisitos y conllevan amplias obligaciones para los proveedores y operadores de los sistemas. A esta clase de riesgo pertenecen, por ejemplo, los sistemas de IA en infraestructuras críticas, como en el sector del transporte para garantizar la seguridad. También la IA en la gestión de personal, que influye en decisiones sobre contrataciones o despidos, está sujeta a requisitos especiales.
  3. Riesgo limitado / Riesgo de transparencia: la tercera clase de riesgo incluye sistemas de IA con requisitos específicos de transparencia, destinados a la interacción directa con los usuarios. Los usuarios deben ser informados sobre la interacción con dichos sistemas. La mayoría de las IA generativas pertenecen a esta categoría.
  4. Riesgo mínimo: la mayoría de los sistemas de IA pertenecen a la cuarta categoría y no están sujetos a requisitos específicos según el Reglamento sobre la IA de la UE. Ejemplos son los filtros de spam o los personajes controlados por IA en videojuegos.

Requisitos y obligaciones para desarrolladores y proveedores

Para los desarrolladores y proveedores de sistemas de IA, especialmente aquellos con alto riesgo, el Reglamento Europeo sobre la IA establece una serie de requisitos destinados a garantizar que estas tecnologías se utilicen de manera responsable. Estos requisitos abarcan diversos aspectos, incluyendo transparencia, seguridad, precisión, así como la calidad de los datos subyacentes. Su objetivo es conseguir la seguridad y fomentar la confianza en las tecnologías de IA, sin obstaculizar innecesariamente la innovación.

Gestión de riesgos

Las empresas deben implementar un sistema continuo de gestión de riesgos que identifique, evalúe y minimice los peligros potenciales. Esto incluye la revisión periódica del impacto del sistema de IA tanto en las personas como en la sociedad en su conjunto. Se presta especial atención a posibles discriminaciones, sesgos involuntarios en la toma de decisiones y riesgos para la seguridad pública.

Calidad de los datos y evitación de sesgos

Los datos de entrenamiento utilizados para desarrollar un sistema de IA deben cumplir con altos estándares de calidad. Esto significa que deben ser representativos, libres de errores y suficientemente diversos para evitar discriminación y sesgos. Las empresas están obligadas a establecer mecanismos para verificar y corregir sesgos, especialmente cuando la inteligencia artificial se utiliza en ámbitos sensibles como la toma de decisiones de personal o la aplicación de la ley.

Documentación y registros

Los desarrolladores deben crear y mantener una documentación técnica exhaustiva de sus sistemas de IA. Esta documentación no solo debe describir la estructura y el funcionamiento del sistema, sino también hacer comprensibles los procesos de toma de decisiones de la IA. Además, las empresas deben llevar registros sobre el funcionamiento de sus sistemas de IA para permitir un análisis posterior y, en su caso, la corrección de errores.

Transparencia e información al usuario

La ley de la IA establece que los usuarios deben ser informados claramente cuando interactúan con una IA. Por ejemplo, los chatbots o asistentes virtuales deben indicar que no son interlocutores humanos. En los casos en que los sistemas de IA tomen decisiones que tengan un impacto significativo en las personas (como solicitudes de crédito o procesos de selección), las personas afectadas tienen derecho a recibir una explicación sobre cómo se llegó a esa decisión.

Supervisión humana y posibilidades de intervención

Los sistemas de IA de alto riesgo no deben operar de forma completamente autónoma. Las empresas deben garantizar que se integren mecanismos de control humano, de modo que las personas puedan intervenir y corregir el sistema cuando este se comporte de forma errónea o inesperada. Esto es especialmente importante en áreas como el diagnóstico médico o la movilidad autónoma, donde los errores pueden tener consecuencias graves.

Precisión, robustez y ciberseguridad

La ley de IA exige que los sistemas de IA sean fiables y robustos para minimizar errores en la toma de decisiones y riesgos de seguridad. Los desarrolladores deben demostrar que sus sistemas funcionan de manera estable bajo diversas condiciones y que no pueden ser fácilmente afectados por ataques o manipulaciones externas. Esto incluye medidas de ciberseguridad, como la protección contra fugas de datos o la manipulación no autorizada de algoritmos.

Evaluación de conformidad y certificación

Antes de que un sistema de IA de alto riesgo salga al mercado, debe pasar por una evaluación de conformidad que verifique si cumple con todos los requisitos regulatorios. En algunos casos, es necesaria una auditoría externa realizada por un organismo notificado. Este reglamento también contempla una supervisión continua y reevaluaciones periódicas de los sistemas para garantizar que sigan cumpliendo con los estándares.

Impactos y desafíos para las empresas

La ley de IA de la UE crea un marco legal claro para las empresas, diseñado para fomentar la innovación y la confianza en las tecnologías de la IA, pero al mismo tiempo implica un mayor esfuerzo en cuanto a cumplimiento normativo, ajustes técnicos y estrategias de mercado. Las empresas que desarrollan o utilizan tecnologías de IA deben abordar a fondo las nuevas disposiciones para evitar riesgos legales y mantener su competitividad a largo plazo.

Costes más altos y carga burocrática

Uno de los mayores desafíos para las empresas son los costes adicionales derivados del cumplimiento de las nuevas normativas. Especialmente para los proveedores y usuarios de sistemas de IA de alto riesgo, se requieren medidas extensas que implican inversiones en nuevas tecnologías, personal cualificado y, posiblemente, también en consultores externos o entidades auditorias. En particular, las pequeñas y medianas empresas (PYMES) podrían tener dificultades para reunir los recursos financieros y humanos necesarios para cumplir con todos los requisitos regulatorios.

Las empresas que no cumplan con las normativas se arriesgan a sanciones elevadas, de forma similar a los que ya ocurre con el Reglamento General de Protección de Datos (RGPD).

Fomento de la innovación

A pesar de las regulaciones adicionales, el reglamento puede contribuir a largo plazo a fortalecer la confianza en los sistemas de IA y a promover la innovación. Las empresas que se adapten pronto a las nuevas disposiciones y desarrollen soluciones de IA transparentes, seguras y éticas pueden obtener una ventaja competitiva.

La introducción de reglas claras crea un marco legal uniforme dentro de la UE que reduce las incertidumbres en el desarrollo y uso de la IA. Esto facilita a las empresas comercializar sus tecnologías en toda la UE sin tener que enfrentarse a diferentes normativas nacionales. Además, el Reglamento Europeo sobre la IA es uno de los primeros de sus características en el mundo y establece altos estándares. Las empresas que los cumplan pueden posicionarse como proveedores confiables en el mercado y obtener así una ventaja frente a competidores que están sujetos a regulaciones menos estrictas.

Efecto extraterritorial e impacto en empresas internacionales

La ley de IA no afecta únicamente a las empresas con sede en la UE, sino también a compañías internacionales que ofrezcan sistemas de IA en la Unión Europea o que utilicen datos recopilados en territorio europeo para aplicaciones de IA. Esto significa, por ejemplo, que una empresa estadounidense que ofrezca un software de selección de personal basado en IA en la UE deberá cumplir con la normativa europea.

Este efecto extraterritorial obliga a muchas empresas fuera de la UE a adaptar sus productos y servicios a los nuevos estándares si desean operar en el mercado europeo. Aunque esto podría conducir a un enfoque más uniforme a nivel global en cuanto a la regulación de la IA, también podría suponer un obstáculo para que empresas no europeas accedan al mercado de la UE.

También existe el temor de que las empresas europeas puedan quedar rezagadas a nivel internacional debido a esta regulación. Mientras que en países como Estados Unidos o China la innovación en IA suele avanzar con pocas restricciones, las estrictas normativas de la UE podrían hacer que las empresas europeas desarrollen e implementen nuevas tecnologías más lentamente. Esto podría suponer un desafío especialmente para las startups y las pequeñas y medianas empresas (PYMES), que deben competir con gigantes tecnológicos que cuentan con recursos mucho mayores.

Herramientas de IA
Aprovecha al máximo la inteligencia artificial
  • Crea tu página web en tiempo récord
  • Impulsa tu negocio gracias al marketing por IA
  • Ahorra tiempo y obtén mejores resultados
¿Le ha resultado útil este artículo?
Ir al menú principal