Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
Desde el 2 de agosto de 2025, los proveedores de modelos de inteligencia artificial de propósito general (GPAI, por sus siglas en inglés) en la Unión Europea deben cumplir nuevas obligaciones establecidas por la Ley de Inteligencia Artificial (AI Act), diseñada para aumentar la transparencia, seguridad y responsabilidad en estos sistemas tecnológicos clave.
La normativa afecta especialmente a los proveedores que desarrollan modelos de IA con capacidad de generar lenguaje y entrenados con más de 10^23 operaciones de coma flotante (FLOP).
¿Qué implica la nueva regulación?
Las obligaciones recientemente aplicadas buscan garantizar que la IA que se implementa en el mercado europeo cumpla con ciertos criterios técnicos, legales y éticos. La Unión Europea busca, con estas medidas, proteger los derechos fundamentales, mejorar la transparencia y asegurar la seguridad cibernética de los sistemas basados en modelos GPAI, que constituyen la base tecnológica para un amplio espectro de aplicaciones, desde chatbots hasta sistemas avanzados de generación multimedia.
La regulación establece dos niveles de obligaciones claramente diferenciadas según el potencial de riesgo asociado a cada modelo. Aquellos sistemas catalogados como de riesgo sistémico (entrenados con más de 10^25 FLOP) deberán cumplir requisitos adicionales, entre ellos informar directamente a la Comisión Europea sobre su desarrollo, evaluar y mitigar riesgos, reportar incidentes y garantizar medidas específicas de ciberseguridad.
Herramientas prácticas para el cumplimiento normativo
Para facilitar la aplicación efectiva de la normativa, la Comisión Europea ha presentado una serie de documentos y herramientas dirigidas a los proveedores de estos modelos. Entre ellos destacan unas directrices detalladas para determinar quién está obligado a cumplir estas reglas, así como una plantilla específica para realizar un resumen público del contenido utilizado en el entrenamiento de los modelos GPAI.
Además, se ha validado oficialmente el Código de Buenas Prácticas para GPAI, una herramienta voluntaria elaborada por expertos independientes para ayudar a las empresas a demostrar su cumplimiento con la normativa europea, simplificando así la tarea regulatoria y aumentando la seguridad jurídica.
¿En qué consisten exactamente las nuevas obligaciones?
La normativa del AI Act establece claramente obligaciones básicas aplicables a todos los proveedores de modelos GPAI:
- Documentación técnica: Cada proveedor debe generar y mantener actualizada una documentación técnica completa que refleje de manera detallada el funcionamiento del modelo.
- Política de derechos de autor: Las empresas están obligadas a implementar políticas específicas que aseguren el respeto a los derechos de propiedad intelectual según la normativa europea.
- Transparencia de los datos: Los proveedores deberán publicar un resumen público con información detallada sobre los datos empleados durante el entrenamiento de sus modelos.
Para aquellos modelos GPAI considerados de riesgo sistémico, la regulación prevé obligaciones adicionales, como realizar evaluaciones profundas de los riesgos potenciales, notificar incidentes graves inmediatamente y poner en práctica estrictas medidas de seguridad cibernética.
Exenciones para el software libre
Un aspecto destacable del marco normativo europeo es el tratamiento especial que reciben los modelos GPAI publicados bajo licencias abiertas. Las directrices de la Comisión especifican que aquellos modelos lanzados como software libre, que cumplan ciertas condiciones de transparencia establecidas, podrían estar exentos de algunas obligaciones específicas de la ley. Esto busca incentivar el desarrollo abierto y fomentar la innovación en el ecosistema de inteligencia artificial europeo.
El Código de Buenas Prácticas: un mecanismo voluntario clave
El Código de Buenas Prácticas para modelos GPAI es un mecanismo voluntario que, aunque no es legalmente obligatorio, ofrece un marco concreto y práctico para que los proveedores puedan demostrar que cumplen con las obligaciones establecidas por el AI Act. Al firmar y adherirse al código, las empresas simplifican significativamente el proceso regulatorio y aseguran una mejor aceptación legal en el mercado europeo.
Este código está dividido en tres capítulos diferenciados, cada uno orientado a aspectos clave: transparencia, derechos de autor y seguridad. El capítulo de transparencia incluye una plantilla denominada Formulario de Documentación del Modelo, diseñada para facilitar a los proveedores la documentación exigida por la normativa.
Empresas relevantes del sector tecnológico global, como Microsoft, Amazon, Google, OpenAI, IBM y Cohere, ya han firmado este código, manifestando su compromiso con los estándares regulatorios de la Unión Europea.
Calendario de implementación y plazos críticos
La entrada en vigor inmediata del AI Act implica que desde el 2 de agosto de 2025 los nuevos modelos GPAI lanzados al mercado deberán cumplir con estas obligaciones. Para los modelos que ya estaban disponibles antes de esa fecha, el plazo máximo de adaptación es el 2 de agosto de 2027.
A partir del 2 de agosto de 2026, la Comisión Europea comenzará a ejercer activamente sus facultades de supervisión y aplicación de sanciones a quienes no cumplan con las obligaciones establecidas por la regulación.
Recursos para los proveedores afectados
La Comisión Europea ha habilitado una Oficina de Inteligencia Artificial específica (AI Office), encargada de apoyar técnicamente a los proveedores en el proceso de adaptación a la nueva normativa. Aquellas empresas cuyos modelos superen los umbrales definidos como de riesgo sistémico deben notificar obligatoriamente a esta oficina mediante contacto directo en el correo electrónico proporcionado por la Comisión.
La relevancia estratégica de la normativa europea
La entrada en vigor de estas regulaciones posiciona a la Unión Europea como una referencia global en la regulación tecnológica, particularmente en inteligencia artificial. La claridad del marco regulatorio europeo podría tener implicaciones significativas en las decisiones de inversión e innovación del sector tecnológico mundial en los próximos años.
Las nuevas reglas sobre inteligencia artificial buscan garantizar que el desarrollo tecnológico se produzca en consonancia con los valores europeos fundamentales, respetando los derechos individuales, asegurando la transparencia en el uso de los datos y promoviendo el desarrollo tecnológico sostenible desde un punto de vista ético y legal.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
