Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La inteligencia artificial acaba de obtener su primer anclaje legal de carácter internacional y vinculante. Con 455 votos a favor, el Parlamento Europeo ha dado luz verde a la firma del Convenio Marco del Consejo de Europa sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho .
Más que un nuevo engranaje en la densa arquitectura legislativa de Bruselas, el movimiento busca exportar el modelo de valores europeo a escala global, involucrando a potencias como Estados Unidos, Canadá o Japón. Los directivos y profesionales del sector tecnológico en España se enfrentan ahora al reto de descifrar la integración de este marco con la ya conocida AI Act y el margen de maniobra real que permitirá a la actividad privada en un entorno de vigilancia reforzada.
El texto aprobado en Estrasburgo establece una base mínima de gobernanza que afecta tanto a las autoridades públicas como a los actores privados que actúen en su nombre. Sin embargo, el alcance para las empresas va más allá de la gestión pública. Según recoge el posicionamiento parlamentario, las entidades del sector privado mantienen la responsabilidad de abordar los riesgos derivados de la IA siguiendo los objetivos del convenio, aunque se les permite cierta flexibilidad para aplicar las obligaciones de forma directa o mediante otros mecanismos que garanticen una protección equivalente. Esta asimetría en la implementación sugiere que, si bien el tratado marca el suelo ético, el techo operativo seguirá definido por la normativa interna de cada mercado.
En el caso de la Unión Europea, la convivencia entre este tratado y la AI Act resulta armónica pero desigual en cuanto a profundidad. Mientras el convenio internacional busca un consenso global sobre transparencia y supervisión, la legislación europea ya establece requisitos mucho más estrictos en gobernanza de datos, ciberseguridad y prohibición de prácticas inaceptables. Para el tejido empresarial español, esto significa que el cumplimiento del reglamento europeo (AI Act) garantiza, por defecto, la observancia de este nuevo tratado internacional. La relevancia reside en la seguridad jurídica que aporta a las empresas con proyección exterior, ya que se enfrentarán a entornos normativos alineados en mercados clave como el británico o el estadounidense, también firmantes del acuerdo.
José Cepeda, co-ponente del Parlamento Europeo, subraya que la conclusión de este marco muestra el compromiso de la Unión con un despliegue seguro de la tecnología. En su análisis, el eurodiputado destaca que liderar esta revolución tecnológica con valores democráticos en el centro demuestra que la inteligencia artificial debe servir a las personas y fortalecer las sociedades abiertas. Esta visión no es solo una declaración de principios, sino que intenta asentar un modelo de crecimiento económico estable y previsible, algo que el Parlamento respalda como vía para evitar la fragmentación del mercado digital.
El desarrollo de este convenio, que comenzó sus negociaciones en septiembre de 2022, ha contado con la participación de la Comisión Europea actuando en representación del bloque. El resultado es un documento que no solo se alinea con la AI Act, sino que se entrelaza con el Reglamento General de Protección de Datos (RGPD) y las leyes de no discriminación de la Unión. Existe una intención clara de que los sistemas de IA no solo sean eficientes, sino auditables durante todo su ciclo de vida. Esta trazabilidad impone a los directores de tecnología (CTO) y responsables de cumplimiento un reto de documentación constante, donde el riesgo ya no se evalúa solo en términos de fallo técnico, sino de impacto social y democrático.
A diferencia de otros acuerdos internacionales de carácter voluntario, este tratado es jurídicamente exigible. Sin embargo, surge una tensión inherente a su aplicación global. Al permitir que los actores privados puedan alcanzar la protección por «otros medios», el convenio abre la puerta a interpretaciones nacionales variadas. En contraste con la rigidez del mercado común, esta flexibilidad es la que ha permitido que países con culturas regulatorias distintas, como Israel o Ucrania, se sumen a la firma. Para las tecnológicas españolas que operan en estos territorios, esto se traduce en una base de cumplimiento compartida, reduciendo las barreras de entrada técnicas relacionadas con la ética algorítmica.
Paulo Cunha, también co-ponente en el proceso, insiste en que el modelo europeo se fundamenta en la dignidad humana y la rendición de cuentas. Según el análisis presentado ante el Pleno, este enfoque busca evitar que la innovación se perciba como una amenaza a las instituciones. Pese a este optimismo institucional, el sector tecnológico observa con cautela la acumulación de capas regulatorias. Aunque el convenio es consistente con las normas de seguridad de productos y publicidad política de la UE, la saturación de marcos de supervisión podría generar fricciones en la agilidad de las startups frente a competidores de regiones no firmantes.
La implementación práctica del tratado establece salvaguardias para proteger el Estado de Derecho, un aspecto que cobra especial relevancia ante el uso de algoritmos en la administración de justicia o la gestión de servicios públicos esenciales. Las autoridades públicas españolas, al igual que sus homólogas europeas, deberán asegurar que cualquier sistema de IA utilizado en procesos de decisión crítica sea transparente y esté sujeto a supervisión humana efectiva. Este requisito de auditabilidad no es opcional y afectará a todos los proveedores tecnológicos que liciten con la administración.
El camino hacia la ratificación final queda ahora en manos del Consejo, que debe concluir el acuerdo tras este respaldo parlamentario. La rapidez del proceso refleja una urgencia geopolítica por fijar las reglas del juego antes de que la tecnología evolucione hacia formas de inteligencia general más complejas y difíciles de fiscalizar. No obstante, queda por ver cómo se resolverán las disputas en caso de que un país firmante interprete de forma laxa la responsabilidad de sus empresas privadas.
La firma de este Convenio Marco del Consejo de Europa no cierra el debate sobre la gobernanza de la inteligencia artificial; más bien lo traslada a un nuevo tablero internacional. Con la entrada de nuevos signatarios y la evolución de las capacidades de los modelos de lenguaje y sistemas autónomos, el equilibrio entre la protección de derechos y el fomento de la competitividad industrial sigue siendo una incógnita. El sector tecnológico en España se encuentra ahora ante un marco de certidumbre mayor, pero también ante la exigencia de elevar sus estándares de riesgo para cumplir con una norma que ya no entiende de fronteras nacionales.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
