Estás leyendo
Código de conducta UE para etiquetar contenido de IA

Código de conducta UE para etiquetar contenido de IA

  • La Comisión Europea publica el primer borrador del código de conducta para marcado y etiquetado de contenido de IA generada, previsto para cerrarse en junio de 2026.
Inteligencia artificial - La Ecuación Digital

La Comisión Europea ha dado un primer paso hacia la normalización del marcado y etiquetado de contenido de IA generada con la publicación del borrador inicial del  Código de Conducta sobre marcado y etiquetado de contenido generado por inteligencia artificial . El documento llega con un calendario definido: la versión final se espera para junio de 2026 y las obligaciones legales de transparencia comenzarán a aplicarse el 2 de agosto de ese mismo año.

El Código de Conducta se articula como una pieza auxiliar del Reglamento de IA, en particular del artículo 50, que establece obligaciones específicas de transparencia para proveedores y usuarios de sistemas generativos. Según este artículo, los proveedores deberán marcar el contenido generado o manipulado por sus sistemas en un formato legible por máquina, mientras que los usuarios que desplieguen estos sistemas en contextos profesionales deberán etiquetar claramente los deepfakes y los textos generados por IA cuando traten asuntos de interés público.

Lo relevante, desde la perspectiva empresarial, es que este Código de Conducta se define como voluntario, pero funcionará en la práctica como una referencia técnica y organizativa para demostrar cumplimiento futuro. La Comisión ha encargado su redacción a un grupo de expertos independientes y se limita a facilitar el proceso, consciente de que el sector necesita tiempo y estándares comunes antes de que las obligaciones entren formalmente en vigor.

El borrador se estructura en dos grandes bloques. El primero se centra en las reglas para el marcado y la detección de contenido de IA generada, orientadas a proveedores de sistemas de IA generativa. El segundo se dirige a quienes despliegan estos sistemas, y aborda el etiquetado de deepfakes y de determinados textos generados o manipulados que aborden cuestiones de interés público.

Para los proveedores de modelos y plataformas generativas, el primer bloque apunta a un futuro en el que el marcado técnico de la IA generada será parte del diseño del producto. El artículo 50 del Reglamento de IA ya indica que el contenido deberá ser identificable de forma automática, lo que remite a técnicas como metadatos incrustados, marcas digitales persistentes o métodos de watermarking robusto. El borrador del Código no tiene carácter normativo, pero sirve como campo de pruebas para esas soluciones.

Este enfoque abre una tensión evidente: por un lado, el marcado debe ser suficientemente estable para resistir transformaciones y republicaciones; por otro, no puede introducir distorsiones visibles ni afectar de manera significativa al rendimiento de los sistemas. Para grandes plataformas de generación de texto, imagen, audio o vídeo, el reto será técnico, pero también de gobernanza, ya que deberán coordinar sus prácticas con estándares sectoriales y, previsiblemente, con otras jurisdicciones.

El segundo bloque del borrador se dirige a los desplegadores de sistemas de IA generativa, es decir, a organizaciones que utilizan estas herramientas en su actividad profesional. A diferencia de los proveedores, que deben centrarse en el marcado en origen, estos usuarios tendrán que asumir la responsabilidad de informar claramente cuando utilicen deepfakes o contenido textual generado por IA en contextos donde la precisión y la confianza pública son especialmente sensibles.

La referencia del Reglamento de IA a los asuntos de interés público es deliberadamente amplia. Incluye, previsiblemente, comunicación política, informativa, institucional y comercial cuando tenga impacto en la opinión pública o en la toma de decisiones colectivas. Para empresas, medios y administraciones, esto anticipa protocolos internos de etiquetado visible, avisos contextuales y, en algunos casos, trazabilidad interna del contenido generado por IA.

Aunque el Código de Conducta es voluntario, su calendario está claramente marcado. La Comisión recogerá comentarios sobre este primer borrador hasta el 23 de enero de 2026, de los participantes y observadores implicados en el proceso. Sobre esa base se elaborará una segunda versión a mediados de marzo de 2026 y, salvo cambios de rumbo, el texto final se cerrará en junio de ese mismo año.

El margen de tiempo no es casual. Las normas de transparencia relativas al contenido de IA generada comenzarán a aplicarse el 2 de agosto de 2026, de manera que el Código se perfila como una herramienta de transición. Permitirá a empresas y organizaciones testar procedimientos, formatos técnicos y políticas internas, antes de que la supervisión regulatoria adquiera un carácter plenamente vinculante.

Para el tejido empresarial tecnológico, incluyendo a las compañías establecidas en España, este tipo de código plantea preguntas muy concretas. Cómo se implementará el marcado legible por máquina en ecosistemas complejos donde intervienen múltiples proveedores. Qué responsabilidad recae en integradores, revendedores o desarrolladores que ajustan modelos base a contextos sectoriales. O hasta qué punto los estándares que emanen de este proceso europeo convergerán con las prácticas que se están definiendo en Estados Unidos y en foros internacionales.

En el ámbito de los deepfakes, el impacto potencial sobre plataformas de contenidos, medios y empresas de marketing digital es directo. El borrador delimita la necesidad de etiquetar de forma clara y visible las piezas generadas o manipuladas, lo que obligará a revisar flujos de publicación, contratos con proveedores de contenido y, posiblemente, sistemas de moderación automatizada. A menudo, estos actores ya utilizan herramientas de detección, pero el salto ahora va hacia la transparencia estructurada, no solo hacia la mitigación del riesgo reputacional.

Te puede interesar
Comercio online - Ventas

La referencia explícita a la detección de contenido de IA en el primer bloque del Código introduce otra línea de trabajo: el desarrollo de tecnologías capaces de identificar, con márgenes de error razonables, si un texto, imagen o vídeo es de origen sintético. Esto conecta con un debate técnico complejo. La detección fiable es difícil cuando los modelos mejoran y los atacantes adaptan sus estrategias, y no está claro todavía qué grado de exactitud será exigible en la práctica regulatoria.

Para las organizaciones que operan en sectores regulados, como servicios financieros, sanidad o infraestructuras críticas, el Código de Conducta puede convertirse en un instrumento de referencia para auditorías internas y evaluaciones de impacto. Aunque no tiene el peso jurídico del Reglamento de IA, sí funcionará como indicador de diligencia debida. Adoptar tempranamente algunas de sus recomendaciones podría ayudar a documentar el cumplimiento cuando entren en vigor las obligaciones formales.

El carácter voluntario del Código también abre la puerta a dinámicas de señalización. Grandes plataformas y proveedores de IA podrían adherirse tempranamente para mostrar alineamiento con el regulador y condicionar, de facto, los estándares técnicos del mercado. Empresas más pequeñas, en cambio, podrían ver en estas obligaciones un coste de implementación difícil de asumir si no se consolidan herramientas compartidas o servicios de marcado y etiquetado integrados en las propias plataformas.

El calendario marcado por la Comisión deja poco margen para la inacción. En algo más de un año y medio, los operadores que ofrezcan o usen sistemas de IA generativa a escala tendrán que ser capaces de demostrar cómo marcan, etiquetan y comunican el uso de estos sistemas cuando generan o manipulan contenido. No se trata solo de un ejercicio tecnológico, sino de rediseñar la cadena de confianza que rodea a la información digital.

En paralelo, el debate sobre el alcance de los “asuntos de interés público” y sobre los límites del etiquetado visual y técnico seguirá abierto. Empresas, reguladores y sociedad civil tendrán que ajustar expectativas y mecanismos prácticos. El Código de Conducta, tal y como se ha planteado, actuará como laboratorio normativo previo a la aplicación plena del Reglamento de IA, donde se pondrá a prueba hasta qué punto el marcado y el etiquetado de contenido de IA generada puede convertirse en una capa estable de la infraestructura informativa europea.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad