Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
Los derechos digitales han dejado de ocupar un espacio reservado a juristas, tecnólogos y especialistas en privacidad. Durante dos días, Barcelona concentró un debate más amplio, y también más incómodo, sobre cómo se reparten el poder, la responsabilidad y los riesgos en una sociedad cada vez más mediada por plataformas, algoritmos e inteligencia artificial. El I Encuentro Internacional por los Derechos Digitales, impulsado por el Gobierno de España y Mobile World Capital Barcelona en el marco del Observatorio de Derechos Digitales, reunió los días 13 y 14 de mayo a más de un centenar de ponentes, con una pregunta de fondo que atravesó casi todas las intervenciones: qué ocurre cuando derechos concebidos para el espacio físico dependen ahora de infraestructuras privadas, opacas y globales.
La apertura institucional situó el debate en esa dimensión. El presidente del Gobierno, Pedro Sánchez, intervino con un mensaje grabado en el que defendió la necesidad de actuar para que «los derechos sean tan sólidos en el espacio digital como lo son en el físico». No lo planteó como una cuestión técnica, sino como una condición para la convivencia democrática en un momento en el que, según afirmó, «el paradigma de la confianza ha cambiado para siempre» y está en juego «nuestro derecho a una realidad veraz».

La secretaria de Estado de Digitalización e Inteligencia Artificial, María González Veracruz, insistió en que el encuentro no debía leerse como una cita cerrada de especialistas, sino como un espacio abierto a familias, docentes, sociedad civil y ciudadanía. La idea se repitió de distintas formas durante las dos jornadas: la digitalización ya no puede abordarse solo como productividad, innovación o competitividad. También afecta a la infancia, a la formación de la opinión pública, a la salud mental, a la soberanía de los Estados y a la capacidad real de los ciudadanos para conocer y ejercer sus derechos.

Barcelona aportó además una dimensión económica al debate. La consellera d’Economia i Finances de la Generalitat de Catalunya, Alícia Romero, recordó que Catalunya cuenta con 18.000 empresas del ámbito digital que generan más de 40.000 millones de euros en facturación. Jordi Valls, teniente de alcaldía de Economía, Vivienda, Hacienda y Turismo del Ayuntamiento de Barcelona, vinculó esa trayectoria con una ciudad que hace dos décadas decidió tomar posición en la revolución digital. El punto sensible, sin embargo, no está solo en tener industria tecnológica, sino en decidir bajo qué reglas opera.
Derechos digitales, algoritmos y desinformación
La primera jornada, celebrada el 13 de mayo, puso el foco en la arquitectura de las plataformas. Yael Eisenstat, experta en políticas tecnológicas y exdirectiva de Facebook, abrió la programación con una advertencia directa sobre el papel de los algoritmos en la democracia. «Mientras los algoritmos se diseñen para engancharnos se seguirá fomentando la desinformación», afirmó. Su argumento no descansó en una denuncia genérica de internet, sino en la estructura económica que sostiene buena parte de las redes sociales: cuanto más emocional, sensacionalista o polarizante es un contenido, más interacción puede generar; y cuanto más tiempo retiene la atención, más valor publicitario produce.

Eisenstat subrayó que las plataformas no son canales neutrales. Deciden qué cuentas se amplifican, cuáles quedan silenciadas y qué mensajes alcanzan visibilidad pública. Esa intermediación tiene consecuencias políticas, sobre todo cuando la recomendación algorítmica premia dinámicas de indignación o pertenencia tribal. La desinformación, recordó, no nació con internet. Lo distinto es la escala, la velocidad y el sistema de incentivos.
La experta extendió el análisis a la inteligencia artificial. A su juicio, las grandes tecnológicas recurren a lo que denominó el «mito del excepcionalismo tecnológico»: prometer un futuro inevitablemente mejor para desplazar el debate sobre responsabilidad, rendición de cuentas y regulación. Eisenstat reconoció que usa algunas herramientas de IA, aunque con cautela, y explicó que no les concede acceso a elementos sensibles como calendario o correos electrónicos. La advertencia remitía a una lógica conocida, pero aún vigente: cuando un servicio es gratuito, el usuario no siempre es cliente; a menudo es fuente de datos, segmentación y predicción.
El periodista y escritor Cory Doctorow aportó otra capa al diagnóstico con el concepto de «enshittification», que describe el proceso por el cual una plataforma inicialmente útil acaba degradando la experiencia de sus usuarios mientras aumenta la extracción de valor. Doctorow lo formuló como una pérdida gradual de control: los usuarios quedan atrapados en ecosistemas donde la salida resulta costosa, las condiciones cambian y la confianza se erosiona. Frente a ese modelo, defendió un internet abierto y transparente.
La catedrática Anu Bradford situó el debate en clave geopolítica. Ante un escenario global fragmentado entre el modelo estadounidense, dominado por grandes compañías privadas, y el modelo chino, donde el poder estatal integra la tecnología como herramienta estratégica, Bradford defendió una tercera vía basada en derechos. Su referencia al «efecto Bruselas» apuntó a la capacidad de la Unión Europea para proyectar estándares regulatorios más allá de sus fronteras, al convertir el acceso a su mercado en incentivo para el cumplimiento normativo. No es una fórmula automática. Pero marca una diferencia frente a la resignación tecnológica.

La encuesta que convierte la preocupación en dato
El mismo 13 de mayo se presentó la primera Encuesta sobre percepción social de los derechos digitales en España, elaborada por Fundación «la Caixa», Red.es y Fundación Hermes, en colaboración con la Universitat de Barcelona. El estudio, basado en 2.500 entrevistas y un análisis cualitativo, ofrece un dato de partida difícil de ignorar: el 69% de la ciudadanía considera insuficiente la protección actual de los derechos digitales.
La preocupación se concentra con especial intensidad en los menores. El 95% de los encuestados cree que están poco o nada seguros en internet. El respaldo a medidas concretas también es elevado: un 96% apoya el control parental, un 91% avala fijar una edad mínima para el uso de smartphones y un 96% respalda regular la publicidad dirigida a menores. La percepción social no se limita a una alarma difusa. Reclama instrumentos.
El estudio muestra igualmente una demanda amplia de protección legal en ámbitos centrales de la vida digital. La privacidad y la protección de datos alcanzan un 96% de apoyo como derechos que deben quedar protegidos por ley. La protección frente al acoso, los mensajes de odio y la difamación en plataformas digitales llega al 94%. También aparecen el borrado de información personal disponible en internet, con un 89%; el acceso asequible a la red, con un 81%; la libertad de expresión en plataformas, con un 76%; los algoritmos no discriminatorios, con un 73%; y el derecho a revisión humana de decisiones automatizadas, con un 72%.
Hay, sin embargo, tensiones. El 71% de los encuestados apoya la identificación obligatoria para participar en redes sociales y foros, frente a un 24% que defiende la participación anónima. La demanda de seguridad puede entrar en fricción con derechos asociados a la privacidad, el anonimato legítimo o la protección de colectivos vulnerables. La encuesta también refleja diferencias sociales: un 69% de la población con educación obligatoria se siente poco o nada segura en internet, porcentaje que baja al 35% entre quienes tienen educación superior. La brecha digital no se expresa solo en acceso o habilidades, sino en sensación de protección y capacidad de defensa.
El cierre de la primera jornada, a cargo del secretario de Estado de Juventud e Infancia, Rubén Pérez Correa, recogió esa preocupación. «Si los menores tienen que estar en las redes sociales, no nos valen las plataformas que tenemos hoy», afirmó. La frase condensó una tensión que se repetiría al día siguiente: regular no equivale necesariamente a frenar la innovación, pero aceptar el diseño actual de las plataformas como inevitable supone desplazar el coste hacia familias, docentes y menores.
IA confiable, soberanía y poder
La segunda jornada, el 14 de mayo, elevó el debate a la inteligencia artificial y a la soberanía tecnológica. El ministro para la Transformación Digital y de la Función Pública, Óscar López, conversó con Carissa Véliz, filósofa y profesora de la Universidad de Oxford, bajo el título «Profecía y poder: el futuro de la democracia en la era de la IA». López defendió una alianza con potencias medias para avanzar hacia una tercera vía tecnológica y una IA confiable. Su advertencia fue explícita: si no se actúa, el sur global puede convertirse en «una pila y un archivo» al servicio de un pequeño grupo de compañías.
El ministro presentó los derechos digitales como «una discusión política de primera magnitud». Habló de soberanía, democracia, privacidad, educación, defensa y modelo energético. También trazó una analogía con la crisis financiera de 2008: la desregulación permitió que determinados productos financieros se fueran de las manos, y el riesgo ahora sería llegar tarde ante redes sociales e IA. La regulación bancaria, sostuvo, no destruyó la competitividad del sector; con la inteligencia artificial podría ocurrir algo similar si las reglas generan confianza.
López vinculó esa agenda con iniciativas españolas como la Carta de Derechos Digitales, el Observatorio de Derechos Digitales, la futura regulación sobre mayoría de edad en el uso de redes sociales y el impulso al reglamento europeo de IA, incluyendo la prohibición de sistemas asociados a «deepfakes» sexuales. También defendió la inversión pública en semiconductores, supercomputación, cátedras universitarias de IA, ciberseguridad y gestión de datos, así como la entrada de capital público en pymes tecnológicas para evitar su absorción por grandes plataformas.
Carissa Véliz introdujo una alerta distinta, centrada en la forma en que las predicciones tecnológicas pueden condicionar decisiones humanas. «Obedecemos las predicciones como órdenes camufladas», señaló. También criticó que los sistemas basados en aprendizaje automático tiendan a reproducir patrones del pasado, incluidos sesgos sexistas y racistas. Su planteamiento conectó con una idea presente durante todo el encuentro: la tecnología no se limita a procesar datos, también estructura expectativas, opciones y comportamientos.
Transparencia, publicidad y memoria digital
Frances Haugen, experta en datos y responsable de la publicación de los «Papeles de Facebook», retomó el debate sobre plataformas desde la transparencia y la economía de la atención. «Cuando las plataformas tuvieron que escoger entre seguridad pública y beneficios, escogieron los beneficios», afirmó. Haugen sostuvo que las redes sociales pueden empeorar la experiencia de usuario y seguir generando ingresos si aumentan su capacidad para retener atención. Esa lógica traslada el problema al centro del modelo de negocio, no solo a sus efectos colaterales.
Su propuesta apuntó a los anunciantes. Reclamó que las marcas destinen un 10% de su inversión publicitaria a plataformas que cumplan estándares de transparencia, incluida la publicación de métricas sobre impacto real en usuarios. Entre esas métricas mencionó encuestas periódicas a menores para evaluar adicción, descanso, rendimiento académico o exposición a contenidos no deseados. La presión regulatoria, vino a decir, puede no bastar si el dinero publicitario sigue premiando los mismos incentivos.
Giuliano da Empoli abordó el «caos digital» como una forma de poder. Los datos, la viralidad y la polarización permiten influir en sociedades enteras, no siempre mediante propaganda clásica, sino mediante la intensificación de conflictos, identidades y emociones. Frente al modelo estadounidense, que describió como poderoso pero distópico, y el chino, más consciente de la dimensión de poder, situó a Europa ante un modelo democrático de lo digital y la IA que considera posible, aunque todavía incompleto. Su crítica fue menos legislativa que ejecutiva: «Tenemos leyes y no las estamos aplicando por miedo y temas geopolíticos».
Carl Öhman, investigador del Oxford Internet Institute, abrió otro plano menos presente en el debate público: el legado digital. En las próximas tres décadas, afirmó, 2.200 millones de personas morirán dejando datos tras de sí, y Facebook podría tener más usuarios muertos que vivos hacia 2060. Perfiles, imágenes, grabaciones, rastros biométricos y mensajes privados forman ya una memoria social administrada en gran parte por compañías privadas. La pregunta ya no es solo quién accede a esos datos, sino quién decide qué se conserva, qué se monetiza y cómo se relacionarán las sociedades futuras con su pasado colectivo.
Infancia, nuevas narrativas y responsabilidad operativa
El cierre del encuentro regresó a la infancia y la juventud. No como asunto lateral, sino como prueba de estrés de todo el sistema. Trisha Prabhu presentó ReThink, una aplicación que utiliza IA para prevenir el ciberacoso antes de que ocurra. Albert Beltrán explicó Balance Phone, un teléfono concebido para reducir estímulos y evitar aplicaciones que empujan al consumo automático. Ambas iniciativas comparten una intuición práctica: parte del problema está en el diseño, no solo en el uso individual.
La cineasta Leticia Dolera y el realizador Marc Silver abordaron la construcción de identidad en entornos mediados por algoritmos, comunidades online y narrativas audiovisuales. Dolera fue contundente: «La infancia hay que protegerla: el entorno digital se puede y se debe regular». También afirmó que «el algoritmo no te quiere libre, te quiere esclavo; te quiere enganchado y consumiendo». La frase, más cultural que jurídica, conectó con las advertencias de Eisenstat y Haugen sobre retención de atención, incentivos publicitarios y diseño adictivo.
El encuentro también examinó la responsabilidad de nuevos formatos de entretenimiento digital dirigidos a la Generación Z, con el caso de la Kings League como ejemplo de ecosistema híbrido entre deporte, comunidad, redes sociales y consumo audiovisual. La cuestión no se limita a contenidos concretos. Afecta a los valores que transmiten estos formatos, a la relación con audiencias tempranas y a las obligaciones de quienes operan con comunidades masivas de menores y jóvenes.
La mesa final sobre políticas públicas para una infancia conectada abordó la limitación de acceso a redes sociales, la verificación de edad y el riesgo de que proteger a menores derive en modelos de vigilancia masiva. Laura Ballarín, del Parlamento Europeo, defendió trabajar también «a la ofensiva»: crear alternativas europeas y avanzar hacia una soberanía digital que reduzca vulnerabilidades y dependencias.
Tras dos jornadas, el Encuentro Internacional por los Derechos Digitales cerró su primera edición con más de 100 expertos y cerca de 50 entidades involucradas en la programación de 20 actividades abiertas a la ciudadanía. El reto que queda para administraciones, empresas y sociedad civil no es solo redactar principios. Es convertirlos en normas aplicables, diseños verificables, métricas públicas y responsabilidades asumibles. Ahí se juega buena parte del valor empresarial y democrático de la próxima fase digital: no en prometer tecnologías más potentes, sino en demostrar bajo qué condiciones pueden operar sin debilitar los derechos que dicen ampliar.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
