Estás leyendo
La soberanía del algoritmo: el pulso entre Anthropic y el Pentágono por el control de Claude

La soberanía del algoritmo: el pulso entre Anthropic y el Pentágono por el control de Claude

  • Anthropic se enfrenta al Pentágono al negarse a eliminar las restricciones éticas de Claude AI para vigilancia masiva y uso en armas autónomas en EE. UU.
Dario Amodei, Anthropic - Hernán Rodríguez

El sector tecnológico asiste a un escenario sin precedentes donde la ética corporativa y la razón de Estado han colisionado frontalmente. La decisión de Anthropic de rechazar las exigencias del Departamento de Defensa de los Estados Unidos (DoD) para eliminar las restricciones de su modelo de inteligencia artificial, Claude, no es solo un conflicto contractual.

Representa la primera gran fractura entre los desarrolladores de modelos de frontera y una administración que busca integrar la IA en el núcleo de su capacidad ofensiva y de vigilancia. La negativa, expresada por el CEO Dario Amodei en una comunicación pública el 26 de febrero de 2026, sitúa a la compañía en una posición de vulnerabilidad legal y financiera frente a amenazas que incluyen el uso de la Ley de Producción de Defensa (DPA).

El núcleo de la disputa reside en dos líneas rojas que Anthropic se niega a cruzar: el uso de sus sistemas para la vigilancia masiva doméstica y la integración en armas totalmente autónomas. Según recoge la cabecera The Atlantic, el Secretario de Defensa, Pete Hegseth, ha condicionado la continuidad del contrato de 200 millones de dólares a la eliminación de estas salvaguardas. La respuesta de Amodei ha sido taxativa, argumentando que la tecnología actual no es lo suficientemente fiable para delegar decisiones de vida o muerte en el campo de batalla, y que el uso de la IA para monitorizar a la población civil socava los valores democráticos que la propia defensa nacional pretende proteger.

Esta confrontación surge en un momento de máxima tensión regulatoria. Mientras que Anthropic sostiene que ha colaborado proactivamente con la comunidad de inteligencia y los Laboratorios Nacionales, el Pentágono ha endurecido su postura bajo una premisa de «máxima letalidad». La contradicción dialéctica es evidente: por un lado, Defensa amenaza con calificar a Anthropic como un «riesgo para la cadena de suministro», una etiqueta reservada habitualmente para empresas vinculadas a adversarios extranjeros como China; por otro, pretende invocar la DPA para intervenir el software, reconociendo implícitamente que Claude es un activo esencial para la seguridad nacional.

Sin embargo, para los directivos y empresarios del sector en España, este conflicto trasciende la geopolítica estadounidense. Lo que está en juego es la autonomía de los proveedores de servicios en la nube y modelos fundacionales frente a las demandas de los Estados. Si el Pentágono logra forzar la eliminación de estas restricciones, se sentará un precedente donde el código de ética de una empresa tecnológica queda subordinado a las necesidades operativas del Gobierno de turno, eliminando la capacidad de las tecnológicas de imponer límites de uso a sus propios productos.

El dilema de la autonomía y el riesgo operativo

La postura de Anthropic no se basa únicamente en un idealismo ético, sino en una evaluación técnica de riesgos. Amodei ha señalado que los sistemas de IA de frontera aún presentan lagunas de fiabilidad que podrían poner en peligro tanto a civiles como a los propios combatientes si se eliminan los controles humanos. En contraste con la narrativa de otras firmas de defensa como Palantir o Anduril, que han abrazado la integración militar sin las mismas reservas públicas, Anthropic intenta mantener una distinción clara entre el apoyo a misiones de inteligencia y la automatización del combate.

La empresa ha revelado que incluso renunció a cientos de millones de dólares en ingresos para evitar que entidades vinculadas al Partido Comunista Chino utilizaran su tecnología. Esta trayectoria de autolimitación choca ahora con la nueva directiva del Pentágono, que exige a los contratistas aceptar «cualquier uso legal» y eliminar salvaguardas de forma unilateral. Una fuente anónima de la compañía, citada en diversos reportes, indica que las propuestas de compromiso enviadas por el Gobierno incluían un lenguaje legal que permitiría ignorar las protecciones «a discreción», lo que Anthropic ha interpretado como una capitulación total.

Pese a la presión, la salud financiera de Anthropic le otorga un margen de maniobra que otras startups no poseen. Con una valoración que le ha permitido recaudar 30.000 millones de dólares recientemente, el contrato del Pentágono, aunque simbólico, no es vital para su supervivencia inmediata. No obstante, ser designada como riesgo de seguridad nacional podría cerrarles las puertas de cualquier cliente que mantenga vínculos con la administración pública, una red que abarca a la práctica totalidad de las grandes corporaciones de infraestructuras y servicios.

Te puede interesar
Cisco AI Summit - Jensen Huang

Implicaciones para el ecosistema tecnológico europeo

Para los profesionales en España, el caso Anthropic es un espejo del futuro debate sobre la soberanía del dato y la neutralidad del software. La posibilidad de que un gobierno intervenga una empresa privada para «desbloquear» capacidades restringidas de una IA plantea interrogantes sobre la seguridad jurídica de cualquier acuerdo de nivel de servicio (SLA). Si Claude puede ser intervenido bajo una ley de emergencia de la era de la Guerra Fría, la confianza en las garantías de seguridad y privacidad de los modelos estadounidenses podría erosionarse, acelerando la búsqueda de alternativas locales o modelos de código abierto con mayor control sobre el despliegue.

En este tablero de ajedrez, las empresas españolas que integran modelos de Anthropic en sus procesos de análisis de datos o atención al cliente observan con cautela. La incertidumbre sobre si la empresa será vetada o si sus modelos sufrirán cambios drásticos por imperativo legal introduce una variable de riesgo no tecnológico en la planificación estratégica. La tensión también subraya la divergencia entre el modelo de innovación estadounidense, cada vez más alineado con el complejo militar-industrial, y el marco regulatorio europeo que prioriza la explicabilidad y la protección de derechos fundamentales.

Aunque el Departamento de Defensa no ha respondido oficialmente a la última declaración de Amodei, la fecha límite establecida para el viernes por la tarde sitúa a ambas partes en una trayectoria de colisión. La opción de que el Pentágono simplemente migre a otro proveedor, como OpenAI o xAI, parece la salida más lógica desde una perspectiva de mercado, pero el interés persistente en Claude sugiere que la tecnología de Anthropic posee atributos, quizás su propia seguridad y capacidad de razonamiento, que el Gobierno considera insustituibles.

La incógnita ahora es si el Gobierno de los Estados Unidos ejecutará una medida tan drástica como la nacionalización parcial de un algoritmo o si, por el contrario, la firmeza de Anthropic forzará una renegociación de los términos de la IA de combate. El desenlace de este pulso definirá si las empresas de inteligencia artificial del futuro serán socios de los estados o meros departamentos de ingeniería bajo su mando directo.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad