Estás leyendo
Mythos anticipa un escenario donde descubrir fallos supera la capacidad de parchearlos

Mythos anticipa un escenario donde descubrir fallos supera la capacidad de parchearlos

  • Anthropic limita el acceso a Mythos, un modelo de IA capaz de localizar miles de vulnerabilidades sin parche en aplicaciones comunes y elevar el riesgo ofensivo.
Dario Amodei, Anthropic - Hernán Rodríguez

Anthropic ha decidido no lanzar de forma pública Mythos, un nuevo modelo de inteligencia artificial que, según la propia compañía, fue capaz de identificar miles de vulnerabilidades de software en aplicaciones de uso común para las que todavía no existe corrección. La decisión sitúa el debate sobre la IA generativa en un terreno menos visible que el de los asistentes conversacionales o la productividad: el de la seguridad ofensiva, donde la capacidad de un modelo para escribir código, analizar sistemas y detectar fallos puede convertirse en una herramienta útil para defender infraestructuras, aunque también en un acelerador del riesgo.

La información fue adelantada por Semafor, que describe un escenario en el que Anthropic ha optado por compartir una versión restringida del sistema con determinadas empresas para reforzar defensas frente a ataques apoyados en IA, en lugar de abrir el acceso de forma general. El dato más delicado no es solo el volumen de fallos detectados, sino su naturaleza: vulnerabilidades sin parche disponible, es decir, debilidades que pueden ser explotadas antes de que fabricantes o desarrolladores tengan tiempo de corregirlas. En ciberseguridad, ese margen temporal importa mucho. Reduce la capacidad de respuesta y eleva la exposición de bancos, operadores críticos, proveedores cloud y grandes corporaciones.

Mythos aparece, por tanto, en un momento en el que la industria ya venía asumiendo que los modelos más avanzados destacan en tareas de programación. Esa habilidad, que en entornos empresariales suele presentarse como una vía para acelerar desarrollo, pruebas o mantenimiento, tiene una derivada menos cómoda: también facilita la búsqueda automatizada de errores, la generación de exploits y la adaptación rápida de técnicas de intrusión. Anthropic sostiene que su modelo cruzó un umbral que desaconseja una publicación abierta. Aunque la empresa no detalla en el material aportado ni la arquitectura del sistema ni los criterios técnicos exactos de esa evaluación, la formulación sugiere que el riesgo no se limita a un uso indebido marginal, sino a una capacidad sistemática para encontrar puntos débiles en software ampliamente desplegado.

Ese matiz cambia el encuadre habitual. Durante los últimos dos años, gran parte de la conversación pública sobre IA se ha concentrado en desinformación, derechos de autor, impacto laboral o consumo energético. La ciberseguridad estaba presente, sí, pero a menudo como una categoría más dentro de los riesgos generales. En el caso de Mythos, pasa al primer plano. Y lo hace con una tensión evidente: cuanto más competente es un modelo en tareas de código, más valor tiene para equipos de seguridad defensiva, aunque esa misma competencia amplía su potencial ofensivo si el acceso se generaliza.

Semafor recoge además una comparación con el efecto Y2K, aquella movilización masiva de finales de los noventa para corregir sistemas vulnerables al cambio de milenio. La analogía tiene límites, porque entonces el problema estaba relativamente acotado y era conocido con antelación. Aquí ocurre algo distinto: las defensas ya parten, según el texto, de una situación «abismal», mientras la IA aplicada al desarrollo de software amplía la superficie de exposición. En otras palabras, la automatización acelera tanto la construcción de herramientas legítimas como la aparición de errores y la capacidad de explotarlos. No se trata solo de más código, sino de más complejidad operativa comprimida en menos tiempo.

La reacción institucional que acompaña a Mythos refuerza esa lectura. Bloomberg señala que los responsables del Tesoro de Estados Unidos y de la Reserva Federal convocaron una reunión de emergencia con grandes bancos por el posible impacto del modelo sobre el sector financiero. No es un detalle menor. Las entidades llamadas al encuentro son consideradas sistémicas, una categoría reservada a bancos cuya estabilidad afecta al conjunto del sistema financiero global. Si un modelo es percibido como una amenaza creíble para ese perímetro, el problema deja de ser estrictamente tecnológico y entra en la esfera de la supervisión macroprudencial, la resiliencia operativa y la continuidad de negocio.

Ahí aparece otra cuestión de fondo: la distancia entre el ritmo de los modelos y el de la regulación. El propio texto apunta a que la aparición de Mythos ha dejado expuesto hasta qué punto los reguladores van por detrás de la última generación de IA, mientras la Casa Blanca mantiene una orientación favorable a la industria. Esa asimetría no es nueva, aunque en ciberseguridad adquiere una forma especialmente incómoda. Un fallo regulatorio en privacidad o competencia suele desplegar efectos graduales; un fallo en seguridad puede materializarse de forma abrupta, con interrupciones, robo de datos o impacto financiero directo.

Para las empresas españolas, el episodio tiene varias lecturas prácticas, aunque la información disponible sea parcial. La primera afecta a la gobernanza de proveedores. Muchas organizaciones están incorporando asistentes de código, herramientas de automatización y servicios de IA en entornos de desarrollo sin revisar a fondo qué capacidades tienen, qué registros generan o cómo se controlan sus usos internos. Si modelos de frontera pueden localizar vulnerabilidades inéditas a gran escala, la gestión del riesgo ya no depende solo del software propio, sino también del acceso que terceros tienen a sistemas, repositorios y flujos de trabajo.

Te puede interesar
NVIDIA NemoClaw

La segunda lectura se refiere al tiempo. Cuando Anthropic habla de miles de vulnerabilidades sin solución disponible, introduce una variable crítica para cualquier comité de dirección: la ventana entre descubrimiento y remediación puede ensancharse justo cuando la capacidad de explotación se abarata. Pese a que el texto no ofrece ejemplos concretos de sectores afectados, el patrón es reconocible en industrias con legado tecnológico, integración compleja y dependencia de software común, desde banca y telecomunicaciones hasta sanidad, energía o administración pública.

Hay además una dimensión industrial que no conviene perder de vista. Las grandes tecnológicas siguen elevando su gasto en infraestructura de IA, incluso con dudas sobre burbuja, presión energética y tensiones geopolíticas. Amazon prevé 200.000 millones de dólares en capex este año, en gran parte ligados a IA, y Meta ha firmado un acuerdo de 21.000 millones con CoreWeave para capacidad cloud, según el texto aportado. Ese despliegue sugiere que la carrera no se va a frenar por la aparición de un caso como Mythos. Sin embargo, sí puede alterar la forma en que se distribuyen los modelos, los controles de acceso y las obligaciones de auditoría para clientes corporativos.

En paralelo, OpenAI ha pausado su proyecto de centro de datos en Reino Unido por costes energéticos y condiciones regulatorias, también según la información facilitada. El movimiento apunta a otra tensión menos visible: desarrollar IA avanzada exige capital, energía y permisos, pero también una narrativa de utilidad empresarial suficientemente clara para justificar inversiones cada vez mayores. Anthropic parece haber encontrado una utilidad extrema en seguridad, aunque precisamente esa utilidad complique la apertura del producto.

Queda, por tanto, una incógnita que va más allá de Mythos. Si los modelos más avanzados en código empiezan a descubrir fallos a una escala que supera la capacidad de parcheo del mercado, la ventaja ya no estará solo en entrenarlos, sino en decidir quién puede usarlos, bajo qué supervisión y con qué límites operativos. Esa discusión apenas empieza, y afecta de lleno a empresas, reguladores y proveedores de infraestructura. También a quienes, hasta ahora, seguían viendo la IA sobre todo como una herramienta de eficiencia.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad