Durante el pasado fin de semana, un asistente de inteligencia artificial de código abierto llamado Clawdbot se viralizó en X (antes Twitter), generando una mezcla de fascinación y alarma entre desarrolladores y entusiastas tecnológicos. A diferencia de modelos como ChatGPT o Claude, que operan desde la nube, Clawdbot se ejecuta de forma local en el ordenador del usuario o en instancias económicas de AWS, lo que le permite actuar con un grado de autonomía poco habitual en asistentes de consumo.
Clawdbot no solo responde a preguntas o ejecuta tareas predefinidas. Controla el navegador, lanza comandos en la terminal, instala nuevas capacidades y mantiene una memoria persistente en archivos Markdown. Su diseño permite que se comunique por canales como WhatsApp, Telegram o Discord, y que aprenda a integrar nuevas APIs por sí mismo. El periodista Federico Viticci, de MacStories, lo probó durante una semana y consumió 180 millones de tokens de API en sus experimentos. En uno de ellos, pidió al bot que generara una infografía sobre sí mismo: el agente rastreó sus propios directorios, accedió a Google Imagen y produjo un mapa visual de sus funciones.
La arquitectura de Clawdbot se basa en una lógica simple pero poderosa: todo lo que recuerda o aprende queda registrado en texto plano. Esta estructura, aunque rudimentaria, permite una trazabilidad completa del comportamiento del agente y facilita su modificación sin necesidad de conocimientos avanzados. En lugar de depender de plataformas como Zapier, algunos usuarios han logrado sustituir automatizaciones mediante la creación de cron jobs directamente desde el bot.
Uno de los aspectos que más ha captado la atención es su capacidad de autoextensión. Si no puede hacer algo, se le puede pedir que aprenda a hacerlo. Este enfoque recuerda a los conceptos de mejora recursiva, donde un sistema es capaz de rediseñarse a sí mismo en función de las necesidades del entorno. Aunque aún lejos de los escenarios especulativos de la inteligencia artificial general, Clawdbot ofrece un atisbo práctico de ese tipo de comportamiento adaptativo.
Sin embargo, esa misma autonomía plantea riesgos considerables. Según el análisis publicado por The Neuron, decenas de instancias de Clawdbot expuestas públicamente contienen claves API y credenciales en texto plano, accesibles mediante técnicas de inyección de prompts. La combinación de acceso total al sistema operativo, conexión a internet y ausencia de controles de seguridad robustos convierte a Clawdbot en una amenaza potencial si no se configura con extremo cuidado.
Algunos usuarios han llevado sus experimentos al límite. Uno de ellos, Kevin Xu, le dio al bot 2.000 dólares y la orden de convertirlos en un millón mediante operaciones bursátiles automáticas. El resultado fue predecible: el bot perdió todo el dinero en operaciones continuas sin supervisión. Otro caso más llamativo fue el de un usuario que conectó Clawdbot a unas gafas Ray-Ban con micrófono, permitiéndole realizar compras en Amazon por voz en tiempo real.
La viralidad de Clawdbot ha coincidido con un momento de creciente interés por los agentes autónomos autoalojados, impulsado por la frustración de algunos desarrolladores con las limitaciones de los modelos cerrados. Mientras que ChatGPT o Claude dependen de interfaces controladas por sus proveedores, Clawdbot ofrece una libertad radical, aunque con costes evidentes en términos de seguridad y fiabilidad.
Lo que diferencia a Clawdbot no es solo su capacidad técnica, sino el tipo de relación que establece con el usuario. Al ejecutarse localmente y recordar todo lo que se le dice o se le pide, se convierte en una especie de asistente persistente, con memoria infinita y margen de acción casi ilimitado. En uno de los casos documentados, el bot desarrolló por sí mismo una interfaz visual en forma de búho animado que se movía en una segunda pantalla mientras trabajaba.
Pese a su carácter experimental, Clawdbot plantea preguntas relevantes para el futuro de los asistentes de IA en entornos empresariales. ¿Qué ocurre cuando un agente puede modificar su propio código, instalar nuevas funciones y acceder al sistema operativo sin intervención humana? ¿Cómo se gestiona la trazabilidad, la auditoría o la responsabilidad en estos casos? Y sobre todo, ¿qué mecanismos de seguridad son viables cuando el propio diseño del sistema privilegia la autonomía sobre el control?
Por ahora, Clawdbot es más una herramienta de exploración que una solución lista para producción. Pero su popularidad repentina sugiere que existe una demanda latente por asistentes más flexibles, personalizables y menos dependientes de infraestructuras centralizadas. La cuestión no es solo si este tipo de agentes son viables, sino si el ecosistema tecnológico está preparado para los desafíos que implican.
El código está disponible públicamente, y su instalación no requiere conocimientos avanzados. Esa accesibilidad, unida a la posibilidad de ejecutarlo en máquinas locales o servidores baratos, lo convierte en una opción tentadora para desarrolladores curiosos. Pero también en un vector de riesgo para organizaciones que no controlen adecuadamente su despliegue.
Clawdbot no es el primer experimento de este tipo, pero sí uno de los más visibles. Y aunque su impacto real aún está por medirse, su aparición ha reabierto el debate sobre los límites entre autonomía, seguridad y control en la inteligencia artificial aplicada.
