
Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
Durante su intervención en el evento Current 2025 celebrado en Londres, Jay Kreps, CEO de Confluent, expuso una visión que conecta la evolución de la infraestructura de datos con la expansión práctica de la inteligencia artificial en la empresa. En su keynote Unifying batch and streaming in the age of AI, Kreps explicó cómo la unificación del procesamiento por lotes (batch) y el procesamiento en tiempo real (streaming) representa un punto de inflexión técnico y organizativo para construir sistemas basados en agentes autónomos.
El mensaje principal, reiterado posteriormente en la rueda de prensa, es que el software empresarial está dejando de ser un mecanismo de apoyo para convertirse en el motor operativo de las organizaciones. En ese proceso, los datos en movimiento y las decisiones automatizadas están adquiriendo un protagonismo estructural. Esta transformación no solo implica cambios tecnológicos, sino también un reajuste en los modelos de adopción y gobernanza del dato a escala organizativa.
Hacia una nueva clase de aplicaciones: autónomas, continuas y dependientes del dato
Kreps argumentó que la naturaleza del software empresarial ha cambiado de forma sustancial. Las aplicaciones ya no están diseñadas para mostrar información a personas que deciden, sino que están asumiendo decisiones de forma directa sobre flujos continuos de datos. Esta lógica se materializa en el desarrollo de agentes autónomos, que actúan sobre eventos en tiempo real con capacidad de reacción inmediata.
Durante la rueda de prensa posterior, Kreps fue explícito al afirmar que el streaming se está consolidando como “la base para esta nueva generación de agentes basados en IA”. Su utilidad, según explicó, radica en que permite tanto la ingestión y procesamiento de datos en directo como la simulación previa mediante datos históricos, un requisito esencial para probar y validar agentes antes de su despliegue operativo.

En este sentido, subrayó que las aplicaciones impulsadas por IA no pueden construirse ni validarse sin trabajar con datos reales. A diferencia del desarrollo tradicional, donde bastan pruebas con datos sintéticos, en este nuevo paradigma no es posible determinar si un agente funciona correctamente hasta que se le expone a interacciones reales con usuarios y sistemas. Esto convierte al acceso simultáneo a datos en vivo y almacenados en una necesidad estructural del ciclo de desarrollo.
TableFlow y Flink: infraestructura para la validación iterativa
La propuesta tecnológica de Confluent para abordar esta complejidad se articula en torno a TableFlow y Apache Flink. TableFlow permite unificar la vista sobre datos históricos (almacenados en formatos como Iceberg y Delta Lake) y flujos en tiempo real (ingresados a través de Kafka). Esta integración posibilita trabajar sobre un snapshot de datos —por ejemplo, todas las preguntas al soporte en una semana— y, una vez validada la lógica de un agente, trasladar ese código al entorno de producción en modo streaming sin reescritura.
La evolución de Flink permite definir una única lógica de procesamiento que puede operar de forma batch o continua. Según Kreps, esto habilita un desarrollo “altamente iterativo” para los agentes, donde se puede ajustar el modelo, el prompt o las fuentes de datos con rapidez y observar cómo impactan los cambios en la calidad de las respuestas.
Además, TableFlow habilita casos como retrieval augmented generation (RAG), permitiendo que los agentes utilicen datos frescos y contextuales como parte de su razonamiento. Esto es clave en entornos donde la información cambia constantemente y debe actualizarse sin latencias.
Cambio organizativo: de la herramienta puntual a la plataforma estratégica
Uno de los puntos destacados por Kreps durante la rueda de prensa fue precisamente la dimensión no técnica de este proceso. En respuesta a una pregunta formulada por La Ecuación Digital, sobre cómo ayuda Confluent a las empresas a asumir este cambio de mentalidad, Kreps reconoció que la transformación hacia modelos en streaming no puede abordarse únicamente desde la infraestructura. “Es tanto un problema de desarrollo tecnológico como de desarrollo humano”, afirmó.
El CEO explicó que muchas organizaciones parten de un modelo centrado en el batch y la consulta diferida de datos, con flujos analíticos tradicionales. La adopción del streaming requiere no solo nuevas herramientas, sino también una evolución del modelo operativo, la formación del personal y un cambio en la gobernanza del dato.
Para facilitar esta transición, Confluent ha diseñado un “modelo de madurez” que guía a las empresas desde proyectos aislados hacia el uso transversal del streaming como plataforma de intercambio de datos en tiempo real.
Los cambios, según Kreps, se producen cuando las organizaciones perciben que la arquitectura por lotes no resuelve adecuadamente los retos de inmediatez, integración y escala que exige la IA generativa. Confluent colabora en ese proceso a través de alianzas con integradores de sistemas, capacitación técnica, documentación y asesoría directa. En paralelo, está reforzando sus herramientas de gobernanza para facilitar el acceso controlado a datos compartidos en toda la organización, un factor que consideran imprescindible para una adopción sostenible del streaming.
Kafka como estándar y el papel del ecosistema
A nivel técnico, Kreps ratificó que Kafka se ha consolidado como el estándar de facto para la transmisión de datos en movimiento. Frente a alternativas como Pulsar o NiFi, argumentó que Kafka ha alcanzado una masa crítica que lo convierte en un elemento estructural en muchas organizaciones. Asimismo, destacó el papel central de Flink, especialmente por su capacidad para procesar grandes volúmenes de datos en flujos continuos con baja latencia.
En cuanto al ecosistema, Confluent ha establecido integraciones avanzadas con plataformas como Databricks, MongoDB y Snowflake, lo que permite que los datos procesados en tiempo real puedan ser usados directamente en entornos analíticos o de entrenamiento de modelos. Estas alianzas refuerzan la visión de un entorno conectado donde el dato fluye con coherencia entre las capas operativa y analítica.
Del desarrollo al despliegue: arquitectura de ciclo completo
Uno de los mensajes recurrentes en la intervención de Kreps es que la infraestructura actual de Confluent —compuesta por Kafka, TableFlow, Flink e integraciones con sistemas de almacenamiento— permite cubrir todo el ciclo de vida de una aplicación intensiva en datos: desde la exploración y validación de lógica en batch, hasta la ejecución en tiempo real sobre eventos empresariales. Esta continuidad técnica es lo que permite desplegar agentes que no solo procesan datos, sino que intervienen directamente en los flujos operativos de la empresa.
El valor añadido no reside solo en la velocidad, sino en la posibilidad de crear un entorno donde la IA pueda operar de forma controlada, reproducible y gobernada. Kreps defendió que esta es la única forma viable de escalar el uso de agentes dentro de entornos empresariales complejos, donde la trazabilidad y la seguridad son tan importantes como la eficiencia computacional.