Estás leyendo
OpenAI supera 1 millón de clientes empresariales

OpenAI supera 1 millón de clientes empresariales

  • OpenAI afirma contar con más de 1 millón de clientes empresariales y 7 millones de asientos en ChatGPT for Work. Analizamos impactos y casos en Europa.
OpenAI DevDay 2025

Apenas quince meses después de que muchas compañías dieran sus primeros pasos con copilotos internos, OpenAI sitúa su oferta en un nuevo orden de magnitud: más de un millón de clientes empresariales de pago que usan ChatGPT for Work o su plataforma para desarrolladores.

La cifra no es solo un hito comercial, también revela cómo se está estandarizando la IA generativa en procesos de negocio que hasta hace poco eran impermeables a la automatización. Según el anuncio oficial, ChatGPT for Work acumula ya más de 7 millones licencias activas, un 40% más en dos meses, mientras que las licencias de ChatGPT Enterprise habrían crecido nueve veces en un año.

La escala de adopción descansa, en parte, sobre la familiaridad previa de los usuarios. OpenAI sostiene que ChatGPT cuenta con cientos de millones de usuarios semanales, lo que acelera pilotos y reduce fricciones en los despliegues corporativos. En su DevDay de octubre, la compañía habló de 800 millones de usuarios semanales, muy por encima de la suma de sus principales competidores, una señal de tracción que traslada inercia al entorno empresarial.

OpenAI ha adoptado un modelo de plataforma con conectores a sistemas corporativos y un paquete de capacidades que van desde modelos multimodales a herramientas para agentes. En su blog, la empresa apunta a palancas como Company Knowledge —razonamiento sobre Slack, SharePoint, Google Drive o GitHub con citaciones—, AgentKit para acortar el tiempo de construcción de agentes y un salto en uso de Codex para flujos de código y automatización.

OpenAI y empresas: del consumo masivo a la estandarización corporativa

La dinámica es conocida en software: el uso individual precede al corporativo. OpenAI la formaliza con cifras y con un catálogo de integraciones que empujan a las compañías a pasar de pruebas a producción. El vector no es exclusivo de EE. UU. En Europa, la lista de clientes abarca servicios financieros, comercio electrónico, administración pública y ciencias de la vida, con organizaciones que llevan casos a volumen en atención al cliente, operaciones y desarrollo de producto. El propio blog corporativo cita nombres globales como Booking.com, Cisco, Morgan Stanley o Thermo Fisher, ilustrando el sesgo transversal de los casos de uso.

El crecimiento empresarial se alimenta de dos vertientes. Por un lado, copilotos horizontales que resuelven tareas frecuentes —síntesis, análisis, redacción estructurada, búsqueda en bases internas—; por otro, agentes especializados que orquestan herramientas, procesos y datos con objetivos concretos. OpenAI insiste en que la segunda capa, más intensiva en integración y gobierno, será la que marque el diferencial competitivo a corto plazo.

Europa: banca, sector público y “time-to-value” más corto

Para entender el impacto regional conviene observar cómo se están desplegando proyectos a escala. Banco Santander es un caso útil: el grupo ha comunicado que en dos meses desplegó ChatGPT Enterprise para casi 15.000 empleados en Europa y América, con previsión de alcanzar 30.000 usuarios a final de año —en torno al 15% de su plantilla—. La entidad asocia la implantación a una estrategia AI-native con copilotos de inversión, personalización de recorridos de cliente y automatización de procesos internos, además de programas de capacitación obligatoria en IA.

El caso Santander ilustra tres vectores comunes en Europa: gobernanza, seguridad y retorno operativo. La narrativa del banco enfatiza marcos de uso seguro y auditoría, a la vez que reporta ahorros operativos relevantes en 2024. No es una excepción: administraciones públicas y grandes retailers europeos están incorporando copilotos en canales de atención, back-office y soporte a empleados, con el objetivo de reducir tiempos de respuesta y errores en tareas repetitivas. La ventana de valor se mide en semanas, no en trimestres, cuando existen bases de conocimiento bien curadas y un perímetro de datos claro.

A diferencia de otros ciclos tecnológicos, la barrera de entrada es ahora más organizativa que técnica. Con Company Knowledge y conectores listos, los equipos de TI pueden pasar de pruebas a un piloto amplio con menos dependencia de integraciones a medida. En paralelo, AgentKit reduce la distancia entre idea y producto para agentes internos, una palanca clave para departamentos de operaciones, riesgo o compliance.

Del ahorro al crecimiento: la tesis de Fidji Simo

La adopción no se explica solo por eficiencias. En su artículo “Why the best companies will use AI to multiply, not just cut”, Fidji Simo defiende que el verdadero diferencial no está en recortar costes, sino en multiplicar la capacidad creativa y operativa: convertir ideas que “quedaban por debajo de la línea” en proyectos viables porque ahora se pueden ejecutar con equipos más pequeños y ciclos más cortos.

La directiva aporta ejemplos internos —ingenieros que fusionan un 70% más de pull requests con Codex, un +20% en productividad comercial— y casos de clientes que aceleran investigación de mercado o prototipado con GPT-5. El argumento, resumido, desplaza la IA del terreno de la sustracción al de la abundancia.

La tesis de Simo no es aislada: encuestas citadas por OpenAI y Wharton apuntan a que tres de cada cuatro empresas reportan ROI positivo con IA generativa, y una fracción menor registra retornos negativos. Aunque el sesgo de muestra y la madurez desigual por sectores requieren cautela, el patrón coincide con lo que los equipos ven en campo cuando hay un caso concreto, datos accesibles y métricas de impacto desde el día uno.

Métricas que importan: asientos, agentes y “knowledge ops”

La discusión pública a menudo se centra en el número de usuarios. En la empresa, la métrica relevante es otra: asientos activos con casos de uso definidos y agentes que ejecutan trabajos completos de principio a fin. OpenAI asegura que los asientos de ChatGPT for Work crecieron un 40% en dos meses hasta superar 7 millones, y que Enterprise se multiplicó por nueve en un año.

La compañía también destaca que el uso de Codex se multiplicó por diez desde agosto, impulsado por automatizaciones de flujo de trabajo y revisiones de código, con ejemplos como Cisco, que habría recortado a la mitad tiempos de code review y acortado proyectos de semanas a días.

En paralelo, la firma está empujando modelos multimodales y experiencias en tiempo real (gpt-realtime y Realtime API) para voz, así como generación de imagen y vídeo, con el objetivo de que los equipos trabajen en texto, imagen, vídeo y audio en un único sistema. Para las organizaciones europeas, esto abre opciones en asistencia telefónica, verificación documental, formación y soporte in situ. La integración con plataformas de datos —por ejemplo, el anuncio de colaboración con Databricks para acercar “frontier intelligence” a donde reside el dato— intenta resolver una fricción clásica: mover datos es caro; llevar el modelo a los datos, menos. OpenAI

ROI y casos de uso: de la atención al producto

OpenAI reúne ejemplos de retorno tangible: Indeed reporta un +20% en solicitudes y +13% en contrataciones con un flujo impulsado por su API; Lowe’s equipa a personal en más de 1.700 tiendas con guía experta de proyectos; Intercom acelera ciclos de desarrollo “de trimestres a días” con su agente de atención, Fin. Estas referencias no sustituyen auditorías externas, pero marcan una pauta sobre dónde se están materializando los beneficios: adquisición, conversión y coste de servicio.

Te puede interesar
Kit Digital

En Europa, sectores como banca, seguros, retail y farmacéutico avanzan en tres frentes: copilotos de conocimiento para empleados, agentes de cliente en canales digitales y automatización de back-office con integración en sistemas heredados. La madurez regulatoria —desde GDPR a marcos de IA confiable— obliga a desplegar controles de privacidad y trazabilidad desde el diseño, un ámbito en el que la demanda de citaciones y fuentes dentro de la propia herramienta (vía Company Knowledge) funciona como catalizador de confianza.

Qué cambia para los CIO europeos

Tres implicaciones prácticas emergen de esta ola de adopción:

  1. Arquitectura de conocimiento: la calidad del dato y su enlazado semántico pasan a ser activos operativos. Sin corpus curado y permisos claros, los agentes colapsan en alucinaciones o respuestas genéricas. Company Knowledge y conectores alivian el problema, pero no lo resuelven por sí solos.
  2. Gobierno y riesgo: modelos y agentes exigen controles de uso, telemetría, auditoría y “kill-switches” operativos. Los marcos europeos de IA confiable y privacidad hacen que el cumplimiento sea un requisito de diseño, no un añadido. El resultado es que seguridad y legal se convierten en stakeholders desde el día uno.
  3. Economía de plataforma: la decisión ya no es solo “qué modelo”, sino dónde vive el conocimiento empresarial, cómo se orquestan herramientas y qué grado de autonomía tienen los agentes en producción. La vía “construir sobre la plataforma” —API + AgentKit + conectores— reduce el coste de integración y acelera la iteración.

Señales de madurez: de la curiosidad al contrato multianual

Que una plataforma sume un millón de clientes empresariales de pago indica que el mercado pasó la fase de curiosidad. Lo relevante ahora es la profundidad de cada cuenta: número de dominios cubiertos, porcentaje de empleados con copilotos, procesos críticos con agentes y, sobre todo, retorno marginal por cada nuevo caso. La evidencia disponible, aunque parcial, sugiere que la adopción top-down (patrocinio ejecutivo, casos medidos y gobierno) correlaciona mejor con ROI que la expansión puramente bottom-up. Las propias cifras de OpenAI sobre asientos, agentes y conectores apuntan en esa dirección.

¿Qué viene después? Agentes verticales y voz en tiempo real

El siguiente paso lógico es la consolidación de agentes verticales que gestionen procesos completos —por ejemplo, siniestros en seguros o conciliaciones en banca— y la incorporación natural de voz en tiempo real en canales de atención. Con Realtime API, el movimiento de “chat” a conversación se acelera, y la barrera diferencial residirá en flujo de herramientas (RAG + acciones) y en calidad del dato. Empresas europeas con sistemas fragmentados heredados afrontarán aquí el mayor reto técnico, no tanto en modelado como en integración y gobierno.

Tensiones y límites: dependencia, costes y competencia

El avance plantea tensiones. Primera, la dependencia de proveedor: la centralización en una gran plataforma simplifica despliegues, pero desplaza riesgo estratégico a contratos, precios y roadmap ajenos. Segunda, costes variables: si el uso crece más rápido que la optimización de prompts, contextos y cachés, el TCO puede sorprender; de ahí el interés por arquitecturas híbridas y por llevar la inferencia a donde está el dato. Tercera, competencia: el ritmo de lanzamiento de rivales y open-source presiona a las empresas a diseñar abstracciones que eviten quedar cautivas de un único vendor. Nada de esto anula el hito; lo contextualiza.

Del hito al rediseño del trabajo

OpenAI no solo suma volumen; reordena prioridades en los comités de dirección. El millón de clientes empresariales se interpreta como una señal de que la IA generativa ha cruzado el umbral de utilidad operativa, especialmente cuando se combina con datos internos y flujos de herramientas. La visión de Fidji Simo —usar la IA para multiplicar, no solo recortar— ofrece una pauta clara para 2026: más capacidad creadora, más agentes conectados y un mayor peso del conocimiento operativo como activo.

Las empresas europeas que lo adopten con gobierno y propósito probablemente consolidarán ventajas en productividad, velocidad de lanzamiento y experiencia de cliente. Las que lo aborden como una utilidad auxiliar, o solo como un vector de recorte, quedarán ancladas en la fase de pilotos.

OpenAI y el impulso de clientes empresariales

El recorrido de OpenAI como plataforma de clientes empresariales está definido por asientos activos, conectores a fuentes corporativas y un ecosistema de agentes que ejecutan trabajo real. Para Europa, el camino implica curar conocimiento, cerrar brechas de integración y operacionalizar la voz en tiempo real con controles de riesgo y privacidad. OpenAI

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad