Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
La consultora Gartner ha señalado que, pese a los progresos de OpenAI con el lanzamiento de GPT-5, la infraestructura necesaria para desplegar inteligencia artificial (IA) agentica de forma plena en entornos empresariales aún no está preparada. Según Arun Chandrasekaran, vicepresidente y analista distinguido de Gartner, la situación recuerda a la existencia de automóviles de alto rendimiento décadas antes de que se construyeran las autopistas modernas: los modelos de IA avanzan, pero el “sistema de carreteras” que necesitan para operar de forma autónoma sigue incompleto.
GPT-5, presentado como sucesor de la serie GPT-4, incorpora mejoras relevantes en ámbitos como la programación, las capacidades multimodales y la orquestación de agentes, aunque Gartner considera que se trata de un avance incremental más que de un salto radical.
Mejoras técnicas en programación y capacidades multimodales
En el plano funcional, GPT-5 destaca por su rendimiento en tareas de programación, un ámbito estratégico para las aplicaciones empresariales, y en el procesamiento de modalidades más allá del texto, como voz e imagen. Esto abre posibilidades de integración más amplias en software corporativo y plataformas digitales.
La nueva arquitectura permite al modelo ejecutar llamadas paralelas a APIs y herramientas de terceros, lo que implica que los sistemas empresariales deberán gestionar solicitudes concurrentes en una misma sesión. Además, GPT-5 incorpora planificación de varios pasos (multistep planning) que permite trasladar más lógica de negocio al propio modelo, reduciendo la dependencia de motores de flujo de trabajo externos.
En cuanto al manejo de contexto, las ventanas se amplían hasta 8.000 tokens para usuarios gratuitos, 32.000 para suscriptores Plus y 128.000 para la versión Pro. Esto permite que flujos que antes requerían complejas configuraciones de recuperación aumentada (RAG) puedan enviar datos más extensos directamente al modelo, si bien Gartner advierte de que la recuperación selectiva sigue siendo más rápida y económica.
Estructura de costes y compatibilidad con versiones anteriores
OpenAI ha reducido el coste de uso de GPT-5 a 1,25 dólares por millón de tokens de entrada y 10 dólares por millón de tokens de salida, situándolo por debajo de competidores como Claude Opus. Sin embargo, el ratio entre precio de entrada y salida es mayor que en versiones previas, lo que puede afectar a proyectos con uso intensivo de tokens.
GPT-5 está diseñado para sustituir gradualmente a modelos anteriores como GPT-4o, con tres tamaños (Pro, Mini y Nano) que permiten ajustar coste y latencia. No obstante, las diferencias en formatos de salida, memoria y comportamiento de llamadas a funciones pueden requerir revisiones de código y plantillas de prompts existentes.
Alcance real y expectativas
Gartner subraya que, a pesar de sus avances, GPT-5 no constituye inteligencia artificial general (AGI) ni pretende serlo. El modelo no se autoentrena en entornos de producción y sigue requiriendo supervisión humana para decisiones críticas. Se trata de un conjunto de sistemas cooperantes, no de una entidad autónoma y automejorable.
En este sentido, la consultora recalca que su adopción debe abordarse como una mejora evolutiva, no como una transformación radical. Las organizaciones deben mantener expectativas realistas y acompañar su implantación de una planificación de integración rigurosa, controles de seguridad sólidos y supervisión continua.
Riesgos, gobernanza y adopción empresarial
Gartner indica que OpenAI afirma haber reducido las alucinaciones de GPT-5 hasta un 65% respecto a versiones anteriores, lo que mejora su idoneidad para entornos regulados. Sin embargo, la mayor capacidad de razonamiento y generación multimodal también podría incrementar riesgos de uso indebido, como campañas de phishing avanzadas.
La firma recomienda a las organizaciones realizar pruebas piloto comparativas con otros modelos, revisar políticas de gobernanza para adaptarlas a las nuevas capacidades y validar la infraestructura necesaria para soportar el aumento de volumen y variedad de datos. También sugiere ensayar con integraciones de herramientas, ajustar parámetros de razonamiento y utilizar enrutamiento dinámico para asignar el modelo adecuado a cada tarea.
Entre las recomendaciones prácticas, Gartner aconseja optimizar el tamaño del modelo según la tarea, experimentar con parámetros de razonamiento y estrategias de caché para equilibrar coste y rendimiento, y revisar la exposición de datos sensibles en procesos internos. Además, recuerda que algunas funciones, como el enrutamiento de modelos, no están disponibles de forma abierta en las APIs, lo que obliga a planificar su uso en entornos controlados.
Limitaciones actuales de la IA agentica
Según Chandrasekaran, el despliegue de agentes plenamente autónomos sigue limitado a casos de uso muy concretos, como ingeniería de software o adquisiciones, y en la mayoría de los casos se mantienen supervisados por humanos. La ausencia de estándares abiertos para la comunicación entre agentes y herramientas empresariales, junto con la necesidad de sistemas robustos de gestión de identidades y accesos, frena su adopción a gran escala.
Además, Gartner advierte que la IA sigue operando mayoritariamente en un entorno digital, con escasa capacidad para interactuar de forma fiable con el mundo físico, aunque se están produciendo avances en robótica espacial. La consultora subraya que alcanzar hitos como la inteligencia artificial general requerirá un cambio radical en la arquitectura y el razonamiento de los modelos, más allá del incremento de datos y potencia de cálculo.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
