Estás leyendo
La expansión de la IA desplaza el foco de la tecnología al capital, la energía y la escala

La expansión de la IA desplaza el foco de la tecnología al capital, la energía y la escala

  • La inteligencia artificial acelera una inversión masiva en infraestructura, donde el capital, la energía y la ejecución pesan ya más que los avances técnicos.
Building AI for the Long Term

La carrera por construir la infraestructura que sostendrá la inteligencia artificial durante las próximas décadas ya no es una hipótesis. Es un proceso en marcha que moviliza billones de dólares, redefine prioridades industriales y traslada el debate desde los laboratorios de investigación hacia el terreno más prosaico, y más restrictivo, del capital, la energía y el hormigón.

El debate ha empezado a desplazarse: ya no gira tanto en torno a lo que puede hacer la IA como a si la asignación extraordinaria de capital que la rodea será capaz de sostenerse en el tiempo sin erosionar valor ni acceso.

Ese fue el trasfondo del debate celebrado en el marco del World Economic Forum 2026, durante su reunión anual en Davos, bajo el título Building AI for the Long Term. En la sesión participaron Sarah Friar, directora financiera de OpenAI; Michael Intrator, consejero delegado de CoreWeave; Peng Xiao, máximo responsable de G42; y Rob Goldstein, director de operaciones de BlackRock. Cinco miradas distintas sobre un mismo cuello de botella.

Goldstein abrió el debate con una afirmación que se repite con frecuencia en los círculos financieros, pero que no siempre se examina con detalle: la oportunidad es ilimitada. Su argumento no se apoya tanto en la sofisticación de los modelos actuales como en la fase en la que se encuentra el ciclo tecnológico. Tres años después de que ChatGPT irrumpiera como curiosidad de consumo, la adopción real en empresas apenas empieza a tomar forma. Desde su perspectiva, el riesgo inmediato no es una burbuja de sobreinversión, sino la escasez de capacidad para absorber una demanda que aún no se ha manifestado plenamente.

Building AI for the Long Term - Rob Goldstein
Building AI for the Long Term – Rob Goldstein

Ese optimismo choca, sin embargo, con las limitaciones físicas que describió Intrator. Detrás de los modelos y las interfaces hay una industria intensiva en recursos materiales, desde cobre y óptica hasta mano de obra cualificada. La construcción de centros de datos se enfrenta a una paradoja: el volumen de proyectos se multiplica mientras la proporción de profesionales expertos se reduce. Donde antes trabajaban decenas de electricistas experimentados, hoy se necesitan miles, muchos en fases iniciales de su carrera. El resultado es una fricción que los mercados financieros no siempre incorporan con precisión en sus valoraciones.

Building AI for the Long Term - Michael Intrator
Building AI for the Long Term – Michael Intrator

La tensión se acentúa cuando se amplía el foco geográfico. Peng Xiao expuso el caso de Abu Dabi como ejemplo de ventaja estructural basada en energía y capacidad de ejecución. El emirato está desarrollando un campus de IA de cinco gigavatios, una cifra que ilustra la escala del desafío. Sin restricciones de suelo ni procesos de permisos prolongados, la región aspira a convertir la energía en paquetes de inteligencia exportables. La tesis de fondo es clara: a largo plazo, el coste de la inteligencia tenderá a igualarse con el coste de la energía. Quien controle uno tendrá influencia directa sobre el otro.

Building AI for the Long Term - Peng Xiao
Building AI for the Long Term – Peng Xiao

Esa lógica explica por qué actores como OpenAI han pasado de depender de un único proveedor de infraestructura a diversificar alianzas, chips y modelos de financiación. Friar describió una evolución acelerada: de una empresa con un producto, un proveedor de nube y un modelo de suscripción, a una plataforma multidimensional con presencia en consumo, empresa, APIs y agentes autónomos. El proyecto Stargate, presentado hace un año, ya aloja entrenamiento de modelos en campus de Oracle, mientras la compañía experimenta con chips propios para inferencia con el objetivo explícito de reducir costes.

Building AI for the Long Term - Sarah Friar
Building AI for the Long Term – Sarah Friar

La caída del precio por millón de tokens, de decenas de dólares a céntimos en apenas dos años, introduce un elemento disruptivo. A corto plazo, no alivia la presión sobre la infraestructura porque la demanda sigue pinzada en el límite de capacidad disponible. A medio plazo, abre la puerta a usos que hoy no existen. Intrator lo planteó en términos de elasticidad: cada salto de eficiencia no reduce el apetito por computación, sino que lo amplía, al hacer viables nuevas ideas y modelos de negocio.

El capital aparece así como catalizador y riesgo simultáneamente. Desde BlackRock, Goldstein describió este ciclo como uno de los ríos rápidos de la economía global, un entorno en el que estar bien posicionado acelera el retorno, pero también exige coordinación entre inversores, operadores y clientes finales. Los vehículos de financiación combinan hoy capital institucional, alianzas estratégicas y estructuras que difuminan la frontera entre cliente y socio. Para OpenAI, esa flexibilidad se traduce en rondas de capital sin precedentes, acuerdos con fabricantes de chips y una presión constante por demostrar que la demanda es real y sostenible.

Te puede interesar
Samsung Galaxy Book6

Esa última cuestión alimenta el escepticismo sobre lo que algunos denominan financiación circular. Friar rechazó la idea de que el crecimiento esté inflado artificialmente. Los datos de uso, tanto en consumo como en empresa, muestran una intensificación clara, con países y sectores que ya operan en un régimen de “frontera” en términos de consumo de inteligencia. El argumento recuerda a los primeros años de internet, aunque con una diferencia clave: el valor percibido es inmediato y transversal.

El debate se desplazó entonces hacia China, no tanto por su liderazgo en modelos fundacionales como por su velocidad de adopción. Peng Xiao habló de adopción implacable, una integración de la IA en procesos cotidianos que genera volumen de uso y, por extensión, aprendizaje. Aunque la capacidad de entrenamiento esté limitada, el uso intensivo en inferencia puede convertirse en ventaja acumulativa. Para los participantes, el riesgo para Occidente no es técnico, sino cultural y organizativo: dudar mientras otros implementan.

Quedaba una cuestión incómoda para cerrar la conversación: qué puede salir mal. Intrator apuntó al entorno geopolítico como variable exógena capaz de distorsionar costes, acceso y planificación a largo plazo. Friar añadió otra capa, más cercana a la legitimidad social. La velocidad de despliegue supera la capacidad de regeneración de sistemas energéticos y hídricos, y la aceptación de nuevos centros de datos dependerá de si las comunidades perciben beneficios tangibles o solo externalidades negativas.

En ese punto, el debate dejó de ser tecnológico para volverse político y social. La infraestructura que sostiene la IA no se construye en abstracto, sino en territorios concretos, con impactos sobre empleo, precios de la energía y recursos locales. La durabilidad del modelo dependerá tanto de la eficiencia de los chips como de la confianza de quienes viven junto a los centros de datos. Esa ecuación, todavía abierta, será decisiva para saber si esta ola de inversión se convierte en un cimiento estable o en una fuente de fricción permanente.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad