Estás leyendo
Nvidia licencia la tecnología de inferencia de Groq, ficha a su cúpula y prepara su integración en futuros chips

Nvidia licencia la tecnología de inferencia de Groq, ficha a su cúpula y prepara su integración en futuros chips

  • La licencia Groq Nvidia traslada a Nvidia a Jonathan Ross y parte del equipo, mientras Groq sigue como empresa y mantiene GroqCloud operativo.
NVIDIA

El acuerdo entre Groq y Nvidia se anunció el 24 de diciembre de 2025 con un matiz que, en el sector, pesa casi tanto como el contenido técnico: no es una compra. Groq comunicó que ha firmado con Nvidia un acuerdo “no exclusivo” para licenciar su tecnología de inferencia, y que parte del equipo fundador y directivo se incorporará a Nvidia para ayudar a “avanzar y escalar” esa tecnología. Al mismo tiempo, Groq afirma que seguirá operando como empresa independiente, con un nuevo consejero delegado, y que su servicio GroqCloud continuará “sin interrupción”.

La fotografía, sin embargo, es menos simple de lo que sugiere la etiqueta no exclusivo. Bloomberg resume la operación como el pago por el derecho a usar la tecnología e integrarla en futuros productos, junto con la salida de varios ejecutivos hacia Nvidia para ejecutar esa integración. La combinación de licencia y fichajes se está convirtiendo en un patrón recurrente en la industria de IA, y varios de los medios citados lo conectan con una motivación paralela: acelerar la absorción de talento y activos sin activar, al menos de forma automática, el proceso clásico de una adquisición.

En la práctica, la pregunta que abre este movimiento es directa: si Nvidia ya domina el mercado de chips para IA, ¿por qué necesita incorporar tecnología de un “competidor” especializado en inferencia y, además, llevarse a su cúpula?

Qué es Groq y por qué su enfoque en inferencia ha ganado tracción

Groq es una startup fundada en 2016 que fabrica chips y software para ejecutar modelos de inteligencia artificial. Su foco no está en entrenar modelos desde cero, sino en el tramo que más crece cuando la IA se convierte en producto: la inferencia, el proceso por el que un modelo ya entrenado responde a preguntas, clasifica, predice o extrae conclusiones a partir de datos nuevos. The Wall Street Journal lo describe como el flujo que ocurre cuando consumidores o empresas piden a un modelo que conteste o razone sobre una entrada.

La propuesta de Groq gira alrededor de sus “language processing units” (LPUs), chips diseñados para baja latencia en inferencia. Según WSJ, Ross ha defendido que su diseño con memoria embebida permite producir y desplegar chips con mayor rapidez y con menor consumo energético que las GPU tradicionales, que suelen ser intensivas en energía y siguen siendo más necesarias para el entrenamiento. Financial Times añade la capa competitiva: Groq sostiene que sus LPUs pueden ser hasta 10 veces más eficientes energéticamente que GPU de Nvidia y AMD, una afirmación que, aun tratándose de una comparativa de la propia empresa, encaja con la ansiedad del sector por el coste eléctrico y la disponibilidad de potencia en centros de datos.

El perfil de Jonathan Ross funciona como palanca para entender por qué Groq ha sido seguida de cerca. Datacenter Dynamics y Financial Times recuerdan que Ross lideró el desarrollo del programa de TPU de Google antes de fundar Groq. WSJ introduce más contexto biográfico y técnico: Ross trabajó en Google en los procesadores que se convertirían en TPUs, y también menciona su paso académico ligado a Yann LeCun. En un ecosistema donde Google es, a la vez, cliente potencial, competidor e inspiración tecnológica, ese origen es clave.

En financiación, las cifras que aparecen en las fuentes aportadas dibujan una empresa grande para los estándares de hardware, pero aún en fase de apuesta: WSJ y Datacenter Dynamics sitúan una ronda en septiembre de 2025 de 750 millones de dólares a una valoración de 6.900 millones. Axios eleva el acumulado y detalla que Groq habría levantado alrededor de 3.300 millones desde 2016. The New York Times, citando PitchBook, habla de más de 3.000 millones y también menciona una valoración cercana a 7.000 millones. No son números menores, pero tampoco son los de un líder consolidado en volumen de despliegue.

Lo relevante es que Groq se había posicionado como una de las startups que intentan rediseñar hardware para inferencia con la idea de reducir energía y mejorar latencia, justo cuando el mercado empieza a separar con más claridad dos mundos: entrenar modelos gigantes y servir respuestas a escala.

La operación, según las piezas disponibles: licencia “no exclusiva”, fichajes y continuidad formal

El comunicado de Groq establece los pilares: acuerdo “no exclusivo” de licencia con Nvidia para tecnología de inferencia; incorporación a Nvidia de Jonathan Ross, Sunny Madra y otros miembros del equipo; continuidad de Groq como compañía independiente con Simon Edwards como CEO; continuidad de GroqCloud “sin interrupción”.

Los medios completan el contorno con distintos énfasis:

  • Integración en productos futuros: Bloomberg afirma que Nvidia ha pagado por el derecho a usar la tecnología e integrará el diseño del chip en productos futuros.
  • Encaje en la arquitectura de Nvidia: Datacenter Dynamics atribuye a Jensen Huang un mensaje interno donde se habla de integrar procesadores de baja latencia de Groq en la arquitectura de “AI factory” de Nvidia, extendiendo la plataforma para más cargas de inferencia y tiempo real. Financial Times reproduce la misma idea en términos parecidos y sitúa el correo como visto por el medio.
  • No es adquisición: Datacenter Dynamics explica que CNBC informó inicialmente de una compra de Groq por 20.000 millones de dólares, para después matizar que esa cifra correspondería al precio del acuerdo de licencia, no a una adquisición. La cifra no estaría verificada independientemente, según esa misma pieza. Huang, en el correo citado por Datacenter Dynamics, insiste: “no estamos adquiriendo Groq como compañía”.
  • Quién se va y quién se queda: además de Ross y Madra, “otros miembros del equipo” se incorporan a Nvidia según Groq. Axios va más allá y sostiene, citando fuentes cercanas al acuerdo, que alrededor del 90% de los empleados de Groq se unirían a Nvidia. Esa proporción, si se confirma con el tiempo, tensiona la idea de “independencia” operativa, incluso si jurídicamente Groq sigue existiendo.
  • Continuidad de GroqCloud: Groq y varios medios (WSJ, Datacenter Dynamics) remarcan que el servicio seguirá operando. WSJ añade que Ross, en LinkedIn, dijo que se unía a Nvidia para ayudar a integrar la tecnología licenciada y que GroqCloud continuaría funcionando de forma independiente.

Hasta aquí, los hechos. Lo que queda abierto es la sustancia real del “no exclusivo”, un término que puede significar muchas cosas. Puede ser un mecanismo para permitir que Groq licencie a terceros, pero también puede ser una forma de presentar la operación como menos concentradora, aun si Nvidia termina siendo el ejecutor más capaz por la combinación de recursos y el fichaje del liderazgo clave.

Por qué Nvidia se mueve ahora: inferencia, energía y la amenaza de alternativas

Nvidia llega a este acuerdo desde una posición de poder poco habitual. The New York Times afirma que sus chips de IA representan más del 90% del mercado y que autoridades en la Unión Europea, Reino Unido y China han pedido información sobre ventas, asignación de suministros e inversiones, según los propios registros de la compañía. WSJ recuerda que Nvidia lleva años dominando chips avanzados para IA, se ha convertido en la empresa más valiosa del mundo y ha aumentado la cadencia de lanzamientos. NYT cuantifica su capitalización en torno a 4,6 billones de dólares en el momento del artículo; Financial Times menciona un pico de valoración de 5 billones a finales de octubre y una posterior caída de la acción por dudas sobre la sostenibilidad del boom de IA. En paralelo, WSJ indica que las acciones subían más del 35% en el año, mientras FT habla de un 36%.

Esa posición no elimina un problema industrial: la demanda de inferencia crece y, con ella, el coste. El sector está empezando a tratar la energía como cuello de botella, y ahí las narrativas de eficiencia ganan valor estratégico. Groq se ha construido precisamente sobre esa promesa: baja latencia, eficiencia y un diseño especializado. Incluso si parte del mercado discutiera la madurez o el alcance de esa ventaja, el simple hecho de que exista una alternativa con relato creíble ya es un vector competitivo.

Además, Nvidia afronta una realidad incómoda que WSJ formula sin rodeos: entrantes como Google y Amazon, y clientes grandes como OpenAI y Meta diseñando chips propios. El acuerdo con Groq puede leerse como una respuesta preventiva: incorporar ideas de arquitectura orientadas a inferencia y, a la vez, evitar que ese conocimiento se convierta en ventaja de un competidor o de un hyperscaler que ya busca emanciparse del dominio de las GPU.

Aquí aparece un matiz que varios textos insinúan sin decirlo igual. Ross está asociado al origen de los TPU. Y, aunque Nvidia ha celebrado públicamente avances de otros, un movimiento de 20.000 millones (si esa cifra refleja el valor real de la licencia) por tecnología de inferencia y por el autor de la línea de chips que simboliza la alternativa más conocida a Nvidia sugiere que el problema no es solo técnico. También es narrativo: si el mercado empieza a creer que hay vida más barata y más eficiente fuera de las GPU para inferencia, la presión se traslada a precios, márgenes y diseño de producto.

“Hackquisition”: la forma del acuerdo como parte del mensaje

La forma jurídica de la operación es, por sí sola, noticia. The New York Times enmarca este tipo de transacciones como una tendencia en la que gigantes tecnológicos licencian tecnología y contratan a los líderes de startups, absorbiendo en la práctica activos y talento sin comprar la empresa, en parte para evitar escrutinio regulatorio. Cita precedentes: Meta con Scale AI, Google con Character.AI y Microsoft con Inflection AI, todos presentados como acuerdos de licencia y fichajes.

Financial Times también recoge el contexto antimonopolio y cita a Stacy Rasgon (Bernstein Research), quien sugiere que el riesgo principal sería antitrust, aunque la estructura “no exclusiva” podría mantener una “ficción” de competencia. La palabra “ficción” aquí no funciona como acusación, sino como descripción de cómo se intenta encajar un movimiento estratégico en un marco de apariencia competitiva.

Axios añade una pieza clave, también basada en fuentes: el esquema de pagos. Según esa información, los accionistas recibirían distribuciones ligadas a una valoración de 20.000 millones, con un 85% por adelantado, otro 10% a mediados de 2026 y el resto a final de 2026. Los empleados recibirán efectivo por las acciones ya consolidadas, mientras que el valor de las participaciones pendientes de consolidación se transformará en acciones de Nvidia sujetas a un nuevo calendario de consolidación, además de aceleración total para un grupo reducido. Si esos detalles son correctos, el acuerdo no solo transfiere tecnología y talento: también reordena incentivos y cierra, por primera vez, una vía de liquidez para una base inversora que, según Axios, no había tenido un tender secundario previo.

Este tipo de ingeniería económica tiene efectos colaterales. Por un lado, reduce la fricción interna para mover personas a Nvidia. Por otro, puede dejar una Groq “independiente” con menos músculo humano, aunque mantenga marca, estructura legal y un servicio en marcha como GroqCloud. La independencia, en estos casos, se vuelve una cuestión graduada, no binaria.

Qué puede significar “integrar” la tecnología de Groq en Nvidia

Los textos disponibles apuntan a una intención: integrar procesadores de baja latencia, o el diseño asociado, en la arquitectura de “AI factory” de Nvidia. Ese concepto, usado por Jensen Huang, suele referirse a centros de datos construidos alrededor de hardware Nvidia, interconexión, software y un conjunto de herramientas para desplegar IA de forma industrial.

La integración puede tomar varias formas, y aquí conviene ser prudente porque no hay términos técnicos detallados en la información aportada. Bloomberg habla de incorporar el diseño del chip en productos futuros. Eso podría significar desde adoptar ideas de arquitectura (memoria embebida, caminos de datos, programación) hasta desarrollar líneas de producto que imiten o absorban parte del enfoque de Groq para inferencia de baja latencia.

Lo que sí se deduce de manera razonable, a partir de lo publicado, es el motivo: Nvidia quiere ampliar su plataforma para atender una gama “más amplia” de cargas de inferencia y tiempo real. En otras palabras, no se trata solo de tener la GPU más potente, sino de ofrecer la respuesta más eficiente en coste y latencia cuando el cliente ya no está entrenando, sino sirviendo millones de consultas.

Te puede interesar
Redes 5G

Es un giro relevante porque, durante años, el discurso del mercado giró alrededor del entrenamiento como evento estrella. La inferencia era el volumen, pero no la narrativa. En 2025, la inferencia empieza a ser ambas cosas.

Qué pasa con Groq a partir de ahora: CEO nuevo, GroqCloud y una incógnita operativa

Groq anuncia que Simon Edwards, hasta ahora responsable financiero, se convierte en CEO. La continuidad de GroqCloud se presenta como señal de estabilidad para clientes y desarrolladores que consumen capacidad de cómputo sin comprar chips o servidores, como detalla WSJ. En teoría, el mensaje es tranquilizador: el producto sigue, la compañía sigue.

La tensión viene por otra vía: si, como sugiere Axios, cerca del 90% de empleados se iría a Nvidia, la continuidad funcional dependerá de cuánto talento queda, cómo se reorganiza y qué parte del conocimiento operativo del servicio se traslada o no. Aun sin aceptar al pie de la letra ese porcentaje, la operación, tal como está descrita, implica una transferencia significativa de capital humano.

Aquí también aparece la ambigüedad del “no exclusivo”. Si Groq mantiene el derecho a licenciar a terceros, podría intentar capitalizar su tecnología desde una posición distinta, con menos presión de competir frontalmente en chips contra Nvidia, y quizá más foco en servicios. Pero si la ventaja diferencial de Groq descansaba en un equipo específico y en una cultura de diseño, la migración de ese núcleo a Nvidia cambia el equilibrio.

Lo que queda es un activo interesante: GroqCloud como escaparate y canal de distribución, y una marca asociada a inferencia rápida. En un mercado donde los usuarios cada vez miden latencia y coste por respuesta, tener un servicio operativo puede ser tanto un negocio como una herramienta de prueba continua.

El papel de los reguladores y la pregunta incómoda sobre competencia real

La dimensión regulatoria no es una nota al pie. NYT recuerda que autoridades en la UE, Reino Unido y China han solicitado información a Nvidia sobre ventas y asignación de chips, y que la compañía ha enfrentado escrutinio por inversiones y mercado. Financial Times subraya que el aumento de acuerdos de este tipo coincide con escalada de vigilancia antimonopolio.

La estructura “licencia + fichajes” funciona, en parte, como respuesta a ese clima. Si un regulador mira solo la propiedad accionarial, no hay adquisición. Si mira el efecto competitivo, la discusión se complica: Nvidia obtiene tecnología y talento, Groq mantiene entidad legal, y el mercado ve un competidor menos agresivo o, como mínimo, un competidor con su centro de gravedad desplazado.

Ese punto, para empresas en España que dependen de disponibilidad de hardware y de un ecosistema competitivo, no es abstracto. Determina precios, diversidad de proveedores y velocidad de innovación. Y, aunque el acuerdo se presente como expansión de “acceso” a inferencia de alto rendimiento y bajo coste, el equilibrio entre acceso y concentración dependerá de cómo se implemente y de si la “no exclusividad” se traduce en opciones reales para terceros.

Una operación que reordena el tablero de inferencia, pero deja varias preguntas sin respuesta

Quedan incógnitas concretas que condicionarán el impacto real:

  • Alcance técnico de la licencia: qué parte exacta de la tecnología de Groq entra en Nvidia, y bajo qué límites, no se ha detallado en las piezas aportadas.
  • Calendario de productos: Bloomberg habla de integración en productos futuros, pero no hay fechas ni familias.
  • Destino de GroqCloud: se promete continuidad, pero su capacidad de innovación dependerá del equipo que permanezca y de cómo se articule la relación con Nvidia.
  • Efecto sobre la competencia: el término “no exclusivo” sugiere apertura, pero el fichaje de liderazgo puede inclinar la balanza hacia Nvidia incluso si, en teoría, otros pudieran licenciar lo mismo.
  • Reacción regulatoria: varios antecedentes citados por NYT indican que esta estructura se usa precisamente para reducir fricción regulatoria, pero no está claro si funcionará igual en un caso que implica al actor dominante del hardware de IA.

Si algo caracteriza este movimiento es su mezcla de urgencia y ambigüedad: se acelera la integración de una tecnología orientada a inferencia en el líder del mercado, se evita el marco formal de una compra y se mantiene viva, al menos en el papel, la existencia de la startup. En 2026, el detalle que importe no será si el acuerdo fue “no exclusivo”, sino quién consigue convertir esa licencia en productos, en capacidad desplegada y, sobre todo, en coste por respuesta.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad