Estás leyendo
Fei-Fei Li sitúa la próxima frontera de la IA fuera del lenguaje

Fei-Fei Li sitúa la próxima frontera de la IA fuera del lenguaje

  • En el Cisco AI Summit, Fei-Fei Li expone por qué la siguiente generación de IA no se decidirá por capacidad, sino por confianza y comprensión del mundo físico.
Cisco AI Summit - Fei-Fei Li

La segunda edición del Cisco AI Summit reunió a responsables tecnológicos, investigadores y directivos para analizar cómo la inteligencia artificial está pasando de la experimentación a la integración estructural en empresas, infraestructuras y sistemas críticos.

En un programa dominado por debates sobre despliegue, mercado e infraestructura, la sesión 3D & AI introdujo un cambio de plano deliberado. En ella, Fei-Fei Li, cofundadora y CEO de World Labs, centró su análisis en una pregunta distinta: qué tipo de inteligencia será necesaria cuando la IA deje de limitarse al lenguaje y tenga que operar con fiabilidad en el mundo físico.

El marco de partida fue claro. La siguiente etapa de la inteligencia artificial, sostuvo Li, no estará determinada por la mera capacidad de cálculo o por mejoras incrementales en benchmarks. Estará condicionada por la confianza. Y esa confianza no se construye solo con mejores respuestas textuales, sino con sistemas capaces de entender, anticipar y actuar en entornos físicos complejos, compartidos con humanos.

Del lenguaje al espacio

Durante la última década, gran parte del progreso en IA se ha concentrado en el lenguaje y, en menor medida, en la imagen bidimensional. Modelos capaces de leer, escribir, resumir o generar código han redefinido procesos enteros. Sin embargo, para Fei-Fei Li ese enfoque tiene un límite estructural: el mundo en el que operan las personas y las máquinas no es textual ni plano, sino tridimensional, dinámico y lleno de ambigüedades.

La IA espacial, tal y como la planteó, busca dotar a los sistemas de una representación interna del entorno que incluya profundidad, relaciones físicas, continuidad temporal y causalidad. No se trata solo de “ver” objetos, sino de comprender cómo se organizan en el espacio, cómo cambian con el tiempo y qué consecuencias tiene interactuar con ellos.

Este salto introduce un tipo de complejidad muy distinto al del lenguaje. En el mundo físico no hay instrucciones explícitas ni datos perfectamente etiquetados. Hay incertidumbre, ruido, fricción y consecuencias irreversibles. Precisamente por eso, argumentó Li, la confianza se convierte en el criterio central.

Confianza como problema técnico, no ético

Aunque la sesión incluyó referencias a valores humanos, el planteamiento de Li fue marcadamente técnico. La confianza no apareció como un principio abstracto, sino como una condición operativa. Un sistema de IA que actúa en el mundo físico debe ser predecible, interpretable y consistente. No basta con que funcione “la mayoría de las veces”.

En ámbitos como la robótica, la logística avanzada, la fabricación o la cirugía asistida, los márgenes de error son estrechos. Un fallo no se traduce en una respuesta incorrecta, sino en un daño físico, una interrupción de la cadena de suministro o un riesgo para personas. De ahí que la IA espacial requiera arquitecturas, datos y procesos de validación muy distintos a los de los modelos de lenguaje.

Li subrayó que este tipo de sistemas no puede entrenarse únicamente con grandes volúmenes de datos pasados. Necesita simulación, entornos sintéticos y modelos que integren percepción, razonamiento y acción de forma coherente. La confianza, en este contexto, es el resultado de un diseño cuidadoso, no de una capa posterior de control.

El mundo como dato

Uno de los puntos más relevantes de la sesión fue la redefinición implícita de qué se considera “dato” en la próxima fase de la IA. Frente al texto o la imagen estática, la IA espacial trabaja con escenas completas, trayectorias, interacciones y estados del entorno que evolucionan en tiempo real.

Esto implica un cambio profundo en la forma de construir modelos. El mundo físico no se deja capturar fácilmente en datasets tradicionales. Requiere sensores, simulaciones y representaciones que aún están en desarrollo. También introduce costes computacionales y de ingeniería elevados, que explican por qué esta frontera avanza a un ritmo distinto al de los modelos generativos.

En este punto, la intervención de Li conectó indirectamente con otros debates del Cisco AI Summit. La IA espacial no solo es un problema de algoritmo; es un problema de infraestructura, latencia y sistemas distribuidos. Pero, a diferencia de otras áreas, sus aplicaciones no admiten aproximaciones parciales: o el sistema es fiable, o no es utilizable.

Te puede interesar
Cisco AI Summit - Cuando la IA se convierte en infraestructura crítica, la geopolítica cambia de ritmo

No es el problema de hoy, pero sí el de mañana

Fei-Fei Li fue explícita al situar esta frontera en un horizonte distinto al de la adopción empresarial inmediata. La IA espacial no resolverá, en el corto plazo, los retos de productividad que hoy ocupan a la mayoría de las organizaciones. Tampoco sustituirá a los modelos de lenguaje como interfaz principal.

Su relevancia está en otro lugar. A medio y largo plazo, será decisiva para trasladar la inteligencia artificial fuera de la pantalla y convertirla en una tecnología capaz de operar de forma autónoma en el mundo físico. Ahí es donde se jugarán aplicaciones industriales, científicas y sociales de alto impacto.

Para Europa, y en particular para economías con una base industrial significativa, esta lectura tiene implicaciones estratégicas. La capacidad de desarrollar, probar y regular sistemas de IA espacial puede convertirse en un factor de competitividad, no por volumen de adopción, sino por fiabilidad y especialización.

Una frontera que exige paciencia

La sesión de Fei-Fei Li no ofreció atajos ni promesas inmediatas. Su valor estuvo precisamente en marcar una distancia respecto al ruido actual. Mientras buena parte del ecosistema discute cómo escalar la IA existente, Fei-Fei Li planteó qué tipo de inteligencia será necesaria cuando esa escala deje de ser el principal problema.

La próxima frontera de la IA no se decidirá por quién genere más texto ni por quién despliegue antes un asistente. Se decidirá por quién consiga que las máquinas entiendan y respeten las reglas implícitas del mundo que compartimos. Y ese es un desafío que va mucho más allá del lenguaje.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad