Estás leyendo
Yann LeCun cuestiona la escalada de los LLM y reorienta su investigación hacia modelos predictivos

Yann LeCun cuestiona la escalada de los LLM y reorienta su investigación hacia modelos predictivos

  • Yann LeCun critica los límites estructurales de los modelos de lenguaje y defiende arquitecturas basadas en predicción y comprensión causal del entorno.
Inteligencia artificial generativa

Durante más de cuatro décadas, Yann LeCun ha sido una figura central en el desarrollo de la inteligencia artificial. Su trabajo pionero en redes neuronales sentó las bases de los sistemas que hoy impulsan asistentes digitales, reconocimiento facial y, más recientemente, los modelos de lenguaje como ChatGPT. Sin embargo, tras abandonar Meta en noviembre de 2025, LeCun ha intensificado sus críticas hacia la dirección que está tomando la industria tecnológica, especialmente en Silicon Valley.

En una entrevista reciente con The New York Times, LeCun advirtió que la apuesta casi unánime por los grandes modelos de lenguaje (LLM, por sus siglas en inglés) podría llevar a un callejón sin salida. “Hay un efecto rebaño donde todos en Silicon Valley tienen que trabajar en lo mismo”, afirmó desde su casa en París. A su juicio, esta homogeneidad limita la exploración de alternativas que podrían ser más prometedoras a largo plazo.

La crítica no es nueva, pero sí más urgente. Desde el lanzamiento de ChatGPT en 2022, el debate sobre la posibilidad de alcanzar una inteligencia artificial general —o incluso una superinteligencia— se ha intensificado. Empresas como OpenAI, Google y Meta han invertido miles de millones en escalar modelos cada vez más grandes, con la esperanza de que la complejidad emergente los acerque a una inteligencia comparable a la humana. LeCun, sin embargo, considera que esa estrategia tiene límites estructurales.

Según el científico francés, los LLM no son capaces de planificar ni de anticipar consecuencias, dos capacidades esenciales para una inteligencia verdaderamente autónoma. “Los LLM no son un camino hacia la superinteligencia ni siquiera hacia la inteligencia a nivel humano. Lo he dicho desde el principio”, subrayó. Su crítica se apoya en una premisa técnica: al estar entrenados exclusivamente con datos digitales, estos modelos carecen de una comprensión funcional del mundo físico y de la causalidad.

La paradoja es que LeCun fue uno de los artífices de la tecnología que posibilitó los LLM. Su trabajo en los años ochenta y noventa, especialmente en Bell Labs, demostró que las redes neuronales podían aprender tareas como el reconocimiento de escritura manuscrita. Décadas después, esas mismas arquitecturas se escalaron y adaptaron para procesar lenguaje natural a gran escala. Pero para LeCun, esa evolución no implica que el enfoque actual sea el adecuado para los próximos pasos.

Durante su etapa en Meta, LeCun impulsó una línea de investigación distinta, centrada en sistemas capaces de predecir el resultado de sus acciones. Esta aproximación, conocida como modelado del mundo o aprendizaje predictivo, busca dotar a las máquinas de una forma rudimentaria de sentido común. Su nueva empresa, Advanced Machine Intelligence Labs (AMI Labs), continuará desarrollando esta línea.

El giro de LeCun también tiene una dimensión geopolítica. Mientras muchas empresas estadounidenses han restringido el acceso abierto a sus modelos por motivos de seguridad o ventaja competitiva, él defiende que el código abierto es la vía más segura y eficaz para avanzar. “Si todos son abiertos, el campo progresa más rápido”, afirmó. En su opinión, el cierre progresivo de las plataformas occidentales podría abrir la puerta a que empresas chinas, más proclives a compartir sus avances, tomen la delantera.

No todos comparten su diagnóstico. Rayan Krishnan, CEO de Vals AI, sostiene que los modelos actuales siguen mejorando en tareas complejas como matemáticas o programación. “Estos modelos cometen errores, pero también pueden explorar múltiples opciones antes de decidir una respuesta final”, explicó. Para Krishnan, el progreso no se ha estancado, sino que se está acelerando.

Te puede interesar
Radiología Inteligencia Artificial

Subbarao Kambhampati, profesor en la Universidad Estatal de Arizona y veterano en el campo de la IA, coincide en que los LLM no son una vía directa hacia la inteligencia general. No obstante, reconoce que su utilidad en sectores como el desarrollo de software es incuestionable. En contraste, los métodos alternativos que promueve LeCun aún no han demostrado resultados comparables.

El debate también pone de relieve una tensión estructural en la industria: la presión por resultados inmediatos frente a la necesidad de explorar caminos menos transitados. Silicon Valley, según LeCun, sufre de una especie de miopía colectiva que le impide considerar que las ideas más disruptivas puedan venir de fuera. “Las buenas ideas están viniendo de China”, advirtió. “Pero Silicon Valley tiene un complejo de superioridad que le impide imaginar que eso sea posible.”

A medida que se intensifica la carrera global por liderar la próxima generación de inteligencia artificial, las advertencias de LeCun resuenan con una mezcla de escepticismo y urgencia. No tanto por su tono provocador, sino porque provienen de alguien que ya ha visto cómo caminos prometedores se agotan antes de alcanzar su destino. Su apuesta, ahora, es que la próxima frontera no se alcanzará con más datos ni más parámetros, sino con una arquitectura distinta que aún está por probarse.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad