Estás leyendo
Thinking Machines lanza Tinker, una API para entrenar modelos de IA abiertos

Thinking Machines lanza Tinker, una API para entrenar modelos de IA abiertos

  • Una herramienta orientada a investigadores y desarrolladores que permite entrenar modelos abiertos sin gestionar infraestructuras.
Mira Murati - Thinking Machines Lab

La startup Thinking Machines Lab, fundada por un equipo de exinvestigadores de OpenAI y liderada por Mira Murati, ha anunciado el lanzamiento de su primer producto: Tinker, una API diseñada para facilitar el fine-tuning o ajuste fino de modelos de lenguaje de gran escala. Este servicio gestionado permite a investigadores, desarrolladores y grupos académicos personalizar modelos de IA sin necesidad de operar directamente clústeres de GPU ni infraestructuras distribuidas.

Tinker proporciona una interfaz de programación que da acceso directo a primitivas de entrenamiento como forward_backward y sample, permitiendo expresar una amplia variedad de métodos de ajuste post-entrenamiento. A través de esta API, los usuarios pueden modificar tanto modelos ligeros como grandes arquitecturas de open-weight, incluidas configuraciones avanzadas como Qwen-235B-A22B, un modelo tipo mixture-of-experts. Cambiar de modelo requiere únicamente una modificación en el código.

Ordenador TinkerToy inventado por Daniel Hillis y Brian Silverman
Ordenador TinkerToy inventado por Daniel Hillis y Brian Silverman

Capacidades y arquitectura técnica

El servicio se ejecuta sobre la infraestructura interna de Thinking Machines Lab. La empresa se encarga de la programación de tareas, asignación de recursos y recuperación ante fallos, lo que elimina la necesidad de gestionar entornos distribuidos por parte del usuario. Para reducir costes y compartir recursos entre múltiples entrenamientos, Tinker emplea técnicas como LoRA (Low-Rank Adaptation), una metodología que permite ajustar modelos grandes sin reentrenarlos por completo.

Además de la API, la compañía ha lanzado el Tinker Cookbook, una biblioteca de código abierto que incluye implementaciones de métodos de ajuste actuales y listos para usar sobre la propia API. Esta combinación busca facilitar el trabajo tanto a quienes investigan nuevos algoritmos como a aquellos que quieren replicar configuraciones avanzadas.

Uso por parte de instituciones académicas

Varias universidades e institutos de investigación ya han tenido acceso anticipado a Tinker. Entre los primeros usuarios figuran:

  • El equipo Goedel de Princeton, que entrenó sistemas para demostración automática de teoremas.
  • El grupo de química de Rotskoff en Stanford, que ajustó modelos para tareas de razonamiento químico.
  • El grupo SkyRL de Berkeley, que experimentó con un bucle de entrenamiento RL asíncrono personalizado con agentes múltiples.
  • Redwood Research, que utilizó Tinker para aplicar reinforcement learning a Qwen3-32B en tareas complejas de control de IA.

Acceso restringido y futura monetización

Por el momento, Tinker se encuentra en fase beta privada. Los interesados pueden solicitar acceso a través de un formulario publicado por la compañía. El servicio será gratuito en esta fase inicial, aunque Thinking Machines Lab ha adelantado que adoptará un modelo de tarificación por uso en las próximas semanas.

Tinker permite realizar ajustes tanto mediante aprendizaje supervisado como por refuerzo. En el primer caso, el modelo se entrena con datos etiquetados; en el segundo, se utilizan señales de recompensa para modificar su comportamiento. Una vez entrenado, el modelo personalizado puede descargarse y ejecutarse localmente.

Un equipo con trayectoria en modelos de frontera

Thinking Machines Lab ha captado la atención del sector tecnológico no solo por la propuesta de Tinker, sino también por el perfil de sus fundadores. La CEO, Mira Murati, fue directora técnica de OpenAI y llegó a ocupar brevemente el cargo de CEO tras la destitución de Sam Altman en 2023. En los meses siguientes, abandonó la organización y fundó la nueva empresa junto con otros excolaboradores de OpenAI como John Schulman, Barret Zoph, Lilian Weng, Andrew Tulloch y Luke Metz.

La empresa fue noticia en julio al anunciar una ronda de financiación inicial de 2.000 millones de dólares, que situó su valoración en 12.000 millones. Schulman, uno de los principales desarrolladores del modelo de ChatGPT, ha sido clave en la construcción de Tinker, especialmente en su capacidad para aplicar técnicas de reinforcement learning que permiten extraer nuevas habilidades de los modelos de lenguaje.

En declaraciones recogidas por Wired, Schulman afirma que Tinker proporciona «control total sobre el bucle de entrenamiento», mientras oculta la complejidad del entorno distribuido. Esta dualidad permite tanto personalización avanzada como facilidad operativa, lo que, según la empresa, podría permitir a un número creciente de usuarios participar en el desarrollo de modelos de frontera.

Evaluación y perspectivas del sector

La propuesta de Tinker se enmarca en un contexto donde empresas tecnológicas y laboratorios académicos ya aplican ajustes a modelos de código abierto como LLaMA (Meta) o Qwen (Alibaba) para tareas especializadas: desde redacción legal hasta diagnóstico médico. Sin embargo, estos procesos requieren conocimientos avanzados en ingeniería de sistemas y acceso a hardware de alto rendimiento.

Te puede interesar
AINIA

Tinker plantea una alternativa que automatiza gran parte de este proceso sin limitar el control algorítmico, un enfoque que ha despertado el interés de investigadores y observadores del sector. La posibilidad de ejecutar pruebas experimentales con modelos como Qwen-235B-A22B sin gestionar manualmente un clúster de GPUs representa un cambio en el acceso a capacidades de IA de última generación.

Implicaciones para el ecosistema de IA

La aparición de herramientas como Tinker podría modificar el equilibrio en el ecosistema de IA, donde el acceso a infraestructura ha sido hasta ahora una barrera significativa. Al ofrecer una interfaz que abstrae la complejidad operativa pero conserva el control sobre el algoritmo y los datos, Thinking Machines Lab apunta a una base de usuarios más amplia, que va desde grupos de investigación hasta desarrolladores independientes.

No obstante, también surgen interrogantes sobre la gobernanza, los riesgos de seguridad y el uso potencial de estas herramientas en contextos sensibles. Uno de los primeros beta testers, el investigador Eric Gan de Redwood Research, ha afirmado estar utilizando Tinker para explorar cómo los modelos pueden aprender a insertar puertas traseras en código, lo que pone de relieve la necesidad de establecer límites éticos y mecanismos de supervisión adecuados.

Inicio controlado y monitorización del uso

Aunque por ahora Tinker solo está disponible para un número limitado de usuarios, Thinking Machines Lab ha indicado que la apertura se hará de forma escalonada. Según la empresa, el sistema de acceso permitirá evaluar tanto la demanda como los casos de uso emergentes. A medio plazo, la incorporación de un modelo de tarificación por uso permitirá evaluar la sostenibilidad del servicio.

Con este lanzamiento, Thinking Machines Lab se suma a un creciente número de actores que están construyendo infraestructura de segundo nivel para facilitar el entrenamiento de modelos a medida. A diferencia de proveedores de model-as-a-service que ofrecen modelos cerrados, la propuesta de Tinker gira en torno a modelos de código abierto y la autonomía del usuario sobre su entrenamiento y despliegue.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad