Estás leyendo
La inteligencia artificial de la UFV permite identificar la composición celular de tumores sin recurrir a biopsias invasivas

La inteligencia artificial de la UFV permite identificar la composición celular de tumores sin recurrir a biopsias invasivas

  • Un estudio liderado por la Universidad Francisco de Vitoria analiza algoritmos de "deep learning" para desglosar tejidos tumorales a partir de datos moleculares.
Oreja de Silicio - La Ecuación Digital

La oncología moderna se enfrenta a una paradoja de resolución. Mientras la capacidad de secuenciación genómica ha crecido de forma exponencial, la comprensión de la microestructura de un tumor sigue dependiendo, en gran medida, de procesos que requieren fragmentar el tejido o dedicar horas de análisis humano frente al microscopio. Esta limitación física plantea una pregunta que condiciona la eficiencia de los tratamientos personalizados en España: ¿es posible reconstruir la identidad individual de miles de células a partir de una «sopa» molecular genérica sin destruir la muestra en el proceso?

La respuesta parece residir en la deconvolución celular, una disciplina que busca revertir el caos de los datos agregados para asignar proporciones exactas a cada tipo celular. Un reciente estudio coordinado por la Universidad Francisco de Vitoria, liderado por la investigadora Alba Lomas del Centro de Estudios e Innovación en Gestión del Conocimiento (CEIEC), ha analizado sistemáticamente cómo la inteligencia artificial está logrando «escuchar» estas firmas biológicas donde el ojo humano solo ve una media estadística. El trabajo, en el que colaboran el director del CEIEC, José M. Sánchez Velázquez, y Víctor Sánchez-Arévalo, responsable de Oncología Molecular del Hospital 12 de Octubre, ordena por primera vez las herramientas de deep learning capaces de ejecutar este paladar digital.

El muro de los costes y la ceguera del «bulk»

En el ecosistema sanitario español, donde se diagnostican cerca de 300.000 nuevos casos de cáncer anualmente, la eficiencia diagnóstica no es solo una cuestión médica, sino de sostenibilidad operativa. Las técnicas actuales de análisis célula a célula (single-cell), aunque precisas, suponen un desembolso que puede escalar hasta los 2.250 dólares por muestra, además de requerir tiempos de procesamiento incompatibles con la urgencia de ciertos protocolos de tratamiento.

Como alternativa, la técnica bulk RNA-seq se presenta como una opción más económica y veloz al secuenciar el ARN de una muestra completa. Sin embargo, su limitación es estructural: ofrece una visión promedio. Es una imagen borrosa donde se sabe que hay células tumorales, linfocitos y macrófagos, pero se desconoce en qué proporción y cómo interactúan. La IA entra aquí no como un sustituto del biólogo, sino como un motor de inferencia capaz de separar los ingredientes de esa mezcla molecular mediante patrones matemáticos que antes resultaban indescifrables.

La arquitectura del modelo: del MLP a la ausencia de «transformers»

El análisis de la UFV, que cribó 171 investigaciones para quedarse con las 13 de mayor rigor técnico bajo el estándar PRISMA, revela una jerarquía tecnológica clara. La mayoría de los modelos actuales se basan en redes neuronales multicapa (MLP). Estos sistemas son eficaces para detectar relaciones no lineales en el volumen masivo de datos que genera la expresión génica, permitiendo estimar si un melanoma está siendo infiltrado con éxito por el sistema inmunitario o si un tumor cerebral mantiene una pureza que condiciona su resistencia química.

Pese al avance, el estudio señala una asimetría técnica notable. Mientras que en sectores como el procesamiento del lenguaje natural o la visión artificial los transformers han reescrito las reglas del juego, en el análisis de deconvolución de tejidos su presencia es todavía inexistente. El sector se apoya en autoencoders para comprimir información y en redes generativas (GANs) para fabricar datos sintéticos que compensen la escasez de muestras reales, pero la capacidad de atención de los transformers sigue siendo una frontera sin cruzar en este mapa bibliográfico.

La opacidad de la caja negra y el problema del dato

Uno de los puntos de fricción identificados por Lomas y su equipo es la falta de un lenguaje común en el procesamiento de datos. Cada grupo de investigación aplica criterios de normalización y filtrado de genes distintos. Esta variabilidad dificulta que un algoritmo entrenado en un entorno académico pueda trasladarse con garantías a la práctica clínica de un hospital público. La IA, en este contexto, se comporta a menudo como una «caja negra»: ofrece un resultado de alta precisión, pero no siempre explica la ruta lógica que ha seguido para determinar que una muestra contiene un 10% de macrófagos y no un 5%.

Además, existe una dependencia crítica de los datos de célula única para entrenar a estos modelos. Para que un algoritmo aprenda a reconocer la «firma» de una célula T en una mezcla, necesita haberla visto aislada previamente en lo que los investigadores denominan pseudobulks. Esta dependencia crea un círculo donde, para abaratar el diagnóstico futuro, sigue siendo necesario invertir en las técnicas caras que se pretenden optimizar.

Te puede interesar
Comercio online - Ventas

Impacto en la gestión y la terapéutica

La implementación de estas herramientas de inteligencia artificial aplicada a datos moleculares no solo promete diagnósticos más rápidos, sino una reconfiguración de la estrategia terapéutica. Si un oncólogo puede conocer en minutos el perfil de infiltración inmunitaria de un tumor a partir de una biopsia líquida o una muestra estándar de ARN, la selección de fármacos de inmunoterapia deja de ser una apuesta basada en estadísticas generales para convertirse en una decisión basada en la composición exacta del microambiente tumoral del paciente.

El equipo del CEIEC apunta ahora hacia la creación de conjuntos de datos abiertos y modelos más explicables. El objetivo es transformar esas cajas negras en sistemas transparentes que permitan al patólogo validar el razonamiento de la máquina. La transición de la investigación al entorno hospitalario dependerá, sin embargo, de la capacidad de la comunidad científica para establecer métricas de precisión universales que permitan comparar modelos de forma objetiva.

La posibilidad de monitorizar recaídas mediante extracciones de sangre procesadas por algoritmos de deconvolución abre una derivada económica evidente: reducir la necesidad de pruebas invasivas y estancias hospitalarias prolongadas para pruebas de seguimiento. Aunque la tecnología para «escuchar» los tejidos ya está disponible en el plano teórico, su integración en la rutina asistencial española está condicionada por la validación clínica de estos modelos en entornos reales de alta presión. La incógnita persiste en cuánto tiempo tardará el sistema regulatorio en certificar estos procesos como equivalentes a la observación directa microscópica.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad