Article
Oct 8, 2025
La próxima frontera de la IA en patologIA
La próxima frontera de la IA en patologIA La IA Transformer es poco escalable para patólogos sin músculo gráfico
Introducción
Ejecutar inteligencia artificial puede o no ser caro. Sin embargo, hacerla bien, hacerla competente, generalizable y robusta, depende directamente de la capacidad de cómputo que se utilice. Si eres un patólogo joven que empieza a explorar el mundo de la inteligencia artificial aplicada al diagnóstico, notarás pronto que un hardware de consumo general puede bastar para comprender los conceptos técnicos y realizar tus primeros experimentos.
Pero conforme avances hacia tareas más exigentes —clasificación, segmentación o multisegmentación de tumores— descubrirás que el hardware modesto se vuelve una barrera natural. Reducir la resolución de las imágenes puede permitirte entrenar modelos, pero a costa de perder detalle, textura, información contextual y, sobre todo, capacidad de generalización.
Las laptops con RTX de la serie 4000 o las torres equipadas con gráficas 3090, 4090 o 5090 son suficientes para explorar los fundamentos, pero pronto notarás que cada incremento en resolución multiplica por diez el tiempo de cómputo. Sin estrategias de eficiencia ni clusters dedicados, cada experimento puede tomar días completos. Y aunque los avances en visión artificial para patología se construyeron con tarjetas similares, aún estamos lejos de manipular decenas de millones de imágenes en cuestión de horas.
El precio de los Transformers
Cuando trabajamos con modelos Transformer, ejecutamos un cómputo exhaustivo. Un cómputo fantástico, sí, pero que exige tiempo, energía y dinero. Este esfuerzo resulta insostenible para patólogos o instituciones que recién comienzan su camino en investigación digital y no cuentan con recursos económicos constantes.
La reducción forzada del tamaño de las imágenes o la cantidad de datos de entrenamiento deteriora inevitablemente la generalización del modelo. Las instituciones y sus investigadores terminan atrapados en una espiral de mayor demanda de potencia. Lo que antes era impensable —requiriendo cómputo de escala astronómica— ahora se convierte en necesidad diaria.
El dilema llega pronto: cuando necesitas más cómputo y no puedes obtenerlo, ¿qué haces? Ése es el punto en el que estamos muchos investigadores de IA médica. El mundo no está destinando recursos suficientes a la IA en salud. Las grandes empresas tecnológicas orientan sus esfuerzos hacia agentes de oficina, automatización comercial, mundos virtuales o generación audiovisual. Las divisiones de salud son pequeñas excepciones en un océano dominado por el negocio y la competencia por la Inteligencia Artificial General (AGI).
Comprensiblemente, el potencial militar y económico del dominio de la AGI atrae toda la atención. Sin embargo, la medicina —la verdadera frontera donde la IA puede salvar vidas— avanza con lentitud. Universidades pioneras como Stanford o Harvard hacen esfuerzos notables, pero incluso allí el reclamo es el mismo: se necesita más cómputo, más datos, más apoyo.
Innovar ante la escasez
Entonces, ¿qué camino debe seguir un patólogo computacional cuando carece de recursos? La respuesta, que repito siempre en conferencias, es aprovechar las debilidades y convertirlas en fortalezas. No todo está perdido. Algunos de los mejores avances del campo provienen precisamente de equipos pequeños que innovaron bajo limitaciones. Es momento de diseñar arquitecturas no-Transformer o híbridas, que conserven las virtudes de la autoatención pero reduzcan el consumo computacional.
El aprendizaje humano nos ofrece una metáfora poderosa: un patólogo puede identificar patrones tumorales con pocos ejemplos, de manera eficiente y precisa. Así deben ser nuestros modelos. No máquinas que memorizan millones de imágenes, sino sistemas que razonan, aprenden del contexto y entienden el mundo físico incluso sin cuerpo propio. Debemos abandonar el paradigma autoregresivo de predicción secuencial y mirar hacia modelos capaces de decidir en el tiempo, de anticipar, de razonar y de adaptar su comportamiento.
Dominar el tiempo y aprender como el cerebro
El futuro de la inteligencia artificial está en dominar el tiempo. Debemos aspirar a modelos que no solo procesen datos, sino que comprendan la secuencia temporal de los fenómenos, como lo hace el cerebro humano. El cerebro no opera con matrices matemáticas aisladas, sino con ondas, con oscilaciones sincronizadas que permiten integrar información multisensorial y tomar decisiones. Inspirarse en este principio puede abrir la puerta a una IA más orgánica, más eficiente y más humana.
En mis experimentos, el desarrollo de patrones basados en formas de onda, en lugar de simples operaciones matriciales, ha mostrado resultados sorprendentes. Volver a arquitecturas tipo LSTM, pero “con esteroides”, permite mostrarle a la IA que puede aprender con eficiencia, rapidez, generalización… y, por qué no, con pasión. No soy el único que percibe el final de la era Transformer. Los propios equipos que llevaron a esta arquitectura a su máximo rendimiento saben que la evolución no puede basarse en la misma forma de red para siempre.
La multimodalidad del pensamiento patológico
En patología, ningún diagnóstico se sostiene en una sola modalidad de datos. El patólogo integra imágenes, textos, audios, videos, contextos clínicos y discusiones con colegas. Este proceso humano multimodal es la guía para el desarrollo de la IA médica del futuro. No debemos confiar los diagnósticos a un único tipo de modelo, ni siquiera a una IA multimodal monolítica. El futuro está en la orquestación de múltiples modelos que actúen como copilotos diagnósticos: un modelo visual que interprete las láminas, otro lingüístico que comprenda el informe clínico, y un tercero que unifique ambas inferencias. Aunque aún no disponemos de una tecnología capaz de “fusionar pesos neuronales” entre arquitecturas distintas, la cooperación entre modelos sí es posible a través del intercambio de inferencias. Y múltiples modelos pequeños, bien orquestados, pueden ser tan potentes como uno gigante.
Hacia modelos eficientes y jerárquicos
Volvemos entonces a la idea de experimentar y crear modelos más eficientes, con habilidades de razonamiento superior. Los modelos jerárquicos de razonamiento —una nueva generación de arquitecturas más compactas— demuestran que un modelo cientos de veces más pequeño que un Transformer de frontera puede desempeñarse de manera sobresaliente en tareas de razonamiento. Por ello, los investigadores deben apuntar a hardware de calidad, pero si eso no es posible, deben apuntar a eficiencia arquitectónica. Innovar. Hacer de la debilidad una fortaleza. En esta nueva era, los patólogos computacionales deben abrazar el concepto de HAT (Human-AI Team): equipos híbridos donde la IA se convierte en colaborador humano. El HAT permite avanzar más rápido, depurar código, optimizar hiperparámetros y analizar resultados de manera asistida.
La IA actual puede ayudarnos a crear nueva IA. Hace apenas unos meses se demostró que un conjunto de agentes orquestados podía investigar en GitHub, proponer código, ejecutar experimentos, evaluar resultados y seleccionar automáticamente la mejor arquitectura.
Estamos, pues, en la antesala de una revolución: modelos de IA que diseñan y mejoran otros modelos de IA.
Hacia modelos eficientes y jerárquicos
Volvemos entonces a la idea de experimentar y crear modelos más eficientes, con habilidades de razonamiento superior. Los modelos jerárquicos de razonamiento —una nueva generación de arquitecturas más compactas— demuestran que un modelo cientos de veces más pequeño que un Transformer de frontera puede desempeñarse de manera sobresaliente en tareas de razonamiento. Por ello, los investigadores deben apuntar a hardware de calidad, pero si eso no es posible, deben apuntar a eficiencia arquitectónica. Innovar. Hacer de la debilidad una fortaleza. En esta nueva era, los patólogos computacionales deben abrazar el concepto de HAT (Human-AI Team): equipos híbridos donde la IA se convierte en colaborador humano. El HAT permite avanzar más rápido, depurar código, optimizar hiperparámetros y analizar resultados de manera asistida.
La IA actual puede ayudarnos a crear nueva IA. Hace apenas unos meses se demostró que un conjunto de agentes orquestados podía investigar en GitHub, proponer código, ejecutar experimentos, evaluar resultados y seleccionar automáticamente la mejor arquitectura.
Estamos, pues, en la antesala de una revolución: modelos de IA que diseñan y mejoran otros modelos de IA.

Conclusión
La era Transformer nos ha dado avances colosales, pero también nos ha mostrado sus límites. En patología computacional, donde la eficiencia y la comprensión profunda del contexto clínico son vitales, debemos mirar más allá. El futuro no pertenece a los modelos más grandes, sino a los más sabios: aquellos que aprenden con menos, que razonan en el tiempo, que se inspiran en la biología humana.
La próxima frontera no será la potencia bruta, sino la inteligencia eficiente, capaz de pensar, aprender y colaborar como lo hacemos los patólogos frente al microscopio.