
Article
Sep 6, 2025
Inmersión en la Inteligencia Artificial para Especialistas en Medicina y Personal de Salud
ANDRIC GUERRERO ESPINOZA. MD | MSc in oncology and AI | Pathologist focused on Cancer | AI Scientist | Computational Pathology | Oncologic andricpath.com UNIVERSIDAD PERUANA CAYETANO HEREDIA El texto aborda la creciente importancia de la inteligencia artificial (IA), particularmente los grandes modelos de lenguaje (LLM), en el campo de la medicina y la salud. Enfatiza que los profesionales médicos, debido a la naturaleza cognitiva de su trabajo, pueden beneficiarse enormemente de la IA para optimizar la búsqueda de información, la formación continua, la resolución de casos clínicos y la investigación. Se explica la tecnología subyacente de los transformadores, resaltando sus principios matemáticos y cómo, aunque no "razonan" como los humanos, su diseño los hace efectivos en múltiples dominios. El artículo también ofrece recomendaciones prácticas para la interacción con modelos de IA, incluyendo la formulación de "prompts" efectivos y la sugerencia de modelos específicos. Finalmente, el autor anima a los profesionales a integrar la IA en su práctica diaria y en la formación académica, proponiendo pasos avanzados como el ajuste fino de modelos y la creación de divisiones de IA para maximizar el impacto clínico y académico, fomentando la soberanía tecnológica y la generación de datos propios.
Estamos viviendo una época de transición acelerada, en donde comenzamos a abandonar la metodología actual de búsqueda de la información y nos adentramos en métodos más eficientes basados en inteligencia artificial. Para las ciencias de la salud, y en concreto para la medicina humana, esto es crucial, debido a que, como especialidades cognitivas, necesitamos continuamente formación académica, medicina basada en evidencia, actualización de proyectos y protocolos, y además, para resolver casos clínicos, necesitamos fuentes bibliográficas y escenarios clínicos de ejemplo que nos inspiren o nos ayuden a realizar nuestros diagnósticos diferenciales.
Bajo esta premisa, es entendible que el uso de modelos de lenguaje grandes es un beneficio para la práctica médica actual. Sin embargo, iniciarse en esto sin conocer la tecnología y los principios matemáticos subyacentes puede ser muy difícil para los neófitos. Muy bien, ¿pero cómo comenzamos? La duda principal sobre la viabilidad de esta tecnología ya ha sido superada. En los últimos dos años se ha incrementado la capacidad de los transformers para encontrar patrones en los datos, especialmente en los modelos de lenguaje grande que, al ser multimodales, permiten una interacción más cercana entre el profesional médico y el modelo.
El siguiente paso es entender la tecnología subyacente: explicaremos los principios matemáticos y de ciencias de la computación que rigen los transformadores actuales. Los modelos de vanguardia son autoregresivos: predicen el siguiente token en función del contexto previo (input→procesamiento→output como secuencia de tokens más probables). Para ello emplean cabezas de atención (multi-head attention), que calculan productos punto entre representaciones de tokens para hallar relaciones —incluso lejanas— y capturar significado semántico. La maquinaria central usa Q, K, V (vectores de consulta, clave y valor); sus interacciones proyectan la información en espacios de alta dimensión donde se modelan dichas relaciones. La posición de las palabras se incorpora mediante codificación posicional (ondas sinusoidales: senos y cosenos). Con más cabezas y mayor tamaño del modelo, los patrones se refinan y crece la capacidad para manejar datos complejos y abstractos. Como el núcleo es el cálculo de relaciones entre tokens vía operaciones matemáticas, es esperable que produzcan predicciones correctas muchas veces; pero no ‘razonan’ sobre una dimensión temporal separada ni simulan la interacción biológica de neuronas. Aun así, su diseño simple y elegante ha permitido trasladarlos a múltiples dominios (lenguaje, visión, audio, video, secuencias). Por tanto, cuando un médico usa un LLM multimodal de vanguardia, debe saber que por debajo operan operaciones matemáticas, tal como una calculadora científica, pero a gran escala. Entonces, como personal de salud cuya tarea es eminentemente cognitiva —leer datos, textos, fórmulas—, podemos sacar un enorme provecho de los modelos de lenguaje para ganar eficiencia, autocontrol, autoaprendizaje y, sobre todo, impulso a la investigación. Muchos colegas preguntan qué modelos usar; la realidad es que la mayoría de transformers actuales tienen un nivel más que suficiente para satisfacer casi cualquier solicitud.
Con el auge de los modelos agénticos (capaces de navegar por internet y ejecutar búsquedas/tareas), la idea de un ‘modelo ideal’ se diluye: hoy lo óptimo es usar varios modelos en conjunto. Entendemos que no todos pueden suscribirse a muchos a la vez; por ello, recomendamos como base ChatGPT, Claude, Gemini, Qwen 3.5 y DeepSeek R1 como opciones multimodales útiles en práctica médica. Idealmente, utiliza al menos dos, compáralos en paralelo y contrasta resultados. Para vincularte eficazmente con estos sistemas, recuerda que, por ser modelos estadísticos, pueden errar si la solicitud no está bien formulada; por tanto, el manejo de prompts (instrucciones) es una de las habilidades más básicas al iniciarse con IA.
Para no alargar la parte de ingeniería de prompts, recomendamos: (1) pedir al modelo que asuma un rol; (2) aportar contexto clínico o de investigación; (3) definir con precisión el objetivo; (4) dar un ejemplo del resultado esperado. Ejemplo: “Asume el rol de experto en patología gastrointestinal. Paciente con dolor abdominal crónico, reflujo gastroesofágico de posiciones líquidas; endoscopia alta con úlceras esofágicas, en antro gástrico y duodeno; colonoscopia con úlceras en recto e inflamación ileocecal; marcadores para EII negativos. Objetivos: (i) con estos datos, investiga diagnósticos diferenciales; (ii) revisa las publicaciones más recientes en patología gastrointestinal, en particular sobre EII, de los últimos tres años; (iii) elabora una tabla con diferenciales y pruebas a solicitar. Resultado esperado: informe ≥10 páginas con diferenciales, justificación basada en síntomas/datos y bibliografía en Vancouver con superíndices”. Además, para septiembre de 2025 es válido añadir la instrucción “razona en profundidad” para incentivar cadenas de razonamiento más extensas, y —si se desea— una recompensa ficticia para promover respuestas más cuidadas.
Una vez dominada la interacción con los modelos de lenguaje, la siguiente etapa es exprimir su valor en tu especialidad. Hay áreas más cognitivas, otras más prácticas o abstractas; no abarcaremos todas, pero te invitamos a buscar la forma más eficiente de probar un modelo en tu ámbito. En mi caso, desde visión artificial, me interesa experimentar con generación de tumores sintéticos y segmentación/clasificación de imágenes; para ello, empleo IA en asistencia, programación, investigación, soporte técnico y acompañamiento continuo. De modo análogo, puedes usar IA para resolver tareas diagnósticas cotidianas y para investigar en profundidad, adquiriendo habilidades que antes eran barreras hacia un perfil híbrido: profesional de salud + competencias en ciencias de la computación. Puedes usar la IA como herramienta para hacer lo mismo más fácil/eficiente o como palanca de evolución profesional. Esta segunda vía es la que nos interesa: aprender con IA, convertirla en acompañante y catalizador del siguiente salto. Hemos llegado a un punto en que no es opcional rechazar la tecnología. Esto se enlaza con formar a los estudiantes de pregrado desde el inicio; serán la generación que nos supere y necesita cimentarse en conceptos vitales. Por tanto, urge incluir IA en las mallas curriculares de medicina humana. En algunos países (p.ej., Estados Unidos y China) ya se ha autorizado la enseñanza de IA desde primaria, lo cual aporta un sustento técnico y político a esta dirección.
Con la base de interacción ya dominada, el siguiente paso es sacar provecho en tu subespecialidad. Tras los modelos recomendados y el aprendizaje de prompts, además de comprender los principios matemáticos y la formación masiva para pregrado y profesionales, llega una fase más ambiciosa pero alcanzable: entrenar o afinar modelos propios (fine-tuning), aplicar métodos como RAG y LoRA, o incluso pre-entrenar arquitecturas. Lo que antes parecía inalcanzable (por requerir ingenieros senior) hoy es posible gracias a herramientas no-code, low-code y code. La recomendación de muchos expertos y CEOs es adoptar enfoques low-code (by-coding): programar con lenguaje natural, de forma local, con ChatGPT o con plataformas especializadas en este enfoque. Esta interacción te eleva a un siguiente nivel y abre la puerta a experimentos profundos y publicaciones avanzadas en tu campo. No necesitas hardware potente —puedes usar la nube— ni un ingeniero al lado: tu ingeniero puede ser un modelo multimodal.
Lo imprescindible son los datos. Todo dato médico es valioso: texto clínico, EMR, laboratorios cuantitativos, radiografías, tomografías, PET, ecografías, informes de patología/radiología, estudios moleculares, secuencias genéticas, marcadores de IHQ, ECG, etc. Esta cosecha de datos alimenta modelos multimodales médicos que integran múltiples fuentes —tal como hacemos los humanos al leer historias clínicas—. Ejemplos: MedSigLIP (entrenado con ~33 millones de pares) y el modelo de Stanford MASC (~50 millones de datos multimodales). Una vez que manejas by-coding y técnicas como LoRA, RAG o pre-entrenamiento, el siguiente salto para escalar tu expertise es montar tu propia división de IA.
La alianza con ingenieros es clave: su experiencia en backend y la tuya en el dominio clínico generan el match necesario para maximizar valor. Aparecerán nuevas necesidades —cómputo en la nube, operaciones de datos (pipelines, ETL/ELT, calidad, seguridad), MLOps— que habilitan proyectos más ambiciosos. Crear una división de IA en tu servicio te permitirá gestionar datos a escala y lograr resultados más sorprendentes. Además, perseguir independencia tecnológica reduce dependencia de suscripciones y proveedores (y su posible inflación de precios) y aprovecha tu volumen de datos propio para entrenar modelos contextualizados a tu realidad local (epidemiología, prácticas diagnósticas, idiomas). No es lo mismo extrapolar entre países que modelar con datos locales. Beneficios esperables: mejor análisis de datos, incremento en la calidad y volumen de publicaciones, mejora de la precisión diagnóstica y ahorros por soberanía tecnológica. En suma, dominar tu rama clínica con ciencias de la computación multiplica impacto clínico y académico.
Referencias:
1. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In *Advances in Neural Information Processing Systems* (NeurIPS). https://arxiv.org/abs/1706.03762
2. Hu, E. J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., Wang, L., & Chen, W. (2021). LoRA: Low-rank adaptation of large language models. *arXiv*. https://arxiv.org/abs/2106.09685
3. Kung, T. H., Cheatham, M., Medenilla, A., Sillos, C., De Leon, L., Elepaño, C., ... & Tseng, V. (2023). Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. *PLOS Digital Health, 2*(2), e0000198. https://doi.org/10.1371/journal.pdig.0000198
4. Omar, M., Nadkarni, G. N., Klang, E., & Glicksberg, B. S. (2024). Large language models in medicine: A review of current clinical trials across healthcare applications. *PLOS Digital Health, 3*(11), e0000662. https://doi.org/10.1371/journal.pdig.0000662
5. Khan, R. F., Lee, B. D., & Lee, M. S. (2023). Transformers in medical image segmentation: A narrative review. *Quantitative Imaging in Medicine and Surgery, 13*(12), 8747–8767. https://doi.org/10.21037/qims-23-542
6. Tu, T., Palepu, A., Schaekermann, M., Saab, K., Freyberg, J., Tanno, R., ... & Natarajan, V. (2025). Towards conversational diagnostic artificial intelligence. *Nature, 628*, 000–000. https://www.nature.com/articles/s41586-025-08866-7
7. Singhal, K., Tu, T., Gottweis, J., Sayres, R., Wulczyn, E., Hou, L., ... & Natarajan, V. (2025). Toward expert-level medical question answering with large language models. *Nature Medicine, 31*, 000–000. https://www.nature.com/articles/s41591-024-03423-7
8. Ng, K. K. Y., Lee, C. K., Yeung, S. H., & Wong, J. (2025). RAG in health care: A novel framework for improving clinical reasoning with retrieval-augmented generation. *NEJM AI*. https://doi.org/10.1056/AIra2400380
9. World Health Organization. (2025). *Ethics and governance of artificial intelligence for health: Guidance for large multi-modal models (LMMs).* https://www.who.int/publications/i/item/9789240084759
10. Boyle, P. (2025, May 15). Medical schools move from worrying about AI to teaching it. *AAMC News*. https://www.aamc.org/news/medical-schools-move-worrying-about-ai-teaching-it
11. Association of American Medical Colleges. (2025). *Responsible use of AI in and for medical education: Key principles.* https://www.aamc.org/about-us/mission-areas/medical-education/principles-ai-use
12. Ronanki, R. (2024). Revolutionizing health care with AI: A new era of efficiency, precision, and patient-centered care. *NEJM AI*. https://ai.nejm.org/doi/full/10.1056/AI-S2400951
13. Xiang, J., Wang, X., Zhang, X., Li, L., & Li, F., et al. (2025). A vision–language foundation model for precision oncology. *Nature, 638*, 769–778. https://pubmed.ncbi.nlm.nih.gov/39779851/
14. Herwald, S. E., Shah, P., Johnston, A., Olsen, C., Delbrouck, J. B., & Langlotz, C. P. (2025). RadGPT: A system based on a large language model that generates sets of patient-centered materials to explain radiology report information. *Journal of the American College of Radiology, 22*(9), 1050–1059. https://doi.org/10.1016/j.jacr.2025.06.013
15. Lomis, K., Jeffries, P., Palatta, A., Sage, M., Sheikh, J., Sheperis, C., & Whelan, A. (2021). Artificial intelligence for health professions educators. *NAM Perspectives*. https://doi.org/10.31478/202109a