Los científicos de la Escuela de Medicina de Harvard y sus colegas de la Universidad de Stanford han desarrollado una herramienta de diagnóstico de inteligencia artificial que puede detectar enfermedades en radiografías de tórax directamente a partir de descripciones en lenguaje natural contenidas en los informes clínicos adjuntos.

El paso se considera un avance importante en el diseño de IA clínica porque la mayoría de los modelos de IA actuales requieren una laboriosa anotación humana de grandes cantidades de datos antes de que los datos etiquetados se introduzcan en el modelo para entrenarlo.

Un informe sobre el trabajo, publicado el 15 de septiembre en Nature Biomedical Engineering, muestra que el modelo, llamado CheXzero, se desempeñó a la par de los radiólogos humanos en su capacidad para detectar patologías en las radiografías de tórax.

El equipo ha puesto a disposición del público el código del modelo para otros investigadores.

La mayoría de los modelos de IA requieren conjuntos de datos etiquetados durante su «entrenamiento» para que puedan aprender a identificar correctamente las patologías. Este proceso es especialmente engorroso para las tareas de interpretación de imágenes médicas, ya que implica la anotación a gran escala por parte de médicos humanos, lo que a menudo es costoso y requiere mucho tiempo. Por ejemplo, para etiquetar un conjunto de datos de rayos X de tórax, los radiólogos expertos tendrían que mirar cientos de miles de imágenes de rayos X una por una y anotar explícitamente cada una con las condiciones detectadas. Si bien los modelos de IA más recientes han tratado de abordar este problema de etiquetado aprendiendo de los datos no etiquetados en una etapa de «entrenamiento previo», eventualmente requieren un ajuste fino de los datos etiquetados para lograr un alto rendimiento.

Por el contrario, el nuevo modelo es autosupervisado, en el sentido de que aprende de forma más independiente, sin necesidad de datos etiquetados a mano antes o después del entrenamiento. El modelo se basa únicamente en radiografías de tórax y las notas en inglés que se encuentran en los informes de rayos X adjuntos.

«Estamos viviendo los primeros días de los modelos médicos de inteligencia artificial de próxima generación que pueden realizar tareas flexibles aprendiendo directamente del texto», dijo el investigador principal del estudio, Pranav Rajpurkar, profesor asistente de informática biomédica en el Instituto Blavatnik en HMS. «Hasta ahora, la mayoría de los modelos de IA se han basado en la anotación manual de grandes cantidades de datos, por una suma de 100.000 imágenes, para lograr un alto rendimiento. Nuestro método no necesita anotaciones específicas de enfermedades.

«Con CheXzero, uno puede simplemente alimentar al modelo con una radiografía de tórax y el informe de radiología correspondiente, y aprenderá que la imagen y el texto en el informe deben considerarse similares; en otras palabras, aprenderá a hacer coincidir el tórax X -rayos con su informe adjunto», agregó Rajpurkar. «El modelo finalmente puede aprender cómo los conceptos en el texto no estructurado se corresponden con los patrones visuales en la imagen».

El modelo fue «entrenado» en un conjunto de datos disponible públicamente que contiene más de 377 000 radiografías de tórax y más de 227 000 notas clínicas correspondientes. Luego, se probó su desempeño en dos conjuntos de datos separados de radiografías de tórax y las notas correspondientes recopiladas de dos instituciones diferentes, una de las cuales estaba en un país diferente. Esta diversidad de conjuntos de datos tenía como objetivo garantizar que el modelo funcionara igual de bien cuando se expusiera a notas clínicas que pueden usar una terminología diferente para describir el mismo hallazgo.

Tras la prueba, CheXzero identificó con éxito patologías que no fueron anotadas explícitamente por médicos humanos. Superó a otras herramientas de IA autosupervisadas y funcionó con una precisión similar a la de los radiólogos humanos.

El enfoque, dijeron los investigadores, eventualmente podría aplicarse a modalidades de imágenes mucho más allá de los rayos X, incluidas las tomografías computarizadas, las resonancias magnéticas y los ecocardiogramas.

«CheXzero muestra que la precisión de la interpretación de imágenes médicas complejas ya no necesita permanecer a merced de grandes conjuntos de datos etiquetados», dijo el coautor del estudio, Ekin Tiu, estudiante universitario en Stanford e investigador visitante en HMS. «Utilizamos las radiografías de tórax como ejemplo de conducción, pero en realidad la capacidad de CheXzero se puede generalizar a una amplia gama de entornos médicos donde los datos no estructurados son la norma, y ​​encarna precisamente la promesa de evitar el cuello de botella de etiquetado a gran escala que ha afectado a la campo del aprendizaje automático médico».

Tiu, Ellie Talius y Pujan Patel, todos de Stanford, fueron coautores del artículo e investigadores visitantes en el laboratorio de Rajpurkar. Otros autores del estudio incluyeron a Curtis Langlotz y Andrew Ng, ambos de Stanford.