El aprendizaje automático ha ayudado a los científicos a comprender cómo el cerebro genera características humanas complejas, descubriendo patrones de actividad cerebral que están relacionados con comportamientos como la memoria de trabajo, rasgos como la impulsividad y trastornos como la depresión. Y con estas herramientas, los científicos pueden crear modelos de estas relaciones que luego pueden usarse, en teoría, para hacer predicciones sobre el comportamiento y la salud de las personas.

Pero eso solo funciona si los modelos representan a todos, y las investigaciones anteriores han demostrado que no es así; para cualquier modelo, hay algunas personas a las que el modelo simplemente no les queda.

En un estudio publicado el 24 de agosto en Nature, los investigadores de Yale examinaron a quién tienden a fallar estos modelos, por qué sucede eso y qué se puede hacer al respecto.

Para que los modelos sean de máxima utilidad, deben aplicarse a cualquier individuo, dice Abigail Greene, MD-Ph.D. estudiante de la Facultad de Medicina de Yale y autor principal del estudio.

«Si queremos trasladar este tipo de trabajo a una aplicación clínica, por ejemplo, debemos asegurarnos de que el modelo se aplique al paciente que está sentado frente a nosotros», dijo.

Greene y sus colegas están interesados ​​en cómo los modelos podrían proporcionar una caracterización psiquiátrica más precisa, lo que creen que podría lograrse de dos maneras. La primera es mediante una mejor categorización de las poblaciones de pacientes. Un diagnóstico de esquizofrenia, por ejemplo, abarca una variedad de síntomas y puede verse muy diferente de persona a persona. Una comprensión más profunda de los fundamentos neuronales de la esquizofrenia, incluidos sus síntomas y subcategorías, podría permitir a los investigadores agrupar a los pacientes de una manera más matizada.

En segundo lugar, hay rasgos como la impulsividad que se comparten en una variedad de diagnósticos. Comprender la base neuronal de la impulsividad podría ayudar a los médicos a abordar ese síntoma de manera más efectiva, independientemente del diagnóstico de la enfermedad a la que esté asociado.

«Y ambos avances tendrían implicaciones para las respuestas al tratamiento», dijo Greene. «Cuanto mejor podamos comprender a estos subgrupos de personas que pueden o no tener los mismos diagnósticos, mejor podremos adaptar los tratamientos a ellos».

Pero primero, los modelos deben ser generalizables para todos, dijo.

Para comprender la falla del modelo, Greene y sus colegas primero entrenaron modelos que podrían usar patrones de actividad cerebral para predecir qué tan bien calificaría una persona en una variedad de pruebas cognitivas. Cuando se probaron, los modelos predijeron correctamente qué tan bien calificarían la mayoría de las personas. Pero para algunas personas, eran incorrectas, prediciendo erróneamente que las personas obtendrían una puntuación baja cuando en realidad obtuvieron una buena puntuación, y viceversa.

Luego, el equipo de investigación analizó a quiénes los modelos no lograron categorizar correctamente.

«Descubrimos que había consistencia : las mismas personas se clasificaban erróneamente en las tareas y en los análisis», dijo Greene. «Y las personas clasificadas incorrectamente en un conjunto de datos tenían algo en común con las clasificadas incorrectamente en otro conjunto de datos. Entonces, realmente había algo significativo en la clasificación incorrecta».

Luego, buscaron ver si estas clasificaciones erróneas similares podrían explicarse por las diferencias en los cerebros de esos individuos. Pero no hubo diferencias consistentes. En cambio, encontraron que las clasificaciones erróneas estaban relacionadas con factores sociodemográficos como la edad y la educación y factores clínicos como la gravedad de los síntomas.

Finalmente, concluyeron que los modelos no reflejaban solo la capacidad cognitiva. En cambio, reflejaban «perfiles» más complejos, una especie de mezclas de las habilidades cognitivas y varios factores sociodemográficos y clínicos, explicó Greene.

«Y los modelos le fallaron a cualquiera que no encajara en ese perfil estereotipado», dijo.

Como ejemplo, los modelos utilizados en el estudio asociaron más educación con puntajes más altos en las pruebas cognitivas. Cualquier individuo con menos educación que obtuvo buenos puntajes no se ajustaba al perfil del modelo y, por lo tanto, a menudo se predecía erróneamente que obtendría puntajes bajos.

Agregando a la complejidad del problema, el modelo no tenía acceso a la información sociodemográfica.

«Las variables sociodemográficas están integradas en la puntuación de la prueba cognitiva», explicó Greene. Esencialmente, los sesgos en cómo se diseñan, administran, califican e interpretan las pruebas cognitivas pueden filtrarse en los resultados que se obtienen. Y el sesgo también es un problema en otros campos; la investigación ha descubierto cómo el sesgo de los datos de entrada afecta los modelos utilizados en la justicia penal y la atención médica, por ejemplo.

«Entonces, los puntajes de las pruebas en sí mismos son compuestos de la capacidad cognitiva y estos otros factores, y el modelo predice el compuesto», dijo Greene. Eso significa que los investigadores deben pensar más detenidamente sobre lo que realmente mide una prueba determinada y, por lo tanto, lo que predice un modelo.

Los autores del estudio brindan varias recomendaciones sobre cómo mitigar el problema. En la fase de diseño del estudio, sugieren, los científicos deberían emplear estrategias que minimicen el sesgo y maximicen la validez de las mediciones que están utilizando. Y después de que los investigadores recopilen datos, deben usar enfoques estadísticos con la mayor frecuencia posible que corrijan los perfiles estereotípicos que quedan.

Tomar estas medidas conducirá a modelos que reflejen mejor la construcción cognitiva bajo estudio, dicen los investigadores. Pero señalan que es poco probable que se elimine por completo el sesgo, por lo que debe reconocerse al interpretar el resultado del modelo. Además, para algunas medidas, puede resultar que sea necesario más de un modelo.

«Llegará un punto en el que solo necesitará diferentes modelos para diferentes grupos de personas», dijo Todd Constable, profesor de radiología e imágenes biomédicas en la Facultad de Medicina de Yale y autor principal del estudio. «Un modelo no se adaptará a todos».