Superar los desafíos en la IA de la atención médica: implementar con éxito modelos de aprendizaje automático en medicina

El uso de la Inteligencia Artificial (IA) y el aprendizaje automático (machine learning) es un área de rápido crecimiento en el cuidado de la salud. Sin embargo, dado lo que está en juego, también requiere cuidado y consideración, incluso cuando la tecnología se desarrolla a gran velocidad. Una serie de tres artículos recientes en el Canadian Medical Association Journal, dos en coautoría con Amii Fellow y Canada CIFAR AI Chair Russ Greiner (profesor, University of Alberta), examina algunos de los desafíos potenciales para adoptar la IA en el cuidado de la salud, así como algunas de las posibles soluciones y enfoques para abordarlas. Implementar aprendizaje automático en medicina (I).

Implementar aprendizaje automático en medicina (I)

Este artículo es el primero de una serie de tres partes sobre esos desafíos, comenzando con un enfoque en los obstáculos específicos que surgen con el desarrollo de IA para trabajar junto con los proveedores de atención médica. La siguiente parte explorará los problemas de explicabilidad y confianza cuando se trata de herramientas médicas de inteligencia artificial. Mientras que la tercera analizará algunas lecciones del mundo real de la integración del aprendizaje automático en el funcionamiento de un hospital.

Desde la perspectiva de Greiner, la pregunta no es si el aprendizaje automático tendrá un gran impacto en la atención médica, ya lo ha hecho. La cantidad de artículos y estudios relacionados con la IA está aumentando exponencialmente, dice, y no hay señales de que disminuya.

El impacto positivo es tremendo. Las herramientas de IA pueden descubrir formas efectivas de diagnosticar enfermedades, controlar enfermedades, tratar enfermedades”, dice Greiner. “Esto no es solo una posibilidad, sino que ya ha comenzado a suceder”.

Sin embargo, dice que algunos profesionales de la salud también se muestran reacios a aceptar por completo los beneficios potenciales de las herramientas de IA, lo que no sorprende en absoluto, dado lo que está en juego.

Si me equivoco al diseñar un videojuego, podría perder algo de dinero. Pero si me equivoco al diagnosticar o tratar a un paciente, eso podría ser fatal”, dice. “Así que me alegro de que la comunidad médica sea conservadora, pero eso significa que las nuevas ideas tardan un tiempo en entrar en el campo”.

Es importante conocer algunos de los desafíos específicos que enfrentarán las herramientas de diagnóstico y tratamiento de IA cuando se implementen y utilicen en el campo. En el documento, Greiner y sus coautores describen dos obstáculos principales: errores fuera de distribución y atribución incorrecta de funciones. Ambos problemas pueden hacer que las herramientas de aprendizaje automático produzcan modelos que podrían no funcionar en entornos del mundo real.

Centrándose en los mejores datos

Un agente de aprendizaje automático es, en muchos sentidos, como una pizarra en blanco; sólo sabe lo que ha observado. Los errores fuera de distribución ocurren cuando se le pide a la IA que interprete algo sobre lo que aún no ha aprendido. Un modelo que fue entrenado con miles de imágenes de radiografías de pulmón probablemente hará un buen trabajo al interpretar una nueva imagen de pulmón, pero no si se le pide que analice una imagen de un corazón. Peor aún, es posible que ni siquiera sepa que cometió un error; cómo podría: dado que solo ha visto pulmones, entonces, naturalmente, intentará interpretar todo lo que vea como un pulmón.

Los errores fuera de distribución más sutiles también son un problema. Un modelo de IA podría entrenarse con radiografías nítidas de los pulmones mientras se desarrolla. Pero en el mundo real de la medicina, los rayos X pueden estar sobreexpuestos o borrosos, lo que puede conducir a diagnósticos erróneos si no se tiene cuidado con la forma en que la máquina procesa los datos imperfectos. Otros problemas incluyen cuando la IA se encuentra con enfermedades que no ha visto antes, y trata de adaptarlas a la experiencia limitada que tiene.

Un problema similar es el de la atribución incorrecta de funciones. El aprendizaje automático a menudo encuentra el “patrón más simple que explica los datos observados”, escribe Greiner. Eso puede llevar a que la herramienta se concentre en ciertos elementos mientras ignora información importante. Como ejemplo, imagine una máquina entrenada en un conjunto de imágenes cardíacas que se extraen de varios hospitales, uno de los cuales es un centro que se especializa en una determinada enfermedad. Dado que ese hospital especializado puede tener una mayor proporción de imágenes con esa enfermedad, existe la probabilidad de que la IA pueda entrenarse para hacer un diagnóstico basado principalmente en el hospital del que proviene la imagen, ignorando los detalles de ese corazón específico. Si bien este modelo será preciso en este conjunto de datos específico, no se generalizará

Mejor entrenamiento significa mejores resultados

Si bien hay problemas serios que deben superarse, Greiner dice que no son insuperables. Tener cuidado con la forma en que se entrenan las herramientas de IA reducirá la posibilidad de este tipo de errores. Señala que la mayoría de los conjuntos de datos médicos son muy pequeños y pueden centrarse en una ubicación geográfica o un solo grupo demográfico, lo que hace que estos problemas sean más probables. Un conjunto de datos diverso es un buen comienzo. Y si eso no es posible, entonces los investigadores y los médicos deben ser conscientes de que la herramienta podría funcionar solo en el conjunto limitado de casos en los que fue entrenada.

Si desea que funcione en Edmonton, Jakarta y Moscú, debe entrenarlo con los datos de esos lugares”, dice.

El historial médico está lleno de datos tomados de hombres caucásicos y luego aplicados a pacientes negros y pacientes asiáticos, o a mujeres. Si bien el modelo entrenado aún podría funcionar, existe una buena posibilidad de que no lo haga”.

Otras opciones para aumentar la usabilidad de la IA en el cuidado de la salud incluyen diseñar pruebas de capacitación específicamente para detectar errores de distribución o funciones incorrectas antes de que la herramienta esté lista para el mundo real. La explicabilidad, donde el razonamiento detrás de la decisión de una IA se presenta claramente de una manera que los humanos puedan interpretar, también puede ser una parte importante de la ecuación. Aunque, no deja de tener sus propios desafíos, como se discutirá en la siguiente parte de esta serie [ implementar aprendizaje automático en medicina (i) ].

Fuente:

AMII | Alberta Machine Intelligence Institute

Implementar aprendizaje automático en medicina (I)