Investigadoras del CSIC abordan los desafíos para implantar la IA en el ámbito de la salud

por Redacción Nacional

Miriam Cobo y Lara Lloret son las autoras de ‘Inteligencia artificial y medicina’, el nuevo libro de la colección ¿Qué sabemos de? (CSIC-Catarata)

En 2022, la Unión Europea dio por primera vez luz verde a un sistema que emplea inteligencia artificial (IA) para analizar radiografías de tórax sin la intervención de una persona experta en radiología. La herramienta emite automáticamente informes de pacientes que no presentan anomalías y envía a los especialistas para su revisión las imágenes etiquetadas como dudosas, lo que permite reducir la carga de trabajo del personal sanitario. La IA, rama de la computación que diseña algoritmos para ejecutar tareas propias de la inteligencia humana, ha revolucionado el modo de relacionarnos con la tecnología y con nuestro entorno, y sus aplicaciones en el ámbito de la salud son cada vez más numerosas y prometedoras, tales como el diagnóstico de enfermedades, la detección e identificación de lesiones o el desarrollo de fármacos.

Según Lara Lloret y Miriam Cobo, investigadoras expertas en IA aplicada al diagnóstico médico por imagen, “a pesar de los casos exitosos de algunos desarrollos, aún existen muchos problemas que hay que salvar para que la implantación de algoritmos de aprendizaje automático o aprendizaje profundo sea una realidad en la práctica clínica diaria”. Las científicas abordan los retos de la IA para dar ese salto en Inteligencia artificial y medicina (CSIC- Catarata). El nuevo libro de la colección ¿Qué sabemos de? habla de los desafíos relacionados con los datos médicos y con los algoritmos que los utilizan y plantea cuestiones transversales como la seguridad o la ética.

Una poderosa herramienta que necesita datos de calidad

El aprendizaje profundo, es decir, algoritmos basados en redes neuronales con muchas capas que aprenden de grandes cantidades de datos, ha dado un impulso sin precedentes a las áreas de visión artificial y procesamiento del lenguaje natural. Esto ha tenido una repercusión directa en el ámbito biomédico, ya que el análisis e interpretación de la imagen médica es uno de los campos fundamentales para el diagnóstico. Lloret y Cobo ponen de manifiesto la paradoja existente entre ese gran potencial y la escasa disponibilidad de datos que cumplan los criterios de operabilidad requeridos por las bases de datos informáticas. “La información que recoge el personal sanitario a menudo no está estructurada ni orientada a un análisis posterior, sino a un interés puramente clínico, así que en la actualidad nos encontramos con un gran número de pequeños conjuntos de datos procedentes de muchas instituciones hospitalarias desconectados entre sí con los que un algoritmo difícilmente puede entrenarse”, refieren. Otra cuestión pendiente de resolver es la privacidad. Se puede trabajar con datos anonimizados, pero existe información, como la genética, que por su naturaleza es imposible de anonimizar sin perder total o parcialmente su utilidad. Las investigadoras explican que garantizar la privacidad utilizando algoritmos de IA está todavía en desarrollo.

Los algoritmos no hacen más que aprender de los datos y, si están sesgados, este hecho repercutirá directamente en las decisiones que tomen. “Hay sesgos estadísticos y sociales”, ilustran las investigadoras del Instituto de Física de Cantabria (IFCA). Los primeros se dan cuando la distribución de los datos introducidos en el sistema de aprendizaje no refleja la distribución real de la población. Por ejemplo, entrenar un sistema de IA para detectar cáncer de pulmón con imágenes de pacientes entre 20 y 50 años ocasionará que el algoritmo no funcione bien en pacientes mayores de esas edades.

Los sesgos sociales se refieren a desigualdades que pueden dar lugar a malos resultados por parte de los algoritmos para determinados grupos de población. Muchas de las áreas donde los sistemas basados en IA han demostrado unos mejores resultados son también aquellas en las que se han denunciado problemas de discriminación contra grupos vulnerables. Es el caso de sistemas entrenados para la detección de lesiones cutáneas, donde la mayoría de imágenes utilizadas proceden de pacientes blancos, o las aplicaciones para predecir ataques al corazón entrenadas mayoritariamente con hombres, cuando se sabe que los síntomas de esta afección son muy diferentes entre hombres y mujeres.

La caja negra de los algoritmos

Para que la inteligencia artificial ayude a la toma de decisiones es fundamental que las personas confíen en el sistema y entiendan como funciona. Aquí entra en juego el concepto de interpretabilidad, que se refiere al proceso de comprensión por parte de una persona de las decisiones que toma un modelo o algoritmo, y que se contrapone a los modelos de tipo caja negra.

Las autoras destacan que “un modelo con una alta interpretabilidad nos permite entender cómo este ha llegado a un determinado resultado y es preferible a uno que requiera más experiencia y conocimiento especializado para entenderlo”. Además, las investigadoras dejan claro que la interpretabilidad es imprescindible para hacer ciencia. “Si utilizamos modelos de tipo caja negra nos estaremos perdiendo los detalles de en qué se está fijando el algoritmo, y cómo ha sido el proceso de decisión, y, en consecuencia, posibles hallazgos científicos. Entender el proceso de aprendizaje de los sistemas de IA en el campo de la salud puede ayudar a los profesionales de la medicina a comprender mejor cómo funciona el cuerpo humano y a tomar decisiones mejor informadas”, apuntan.

Seguridad y ética en IA aplicada a la medicina

Trabajar con estas tecnologías también entraña riesgos relacionados con la seguridad. De hecho, son conocidos los casos de ciberataques como el que sufrió en 2017 el Servicio Nacional de Salud del Reino Unido y que obligó a cancelar cientos de citas e intervenciones programadas. Asimismo, tiene un fuerte componente ético, que es transversal a todos los campos donde se aplica la IA, y que, al igual que la seguridad, requiere de un marco regulador legislativo y jurídico adecuado porque su uso afecta de lleno a nuestra vida diaria.

Las autoras hablan de una inteligencia artificial responsable y la definen como “un sistema que permite determinar si una decisión se toma de acuerdo con ciertas normas y saber a quién responsabilizar si estas no se cumplen”. Y si un algoritmo de IA toma una decisión médica incorrecta o da lugar a un resultado indeseable, ¿quién es responsable: el fabricante del sistema, el médico que lo utiliza o el paciente que lo acepta? Cobo y Lloret comentan que estas preguntas aún no se han resuelto de manera satisfactoria, pero insisten en que son fundamentales para establecer un marco jurídico y normativo para el uso de la inteligencia artificial.

Otro de los retos a los que se enfrenta la IA está relacionado con el miedo a lo desconocido. “La inteligencia de los sistemas de IA dista mucho de ser comparable con la humana, pero es precisamente esa asociación, esa humanización ficticia de los algoritmos de aprendizaje, la que parece generar malestar”, argumentan las autoras. “Quizás estemos sobrerreaccionando a las implicaciones de utilizar estas tecnologías. Si viéramos los sistemas de IA como lo que son a día de hoy y seguirán siendo aún durante mucho tiempo, es decir, como un programa informático que ha sido entrenado sobre un conjunto de datos para realizar tareas específicas, mucho del misticismo desaparecería”.

En los próximos años empezaremos a ver cómo se aprueban cada vez más sistemas de diagnóstico basados en IA para su uso en un entorno clínico real, y probablemente los primeros estarán relacionados con imagen médica. Por esta razón, Lloret y Cobo recalcan que “urge resolver los retos mencionados así como desarrollar las herramientas y estructuras necesarias para sacar el máximo provecho de estas técnicas de una manera segura y eficaz”.

Inteligencia artificial y medicina es el número 145 de la colección de divulgación ‘¿Qué sabemos de?’ (CSIC-Catarata). Para solicitar entrevistas con las autoras o más información, contactar con: comunicacion@csic.es (91 568 14 77).

Sobre las autoras

Miriam Cobo es investigadora predoctoral FPU. Desarrolla su tesis en la optimización de sistemas de diagnóstico por imagen médica con técnicas de inteligencia artificial en el Instituto de Física de Cantabria. Graduada en Física por la Universidad de Cantabria y Máster en Ciencia de Datos por la Universidad de Cantabria y la Universidad Internacional Menéndez Pelayo.

Lara Lloret es científica titular en el Instituto de Física de Cantabria. Doctora en Física de Partículas por la Universidad de Oviedo con una tesis sobre la búsqueda del bosón de Higgs, en la actualidad trabaja en aprendizaje profundo orientado fundamentalmente al diagnóstico médico por imagen. Además, coordina el Máster en Ciencia de Datos de la Universidad de Cantabria y la Universidad Internacional Menéndez Pelayo, con la colaboración del CSIC.

Fuente: CSIC

Comparte éste artículo
Escribe tu comentario