Un estudio valida la eficiencia de ChatGPT frente a los mitos sobre la seguridad de las vacunas contra la COVID-19

por Redacción Galicia

Investigadores del grupo GenPoB y GenVIP de la USC y del IDIS analizan las respuestas del popular chatbot frente a las creencias falsas más extendidas en redes sociales y concluyen que esta herramienta puede facilitar la aceptación social de las vacunas

ChatGPT podría contribuir a incrementar el grado de aceptación de las vacunas al desmentir los mitos sobre la seguridad del proceso de vacunación. Eso indican los profesores de la USC Antonio Salas y Federico Martinón, líderes de un estudio recientemente publicado en la revista Human Vaccines and Immunotherapeutics

Los investigadores formularon al popular chatbot de inteligencia artificial (IA) las 50 preguntas más frecuentes sobre la vacuna contra la COVID-19, basándose en la web sobre vacunación y vacunas COVID desarrollada durante la pandemia por el Centro Colaborador de la OMS en Seguridad vacunal de Santiago de Compostela (www.covid19infovaccines.com). Entre ellas, se incluían consultas basadas en mitos e historia falsas, como la que atribuye a la vacuna la causa de la COVID de larga duración (Long COVID). El análisis de la precisión de las repuestas otorga a ChatGPT una puntuación media de 9 sobre 10 y puntualiza que, en el resto de los casos, la herramienta ofreció también datos correctos, a pesar de dejar algunas lagunas en la información facilitada.

A la vista de estos resultados, los responsables de este estudio liderado desde el grupo de Genética de Poblaciones en Biomedicina (GenPoB) y el Grupo de investigación en Genética, Vacunas y Enfermedades Infecciosas (GenVIP), con investigadores de la USC, del Instituto de Investigación Sanitaria de Santiago (IDIS) y del Hospital Clínico Universitario de Santiago (CHUS) sostienen que esta herramienta de IA es una “fuente fiable de información no técnica para el público”, especialmente para aquellas personas sin conocimientos científicos especializados.

Sin embargo, la investigación pone también de relieve algunas cuestiones preocupantes en relación con el uso de la tecnología, como la posibilidad de que ChatGPT altere sus respuestas en ciertas situaciones. «En general, ChatGPT construye una narrativa en línea a partir de la evidencia científica disponible, desacreditando los mitos que circulan en las redes sociales», explica el profesor y autor principal del estudio, Antonio Salas. El investigador, líder del grupo GenPoB, apunta que “por tanto, puede facilitar un aumento en la aceptación de la vacuna”. ChatGPT es capaz de detectar preguntas falsificadas relacionadas con vacunas y vacunación. El lenguaje que utiliza esta IA no es demasiado técnico y, por tanto, fácilmente comprensible para el público, sin que esto suponga una pérdida de rigor científico: “Reconocemos que la versión actual de ChatGPT no puede sustituir una evidencia científica o de expertos, pero los resultados sugieren que podría ser una fuente fiable de información para el público”.

Información frente a la reticencia a las vacunas

En 2019, la Organización Mundial de la Salud (OMS) incluyó la reticencia frente a las vacunas entre las 10 principales amenazas para la salud mundial. Durante la pandemia, la información errónea difundida a través de las redes sociales contribuyó a que el público desconfiara de la vacunación contra la COVID-19, como parte de la denominada “infodemia”.

El estudio se ha desarrollado en el seno del Centro Colaborador de la Organización Mundial de la Salud en Seguridad Vacunal de Santiago de Compostela, coordinado desde el Hospital Clínico Universitario de Santiago por el Prof. Federico Martinón-Torres. Los investigadores del centro exploraron los mitos sobre la seguridad de las vacunas y sobre aquellas situaciones médicas falsamente consideradas como razón para no vacunarse, factores que han contribuido a la generación de dudas ante el proceso de vacunación.

En este contexto, los investigadores se propusieron probar la capacidad de ChatGPT para obtener datos correctos y compartir información precisa sobre la seguridad de la vacuna frente a la COVID en concordancia con las evidencias científicas existentes. Esta tecnología permite a las personas tener conversaciones e interacciones similares a las humanas con un asistente virtual. La herramienta es muy fácil de usar, lo que la hace accesible a una amplia población, pero genera dudas entre muchos gobiernos, preocupados por la posibilidad de que se use de manera fraudulenta en entornos educativos como las universidades.

En tales condiciones, el estudio fue diseñado para desafiar al chatbot haciéndole las preguntas más frecuentes recibidas por el centro colaborador de la OMS en Santiago, alrededor de tres temas centrales. En primer lugar, se trataron los conceptos erróneos en materia de seguridad, como la mencionada vacuna causante de la COVID de larga duración. Seguidamente, se abordaron las falsas contraindicaciones médicas, como situaciones en las que el pinchazo se decía inseguro pese a no serlo (como en la lactancia materna). Finalmente, las preguntas recogían también contraindicaciones verídicas y casos en los que el personal sanitario debe tomar precauciones (como, por ejemplo, en pacientes con inflamación del músculo cardíaco).

A continuación, los expertos analizaron las respuestas para después calificarlas según su veracidad y precisión frente a la evidencia científica actual y las recomendaciones de la OMS y otras agencias internacionales. Los autores inciden en la importancia de este contraste, pues los algoritmos creados por las redes sociales y los motores de búsqueda de internet a menudo se basan en las preferencias habituales de un individuo, lo que puede dar lugar a “respuestas sesgadas o incorrectas”, añaden. Los resultados mostraron que la mayoría de las preguntas habían sido respondidas correctamente con una puntuación media de 9 sobre 10, que se define como “excelente” o “buena”. Las respuestas proporcionadas por ChatGPT a las tres clases de preguntas fueron en un 85,5% precisas y en un 14,5% también correctas, pero con lagunas de información.

Riesgos de ChatGPT en la búsqueda de información sobre vacunas

Con todo, el equipo de investigación destaca algunas desventajas de ChatGPT al proporcionar información sobre vacunas. El profesor Martinón, advierte: “ChatGPT ofrece respuestas diferentes si la pregunta se repite ‘con unos segundos de retraso’. Muchas de las temáticas que se pueden tratar con ChatGPT, más allá de las vacunas, son muy sensibles y pueden tener consecuencias sociales importantes. Lo que estamos viendo es que la inteligencia artificial es un vehículo para obtener respuestas rápidas y en general confiables. Aún estamos en el desarrollo primigenio de estas herramientas, por lo que tendremos que esperar a ver que nos depara el futuro; tengo la expectativa de que se crearán IA específicamente diseñada para contrastar bulos, pero en contrapartida, se podrían crear herramientas específicamente diseñada para alimentarlos.” Salas, especialista en genética humana, añade que «otra preocupación que vemos es que esta herramienta de inteligencia artificial, en su versión actual, también podría ser entrenada para proporcionar respuestas no acordes con la evidencia científica”.

El investigador apunta que “se puede ‘torturar’ al sistema de tal manera que proporcione la respuesta deseada. Esto también es cierto para otros contextos diferentes a las vacunas. Por ejemplo, puede ser posible hacer que el chatbot se alinee con narrativas absurdas como la teoría de la tierra plana, niegue el cambio climático o se oponga a la teoría de la evolución, por poner algunos ejemplos. No obstante, es importante tener en cuenta que estas respuestas no son el comportamiento predeterminado de ChatGPT. Así, los resultados que obtuvimos sobre la seguridad de la vacuna probablemente puedan extrapolarse a muchos otros mitos y pseudociencias, y desde luego son mucho más fiables y precisos que los obtenidos por otros motores de búsqueda y herramientas web», concluye.

Comparte éste artículo
Escribe tu comentario