En el dinámico campo de la medicina nuclear, la inteligencia artificial está demostrando ser una herramienta prometedora para mejorar la comunicación con los pacientes.
Un reciente estudio publicado en el Journal of Nuclear Medicine evaluó la capacidad del chatbot de inteligencia artificial, ChatGPT, para responder de manera adecuada a preguntas de pacientes relacionadas con PET/CT con 18FDG en indicaciones clínicas comunes antes y después de los escaneos.
¿Podría ChatGPT ser el futuro de la orientación informativa para pacientes en el ámbito de la medicina nuclear?
La tendencia hacia el aumento del uso de la tomografía por emisión de positrones combinada con la tomografía computarizada 18F FDG PET/CT en la toma de decisiones clínicas es innegable.
Sin embargo, con recursos limitados y cargas de trabajo individuales en constante aumento, la eficiencia se vuelve esencial.
Aquí es donde la inteligencia artificial, específicamente modelos de lenguaje avanzados como el generativo preentrenado de OpenAI, GPT 4, puede desempeñar un papel crucial.
El estudio reveló que ChatGPT proporcionó respuestas “apropiadas” para el 92% de las 25 tareas evaluadas y se consideró “útil” en un impresionante 96% de los casos.
Sin embargo, la consistencia fue un área de mejora, ya que se encontraron inconsistencias notables entre respuestas regeneradas para el 16% de las tareas.
A pesar de esto, el 83% de las preguntas sensibles, como aquellas relacionadas con la etapa del tumor o las opciones de tratamiento, recibieron respuestas “empáticas”.
ChatGTP no ha causado daños
El artículo destaca que ninguna de las respuestas generadas por ChatGPT habría causado daño o dejado al paciente desinformado en el caso de consultas reales.
Aunque se observaron algunas inconsistencias, el potencial de ChatGPT como sustituto de la asesoría dada por el personal de medicina nuclear en los ajustes investigados es innegable.
Los autores del estudio enfatizan la necesidad de mejorar la consistencia de ChatGPT para aumentar su confiabilidad.
Además, se aborda la cuestión de la responsabilidad legal de los contenidos generados por inteligencia artificial en el ámbito médico, sugiriendo que ChatGPT debería considerarse como una herramienta informativa en lugar de un asesor o herramienta de toma de decisiones.
La validación en contextos clínicos adicionales será crucial, especialmente para indicaciones raras o nuevos trazadores
El estudio se centró en el 18F FDG PET/CT para el linfoma de Hodgkin y el cáncer de pulmón, con la esperanza de que, con futuros avances en modelos de inteligencia artificial, herramientas como ChatGPT podrían mejorar la participación del paciente, la calidad de la preparación del paciente y la comprensión de los informes de medicina nuclear.
En conclusión, el papel de ChatGPT como sustituto potencial para el asesoramiento informativo a pacientes en el contexto del 18F FDG PET/CT es prometedor.
A medida que el tiempo disponible para la comunicación entre el personal médico y los pacientes disminuye, herramientas de inteligencia artificial de fácil acceso podrían brindar un valioso medio para mejorar la participación del paciente y la comprensión de los informes de medicina nuclear.
Sin embargo, la consistencia y predictibilidad de las respuestas de las herramientas de inteligencia artificial deben ser perfeccionadas, posiblemente restringiendo sus fuentes de información a bases de datos médicas revisadas por pares.
El futuro de la comunicación paciente-médico podría estar dando un paso hacia la revolución digital liderada por la inteligencia artificial.
Para conocer más sobre esta investigación recomendamos visitar el Journal of Nuclear Medicine para acceder al artículo completo.
0 comentarios