Un estudio proporciona un primer vistazo a las opiniones de los Oncólogos sobre las implicaciones éticas de la Inteligencia Artificial en el cuidado del Cáncer
A medida que la Inteligencia Artificial (IA) se abre paso en el cuidado del cáncer, y en las conversaciones entre médicos y pacientes, los oncólogos se enfrentan a la ética de su uso en la toma de decisiones médicas.
En una reciente encuesta realizada por investigadores del Instituto del Cáncer Dana-Farber, más de 200 oncólogos en Estados Unidos estuvieron en amplio acuerdo sobre cómo la IA puede integrarse de manera responsable en algunos aspectos del cuidado del paciente, y también expresaron preocupación sobre cómo proteger a los pacientes de los sesgos ocultos de la IA.
Sobre la encuesta de IA
La encuesta, descrita en un artículo publicado en JAMA Network Open, encontró que el 85% de los encuestados opinó que los oncólogos deberían poder explicar cómo funcionan los modelos de IA, pero solo el 23% pensaba que los pacientes necesitaban el mismo nivel de comprensión al considerar un tratamiento.
Poco más del 81% de los encuestados consideraron que los pacientes deberían dar su consentimiento para el uso de herramientas de IA en la toma de decisiones sobre el tratamiento.
Cuando la encuesta preguntó a los oncólogos qué harían si un sistema de IA seleccionara un régimen de tratamiento diferente al que planeaban recomendar, la respuesta más común, ofrecida por el 37% de los encuestados, fue presentar ambas opciones y dejar que el paciente decidiera.
Cuando se les preguntó quién tiene la responsabilidad de los problemas médicos o legales derivados del uso de IA, el 91% de los encuestados señaló a los desarrolladores de IA.
Esto fue mucho más alto que el 47% que sintió que la responsabilidad debería ser compartida con los médicos, o el 43% que sintió que debería ser compartida con los hospitales.
Y mientras que el 76% de los encuestados señaló que los oncólogos deberían proteger a los pacientes de herramientas de IA sesgadas, que reflejan inequidades en quién está representado en las bases de datos médicas, solo el 28% estaba seguro de que podrían identificar modelos de IA que contuvieran tales sesgos.
¿Qué dicen los especialistas?
“Los hallazgos brindan un primer vistazo a dónde están los oncólogos en cuanto a pensar en las implicaciones éticas de la IA en el cuidado del cáncer”, dice el Dr. Andrew Hantel, del Instituto del Cáncer Dana-Farber, quien dirigió el estudio junto con el Dr. Gregory Abel, de la misma institución.
“La IA tiene el potencial de producir avances importantes en la investigación y tratamiento del cáncer, pero no ha habido mucha educación para las partes interesadas, los médicos y otros que utilizarán esta tecnología, sobre lo que su adopción significará para su práctica”.
“Es fundamental que evaluemos ahora, en las primeras etapas de la aplicación de la IA en la atención clínica, cómo impactará esa atención y qué necesitamos hacer para asegurarnos de que se implemente de manera responsable. Los oncólogos necesitan ser parte de esa conversación. Este estudio busca comenzar a construir un puente entre el desarrollo de la IA y las expectativas y obligaciones éticas de sus usuarios finales”.
Usos crecientes de la IA en oncología radioterapeútica
Hantel señala que actualmente la IA se utiliza en el cuidado del cáncer principalmente como herramienta de diagnóstico, para detectar células tumorales en láminas de patología e identificar tumores en radiografías y otras imágenes radiológicas.
Sin embargo, se están desarrollando nuevos modelos de IA que pueden evaluar el pronóstico de un paciente y pronto podrán ofrecer recomendaciones de tratamiento.
Esta capacidad ha suscitado preocupaciones sobre quién o qué es legalmente responsable si un tratamiento recomendado por IA resulta dañino para un paciente.
“La IA no es un profesional médico con licencia, sin embargo, podría algún día tomar decisiones de tratamiento para los pacientes”, señala Hantel.
“¿La IA va a ser su propio médico, estará sujeta a licencia y quiénes son los humanos que podrían ser responsables de su recomendación? Estos son los problemas médico-legales que deben resolverse antes de que se implemente la tecnología”.
“Nuestra encuesta encontró que mientras casi todos los oncólogos consideraban que los desarrolladores de IA deberían tener alguna responsabilidad por las decisiones de tratamiento generadas por la IA, solo la mitad sentía que la responsabilidad también recaía en los oncólogos u hospitales”, agregó Hantel.
“Nuestro estudio da una idea de dónde se encuentran actualmente los oncólogos en este y otros temas éticos relacionados con la IA y, esperamos, sirva como punto de partida para su consideración en el futuro”.
Para conocer más sobre esta investigación recomendaos visitar JAMA Network Open
0 comentarios