La privacidad de los datos de los pacientes en modelos de inteligencia artificial (IA) entrenados en radiografías de tórax puede garantizarse, lo que es importante, sin reducir significativamente la precisión de los modelos en grandes conjuntos de datos “del mundo real”, según un estudio publicado en Communications Medicine.
La seguridad de los pacientes también en sus datos
Un equipo en Alemania utilizó un enfoque llamado “privacidad diferencial” al entrenar modelos de IA a gran escala y luego evaluó sus efectos en el rendimiento del modelo.
Encontraron que se podía lograr una alta precisión, a pesar de las estrictas garantías de privacidad, señalaron los autores principales, Dr. Soroosh Tayebi Arasteh, del Hospital Universitario RWTH Aachen, y Dr. Alexander Ziller, de la Universidad Técnica de Múnich.
“Nuestro estudio muestra que, bajo las desafiantes circunstancias realistas de un conjunto de datos clínicos de la vida real, el entrenamiento para preservar la privacidad de modelos de aprendizaje profundo diagnóstico es posible con una excelente precisión diagnóstica y equidad”, escribió el grupo.
¿Cómo se plantea el modelo?
La mayoría, si no todos, los modelos de inteligencia artificial de aprendizaje automático actualmente implementados se entrenan sin ninguna técnica formal para preservar la privacidad de los datos, señalaron los investigadores.
Aunque se ha propuesto un enfoque llamado aprendizaje federado, incluso se ha demostrado que es vulnerable a posibles ataques maliciosos a través de ingeniería inversa, escribieron.
Por lo tanto, se requieren métodos formales de preservación de la privacidad para proteger a los pacientes cuyos datos se utilizan para entrenar modelos de IA diagnósticos y, en este sentido, el estándar de oro es una técnica llamada privacidad diferencial, según los autores.
En resumen, la privacidad diferencial implica introducir aleatoriedad (“ruido” matemático) en los datos utilizados para entrenar modelos de aprendizaje profundo para que no se puedan distinguir los puntos de datos individuales.
“Hasta donde sabemos, nuestro estudio es el primer trabajo que investiga el uso de privacidad diferencial en el entrenamiento de modelos de IA diagnósticos complejos en un conjunto de datos del mundo real”, agregaron los investigadores.
Así lo desarrollaron:
Los investigadores utilizaron dos conjuntos de datos: un gran conjunto de datos (n = 193,311) de radiografías clínicas de tórax de alta calidad y un conjunto de datos (n = 1,625) de imágenes de TC abdominal en 3D, con la tarea de clasificar la presencia de adenocarcinoma ductal pancreático.
Ambos conjuntos de datos fueron recopilados retrospectivamente y etiquetados manualmente por radiólogos experimentados.
A continuación, compararon redes neuronales convolucionales profundas no privadas y modelos que preservan la privacidad con respecto a los intercambios de rendimiento.
Según los hallazgos, si bien el entrenamiento para preservar la privacidad dio como resultado una precisión más baja, no amplificó la capacidad de la IA para discriminar entre las imágenes de rayos X según la edad, el sexo o los pacientes con múltiples afecciones de salud.
Significativamente, estos son puntos de datos que podrían usarse para identificar pacientes específicos, señalaron.
El futuro es prometedor
“La privacidad diferencial ofrece la capacidad de establecer un límite superior para el riesgo de ataques exitosos a la privacidad mientras aún se pueden sacar conclusiones de los datos”, escribió el grupo.
En última instancia, los intercambios entre el rendimiento del modelo y la preservación de la privacidad son objeto de debate ético, social y político, agregaron los investigadores.
“Nuestros resultados son de interés para los profesionales médicos, los expertos en aprendizaje profundo en el campo médico y los organismos reguladores como las instituciones legislativas, los comités de revisión institucionales y los oficiales de protección de datos”, concluyó el grupo.
Para conocer más sobre la investigación, recomendamos visitar Communications Medicine.
0 comentarios