The foundation of patient privacy traces back to the Hippocratic Oath, an ancient text defining medical ethics. This Oath emphasizes the importance of physicians keeping their patients’ affairs private, illustrating how critical confidentiality has been to the healthcare profession for more than two millennia. In today’s digitally driven world where personal information is tracked and commodified, medicine remains a vital sphere where privacy is still intrinsic.
Die Patienten müssen sich sicher fühlen, wenn sie ihren Ärzten heikle Informationen mitteilen. Dieses Vertrauen ist eine Voraussetzung für genaue Diagnosen und wirksame Behandlungen. Dennoch ist auch dieser Bereich nicht unempfindlich gegenüber Technologien, die viele Aspekte des Lebens verändern. Insbesondere das Aufkommen der künstlichen Intelligenz (KI) stellt die Wahrung der Privatsphäre im Gesundheitssektor vor neue Herausforderungen.
A aktuelle Studie led by researchers at MIT is sounding the alarm about the potential for AI to undermine patient privacy. Focusing on AI models known as “foundation models,” which learn from large data sets to make predictions, the study revealed that these models sometimes “memorize” individual patient data instead of generalizing across many records. The implications are alarming – if an AI model reproduces sensitive patient information, it could violate their privacy.
Leiterin der Studie war die Postdoktorandin Sana Tonekaboni, die zusammen mit der MIT-Assistenzprofessorin Marzyeh Ghassemi Tests entwickelte, um festzustellen, wie viele Informationen ein Angreifer benötigt, um sensible Daten aus einem Modell zu extrahieren, und wie schädlich ein solches Leck sein könnte.
Mit der Umstellung der Gesundheitsakten auf digitale Systeme hat die Zahl der Datenschutzverletzungen erheblich zugenommen. Allein in den letzten zwei Jahren gab es 747 Datenschutzverletzungen, die jeweils mehr als 500 Personen betrafen und in erster Linie auf IT-Pannen oder Hackerangriffe zurückzuführen waren. Dieser Trend verdeutlicht die aufkommenden Gefahren, die von KI-bedingten Datenlecks ausgehen, insbesondere für Patienten mit seltenen oder einzigartigen Erkrankungen. Selbst wenn die Daten de-identifiziert werden, sind diese Personen immer noch gefährdet, da die durchgesickerten Informationen sie potenziell identifizieren könnten.
In their research, the team found that leaks could vary greatly in their repercussions. It might not be a big issue if a patient’s age or general demographics were revealed. But if more sensitive information – such as a diagnosis of HIV or a history of substance misuse – were disclosed, it could have serious implications. The researchers’ tests are aimed at differentiating between benign and harmful leaks and assessing the likelihood of different types of attacks in real-world settings.
Going forward, the research team hopes to incorporate insights from clinicians, privacy advocates, and legal experts to broaden their study. Their goal is to formulate a robust framework for evaluating and managing privacy risks before these foundation models are integrated into clinical settings. Additionally, their aim is to remind us of why maintaining privacy in healthcare is so essential. As Tonekaboni put it, “There’s a reason our health data is private…There’s no reason for others to know about it.”
Die Forschung wurde von mehreren Organisationen unterstützt, darunter das Eric und Wendy Schmidt Center am Broad Institute des MIT und Harvard, das Wallenberg AI Program, die Knut und Alice Wallenberg Stiftung, die U.S. National Science Foundation und andere.
Diese Website verwendet Cookies.