The foundation of patient privacy traces back to the Hippocratic Oath, an ancient text defining medical ethics. This Oath emphasizes the importance of physicians keeping their patients’ affairs private, illustrating how critical confidentiality has been to the healthcare profession for more than two millennia. In today’s digitally driven world where personal information is tracked and commodified, medicine remains a vital sphere where privacy is still intrinsic.
Rzeczywiście, pacjenci muszą czuć się bezpiecznie, ujawniając lekarzom delikatne informacje. Zaufanie to jest warunkiem wstępnym dokładnych diagnoz i skutecznego leczenia. Niemniej jednak, nawet ta dziedzina nie jest odporna na technologie, które zmieniają wiele aspektów życia. W szczególności rozwój sztucznej inteligencji (AI) stwarza nowe wyzwania dla zachowania prywatności w sektorze zdrowia.
A ostatnie badanie led by researchers at MIT is sounding the alarm about the potential for AI to undermine patient privacy. Focusing on AI models known as “foundation models,” which learn from large data sets to make predictions, the study revealed that these models sometimes “memorize” individual patient data instead of generalizing across many records. The implications are alarming – if an AI model reproduces sensitive patient information, it could violate their privacy.
Badaniem kierowała podoktorantka Sana Tonekaboni, która we współpracy z profesorem nadzwyczajnym MIT Marzyeh Ghassemi opracowała testy pozwalające ocenić, ile informacji potrzebowałby atakujący, aby wydobyć wrażliwe dane z modelu i jak szkodliwy mógłby być taki wyciek.
Wraz z migracją dokumentacji medycznej do systemów cyfrowych znacznie wzrosła liczba przypadków naruszenia danych. Tylko w ciągu ostatnich dwóch lat doszło do 747 naruszeń, z których każde miało wpływ na ponad 500 osób, głównie z powodu błędów informatycznych lub włamań. Trend ten podkreśla pojawiające się zagrożenia związane z wyciekami prywatności związanymi ze sztuczną inteligencją, szczególnie w przypadku pacjentów z rzadkimi lub wyjątkowymi schorzeniami. Nawet jeśli dane są pozbawione cech identyfikacyjnych, osoby te są nadal zagrożone, ponieważ wyciekłe informacje mogą je potencjalnie zidentyfikować.
In their research, the team found that leaks could vary greatly in their repercussions. It might not be a big issue if a patient’s age or general demographics were revealed. But if more sensitive information – such as a diagnosis of HIV or a history of substance misuse – were disclosed, it could have serious implications. The researchers’ tests are aimed at differentiating between benign and harmful leaks and assessing the likelihood of different types of attacks in real-world settings.
Going forward, the research team hopes to incorporate insights from clinicians, privacy advocates, and legal experts to broaden their study. Their goal is to formulate a robust framework for evaluating and managing privacy risks before these foundation models are integrated into clinical settings. Additionally, their aim is to remind us of why maintaining privacy in healthcare is so essential. As Tonekaboni put it, “There’s a reason our health data is private…There’s no reason for others to know about it.”
Badania były wspierane przez kilka organizacji, w tym Centrum Erica i Wendy Schmidt w Broad Institute na MIT i Harvardzie, program Wallenberg AI, Fundację Knuta i Alice Wallenberg, Narodową Fundację Nauki USA i inne.
This website uses cookies.