Ochrona prywatności pacjentów w erze sztucznej inteligencji: naukowcy z MIT badają ryzyko zapamiętywania w modelach klinicznych
Podstawą prywatności pacjentów jest przysięga Hipokratesa, starożytny tekst definiujący etykę medyczną. Przysięga ta podkreśla znaczenie zachowania przez lekarzy prywatności spraw swoich pacjentów, ilustrując, jak krytyczna była poufność dla zawodu lekarza przez ponad dwa tysiąclecia. W dzisiejszym cyfrowym świecie, w którym dane osobowe są śledzone i utowarowione, medycyna pozostaje istotną sferą, w której prywatność jest nadal nieodłączna.
Rzeczywiście, pacjenci muszą czuć się bezpiecznie, ujawniając lekarzom delikatne informacje. Zaufanie to jest warunkiem wstępnym dokładnych diagnoz i skutecznego leczenia. Niemniej jednak, nawet ta dziedzina nie jest odporna na technologie, które zmieniają wiele aspektów życia. W szczególności rozwój sztucznej inteligencji (AI) stwarza nowe wyzwania dla zachowania prywatności w sektorze zdrowia.
Nowy rodzaj zagrożenia dla poufności?
A ostatnie badanie prowadzone przez naukowców z MIT bije na alarm w związku z potencjalnym naruszeniem prywatności pacjentów przez sztuczną inteligencję. Skupiając się na modelach sztucznej inteligencji znanych jako “modele fundamentalne”, które uczą się na podstawie dużych zbiorów danych w celu przewidywania, badanie ujawniło, że modele te czasami “zapamiętują” dane poszczególnych pacjentów zamiast uogólniać je w wielu rekordach. Implikacje są alarmujące - jeśli model sztucznej inteligencji odtwarza wrażliwe informacje o pacjencie, może to naruszać jego prywatność.
Badaniem kierowała podoktorantka Sana Tonekaboni, która we współpracy z profesorem nadzwyczajnym MIT Marzyeh Ghassemi opracowała testy pozwalające ocenić, ile informacji potrzebowałby atakujący, aby wydobyć wrażliwe dane z modelu i jak szkodliwy mógłby być taki wyciek.
Rosnące niebezpieczeństwo naruszenia bezpieczeństwa danych
Wraz z migracją dokumentacji medycznej do systemów cyfrowych znacznie wzrosła liczba przypadków naruszenia danych. Tylko w ciągu ostatnich dwóch lat doszło do 747 naruszeń, z których każde miało wpływ na ponad 500 osób, głównie z powodu błędów informatycznych lub włamań. Trend ten podkreśla pojawiające się zagrożenia związane z wyciekami prywatności związanymi ze sztuczną inteligencją, szczególnie w przypadku pacjentów z rzadkimi lub wyjątkowymi schorzeniami. Nawet jeśli dane są pozbawione cech identyfikacyjnych, osoby te są nadal zagrożone, ponieważ wyciekłe informacje mogą je potencjalnie zidentyfikować.
W swoich badaniach zespół odkrył, że wycieki mogą mieć bardzo różne konsekwencje. Ujawnienie wieku pacjenta lub jego ogólnych danych demograficznych może nie być dużym problemem. Jeśli jednak ujawnione zostaną bardziej wrażliwe informacje - takie jak diagnoza HIV lub historia nadużywania substancji - może to mieć poważne konsekwencje. Testy przeprowadzone przez naukowców mają na celu rozróżnienie między łagodnymi i szkodliwymi wyciekami oraz ocenę prawdopodobieństwa różnych rodzajów ataków w rzeczywistych warunkach.
Jak zabezpieczyć AI dla zdrowia?
W przyszłości zespół badawczy ma nadzieję uwzględnić spostrzeżenia klinicystów, obrońców prywatności i ekspertów prawnych, aby poszerzyć swoje badania. Ich celem jest sformułowanie solidnych ram oceny i zarządzania zagrożeniami dla prywatności, zanim te podstawowe modele zostaną zintegrowane z warunkami klinicznymi. Ponadto ich celem jest przypomnienie nam, dlaczego zachowanie prywatności w opiece zdrowotnej jest tak istotne. Jak ujął to Tonekaboni: “Jest powód, dla którego nasze dane zdrowotne są prywatne... Nie ma powodu, aby inni o nich wiedzieli”.”
Badania były wspierane przez kilka organizacji, w tym Centrum Erica i Wendy Schmidt w Broad Institute na MIT i Harvardzie, program Wallenberg AI, Fundację Knuta i Alice Wallenberg, Narodową Fundację Nauki USA i inne.