Nachrichten

Schutz der Privatsphäre von Patienten im Zeitalter der KI: MIT-Forscher untersuchen Erinnerungsrisiken in klinischen Modellen

Die Grundlage für den Schutz der Privatsphäre von Patienten geht auf den Hippokratischen Eid zurück, einen alten Text, der die medizinische Ethik definiert. Dieser Eid unterstreicht, wie wichtig es ist, dass Ärzte die Angelegenheiten ihrer Patienten vertraulich behandeln, und verdeutlicht, wie wichtig die Vertraulichkeit seit mehr als zwei Jahrtausenden für den Gesundheitsberuf ist. In der heutigen digitalisierten Welt, in der persönliche Daten verfolgt und zu Waren gemacht werden, bleibt die Medizin ein lebenswichtiger Bereich, in dem der Schutz der Privatsphäre nach wie vor unabdingbar ist.

Die Patienten müssen sich sicher fühlen, wenn sie ihren Ärzten heikle Informationen mitteilen. Dieses Vertrauen ist eine Voraussetzung für genaue Diagnosen und wirksame Behandlungen. Dennoch ist auch dieser Bereich nicht unempfindlich gegenüber Technologien, die viele Aspekte des Lebens verändern. Insbesondere das Aufkommen der künstlichen Intelligenz (KI) stellt die Wahrung der Privatsphäre im Gesundheitssektor vor neue Herausforderungen.

Eine neue Art der Bedrohung der Vertraulichkeit?

A aktuelle Studie unter der Leitung von Forschern des MIT warnt vor dem Potenzial der KI, die Privatsphäre von Patienten zu untergraben. Die Studie konzentriert sich auf KI-Modelle, die als “Basismodelle” bekannt sind und aus großen Datensätzen lernen, um Vorhersagen zu treffen. Sie zeigt, dass sich diese Modelle manchmal einzelne Patientendaten “merken”, anstatt sie über viele Datensätze hinweg zu verallgemeinern. Die Folgen sind alarmierend - wenn ein KI-Modell sensible Patientendaten reproduziert, könnte es deren Privatsphäre verletzen.

Leiterin der Studie war die Postdoktorandin Sana Tonekaboni, die zusammen mit der MIT-Assistenzprofessorin Marzyeh Ghassemi Tests entwickelte, um festzustellen, wie viele Informationen ein Angreifer benötigt, um sensible Daten aus einem Modell zu extrahieren, und wie schädlich ein solches Leck sein könnte.

Die wachsende Gefahr von Datenschutzverletzungen

Mit der Umstellung der Gesundheitsakten auf digitale Systeme hat die Zahl der Datenschutzverletzungen erheblich zugenommen. Allein in den letzten zwei Jahren gab es 747 Datenschutzverletzungen, die jeweils mehr als 500 Personen betrafen und in erster Linie auf IT-Pannen oder Hackerangriffe zurückzuführen waren. Dieser Trend verdeutlicht die aufkommenden Gefahren, die von KI-bedingten Datenlecks ausgehen, insbesondere für Patienten mit seltenen oder einzigartigen Erkrankungen. Selbst wenn die Daten de-identifiziert werden, sind diese Personen immer noch gefährdet, da die durchgesickerten Informationen sie potenziell identifizieren könnten.

Bei ihren Untersuchungen stellte das Team fest, dass undichte Stellen sehr unterschiedliche Auswirkungen haben können. Wenn das Alter eines Patienten oder allgemeine demografische Daten preisgegeben werden, ist das vielleicht kein großes Problem. Wenn jedoch sensiblere Informationen - wie eine HIV-Diagnose oder eine Vorgeschichte von Drogenmissbrauch - offengelegt werden, könnte dies schwerwiegende Folgen haben. Die Tests der Forscher zielen darauf ab, zwischen gutartigen und schädlichen Datenlecks zu unterscheiden und die Wahrscheinlichkeit verschiedener Arten von Angriffen in der realen Welt zu bewerten.

Wie lässt sich die Gesundheits-KI schützen?

Das Forschungsteam hofft, in Zukunft Erkenntnisse von Klinikern, Datenschutzbeauftragten und Rechtsexperten einbeziehen zu können, um seine Studie zu erweitern. Ihr Ziel ist es, einen soliden Rahmen für die Bewertung und das Management von Datenschutzrisiken zu formulieren, bevor diese Basismodelle in klinische Umgebungen integriert werden. Außerdem wollen sie uns vor Augen führen, warum die Wahrung der Privatsphäre im Gesundheitswesen so wichtig ist. Wie Tonekaboni es ausdrückte: “Es gibt einen Grund, warum unsere Gesundheitsdaten privat sind... Es gibt keinen Grund, warum andere davon wissen sollten.”

Die Forschung wurde von mehreren Organisationen unterstützt, darunter das Eric und Wendy Schmidt Center am Broad Institute des MIT und Harvard, das Wallenberg AI Program, die Knut und Alice Wallenberg Stiftung, die U.S. National Science Foundation und andere.

Wie ist Ihre Reaktion?

Aufgeregt
0
Glücklich
0
Verliebt
0
Nicht sicher
0
Dummerchen
0

Kommentare sind geschlossen.