NachrichtenTutorial

Warum KI-Kurse Studenten lehren müssen, Verzerrungen in medizinischen Daten zu erkennen

Ein Zustrom von Studenten, die Kurse in künstlicher Intelligenz (KI) für das Gesundheitswesen belegen, lässt die Aussicht auf eine jährliche Revolutionierung der medizinischen Diagnostik und der Behandlungsempfehlungen wachsen. Trotz dieser Begeisterung gibt es einen Bereich, der nach wie vor zu wenig beachtet wird - die Aufklärung der Studenten über die entscheidende Bedeutung der Bewertung der Qualität und der Verzerrungen in den Trainingsdaten, die zur Entwicklung dieser KI-Modelle verwendet werden.

Die unsichtbaren Defizite bei Gesundheitsdaten und die Rolle der KI-Bildung

Leo Anthony Celi, ein erfahrener Mediziner und leitender Forscher am MIT Institute for Medical Engineering and Science, hat auf wunderbare Weise aufgezeigt, dass dieses Versäumnis in der KI-Ausbildung später zu Problemen führen kann. In einer aktueller Artikel, erklärt er, wie Datenverzerrungen, insbesondere bei klinischen Daten, die hauptsächlich von weißen Männern erhoben werden, zu Ineffizienzen in KI-Systemen führen können, wenn sie auf vielfältigere Bevölkerungsgruppen angewendet werden. Zum Beispiel überschätzen Pulsoximeter oft die Sauerstoffsättigung bei People of Color, da diese in klinischen Studien unterrepräsentiert sind. Dies ist nur die Spitze des Eisbergs, denn es gibt unzählige weitere Fälle, in denen medizinische Geräte und Datensysteme die Vielfalt der Bevölkerung übersehen, was zu verzerrten Ergebnissen und potenziell schädlichen Entscheidungen führt.

Ein weiterer entscheidender Punkt ist die Verwendung elektronischer Gesundheitsakten (EHR) als Grundlage für KI-Modelle. Obwohl sie ein wesentlicher Bestandteil der Medizin sind, waren sie nie als lernende Systeme gedacht, und sie sind voll von Ungereimtheiten und Verzerrungen. Celi ist jedoch kein Schwarzmaler, sondern plädiert dafür, die vorhandenen Daten sinnvoll zu nutzen, anstatt die gesamte EHR-Infrastruktur zu ersetzen - was derzeit nicht möglich ist. Glücklicherweise werden derzeit innovative Ansätze wie Transformatormodelle erforscht, um Zusammenhänge zwischen Laborergebnissen, Vitaldaten und Behandlungen besser zu verstehen. Dieser faszinierende Ansatz könnte dazu beitragen, die Auswirkungen fehlender oder verzerrter Daten zu verringern, die häufig durch soziale Determinanten der Gesundheit und implizite Voreingenommenheit der Anbieter beeinflusst werden.

Die Unzulänglichkeiten angehen und das Lernen maximieren

Die Herausforderungen werden deutlich, wenn man Celis Erfahrungen mit der Lehre von KI im Gesundheitswesen betrachtet. Seit seinem Start im Jahr 2016 stellte sein MIT-Team fest, dass den Studenten beigebracht wurde, Modelle im Hinblick auf die statistische Leistung zu optimieren, anstatt die Integrität der Daten zu hinterfragen. Eine Überprüfung von 11 Online-Kursen machte das Ausmaß dieses Problems deutlich: Nur fünf Kurse sprachen über Datenverzerrungen, und nur zwei boten ausführliche Diskussionen zu diesem Thema. Da die KI im Gesundheitswesen immer mehr Fuß fasst, liegt es an den Ausbildern, dafür zu sorgen, dass die Studierenden nicht nur Modelle erstellen, sondern auch die ihnen zugrunde liegenden Daten hinterfragen können. Um diese Kluft zu überbrücken, muss der Schwerpunkt von der reinen Modellbildung auf das Verständnis der Daten verlagert werden - ein Bereich, der nach Ansicht von Celi mindestens die Hälfte der Kursinhalte ausmachen sollte.

Eine Initiative, die dabei hilft, dieses Rätsel zu lösen, ist das MIT-Konsortium für kritische Daten. Seit 2014 veranstaltet es internationale Datathons. Bei diesen Veranstaltungen kommen Kliniker, Datenwissenschaftler und Fachleute aus dem Gesundheitswesen zusammen, um gemeinsam lokale Datensätze zu untersuchen und Gesundheit und Krankheit im einzigartigen kulturellen und systematischen Kontext der jeweiligen Region zu verstehen. Diese Zusammenarbeit inspiriert ein Umfeld, in dem kritisches Denken organisch gedeiht.

Die Unvollkommenheit von Daten zu akzeptieren, kann auch ein Schritt zur Verbesserung sein, wenn auch ein schwieriger. Ein gutes Beispiel ist die MIMIC-Datenbank, bei der es mehr als 10 Jahre dauerte, bis ein brauchbares Schema formuliert war, was vor allem darauf zurückzuführen war, dass die Nutzer die Mängel erkannten und auf sie hinwiesen. Celi erinnert an dieser Stelle daran, dass auch ohne alle Antworten die Menschen dazu inspiriert werden können, die richtigen Fragen zu stellen, und dass dies einen entscheidenden Unterschied machen kann. Studenten und Forscher, die sich mit der Entwicklung von KI im Gesundheitswesen befassen, müssen sich ihres transformativen Potenzials und der damit einhergehenden ethischen Verantwortung bewusst bleiben.

Ein ausführlicheres Gespräch mit Leo Anthony Celi zu diesem Thema finden Sie unter MIT-Nachrichten.

Wie ist Ihre Reaktion?

Aufgeregt
0
Glücklich
0
Verliebt
0
Nicht sicher
0
Dummerchen
0

Kommentare sind geschlossen.