Ein Zustrom von Studenten, die Kurse in künstlicher Intelligenz (KI) für das Gesundheitswesen belegen, lässt die Aussicht auf eine jährliche Revolutionierung der medizinischen Diagnostik und der Behandlungsempfehlungen wachsen. Trotz dieser Begeisterung gibt es einen Bereich, der nach wie vor zu wenig beachtet wird - die Aufklärung der Studenten über die entscheidende Bedeutung der Bewertung der Qualität und der Verzerrungen in den Trainingsdaten, die zur Entwicklung dieser KI-Modelle verwendet werden.
Wonderfully highlighted by Leo Anthony Celi, an accomplished physician and senior research scientist at MIT’s Institute for Medical Engineering and Science, this oversight in AI education may create issues down the line. In a aktueller Artikel, erklärt er, wie Datenverzerrungen, insbesondere bei klinischen Daten, die hauptsächlich von weißen Männern erhoben werden, zu Ineffizienzen in KI-Systemen führen können, wenn sie auf vielfältigere Bevölkerungsgruppen angewendet werden. Zum Beispiel überschätzen Pulsoximeter oft die Sauerstoffsättigung bei People of Color, da diese in klinischen Studien unterrepräsentiert sind. Dies ist nur die Spitze des Eisbergs, denn es gibt unzählige weitere Fälle, in denen medizinische Geräte und Datensysteme die Vielfalt der Bevölkerung übersehen, was zu verzerrten Ergebnissen und potenziell schädlichen Entscheidungen führt.
Ein weiterer entscheidender Punkt ist die Verwendung elektronischer Gesundheitsakten (EHR) als Grundlage für KI-Modelle. Obwohl sie ein wesentlicher Bestandteil der Medizin sind, waren sie nie als lernende Systeme gedacht, und sie sind voll von Ungereimtheiten und Verzerrungen. Celi ist jedoch kein Schwarzmaler, sondern plädiert dafür, die vorhandenen Daten sinnvoll zu nutzen, anstatt die gesamte EHR-Infrastruktur zu ersetzen - was derzeit nicht möglich ist. Glücklicherweise werden derzeit innovative Ansätze wie Transformatormodelle erforscht, um Zusammenhänge zwischen Laborergebnissen, Vitaldaten und Behandlungen besser zu verstehen. Dieser faszinierende Ansatz könnte dazu beitragen, die Auswirkungen fehlender oder verzerrter Daten zu verringern, die häufig durch soziale Determinanten der Gesundheit und implizite Voreingenommenheit der Anbieter beeinflusst werden.
The challenges become apparent when you consider Celi’s experiences teaching AI in healthcare. Since starting in 2016, his MIT team realized that students were being taught to optimize models in terms of statistical performance rather than question the data’s integrity. A review of 11 online courses revealed the scale of this problem; only five courses talked about data bias and a mere two offered substantial discussions on the subject. As AI continues to establish its footprint in healthcare, the onus lies with educators to ensure students can not only build models but also scrutinize the data fueling them. Bridging this divide will require a shift in focus from solely model building to also understanding the data – an area Celi believes should account for at least half the course content.
One initiative helping to solve this puzzle is the MIT Critical Data consortium. They’ve been hosting international datathons since 2014. These sessions unite clinicians, data scientists, and healthcare professionals to collaboratively examine local datasets, aiming to understand health and disease within the unique cultural and systematic context of each region. These collaborations inspire an environment where critical thinking organically thrives.
Die Unvollkommenheit von Daten zu akzeptieren, kann auch ein Schritt zur Verbesserung sein, wenn auch ein schwieriger. Ein gutes Beispiel ist die MIMIC-Datenbank, bei der es mehr als 10 Jahre dauerte, bis ein brauchbares Schema formuliert war, was vor allem darauf zurückzuführen war, dass die Nutzer die Mängel erkannten und auf sie hinwiesen. Celi erinnert an dieser Stelle daran, dass auch ohne alle Antworten die Menschen dazu inspiriert werden können, die richtigen Fragen zu stellen, und dass dies einen entscheidenden Unterschied machen kann. Studenten und Forscher, die sich mit der Entwicklung von KI im Gesundheitswesen befassen, müssen sich ihres transformativen Potenzials und der damit einhergehenden ethischen Verantwortung bewusst bleiben.
Ein ausführlicheres Gespräch mit Leo Anthony Celi zu diesem Thema finden Sie unter MIT-Nachrichten.
Diese Website verwendet Cookies.