AutomatyzacjaAktualności

Tworzenie pokornej sztucznej inteligencji: nowe podejście do poprawy diagnostyki medycznej

Wyobraź sobie, że sztuczna inteligencja (AI) jest nie tylko niesamowicie inteligentna, ale także “pokorna”? Nie jest to tak dziwne, jak się wydaje. Sztuczna inteligencja rewolucjonizuje branżę opieki zdrowotnej, oferując potencjalne zmiany w diagnozowaniu pacjentów i spersonalizowanym leczeniu. Jest jednak pewne zastrzeżenie. Według globalnego zespołu naukowców kierowanego przez MIT, obecne systemy sztucznej inteligencji mogą wprowadzać lekarzy w błąd ze względu na ich tendencję do podejmowania zbyt pewnych, choć błędnych decyzji.

Aby zarządzać tym ryzykiem, badacze zalecają programowanie systemów AI z atrybutem zwykle zarezerwowanym dla ludzi - pokorą. Chodzi o to, że te systemy sztucznej inteligencji powinny być zaprogramowane tak, aby były świadome, kiedy nie mają pewności co do swoich sugestii diagnostycznych lub zaleceń. Skłoniłoby to użytkowników do zebrania dodatkowych informacji, gdy pojawi się jakakolwiek niepewność.

“Używamy teraz sztucznej inteligencji jako wyroczni, ale możemy używać jej jako trenera. Możemy użyć AI jako prawdziwego drugiego pilota. To nie tylko zwiększyłoby naszą zdolność do wyszukiwania informacji, ale także zwiększyłoby naszą zdolność do łączenia kropek” - mówi Leo Anthony Celi, starszy naukowiec w Instytucie Inżynierii Medycznej i Nauki MIT. Opowiada się on za ramami, w których sztuczna inteligencja wykazuje ciekawość i pokorę, wspierając partnerstwo między lekarzami a systemami AI.

Potencjalne niebezpieczeństwo związane ze zbyt pewnymi siebie systemami sztucznej inteligencji jest nie do przecenienia. Mogą one prowadzić do błędów medycznych, zwłaszcza gdy lekarze oddziałów intensywnej terapii polegają na sztucznej inteligencji postrzeganej jako niezawodna, nawet wbrew własnej intuicji. Aby temu przeciwdziałać, należy zaszczepić ludzkie wartości w sztucznej inteligencji. Jak wyjaśnia Sebastián Andrés Cajas Ordoñez, który kierował badaniem opublikowanym w BMJ Health and Care Informatics, “staramy się włączyć ludzi do tych systemów człowiek-AI i zachęcić ludzi do wspólnej refleksji i ponownego wyobrażenia sobie, zamiast pozwalać izolowanym agentom AI robić wszystko”.”

Częścią tej współpracy jest Epistemic Virtue Score, moduł obliczeniowy opracowany przez zespół, który zapewnia modelom sztucznej inteligencji ocenę ich pewności podczas dokonywania prognoz diagnostycznych. Oznacza to, że system sztucznej inteligencji dostarczałby odpowiedzi, ale także podnosiłby flagę ostrożności, gdy uzna to za konieczne.

Różnorodność w rozwoju sztucznej inteligencji jest kolejnym istotnym zagadnieniem. Potencjał uprzedzeń i wykluczeń z modeli sztucznej inteligencji trenowanych na określonych zbiorach danych nie jest pomijany. Poprzez swoją pracę globalne konsorcjum dąży do uwzględnienia większej liczby punktów widzenia, kwestionowania istniejących zbiorów danych i wychwytywania wszystkich istotnych czynników.

“Sprawiamy, że kwestionują zestaw danych. Czy są pewni swoich danych treningowych i walidacyjnych? Czy uważają, że istnieją pacjenci, którzy zostali wykluczeni, nieumyślnie lub celowo, i jak wpłynie to na sam model?”.” pyta Celi. “Musimy być bardziej świadomi i rozważni w tym, jak rozwijamy sztuczną inteligencję, nie tylko w opiece zdrowotnej, ale w każdym sektorze”.”

Jeśli jesteś zaintrygowany i chcesz zbadać opcje automatyzacji AI dla swojej firmy, dobrym miejscem do rozpoczęcia jest strona implementi.ai. Więcej informacji na temat tego niesamowitego skoku w przyszłość można znaleźć na stronie oryginalny artykuł tutaj.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
1
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.