Tworzenie pokornej sztucznej inteligencji: nowe podejście do poprawy diagnostyki medycznej

Wyobraź sobie, że sztuczna inteligencja (AI) jest nie tylko niesamowicie inteligentna, ale także “pokorna”? Nie jest to tak dziwne, jak się wydaje. Sztuczna inteligencja rewolucjonizuje branżę opieki zdrowotnej, oferując potencjalne zmiany w diagnozowaniu pacjentów i spersonalizowanym leczeniu. Jest jednak pewne zastrzeżenie. Według globalnego zespołu naukowców kierowanego przez MIT, obecne systemy sztucznej inteligencji mogą wprowadzać lekarzy w błąd ze względu na ich tendencję do podejmowania zbyt pewnych, choć błędnych decyzji.

To manage these risks, these researchers recommend programming AI systems with an attribute usually reserved for humans – humility. What they mean is that these AI systems should be programmed to be aware when they lack confidence in their diagnostic suggestions or recommendations. This would prompt users to gather additional information when any uncertainty arises.

“We’re now using AI as an oracle, but we can use AI as a coach. We could use AI as a true co-pilot. That would not only increase our ability to retrieve information but increase our agency to be able to connect the dots,” says Leo Anthony Celi, a senior research scientist at MIT’s Institute for Medical Engineering and Science. He advocates for a framework where AI exhibits curiosity and humility, fostering a partnership between doctors and AI systems.

The potential danger of overconfident AI systems can’t be overstated. They can lead to medical errors, especially when ICU physicians defer to AI perceived as reliable, even against their own intuition. To combat this, it’s about instilling human values within AI. As Sebastián Andrés Cajas Ordoñez, who headed the study published in BMJ Health and Care Informatics, explains, “we are trying to include humans in these human-AI systems, and encourage humans to collectively reflect and reimagine, instead of letting isolated AI agents doing everything.”

Częścią tej współpracy jest Epistemic Virtue Score, moduł obliczeniowy opracowany przez zespół, który zapewnia modelom sztucznej inteligencji ocenę ich pewności podczas dokonywania prognoz diagnostycznych. Oznacza to, że system sztucznej inteligencji dostarczałby odpowiedzi, ale także podnosiłby flagę ostrożności, gdy uzna to za konieczne.

Różnorodność w rozwoju sztucznej inteligencji jest kolejnym istotnym zagadnieniem. Potencjał uprzedzeń i wykluczeń z modeli sztucznej inteligencji trenowanych na określonych zbiorach danych nie jest pomijany. Poprzez swoją pracę globalne konsorcjum dąży do uwzględnienia większej liczby punktów widzenia, kwestionowania istniejących zbiorów danych i wychwytywania wszystkich istotnych czynników.

“We make them question the dataset. Are they confident about their training data and validation data? Do they think that there are patients that were excluded, unintentionally or intentionally, and how will that affect the model itself?” pyta Celi. “Musimy być bardziej świadomi i rozważni w tym, jak rozwijamy sztuczną inteligencję, nie tylko w opiece zdrowotnej, ale w każdym sektorze”.”

If you’re intrigued and want to explore AI automation options for your company, a good place to start is at implementi.ai. Więcej informacji na temat tego niesamowitego skoku w przyszłość można znaleźć na stronie oryginalny artykuł tutaj.

Max Krawiec

This website uses cookies.