Aktualności

Gdy sztuczna inteligencja wymyśla fakty: Ryzyko korporacyjne, którego żaden lider nie może zignorować

Zdumiewający postęp dokonany w generatywnych modelach sztucznej inteligencji w replikowaniu ludzkiego języka jest podkreślony przez niepokojący trend: ich skłonność do wymyślania informacji - stan określany jako ‘halucynacja’. Prawdziwe niebezpieczeństwo wynika nie tylko z faktu, że systemy te wymyślają informacje, ale z ich fenomenalnej zdolności do robienia tego w przekonujący sposób, a także z naszej skłonności do przyjmowania ich słów jako ewangelii.

Poruszanie się po systemowym ryzyku halucynacji sztucznej inteligencji

Decydenci w korporacjach często wierzą, że przy wystarczającym dostosowaniu, ustaleniu granic i wykorzystaniu strategii generowania rozszerzonego wyszukiwania (RAG), te modele sztucznej inteligencji można udomowić i wykorzystać na masową skalę. Liczby mówią jednak co innego. Badania w różnych branżach ujawniają występowanie halucynacji wahających się od rozsądnego 0,8% do alarmującego 88%, w zależności od modelu i konkretnego przypadku, w którym został użyty.

Na przykład badanie przeprowadzone przez Stanford HAI & RegLab w sektorze technologii prawnych wykazały, że duże modele językowe (LLM) halucynowały od 69% do 88% czasu podczas udzielania porad prawnych. W świecie akademickim Badanie JMIR ustalili, że zarówno GPT-3.5, jak i GPT-4 miały halucynacje w ponad 85% przypadków; Bard Google był za każdym razem nieprawidłowy. W świecie finansów, generowane przez sztuczną inteligencję dezinformacje skłoniły rzeczywistych klientów do rozważenia realokacji swoich funduszy, jak donosi raport Badanie przeprowadzone w Wielkiej Brytanii.

W tym momencie musimy zdać sobie sprawę, że chodzi o coś więcej niż tylko naprawianie błędów. Chodzi o radzenie sobie z ryzykiem - reputacyjnym, prawnym, operacyjnym. Opady są realne i narastają, niezależnie od tego, czy chodzi o wydawanie przez kancelarie prawne porad odradzających prawnikom poleganie na orzecznictwie generowanym przez sztuczną inteligencję, czy też o Radę Stabilności Finansowej G20, która uznała generatywną sztuczną inteligencję za potencjalny katalizator niestabilności finansowej. Halucynacje to nie tylko rzadki błysk na radarze, to zakorzeniona wada. Generatywna sztuczna inteligencja nie jest logiczną maszyną - jest statystycznym spekulantem. Jej przewidywania opierają się na wzorcach danych, a nie na faktach. W związku z tym, nawet jeśli wydają się wiarygodne, mogą być całkowicie iluzoryczne. Termin ’halucynacje‘ nie powinien być zarezerwowany tylko dla najbardziej skandalicznych błędów, ponieważ cały wynik jest jedynie upiększonym domysłem.

Wizja odpowiedzialnej sztucznej inteligencji

Aby sztuczna inteligencja została przygotowana dla przedsiębiorstw, musimy powstrzymać się od postrzegania jej jako tajemniczego bytu - zamiast tego powinniśmy postrzegać ją jako infrastrukturę. Wymaga to nalegania na przejrzystość, jasność i identyfikowalność. System sztucznej inteligencji, który nie może zapewnić jasnego podziału swoich procesów, nie powinien być powierzany krytycznym operacjom. The Przyszłość sztucznej inteligencji w przedsiębiorstwie skłania się ku systemom, które można poddać audytowi i pociągnąć do odpowiedzialności.

Regulacje również nabierają tempa, czego przykładem jest unijna ustawa o sztucznej inteligencji. Sektory wysokiego ryzyka, takie jak opieka zdrowotna, prawo i infrastruktura krytyczna, będą wkrótce zobowiązane do zapewnienia zgodności swoich systemów sztucznej inteligencji z rygorystyczną dokumentacją, testami i wytycznymi dotyczącymi przejrzystości. Traktuj to nie tylko jako zgodność, ale jako konieczność.

Na horyzoncie pojawia się nadzieja, ponieważ niektóre firmy już zaczęły rozwijać sztuczną inteligencję w inny sposób. Zamiast karmić modele dużą ilością danych internetowych - obciążonych stronniczością, dezinformacją i naruszeniami praw własności intelektualnej - tworzą systemy, które wnioskują na podstawie wiarygodnych treści firmy. Takie modele nie spekulują, lecz cytują. Jeśli odpowiedź nie istnieje w materiale źródłowym, przyznają się do tego. Rezultatem są deterministyczne i wytłumaczalne modele, które są znacznie bezpieczniejsze w użyciu w scenariuszach o wysokiej stawce.

Idąc naprzód, firmy muszą przyjąć pięciostopniowy plan odpowiedzialności za sztuczną inteligencję. Zidentyfikuj, gdzie sztuczna inteligencja jest wykorzystywana w Twojej organizacji i na jakie decyzje wpływa. Czy istnieje wyraźna linia prowadząca do wiarygodnych źródeł? Ustal role i praktyki audytowe w zakresie zarządzania sztuczną inteligencją, zintegrowane z decyzjami dotyczącymi ryzyka na poziomie zarządu, zwłaszcza jeśli sztuczna inteligencja wchodzi w interakcje z klientami, organami regulacyjnymi lub opinią publiczną. Uznaj dostawców za współodpowiedzialnych i wymagaj szczegółowej dokumentacji, praw do audytu i umów o gwarantowanym poziomie usług (SLA), koncentrując się na wyjaśnianiu. Pielęgnuj w swoich zespołach sceptycyzm wobec postrzegania sztucznej inteligencji jako nieomylnej. Zaufanie powinno być przyznawane stopniowo, a nie traktowane jako coś oczywistego.

Lepsze, a nie większe modele sztucznej inteligencji

Ponieważ firmy starają się zintegrować sztuczną inteligencję, celem nie powinno być jedynie skupienie się na skali. Celem powinno być zaufanie, precyzja i odpowiedzialność. Renomowane modele są nie tylko statystycznie solidne, ale także konsekwentnie niezawodne. Zanurz się głębiej w ten temat, czytając pełny artykuł na stronie Unite.AI.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
0
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.