Categories: Aktualności

Gdy sztuczna inteligencja wymyśla fakty: Ryzyko korporacyjne, którego żaden lider nie może zignorować

The astonishing progress made in generative AI models in replicating human language is underscored by a worrying trend: their penchant for inventing information—a condition referred to as ‘hallucination.’ The real danger stems not just from the fact that these systems concoct information, but in their phenomenal ability to do so convincingly, and in our inclination to take their word as gospel.

Poruszanie się po systemowym ryzyku halucynacji sztucznej inteligencji

Decydenci w korporacjach często wierzą, że przy wystarczającym dostosowaniu, ustaleniu granic i wykorzystaniu strategii generowania rozszerzonego wyszukiwania (RAG), te modele sztucznej inteligencji można udomowić i wykorzystać na masową skalę. Liczby mówią jednak co innego. Badania w różnych branżach ujawniają występowanie halucynacji wahających się od rozsądnego 0,8% do alarmującego 88%, w zależności od modelu i konkretnego przypadku, w którym został użyty.

Na przykład badanie przeprowadzone przez Stanford HAI & RegLab w sektorze technologii prawnych wykazały, że duże modele językowe (LLM) halucynowały od 69% do 88% czasu podczas udzielania porad prawnych. W świecie akademickim Badanie JMIR ustalili, że zarówno GPT-3.5, jak i GPT-4 miały halucynacje w ponad 85% przypadków; Bard Google był za każdym razem nieprawidłowy. W świecie finansów, generowane przez sztuczną inteligencję dezinformacje skłoniły rzeczywistych klientów do rozważenia realokacji swoich funduszy, jak donosi raport Badanie przeprowadzone w Wielkiej Brytanii.

At this juncture, we must realize it’s more than about simply rectifying errors. It’s about dealing with risk—reputational, legal, operational. The fallout is real and mounting, whether it’s the issuance of advisories by law firms advising attorneys against relying on AI-generated case law or the G20’s Financial Stability Board marking generative AI as a potential catalyst for financial instability. Hallucination isn’t merely a rare blip on the radar, it’s an ingrained defect. Generative AI isn’t a logical machine—it’s a statistical speculator. Its predictions are based on data patterns, not fact. As such, even when it appears plausible, it might be utterly illusory. The term ‘hallucinations’ shouldn’t be reserved for only the most outrageous errors, as the entire output is merely an embellished guess.

Wizja odpowiedzialnej sztucznej inteligencji

For AI to be prepped for enterprise, we must refrain from seeing it as a mysterious entity—instead, we should view it as infrastructure. This mandates insisting on transparency, clarity, and traceability. An AI system that can’t provide a clear breakdown of its processes shouldn’t be entrusted with critical operations. The Przyszłość sztucznej inteligencji w przedsiębiorstwie skłania się ku systemom, które można poddać audytowi i pociągnąć do odpowiedzialności.

Regulacje również nabierają tempa, czego przykładem jest unijna ustawa o sztucznej inteligencji. Sektory wysokiego ryzyka, takie jak opieka zdrowotna, prawo i infrastruktura krytyczna, będą wkrótce zobowiązane do zapewnienia zgodności swoich systemów sztucznej inteligencji z rygorystyczną dokumentacją, testami i wytycznymi dotyczącymi przejrzystości. Traktuj to nie tylko jako zgodność, ale jako konieczność.

There’s hope on the horizon, as some companies have already started developing AI differently. Instead of feeding models with copious amounts of internet data—burdened with bias, misinformation, and IP violations—they craft systems that reason from a company’s own reliable content. Such models don’t speculate; they cite. If the answer doesn’t exist within the source material, they admit as much. The outcome is deterministic and explainable models that are far safer for usage in high-stakes scenarios.

Idąc naprzód, firmy muszą przyjąć pięciostopniowy plan odpowiedzialności za sztuczną inteligencję. Zidentyfikuj, gdzie sztuczna inteligencja jest wykorzystywana w Twojej organizacji i na jakie decyzje wpływa. Czy istnieje wyraźna linia prowadząca do wiarygodnych źródeł? Ustal role i praktyki audytowe w zakresie zarządzania sztuczną inteligencją, zintegrowane z decyzjami dotyczącymi ryzyka na poziomie zarządu, zwłaszcza jeśli sztuczna inteligencja wchodzi w interakcje z klientami, organami regulacyjnymi lub opinią publiczną. Uznaj dostawców za współodpowiedzialnych i wymagaj szczegółowej dokumentacji, praw do audytu i umów o gwarantowanym poziomie usług (SLA), koncentrując się na wyjaśnianiu. Pielęgnuj w swoich zespołach sceptycyzm wobec postrzegania sztucznej inteligencji jako nieomylnej. Zaufanie powinno być przyznawane stopniowo, a nie traktowane jako coś oczywistego.

Lepsze, a nie większe modele sztucznej inteligencji

As companies vie to integrate AI, the objective shouldn’t merely be focused on scale. The targets should be trust, precision, and accountability. Reputable models are not just statistically sound but consistently reliable too. Dive deeper into this topic by reading the full article on Unite.AI.

Max Krawiec

This website uses cookies.