AgenciAktualności

Anthropic dąży do politycznej neutralności w Claude AI w obliczu rosnącej krytyki

Bezstronna politycznie sztuczna inteligencja: jak Anthropic chce zmienić grę

Startup zajmujący się sztuczną inteligencją (AI), Anthropic, znany ze swojego chatbota Claude, stara się ustanowić nowy standard w tej dziedzinie, zaszczepiając neutralność polityczną w swoich modelach AI. W niedawnym wpisie na blogu ujawniono, że zespół stojący za modelem Claude pilnie pracuje nad tym, aby ich chatbot prezentował wszystkie nastroje polityczne z równą powagą, głębią i, co najważniejsze, rygorem analitycznym.

Branża sztucznej inteligencji dostosowująca się do presji politycznej i podejście Claude'a do neutralności

Znaczący ruch startupu jest postrzegany jako odpowiedź na dekret wykonawczy zainicjowany przez prezydenta Donalda Trumpa w lipcu. Dekret ten nakazuje agencjom rządowym pozyskiwanie systemów sztucznej inteligencji, które są z natury “bezstronne” i “poszukują prawdy”. Pomimo tego, że zarządzenie to ma duży wpływ na przejęcia federalne, przewiduje się, że będzie ono miało wpływ na cały krajobraz AI. W związku z tym oczekuje się, że firmy zajmujące się sztuczną inteligencją dostosują swoje modele do tych standardów. Ewolucja ta może oznaczać droższe i bardziej czasochłonne procesy, które mogą objąć również ich produkty skierowane do klientów.

Skupiając się na Anthropic, firma wydaje się dyskretnie dostosowywać do nadchodzących zakłóceń, proaktywnie przyjmując zasady neutralności. Claude, ich chatbot, jest teraz wyposażony w systemową dyrektywę, która surowo zabrania mu sugerowania niezamówionych politycznych punktów widzenia. Co więcej, bot jest teraz zaprojektowany tak, aby zapewnić dokładność faktów, jednocześnie prezentując szereg perspektyw podczas odpowiadania na politycznie wrażliwe zapytania.

Osadzanie neutralności i jej pomiar

Zaangażowanie Anthropic w neutralność polityczną jest widoczne nie tylko w programowaniu chatbota, ale także w wykorzystywanych przez niego mechanizmach uczenia się. Firma wdraża metody uczenia się ze wzmocnieniem, które przynoszą korzyści Claude'owi, gdy generuje odpowiedzi zgodne z wcześniej określonym zestawem cech, z których jedna naprawdę zachęca do neutralności politycznej.

Ale jak zmierzyć neutralność polityczną w modelu sztucznej inteligencji? Firma Anthropic rozwiązała tę zagadkę, opracowując narzędzie typu open source, które kwantyfikuje ‘polityczną bezstronność’ w odpowiedziach sztucznej inteligencji. Ich najnowsza ocena pokazuje imponujące wyniki - Claude Sonnet 4.5 uzyskał wynik 95%, a Claude Opus 4.1 uzyskał imponujący wynik 94% w zakresie neutralności politycznej. Dla porównania, konkurenci tacy jak Meta's Llama 4 i OpenAI's GPT-5 uzyskali odpowiednio 66% i 89%.

W swoim wpisie na blogu Anthropic podkreśla, że neutralność w sztucznej inteligencji ma ogromne znaczenie. Firma jest głęboko przekonana, że modele AI, które subtelnie przechylają się w stronę pewnych poglądów, argumentują bardziej przekonująco dla jednej strony lub nie biorą pod uwagę pewnych argumentów, wyrządzają krzywdę niezależnemu myśleniu użytkownika. Zamiast tego sztuczna inteligencja powinna pomagać użytkownikom w formułowaniu ich osądów bez uprzedzeń kierunkowych.

Przyszłość sztucznej inteligencji: plan na równowagę?

W miarę zaostrzania się kontroli nad polityczną postawą sztucznej inteligencji, podejście Anthropic może wkrótce stać się przewodnim planem dla innych firm przepychających się na przecięciu technologii i ideologii. Utrzymując bezstronne podejście, firma dąży do budowania zaufania wśród swoich użytkowników, umożliwiając im podejmowanie świadomych decyzji i eliminując wpływ sztucznej inteligencji na kierunek tych decyzji.

Więcej szczegółów można znaleźć w oryginalnym artykule na stronie The Verge.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
0
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.