Sklep z rozszerzeniami powłoki GNOME zakazuje kodu generowanego przez sztuczną inteligencję w nowych wytycznych
GNOME sprzeciwia się treściom tworzonym przez sztuczną inteligencję
Społeczność open-source zawrzała po tym, jak sklep z rozszerzeniami powłoki GNOME zaktualizował swoje wytyczne dotyczące recenzji, aby stanowczo odrzucać zgłoszenia dokonywane głównie przez sztuczną inteligencję (AI). Według doniesień z To FOSS oraz Phoronix, Posunięcie to podkreśla znaczącą rolę, jaką zaczęły odgrywać narzędzia generatywnej sztucznej inteligencji, oraz skalkulowaną reakcję społeczności open source.
Jednak nowa polityka GNOME, choć pozornie rygorystyczna, nie zakazuje wprost korzystania z narzędzi sztucznej inteligencji. Zamiast tego tworzy wyraźne granice wokół wykorzystania sztucznej inteligencji w tworzeniu kodu. Rozszerzenia, które wykazują znaczące oznaki zaangażowania sztucznej inteligencji, w szczególności kod z niepotrzebnym wyrafinowaniem, fikcyjne wywołania API, niespójne formatowanie lub ślady komentarzy z rozbudowanych modeli językowych, są umieszczane na czarnej liście podczas procedury przeglądu, jak wskazano w dokumencie zaktualizowane wytyczne.
Uzasadnienie i wpływ na społeczność
Bardziej niż rygorystycznym nakazem, decyzja GNOME wydaje się być podyktowana zachowaniem autentyczności kodu i standardów społeczności. Nic nie przebije kodu tworzonego przez człowieka pod względem jakości, czytelności i łatwości utrzymania. Jego struktura i konwencje sprawiają, że łatwo go docenić, przejrzeć i ulepszyć, czego kody oparte na sztucznej inteligencji nie były do tej pory w stanie powtórzyć. Co więcej, kody tworzone przez sztuczną inteligencję są często rozwlekłe, pełne błędów i pozbawione kontekstu niezbędnego do solidnego rozwoju oprogramowania.
Implikacje nowej polityki i nieodłączne ograniczenia, jakie może ona przynieść, wzbudziły wątpliwości wśród deweloperów, podczas gdy inni postrzegają ją jako ważny krok zapewniający niezawodność i bezpieczeństwo rozszerzeń GNOME. Grupa GNOME dała jasno do zrozumienia, że deweloperzy mogą korzystać z narzędzi AI, pod warunkiem, że nie zdominują one końcowego kodu i nie przyćmią ludzkiej precyzji i opanowania.
Refleksja nad stanowiskiem Open Source i dalszą drogą
Zaktualizowana polityka GNOME odzwierciedla nastroje społeczności open source w obliczu wkładu generowanego przez sztuczną inteligencję. W miarę jak narzędzia sztucznej inteligencji, takie jak GitHub Copilot i ChatGPT, stają się coraz bardziej zintegrowane ze środowiskami programistycznymi, dyskusje na temat autorstwa, etycznego wykorzystania i jakości kodu stają się coraz gorętsze.
Decyzja ta podkreśla znaczenie tworzenia odpowiedzialnych polityk, które równoważą innowacyjność i cel. Ponieważ sztuczna inteligencja nadal ewoluuje, takie debaty będą prawdopodobnie powszechne na różnych platformach i w społecznościach open source. Więcej informacji na temat nowych zmian w GNOME można znaleźć na stronie odsyłam do szczegółowego raportu w The Verge.