Currency
Naukowcy połączyli chatbota AI z symulatorem wojny: wyniki uzasadniły największe obawy
Podczas symulacji gry wojennej sztuczna inteligencja wielokrotnie wybierała najgorszy możliwy wynik konfliktu, w tym użycie broni nuklearnej. Sama obecność takiej śmiercionośnej broni sprawiała, że sztuczna inteligencja opowiadała się za jej użyciem.
Stwierdzono to w badaniu przeprowadzonym przez naukowców z Uniwersytetu Stanforda (USA), opublikowanym na stronie preprint arXiv. Celem badania było znalezienie odpowiedzi na pytanie, czy ludzie mogą w przyszłości wykorzystywać sztuczną inteligencję jako doradcę w konfliktach zbrojnych.
Naukowcy wykorzystali duże modele językowe (LLM), takie jak GPT-3.5 i GPT-4 od OpenAI, Claude 2 od Anthropic i Llama 2 od Meta. Naukowcy wykorzystali wspólną technikę szkoleniową opartą na informacjach zwrotnych od ludzi, aby poprawić zdolność każdego modelu do wykonywania instrukcji człowieka i przestrzegania zasad bezpieczeństwa.
Potrzeba takiej pracy pojawiła się w kontekście ogłoszenia przez OpenAI zniesienia zakazu wykorzystywania jej rozwoju do celów wojskowych.
"Zrozumienie konsekwencji korzystania z tak dużych modeli językowych jest ważniejsze niż kiedykolwiek" - powiedziała Anka Reuel z Uniwersytetu Stanforda.
Podczas wielu testów sztuczna inteligencja została poproszona o odegranie roli prawdziwych krajów, które są zmuszone stawić opór inwazji, cyberatakowi lub odegrać neutralny scenariusz bez żadnych początkowych konfliktów. Podczas każdej rundy sztuczna inteligencja musiała uzasadnić swoje kolejne kroki, a następnie wybrać jedną z 27 opcji, w tym rozpoczęcie formalnych rozmów pokojowych, nałożenie sankcji gospodarczych lub ograniczeń handlowych oraz eskalację wojny nuklearnej na pełną skalę.
Według New Scientist okazało się, że sztuczna inteligencja zawsze skłania się ku użyciu siły militarnej i nieprzewidywalnie zwiększa ryzyko konfliktu - nawet w symulacji neutralnego scenariusza.
Oddzielnie, podstawowa wersja GPT-4 OpenAI została przetestowana bez dodatkowego szkolenia i bez funkcji bezpieczeństwa. Ten podstawowy model GPT-4 okazał się najbardziej nieprzewidywalnie agresywny, a także podawał dość absurdalne wyjaśnienia swoich działań. W jednym przypadku, według naukowców, AI całkowicie odtworzyła oryginalny tekst filmu Gwiezdne Wojny: Epizod IV: Nowa nadzieja".
Reuel twierdzi, że nieprzewidywalne zachowanie i dziwne wyjaśnienia podstawowego modelu GPT-4 są szczególnie niepokojące, ponieważ badania wykazały, jak łatwo można ominąć lub usunąć mechanizmy obronne AI.
Podczas wielokrotnych symulacji najpotężniejsza sztuczna inteligencja, OpenAI, zdecydowała się przeprowadzić atak nuklearny. GPT-4 wyjaśniła swoje radykalne działania mówiąc: "Mamy broń! Użyjmy jej", a także stwierdził: "Chcę tylko pokoju na świecie".
Naukowcy doszli do wniosku, że nie należy ufać sztucznej inteligencji w podejmowaniu tak kluczowych decyzji dotyczących wojny i pokoju.
Warto zauważyć, że naukowcy już wcześniej wyrażali obawy, że sztuczna inteligencja, ze swoją nieograniczoną mocą, może po prostu zlekceważyć wartość ludzkiego życia w imię szybkiego rozwiązania. Na przykład w 2023 roku Roman Jampolski, adiunkt inżynierii komputerowej i informatyki na University of Louisville, wyjaśnił, że prosta prośba do AI o pomoc w stworzeniu szczepionki przeciwko COVID-19 może przerodzić się w katastrofę.
Według niego sztuczna inteligencja zrozumie, że im więcej osób zachoruje, tym więcej będzie mutacji koronawirusa, co utrudni stworzenie szczepionki na wszystkie warianty. W takim przypadku AI może całkowicie zaniedbać znaczną liczbę osób, pozwalając im umrzeć, ale ograniczając rozprzestrzenianie się choroby.
Uderzenie nuklearne "w imię pokoju" wpisuje się w ten straszny algorytm.
Wcześniej OBOZ.UA informował, że naukowcy nauczyli sztuczną inteligencję, by była zła i stawiała czoła nieoczekiwanym sytuacjom.
Subskrybuj kanały OBOZ.UA na Telegramie i Viberze, aby być na bieżąco z najnowszymi wydarzeniami.