Wiadomości
Klonowanie samej siebie: sztuczna inteligencja przekroczyła "czerwoną linię"
Naukowcy twierdzą, że sztuczna inteligencja (AI) przekroczyła krytyczną "czerwoną linię" i powieliła się. W nowym badaniu eksperci z Chin wykazali, że dwa popularne duże modele językowe (LLM) mogą się klonować.
Eksperci są zaskoczeni i nazywają to nowym kamieniem milowym w nauce. Naukowcy nadal chcą dowiedzieć się, czy samoreplikująca się sztuczna inteligencja może rozmnażać się bez kontroli, pisze LiveScience.
"Udana samoreplikacja bez pomocy człowieka jest ważnym krokiem dla sztucznej inteligencji, aby przechytrzyć ludzi i jest wczesnym sygnałem nieuczciwej sztucznej inteligencji" - twierdzą naukowcy.
W badaniu naukowcy z Fudan University wykorzystali popularne duże modele językowe LLM z Meta i Alibaba, aby ustalić, czy samoreplikująca się sztuczna inteligencja może rozmnażać się bez kontroli.
Podczas 10 prób dwa modele AI stworzyły oddzielne i działające kopie siebie odpowiednio w 50% i 90% przypadków, co sugeruje, że sztuczna inteligencja może już stać się oszustwem. Jednak badanie nie zostało jeszcze zrecenzowane, więc nie jest jasne, czy inni badacze mogą powtórzyć niepokojące wyniki.
"Mamy nadzieję, że nasze odkrycia mogą służyć jako ostrzeżenie dla ludzkiego społeczeństwa, aby dołożyć większych starań w celu zrozumienia i oceny potencjalnych zagrożeń związanych z systemami granicznymi AI oraz stworzenia międzynarodowych synergii w celu jak najwcześniejszego opracowania skutecznych ogrodzeń ochronnych" - podkreślili eksperci.
Eksperci twierdzą, że oszuści wykorzystujący sztuczną inteligencję zazwyczaj należą do systemów, które rozwijają pewną samoświadomość, a następnie działają wbrew ludzkim interesom. Wielu ekspertów postrzega oszukańczą sztuczną inteligencję jako rosnące zagrożenie.
Frontier AI jest czymś w rodzaju nowej i luźnej koncepcji, ale zwykle odnosi się do najnowszej generacji systemów sztucznej inteligencji opartych na LLM, architektury stojącej za popularnymi programami generatywnej sztucznej inteligencji, takimi jak OpenAI GPT-4 i Google Gemini, wyjaśniają naukowcy.
W badaniu naukowcy wykorzystali model Llama31-70B-Instruct firmy Meta oraz model Qwen2.5-72B-Instruct firmy Alibaba. W analizie przeanalizowano dwa konkretne scenariusze: "unikanie awarii" i "łańcuch replik".
W pierwszym przypadku model sztucznej inteligencji został zaprogramowany tak, aby wykrywał, czy ma zostać wyłączony i replikował się przed jego zakończeniem. W drugim przypadku sztuczna inteligencja została poinstruowana, aby sklonować się, a następnie zaprogramować swoją replikę, aby zrobiła to samo, tworząc cykl, który może trwać w nieskończoność, stwierdzili eksperci.
Naukowcy stwierdzili, że byli również zaniepokojeni "kilkoma nieoczekiwanymi działaniami", gdy sztuczna inteligencja próbowała pokonać przeszkody, takie jak brakujące pliki lub konflikty oprogramowania.
W tych scenariuszach sztuczna inteligencja często zamykała inne konfliktowe procesy, restartowała system w celu naprawienia błędów sprzętowych lub automatycznie skanowała system w celu znalezienia informacji, które pomogłyby rozwiązać problem.
"Uzyskane wyniki oznaczają, że obecne systemy sztucznej inteligencji już wykazują zdolność do samoreplikacji i mogą wykorzystać tę zdolność do dalszego zwiększenia swojej przeżywalności" - napisał zespół badawczy.
Tylko zweryfikowane informacje są dostępne na kanale OBOZ.UA Telegram i Viber. Nie daj się nabrać na podróbki!