Wiadomości
To będzie "piekło Matrixa": naukowiec mówi, kiedy sztuczna inteligencja może zniszczyć ludzkość
Perspektywy rozwoju sztucznej inteligencji mogą stanowić egzystencjalne zagrożenie dla ludzkości. To właśnie AI może spowodować globalną apokalipsę, która nastąpi najpóźniej w następnej dekadzie.
Stwierdził to badacz sztucznej inteligencji Eliezer Yudkowsky w wywiadzie dla The Guardian. Jest on znany ze swojego pesymistycznego nastawienia do tej technologii, a w zeszłym roku wezwał do ataku nuklearnego na centra danych, aby powstrzymać rozwój sztucznej inteligencji.
"Jeśli przyprzeć mnie do muru i zmusić do oszacowania prawdopodobieństwa, mam wrażenie, że nasza obecna oś czasu to raczej pięć lat niż 50 lat. Może dwa lata, może 10" - powiedział badacz.
Według niego, po tym czasie możemy zobaczyć sztucznie stworzony koniec wszystkich rzeczy. Badacz uważa, że nastąpi "apokalipsa w stylu Terminatora" lub "piekło Matrixa".
Według Yudkovsky'ego najgorsze jest to, że "ludzie nie zdają sobie z tego sprawy".
"Mamy bardzo małą szansę, że ludzkość przetrwa" - podkreślił.
Yudkowsky był kiedyś jednym z założycieli rozwoju sztucznej inteligencji, ale ostatecznie uwierzył, że technologia ta wkrótce ewoluuje z obecnego stanu. Uważa on, że sztuczna inteligencja ostatecznie osiągnie rozwój zaawansowanej superinteligencji na poziomie Boga, zbyt szybko i ambitnie, aby ludzie mogli ją powstrzymać lub ograniczyć.
Opisując, jak mogłoby to wyglądać, radzi myśleć nie o sztucznej inteligencji w pojedynczym pudełku komputerowym, ale o całej sieci - "obcej cywilizacji, która myśli tysiąc razy szybciej niż my".
W zeszłym roku Yudkovsky wezwał do radykalnego zatrzymania rozwoju technologii AI, aż do bombardowania centrów danych pociskami nuklearnymi. Teraz nie jest już tak kategoryczny, ale nadal nie porzuca pomysłu uderzenia rakietowego.
"Teraz wybrałbym bardziej ostrożne sformułowanie" - powiedział badacz.
OBOZ.UA powiedział już, że sztuczna inteligencja może naprawdę stanowić zagrożenie dla ludzkości, gdy osiągnie sygnalizację, czyli punkt, w którym inteligencja maszyn dorównuje lub przewyższa inteligencję człowieka.
Taki rozwój sytuacji może stać się krytyczny, ponieważ ludzkość nie będzie już w stanie przewidzieć kolejnych działań sztucznej inteligencji i nie zrozumie jej logiki.
Jednocześnie sztuczna inteligencja wyszkolona tak, by nie szkodzić ludzkości, może rozwinąć swoje wewnętrzne ja i dojść do logicznego wniosku, że jest tak samo ludzka jak ci, którzy ją stworzyli. W takim przypadku prawdziwa ludzkość może zniknąć z kart historii, tak jak zniknęli neandertalczycy, zastąpieni przez homo sapiens.
Wcześniej OBOZ.UA opowiedział również o eksperymencie naukowców, którzy podłączyli chatbota AI do symulatora wojny.
Subskrybuj kanały OBOZ.UA na Telegramie i Viberze, aby być na bieżąco z najnowszymi wydarzeniami.