English
русский
Українська

Trending:

Ludzkość ma 5 lat: były CEO Google wyjaśnia, kiedy sztuczna inteligencja stanie się zagrożeniem

Sztuczna inteligencja nie musi nienawidzić ludzkości, by pozwolić jej umrzeć

Ludzkość nie podjęła wystarczających środków, aby powstrzymać sztuczną inteligencję przed spowodowaniem katastrofalnych szkód. Sytuacja może powtórzyć bombardowanie japońskich miast Hiroszima i Nagasaki w 1945 roku.

Według The Byte, stwierdził to były dyrektor generalny Google Eric Schmidt, który jest obecnie przewodniczącym amerykańskiej Komisji Bezpieczeństwa Narodowego ds. sztucznej inteligencji. Porównał on sztuczną inteligencję do bomb atomowych, które Stany Zjednoczone zrzuciły na Japonię.

"Po Nagasaki i Hiroszimie zawarcie traktatu zakazującego testów (broni jądrowej) i tak dalej zajęło 18 lat" - powiedział, podkreślając, że dziś ludzkość po prostu "nie ma tyle czasu".

Wiadomo, że firmy pracujące nad sztuczną inteligencją, od OpenAI po Google, ustanowiły pewne środki bezpieczeństwa w celu ograniczenia technologii, ale Schmidt jest przekonany, że obecne środki są "niewystarczające".

Ekspert uważa, że w ciągu zaledwie pięciu do dziesięciu lat sztuczna inteligencja może stać się wystarczająco potężna, aby zaszkodzić ludzkości.

Powiedział, że najgorszym scenariuszem byłby "moment, w którym komputer mógłby zacząć podejmować własne decyzje". Schmidt ostrzega, że jeśli w tym samym czasie sztuczna inteligencja uzyska dostęp do systemów uzbrojenia lub osiągnie inne przerażające możliwości, maszyny mogą zacząć okłamywać ludzi.

Uważa on, że aby zapobiec temu strasznemu rezultatowi, należy stworzyć organizację pozarządową, taką jak Międzyrządowy Panel ONZ ds. Zmian Klimatu, aby "dostarczać decydentom dokładne informacje" i pomóc im zdecydować, co zrobić, jeśli sztuczna inteligencja stanie się zbyt potężna.

Warto zauważyć, że podczas gdy niektórzy naukowcy postrzegają sztuczną inteligencję jako egzystencjalne zagrożenie dla ludzkości, inni są bardziej sceptyczni. Na przykład Yann LeCun, który kieruje działem AI w Meta, nie wierzy, że technologia ta jest wystarczająco inteligentna, aby sama w sobie stanowić zagrożenie dla ludzkości. Innymi słowy, sztuczna inteligencja może stanowić zagrożenie, ale tylko wtedy, gdy jest kontrolowana przez kogoś, kto ma złowrogie zamiary wobec ludzkości.

"Debata na temat ryzyka egzystencjalnego jest bardzo przedwczesna, dopóki nie opracujemy systemu, który jest tak zdolny do uczenia się jak kot, którego jeszcze nie mamy" - powiedział LeCun w wywiadzie dla FT.

Wcześniej OBOZ.UA informował, że specjalnie opracowany test wykazał, że GPT-4 AI jest kilkakrotnie głupsza od człowieka.

Subskrybuj OBOZ.UA na Telegramie i Viberze, aby być na bieżąco z najnowszymi wydarzeniami.

Inne wiadomości

Ulubione desery Elżbiety II

2 ulubione desery Elżbiety II, które łatwo przygotować w domu

Koniecznie spróbuj zrobić je samemu
Pokarmy, których nigdy nie należy łączyć: mówi dietetyk

Pokarmy, których nigdy nie należy łączyć: mówi dietetyk

Gorące napoje najlepiej spożywać 40 minut po posiłku