Życie
Sztuczna inteligencja musi zostać powstrzymana: naukowcy potwierdzają obawy Elona Muska
Sztuczna inteligencja może stanowić śmiertelne zagrożenie dla ludzkości i nie chodzi tu nawet o utratę miejsc pracy, ale o fakt, że AI może w końcu znaleźć się poza ludzką kontrolą i nawet najmądrzejsi z nas nie będą w stanie przewidzieć, jak zachowa się ona w danej sytuacji. Dlatego analitycy już teraz wzywają do ograniczenia poziomu, jaki może osiągnąć sztuczna inteligencja, a nawet do zatrzymania jej rozwoju, ponieważ oczywiste jest, że może się to bardzo źle skończyć dla ludzkości.
Niedawno, komentując na Twitterze wpis Marka Andreessena, amerykańskiego przedsiębiorcy i zwolennika AI, Elon Musk, amerykański inżynier, wynalazca i miliarder, zapytał: "Ile mamy lat, zanim AI zabije nas wszystkich?". Chociaż nie otrzymał odpowiedzi jako takiej, Elon Musk prawdopodobnie wyraził pytanie, które niepokoi wiele osób śledzących rozwój technologii i rozumiejących konsekwencje jej dominującej pozycji.
Ostrzeżenia przed rozwojem sztucznej inteligencji były wygłaszane przez pisarzy science fiction i naukowców jeszcze zanim ludzie zaczęli pracować nad prawdziwą AI. Warto wspomnieć chociażby Isaaca Asimova z jego prawami robotyki, które miały uchronić ludzi przed zbyt zaawansowaną inteligencją, czy Terminatora Jamesa Camerona, który pokazał, co czeka ludzkość, jeśli AI zwycięży.
Jak podaje Popular Science, w 1993 roku informatyk i pisarz science fiction Vernor Vinge zasugerował, że w ciągu 30 lat ludzkość stworzy technologie, które staną się podstawą sztucznej inteligencji. Jak się okazało, miał całkowitą rację. Ale to nie jedyna jego prognoza. Vinge ostrzegł również, że wkrótce po tym, jak AI będzie w stanie przewyższyć sztuczną inteligencję, "era człowieka dobiegnie końca".
Vinje był również jednym z pierwszych, którzy mówili o konsekwencjach osiągnięcia przez sztuczną inteligencję osobliwości(OBOZREVATEL szczegółowo opisał, czym ona jest tutaj). Krótko mówiąc, kiedy sztuczna inteligencja przekroczy poziom ludzkiej inteligencji, po prostu nie będziemy w stanie przewidzieć ani nawet zrozumieć jej działań, ponieważ będzie ona znacznie mądrzejsza niż jakikolwiek człowiek. A to prowadzi nas do faktu, że nie możemy oprzeć się AI, ponieważ jej poziom rozwoju pozwala jej obliczyć nasze kroki i zneutralizować wszelkie nasze działania, zanim zostaną podjęte.
Vinge napisał, że pojawienie się SI o możliwościach przewyższających ludzki mózg zmieni świat nie do poznania.
"(Będzie to) zmiana porównywalna z początkiem ludzkiego życia na Ziemi" - ostrzegał Windge.
Współcześni naukowcy również podzielają obawy Windge'a. Na przykład informatyk Roman Yampolsky z University of Louisville zauważa, że "gdy tylko maszyny przejmą kontrolę nad nauką i inżynierią, postęp stanie się tak szybki, że nie będzie można za nim nadążyć".
Widzi już oznaki tego w swojej dziedzinie, kiedy badacze AI publikują niesamowitą liczbę artykułów i nawet ekspertowi branżowemu trudno jest śledzić aktualny etap rozwoju AI.
"Rozwija sięzbyt szybko" - jest przekonany naukowiec.
To wciąż kwestia perspektywy, ale jeśli AI zostanie stworzona z inteligencją współmierną do ludzkiej inteligencji, będzie w stanie przeprowadzić samorewolucję. Nie chodzi o to, że stanie się to samoistnie, ale ludzie nie będą w stanie oprzeć się nadarzającym się okazjom. Wystarczy poprosić istniejącą sztuczną inteligencję o stworzenie lepszej wersji samej siebie, a nie trzeba będzie lat kodowania i testowania, aby stworzyć sztuczną inteligencję przewyższającą człowieka - ona sama się stworzy.
Problemem, jak wskazują naukowcy, jest jednak to, że ludzie nie zawsze rozumieją logikę zachowania SI, a jeśli osiągnie ona nowy etap rozwoju, wszystko stanie się znacznie bardziej skomplikowane.
Yampolsky sugeruje, że niemożność wiarygodnego przewidzenia tego, co AI może zrobić, doprowadzi również do utraty kontroli, co może mieć katastrofalne skutki dla ludzkości.
Należy jednak zauważyć, że ankieta przeprowadzona przez think tank AI Impact w połowie 2022 roku wykazała, że nie wszyscy podzielają takie obawy. 47% badaczy uważa za mało prawdopodobne lub niemożliwe, że sztuczna inteligencja osiągnie osobliwość i ludzkość straci nad nią kontrolę.
Samir Singh, informatyk z Uniwersytetu Kalifornijskiego w Irvine, zauważa, że rozmowy o przyszłości sztucznej inteligencji i jej zagrożeniach odwracają uwagę od problemów, które istnieją już teraz.
W szczególności wiadomo już, że duże modele lingwistyczne (takie jak ChatGPT) mogą generować rasistowskie, seksistowskie i niezgodne z faktami wyniki. Ponadto, z prawnego punktu widzenia, treści generowane przez sztuczną inteligencję często naruszają prawa autorskie i przepisy dotyczące prywatności danych. Nie wspominając już o tym, że sztuczna inteligencja już teraz powoduje utratę miejsc pracy i zwolnienia w niektórych branżach.
Już teraz wśród badaczy sztucznej inteligencji panuje pewien podział i podczas gdy niektórzy wzywają do pełnego zielonego światła dla AI, inni proponują ograniczenie jej możliwości obliczeniowych od samego początku, a jeszcze inni wzywają do spowolnienia lub zawieszenia rozwoju technologii, aby dokładnie wiedzieć, z czym ludzkość ma do czynienia. W szczególności Elon Musk i duża grupa naukowców wezwali do wstrzymania eksperymentów ze sztuczną inteligencją na co najmniej sześć miesięcy.
Yampolsky, który również popiera apele o przerwę, uważa jednak, że musimy działać bardziej radykalnie. Jest przekonany, że zatrzymanie się na sześć miesięcy lub jakikolwiek inny okres nie zmieni sytuacji.
"Jedynym sposobem na pokonanie (AI - red.) jest nie robienie tego" - podkreślił naukowiec.
Wcześniej OBOZREVATEL informował również, że sztuczna inteligencja musi stworzyć czwarte prawo robotyki Asimova.
Subskrybuj kanały Telegram i Viber OBOZREVATEL, aby być na bieżąco z najnowszymi wiadomościami.