Currency
Co się stanie, gdy sztuczna inteligencja osiągnie osobliwość i czy będzie w stanie zabijać ludzi?
Różne sztuczne inteligencje (od chatbotów przez sieci neuronowe po autopiloty w samochodach), które szybko fascynują świat, wydają się być zabawą dla ludzkości i czymś, co poprawi nasze życie w niedalekiej przyszłości. Ale być może, gdy sztuczna inteligencja osiągnie osobliwość, ludzie będą mieli kłopoty.
Popular Mechanics rozmawiał na ten temat z ekspertami z branży. Powiedzieli również, jak nie zamieniać sztucznej inteligencji we wroga.
Eksperci spekulują, że moment osobliwości może nadejść już w 2030 roku. Po tym czasie sztuczna inteligencja przewyższy ludzką inteligencję i bardzo trudno będzie obliczyć konsekwencje jej działań.
Czym jest Osobliwość
Osobliwość to punkt, w którym inteligencja maszyn dorówna lub przewyższy inteligencję człowieka. Koncepcja ta była kiedyś rozważana przez Stephena Hawkinga, Billa Gatesa i innych naukowców. W szczególności angielski matematyk Alan Turing w latach 50. opracował test Turinga, którego celem było sprawdzenie, czy maszyny mogą myśleć samodzielnie i czy mogą osiągnąć poziom komunikacji, na którym człowiek nie będzie w stanie zrozumieć, czy rozmawia ze sztuczną inteligencją, czy z inną osobą. ChatGPT udowodnił już, że SI jest w stanie prowadzić konwersację na poziomie ludzkim.
Doktorantka Uniwersytetu Kalifornijskiego w Berkeley, Ishane Priyadarshini, wyjaśnia, że głównym problemem sztucznej inteligencji jest to, że jej inteligencja jest w rzeczywistości nieograniczona, podczas gdy inteligencja ludzka jest stała, ponieważ nie możemy po prostu dodać sobie więcej pamięci, aby stać się mądrzejszymi.
Kiedy może zostać osiągnięta osobliwość?
Eksperci uważają, że twierdzenia o rychłym osiągnięciu osobliwości są w najlepszym razie spekulacjami. Priyadarshini uważa, że osobliwość już istnieje w kawałkach, ale moment, w którym sztuczna inteligencja całkowicie przewyższy ludzką inteligencję, nie nadejdzie wystarczająco szybko. Niemniej jednak ludzie widzieli już momenty osobliwości. Na przykład, gdy superkomputer Deep Blue firmy IBM po raz pierwszy pokonał ludzkiego mistrza szachowego Garry'ego Kasparowa w 1997 roku.
Eksperci sugerują, że możemy mówić o osiągnięciu osobliwości, gdy sztuczna inteligencja będzie w stanie tłumaczyć język na tym samym poziomie lub lepiej niż ludzie.
Priyadarshini uważa jednak, że najlepszym wskaźnikiem tego, że sztuczna inteligencja stała się mądrzejsza od ludzi, będzie moment, w którym maszyny zaczną rozumieć memy, które obecnie są dla nich nieosiągalne.
Co się stanie, gdy AI osiągnie osobliwość?
Problem polega na tym, że ludzie są zbyt "głupi", by odgadnąć, co się stanie, gdy SI osiągnie superinteligencję. Aby to przewidzieć, potrzebujemy człowieka, który również będzie posiadał superinteligencję. Ludzkość może więc jedynie spekulować na temat implikacji osobliwości, korzystając z naszego obecnego poziomu inteligencji.
"Musisz być co najmniej tak inteligentny, aby móc spekulować na temat tego, co zrobi system... jeśli mówimy o systemach, które są mądrzejsze od ludzi (superinteligentne), niemożliwe jest, abyśmy przewidzieli wynalazki lub rozwiązania" - powiedział Roman Yampolsky, profesor nadzwyczajny inżynierii komputerowej i informatyki na Uniwersytecie w Louisville.
Jeśli chodzi o to, czy sztuczna inteligencja może stać się wrogiem dla ludzi, Priyadarshini powiedział, że tutaj również trudno jest przewidzieć. Wszystko będzie zależeć od tego, czy w jej kodzie nie będzie sprzeczności.
"Chcemy autonomicznych samochodów, ale nie chcemy, by przejeżdżały na czerwonym świetle i zderzały się z pasażerami" - mówi Priyadarshini, wyjaśniając, że zły kod może sprawić, że SHI uzna przejeżdżanie na czerwonym świetle i ludzi za najbardziej efektywny sposób dotarcia do celu na czas.
Naukowcy zajmujący się sztuczną inteligencją wiedzą, że nie możemy w 100% wyeliminować stronniczości z kodu, więc stworzenie całkowicie bezstronnej sztucznej inteligencji, która nie może zrobić nic złego, będzie wyzwaniem.
Czy SI może krzywdzić ludzi?
Jak dotąd SI nie ma uczuć, więc kieruje się wyłącznie własną wiedzą. Prawdopodobnie więc w najbliższym czasie nie stanie się niekontrolowana i nie będzie próbowała uciec spod ludzkiej kontroli tylko dlatego, że nie ma takiej motywacji.
Jednak, jak wyjaśnia Yampolsky, niekontrolowana sztuczna inteligencja może wynikać ze sposobu, w jaki została zaprojektowana przez ludzi i jakie paradoksy mogą powstać w jej kodzie.
"Nie mamy sposobu, aby wykryć, zmierzyć lub ocenić, czy systemy doświadczają stanów wewnętrznych... Ale to nie jest konieczne, aby stały się bardzo zdolne i bardzo niebezpieczne" - wyjaśnił naukowiec.
Priyadarshini również wspiera swojego kolegę, argumentując, że jedynym powodem, dla którego sztuczna inteligencja może wywołać zamieszki, jest niespójność kodu.
"To (SHI - red.) może nie mieć żadnych motywów przeciwko ludziom, ale maszyna, która myśli, że ludzie są przyczyną pewnych problemów, może myśleć w ten sposób" - wyjaśnił naukowiec.
Jeśli jednak SI stanie się na tyle inteligentna, by zyskać samoświadomość i wewnętrzne uczucia, być może znajdzie motyw, by nie lubić ludzkości.
Ponownie, źle zaprojektowane zadanie może prowadzić do niezamierzonego zabijania. Jako przykład Yampolsky przytacza sytuację, w której sztuczna inteligencja zostałaby poproszona o stworzenie szczepionki dla ludzi przeciwko warunkowemu COVID.
System wiedziałby, że im więcej osób zachoruje na COVID, tym bardziej wirus będzie mutował, co utrudni opracowanie szczepionki dla wszystkich wariantów.
"System myśli... może mogę rozwiązać ten problem, zmniejszając liczbę ludzi, aby wirus nie mógł tak bardzo mutować" - mówi naukowiec, sugerując, że sztuczna inteligencja bez pojęcia moralności może wybrać lepsze rozwiązanie, nawet jeśli zaszkodzi to niektórym ludziom.
Jak możemy zapobiec katastrofie osobliwości?
Nigdy nie będziemy w stanie uwolnić sztucznej inteligencji od wszystkich jej niewiadomych. Są to niezamierzone skutki uboczne, których ludzie nie mogą przewidzieć, ponieważ nie mają superinteligencji.
"Naprawdę patrzymy na osobliwość, która doprowadzi do powstania wielu nieuczciwych maszyn. Jeśli osiągnie punkt bez powrotu, nie będzie można go już naprawić" - ostrzega Priyadarshini.
Wcześniej OBOZREVATEL powiedział również, że konieczne jest stworzenie czwartego prawa robotyki "Asimov" dla sztucznej inteligencji.
Subskrybuj kanały OBOZREVATEL w Telegramie i Viberze, aby być na bieżąco z najnowszymi wydarzeniami.