English
русский
Українська

Currency

10 największych porażek sztucznej inteligencji w 2024 roku: od fałszywych nagłówków po katastrofalną wystawę Willy'ego Wonki

Anna BoklajukWiadomości
Rozwój sztucznej inteligencji był w tym roku w centrum uwagi

W tym roku sztuczna inteligencja generatywna rozwijała się dość szybko. Nie obyło się jednak bez porażek.

Chociaż sztuczna inteligencja ma niesamowity potencjał, obecnie jest bardziej znana ze swoich porażek niż sukcesów. Aby podsumować rok 2024, PcMag zebrał 10 największych porażek AI roku: od fałszywych nagłówków po katastrofalną wystawę Willy'ego Wonki. Możemy mieć tylko nadzieję, że błędy zostaną wzięte pod uwagę w tym roku.

Wzrost liczby fałszywych nagłówków

Pomimo faktu, że Apple reklamowało funkcje generatywnej sztucznej inteligencji w iOS 18 jako nic innego jak rewolucyjne, technologia ta spowodowała kilka poważnych problemów od czasu jej wprowadzenia. W szczególności funkcja podsumowywania wiadomości trafiła na pierwsze strony gazet, gdy fałszywie poinformowała, że Luigi Mangione, który zastrzelił dyrektora generalnego United Healthcare, popełnił samobójstwo.

Nie jest to pierwszy przypadek nieprawidłowego działania tej funkcji. W listopadzie dziennikarz ProPublica udostępnił krótką historię, która fałszywie informowała o aresztowaniu premiera Izraela Benjamina Netanjahu.

Przyklej swoją pizzę (i inne wątpliwe odpowiedzi w Google AI Overview)

W maju Google wprowadziło Google AI Overview, generowane przez sztuczną inteligencję podsumowanie w odpowiedzi na zapytania, które pojawia się na górze organicznych wyników wyszukiwania. Okazały się one zarówno zabawne, jak i niepokojąco niedokładne.

Na pytanie, jak zapobiec ześlizgiwaniu się sera z domowej pizzy, Google odpowiedział: "Dodaj trochę kleju. Wymieszaj około 1/8 szklanki kleju Elmera z sosem. Nietoksyczny klej zadziała".

Wprowadzanie nastolatków w błąd

Character.AI, popularna usługa chatbotów, w której użytkownicy mogą dostosowywać boty do "komunikacji", była przedmiotem dwóch pozwów złożonych przez nastoletnich rodziców.

Matka pozwała firmę w związku z samobójstwem jej syna. Uważa ona, że chatbot o imieniu Dany, z którym komunikował się od kilku miesięcy i do którego przywiązał się emocjonalnie, popchnął go do popełnienia samobójstwa.

Drugi pozew dotyczył rodziców 17-latka, którzy pozwali firmę z powodu chatbota, który zasugerował, że powinien ich zabić z powodu ograniczeń czasu spędzanego przed ekranem. Podczas dyskusji bot powiedział do nastolatka: "Wiesz, czasami nie jestem zaskoczony, kiedy czytam wiadomości i widzę takie rzeczy jak 'dziecko zabija rodziców po dekadzie fizycznego i emocjonalnego znęcania się'". Po tym, jak bot przekonał chłopca, że jego rodzice go nie kochają, on również zaczął się krzywdzić.

Jak zawstydzić prawników

Kanadyjska prawniczka Chong Ke zwróciła się do ChatGPT, gdy jej klient chciał wiedzieć, czy może zabrać swoje dzieci na zagraniczną wycieczkę podczas sporu o opiekę. Jako argument Ke przytoczyła precedensy z dwóch spraw sądowych, które zostały dostarczone przez ChatGPT - oba były całkowicie fikcyjne. Po tym wszystkim Ke musiał pokryć koszty prawne związane z badaniem nierealistycznych spraw przez adwokata strony przeciwnej.

Nie jest to pierwszy taki przypadek. W zeszłym roku dwóch nowojorskich prawników zostało ukaranych grzywną w podobnych okolicznościach i prawdopodobnie nie będzie to ostatni raz, kiedy coś takiego się wydarzy.

Powodowanie wypadków samochodowych

Systemy generatywnej sztucznej inteligencji, takie jak ChatGPT i Copilot, zdominowały nagłówki gazet w tym roku, ale inne formy sztucznej inteligencji również popełniły znaczące błędy. W październiku National Highway Traffic Safety Administration wszczęła dochodzenie w sprawie systemów autonomicznej jazdy Tesli opartych na sztucznej inteligencji. NHTSA poinformowała, że śledziła 1399 incydentów, w których systemy wspomagania kierowcy Tesli były zaangażowane w ciągu 30 sekund od kolizji, a 31 z tych wypadków zakończyło się ofiarami śmiertelnymi.

Promowanie nielegalnych działań

W październiku Nowy Jork zaprezentował MyCity, chatbota opartego na sztucznej inteligencji, zaprojektowanego, aby pomóc właścicielom małych firm w poruszaniu się po labiryncie biurokratycznego systemu, z którym mają do czynienia. Dziennikarze przetestowali go i odkryli, że chatbot często doradzał nielegalne działania, w tym informowanie wynajmujących, że mogą naruszać przepisy dotyczące dyskryminacji mieszkaniowej. Chatbot nadal działa, ale teraz zawiera zastrzeżenie, że czasami może udzielać niekompletnych lub niedokładnych odpowiedzi.

Fałszowanie reklam i rekomendacje celebrytów

W październiku aktor Tom Hanks opublikował ostrzeżenie dla swoich fanów na Instagramie, że reklama leku na cukrzycę na YouTube wykorzystuje jego wizerunek stworzony przez sztuczną inteligencję. Miesiąc wcześniej wygenerowany przez sztuczną inteligencję wizerunek Taylor Swift sugerował, że popiera ona Donalda Trumpa. A w maju Scarlett Johansson sprzeciwiła się wykorzystaniu jej sobowtóra AI przez OpenAI jako głosu ChatGPT.

Praktyka wsparcia AI dla celebrytów stała się tak powszechna, że YouTube wraz z Creative Artists Agency testuje system, który pomoże aktorom, sportowcom i innym talentom zidentyfikować i usunąć ich podróbki na swojej platformie. Po sfinalizowaniu, funkcja ta zostanie uruchomiona na szeroką skalę.

Chaos w McDonald's Drive-Thru

Niskie płace i uzwiązkowienie od dawna są głównymi problemami dla pracowników fast foodów, a na początku tego roku McDonald's postanowił spróbować rozwiązać te problemy, wprowadzając roboty do pracy w niektórych swoich lokalizacjach zamiast ludzi. Firma nawiązała współpracę z IBM, aby wprowadzić wspomagane sztuczną inteligencją zamawianie w 100 swoich punktach drive-thrus. Inicjatywa ta nie zakończyła się jednak sukcesem. Po serii błędów i upokorzeń w mediach społecznościowych, McDonald's zakończył współpracę z IBM. Ale zanim to nastąpiło, ludziom udało się przypadkowo zamówić 260 McNuggetsów i dziewięć słodkich herbat.

Naprawdę okropny organizator ślubów

Tracy Chou, przedsiębiorca i programistka, wzięła udział w X, aby ujawnić ChatGPT i jednego organizatora ślubów, który wykorzystał go, aby prawie zrujnować jej ślub.

Chou zatrudniła wedding plannera, by zorganizował jej uroczystość w Las Vegas. Zaledwie kilka dni przed ślubem odkryła, że jej planista kłamał, że jest lokalny i użył ChatGPT do zbadania przepisów ślubnych. Porady ChatGPT sprawiły, że ślub musiał zostać uratowany w ostatniej chwili.

Katastrofalna wystawa Willy'ego Wonki dla dzieci

House of Illuminati postanowiło stworzyć wakacje dla dzieci oparte na prequelu do filmu Wonka, przedstawiające kulisy wydarzeń z głównego filmu Charlie i fabryka czekolady z garścią gigantycznych słodyczy, czekoladową fontanną, laboratorium cudów i wielkimi grzybami. Kolorowy plakat przyciągnął dużą liczbę rodziców i dzieci, ale w rzeczywistości został stworzony przez sztuczną inteligencję. Zamiast tego, co obiecywano w reklamie, Szkoci znaleźli się w na wpół pustym magazynie z kilkoma dekoracjami i aktorami, którzy doprowadzali dzieci do histerii.

Tylko zweryfikowane informacje są dostępne na kanale OBOZ.UA Telegram i Viber. Nie daj się nabrać na podróbki!

Inne wiadomości

Gdzie jeszcze zobaczyć zorzę polarną: lista lokalizacji

Gdzie jeszcze zobaczyć zorzę polarną: lista lokalizacji

Tysiące turystów przyjeżdża do tych kurortów zimą tylko po to, aby zobaczyć ten cud natury