English
русский
Українська

Currency

Halucynacje AI: dlaczego chatboty ze sztuczną inteligencją mogą wyświetlać fałszywe informacje

ObozrevatelWiadomości
sztuczna inteligencja
Sztuczna inteligencja. Źródło: Pixabay

Nowa funkcja wyszukiwania Google, Artificial Intelligence Reviews, spotkała się z negatywną reakcją po tym, jak użytkownicy zwrócili uwagę na niektóre niedokładne odpowiedzi na zapytania. Eksperci wyjaśnili, dlaczego chatboty sztucznej inteligencji (AI) mogą wyświetlać fałszywe lub wprowadzające w błąd informacje.

AI Reviews, która została uruchomiona dwa tygodnie temu, wyświetla odpowiedzi na najczęściej zadawane pytania otrzymane z różnych źródeł w Internecie na górze strony wyszukiwania Google. Nowa funkcja ma na celu pomóc użytkownikom odpowiedzieć na "trudne pytania", jak stwierdzono na blogu Google.

System udzielał fałszywych odpowiedzi. Na przykład użytkownik został poproszony o przyklejenie sera do pizzy, jeśli się odklei, o jedzenie kamieni w celu poprawy zdrowia lub o to, że były prezydent USA Barack Obama jest muzułmaninem, co jest teorią spiskową, która została obalona.

Badanie przeprowadzone przez Vectara, startup, który rozwija generatywną sztuczną inteligencję, wykazało, że chatboty wymyślają informacje w zakresie od trzech do 27% przypadków.

Czym są halucynacje sztucznej inteligencji?

Duże modele językowe (LLM), które zasilają chatboty, takie jak ChatGPT OpenAI i Gemini Google, uczą się przewidywać odpowiedzi na podstawie wzorców. Hanan Ouzan, partner i szef generatywnej sztucznej inteligencji w Artefact, powiedział, że model oblicza najbardziej prawdopodobne następne słowo w odpowiedzi na pytanie użytkownika na podstawie tego, co znajduje się w jego bazie danych.

"Dokładnie tak działamy jako ludzie. Myślimy, zanim zaczniemy mówić" - powiedział w wywiadzie dla Euronews.

Czasami dane treningowe modelu mogą być niekompletne lub stronnicze, co prowadzi do błędnych odpowiedzi lub "halucynacji" ze strony chatbota.

Według Oleksandra Sukharevskyi'ego, starszego partnera w QuantumBlack w McKinsey, bardziej poprawne jest nazywanie sztucznej inteligencji "technologią hybrydową", ponieważ odpowiedzi chatbota są "obliczane matematycznie" na podstawie obserwowanych danych.

Google zapewnia, że nie ma jednego powodu, dla którego pojawiają się halucynacje: mogą to być niewystarczające dane szkoleniowe wykorzystywane przez model, nieprawidłowe założenia lub ukryte uprzedzenia w informacjach wykorzystywanych przez chatbota. Google zidentyfikowało kilka rodzajów takich niespójności. Obejmują one nieprawidłowe przewidywania zdarzeń, które w rzeczywistości mogą się nie wydarzyć, fałszywie pozytywne wyniki z powodu wykrycia fikcyjnych zagrożeń i negatywne wyniki.

Firma przyznała, że tego rodzaju halucynacje mogą mieć znaczące konsekwencje, na przykład gdy medyczny model sztucznej inteligencji błędnie identyfikuje łagodny wzór skóry jako złośliwy, co prowadzi do "niepotrzebnych interwencji medycznych".

Według Igora Sevo, szefa działu AI w HTEC Group, międzynarodowej firmie zajmującej się rozwojem produktów, wszystko zależy od tego, do czego wykorzystywana jest sztuczna inteligencja.

"W kreatywnych sytuacjach halucynacje są dobre. Pytanie brzmi, jak nauczyć modele rozróżniania między kreatywnością a prawdomównością" - wyjaśnił, zauważając, że modele AI mogą pisać nowe fragmenty tekstu lub wiadomości e-mail w określonym głosie lub stylu.

Wszystko zależy od danych

Według Wazana, dokładność chatbota zależy od jakości zestawu danych, które otrzymuje.

"Jeśli jedno ze źródeł danych nie jest w 100% dokładne, chatbot może powiedzieć coś niewłaściwego. Jest to główny powód, dla którego doświadczamy halucynacji" - powiedział.

Obecnie, według Ouzana, modele sztucznej inteligencji wykorzystują wiele danych z Internetu i otwartych źródeł do trenowania swoich modeli.

W szczególności OpenAI podpisuje również umowy z organizacjami medialnymi, takimi jak Axel Springer i News Corp, oraz publikacjami takimi jak Le Monde, w celu licencjonowania ich treści, aby mogli trenować swoje modele na bardziej wiarygodnych danych. Według Wazana nie chodzi o to, że sztuczna inteligencja potrzebuje więcej danych do formułowania dokładnych odpowiedzi, ale o to, że modele potrzebują wysokiej jakości danych wejściowych.

Sukharevsky mówi, że nie jest zaskoczony tym, że chatboty AI popełniają błędy - muszą, aby ludzie, którzy je obsługują, mogli ulepszać technologię i jej zestawy danych.

Tylko zweryfikowane informacje są dostępne na kanale OBOZ.UA Telegram i Viber. Nie daj się nabrać na podróbki!

Inne wiadomości

Chińscy taikonauci mają inteligentnego asystenta w kosmosie: co potrafi robot Xiao Han. Zdjęcia i filmik

Chińscy taikonauci mają inteligentnego asystenta w kosmosie: co potrafi robot Xiao Han. Zdjęcia i filmik

Pomoże to poprawić wydajność chińskiej misji pozaziemskiej
Lekka i zdrowa sałatka z buraków i śliwek: jak przygotować

Lekka i zdrowa sałatka z buraków i śliwek: jak przygotować

Dodaj pyszny i orzeźwiający dressing