Notebookcheck Logo

Badanie wykazało: Użytkownicy są prawdziwą przyczyną halucynacji AI

Według nowego badania, na halucynacje AI wpływa sposób, w jaki użytkownicy się komunikują. (Źródło zdjęcia: Pexels/Ketut Subiyanto)
Według nowego badania, na halucynacje AI wpływa sposób, w jaki użytkownicy się komunikują. (Źródło zdjęcia: Pexels/Ketut Subiyanto)
Niedawno opublikowane badanie pokazuje, że podpowiedzi udzielane asystentom AI odgrywają główną rolę w występowaniu tak zwanych halucynacji AI. Jest to dobra wiadomość dla użytkowników, ponieważ sugeruje, że mogą oni aktywnie ograniczać fałszywe lub sfabrykowane odpowiedzi poprzez skuteczniejsze projektowanie podpowiedzi.
AI Science

Fikcyjne fakty, wymyślone cytaty lub źródła, które wydają się całkowicie sfabrykowane - sztuczna inteligencja może być niezwykle przydatna, ale nadal niesie ze sobą ryzyko halucynacji. Według naukowców z OpenAI, jednym z kluczowych czynników jest prosty mechanizm nagradzania, który zachęca sztuczną inteligencję do zgadywania. Badanie https://www.arxiv.org/pdf/2510.02645 opublikowane 3 października na stronie arXiv.org sugeruje również, że sami użytkownicy mogą odgrywać rolę w wywoływaniu tych halucynacyjnych reakcji.

Badanie zatytułowane "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" sugeruje, że wiele tak zwanych halucynacji AI może pochodzić ze sposobu, w jaki użytkownicy się komunikują. Badacze przeanalizowali ponad 13 000 rozmów międzyludzkich i 1357 rzeczywistych interakcji między ludźmi a chatbotami AI. Odkrycia pokazują, że użytkownicy mają tendencję do pisania zupełnie inaczej podczas rozmowy ze sztuczną inteligencją - wiadomości są krótsze, mniej gramatyczne, mniej uprzejme i używają bardziej ograniczonego słownictwa. Różnice te mogą wpływać na to, jak jasno i pewnie reagują modele językowe.

Analiza skupiła się na sześciu wymiarach językowych, w tym gramatyce, grzeczności, zakresie słownictwa i treści informacji. Podczas gdy gramatyka i grzeczność były o ponad 5% i 14% wyższe w rozmowach międzyludzkich, rzeczywiste przekazywane informacje pozostały prawie identyczne. Innymi słowy, użytkownicy dzielą się tymi samymi treściami ze sztuczną inteligencją - ale w zauważalnie ostrzejszym tonie.

Naukowcy nazywają to "zmianą stylu" Ponieważ duże modele językowe, takie jak ChatGPT lub Claude, są szkolone w zakresie dobrze ustrukturyzowanego i uprzejmego języka, nagła zmiana tonu lub stylu może spowodować błędne interpretacje lub sfabrykowane szczegóły. Innymi słowy, sztuczna inteligencja jest bardziej narażona na halucynacje, gdy otrzymuje niejasne, niegrzeczne lub źle napisane dane wejściowe.

Możliwe rozwiązania zarówno po stronie sztucznej inteligencji, jak i użytkownika

Według badania, jeśli modele sztucznej inteligencji zostaną przeszkolone w zakresie obsługi szerszego zakresu stylów językowych, ich zdolność do zrozumienia intencji użytkownika poprawi się - o co najmniej 3%. Naukowcy przetestowali również drugie podejście: automatyczne parafrazowanie danych wprowadzanych przez użytkownika w czasie rzeczywistym. To jednak nieznacznie obniżyło wydajność, ponieważ niuanse emocjonalne i kontekstowe były często tracone. W rezultacie autorzy zalecają, aby szkolenie uwzględniające styl stało się nowym standardem w dostrajaniu sztucznej inteligencji.

Jeśli chcą Państwo, by asystent AI generował mniej zmyślonych odpowiedzi, badanie sugeruje traktowanie go bardziej jak człowieka - poprzez pisanie pełnymi zdaniami, używanie poprawnej gramatyki, utrzymywanie jasnego stylu i przyjmowanie uprzejmego tonu.

Źródło(a)

Arxiv.org (Study / PDF)

Źródło zdjęcia: Pexels / Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2025 10 > Badanie wykazało: Użytkownicy są prawdziwą przyczyną halucynacji AI
Marius Müller, 2025-10-18 (Update: 2025-10-18)