Fikcyjne fakty, wymyślone cytaty lub źródła, które wydają się całkowicie sfabrykowane - sztuczna inteligencja może być niezwykle przydatna, ale nadal niesie ze sobą ryzyko halucynacji. Według naukowców z OpenAI, jednym z kluczowych czynników jest prosty mechanizm nagradzania, który zachęca sztuczną inteligencję do zgadywania. Badanie https://www.arxiv.org/pdf/2510.02645 opublikowane 3 października na stronie arXiv.org sugeruje również, że sami użytkownicy mogą odgrywać rolę w wywoływaniu tych halucynacyjnych reakcji.
Badanie zatytułowane "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" sugeruje, że wiele tak zwanych halucynacji AI może pochodzić ze sposobu, w jaki użytkownicy się komunikują. Badacze przeanalizowali ponad 13 000 rozmów międzyludzkich i 1357 rzeczywistych interakcji między ludźmi a chatbotami AI. Odkrycia pokazują, że użytkownicy mają tendencję do pisania zupełnie inaczej podczas rozmowy ze sztuczną inteligencją - wiadomości są krótsze, mniej gramatyczne, mniej uprzejme i używają bardziej ograniczonego słownictwa. Różnice te mogą wpływać na to, jak jasno i pewnie reagują modele językowe.
Analiza skupiła się na sześciu wymiarach językowych, w tym gramatyce, grzeczności, zakresie słownictwa i treści informacji. Podczas gdy gramatyka i grzeczność były o ponad 5% i 14% wyższe w rozmowach międzyludzkich, rzeczywiste przekazywane informacje pozostały prawie identyczne. Innymi słowy, użytkownicy dzielą się tymi samymi treściami ze sztuczną inteligencją - ale w zauważalnie ostrzejszym tonie.
Naukowcy nazywają to "zmianą stylu" Ponieważ duże modele językowe, takie jak ChatGPT lub Claude, są szkolone w zakresie dobrze ustrukturyzowanego i uprzejmego języka, nagła zmiana tonu lub stylu może spowodować błędne interpretacje lub sfabrykowane szczegóły. Innymi słowy, sztuczna inteligencja jest bardziej narażona na halucynacje, gdy otrzymuje niejasne, niegrzeczne lub źle napisane dane wejściowe.
Możliwe rozwiązania zarówno po stronie sztucznej inteligencji, jak i użytkownika
Według badania, jeśli modele sztucznej inteligencji zostaną przeszkolone w zakresie obsługi szerszego zakresu stylów językowych, ich zdolność do zrozumienia intencji użytkownika poprawi się - o co najmniej 3%. Naukowcy przetestowali również drugie podejście: automatyczne parafrazowanie danych wprowadzanych przez użytkownika w czasie rzeczywistym. To jednak nieznacznie obniżyło wydajność, ponieważ niuanse emocjonalne i kontekstowe były często tracone. W rezultacie autorzy zalecają, aby szkolenie uwzględniające styl stało się nowym standardem w dostrajaniu sztucznej inteligencji.
Jeśli chcą Państwo, by asystent AI generował mniej zmyślonych odpowiedzi, badanie sugeruje traktowanie go bardziej jak człowieka - poprzez pisanie pełnymi zdaniami, używanie poprawnej gramatyki, utrzymywanie jasnego stylu i przyjmowanie uprzejmego tonu.
Źródło(a)
Źródło zdjęcia: Pexels / Ketut Subiyanto