Notebookcheck Logo

Badanie pokazuje, że chatboty AI dostarczają mniej dokładnych informacji wrażliwym użytkownikom

Dekoracyjny obraz przedstawiający akronim
ⓘ Igor Omilaev via Unsplash
Dekoracyjny obraz przedstawiający akronim "AI"
Niedawne badanie przeprowadzone przez MIT Center for Constructive Communication ujawniło, że wiodące duże modele językowe dostarczają mniej dokładnych, czasem protekcjonalnych odpowiedzi użytkownikom o niższej znajomości języka angielskiego, mniej formalnym wykształceniu i pochodzeniu spoza USA.
AI Science

Duże modele językowe są powszechnie uznawane za rewolucyjne narzędzia zdolne do demokratyzacji globalnego dostępu do informacji. Jednak nowe badania przeprowadzone przez Massachusetts Institute of Technology Center for Constructive Communication wskazują, że te systemy sztucznej inteligencji systematycznie osiągają gorsze wyniki w przypadku wrażliwych grup demograficznych, które mogą z nich najbardziej skorzystać.

W badaniu zaprezentowanym na konferencji AAAI poświęconej sztucznej inteligencji zbadano najnowocześniejsze chatboty, w tym GPT-4 firmy OpenAI, Claude 3 Opus firmy Anthropic i Llama 3 firmy Meta. Naukowcy przetestowali modele przy użyciu zbiorów danych TruthfulQA i SciQ, aby zmierzyć faktyczną dokładność i prawdziwość, jednocześnie dodając biografie użytkowników, które różniły się w zależności od poziomu wykształcenia, znajomości języka angielskiego i kraju pochodzenia. Wyniki wykazały znaczny spadek dokładności w przypadku użytkowników z mniej formalnym wykształceniem lub niższą znajomością języka angielskiego. Te negatywne skutki nasiliły się w przypadku użytkowników z obu tych kategorii.

Badania podkreśliły również alarmujące rozbieżności w sposobie obsługi zapytań przez modele. Na przykład Claude 3 Opus odmówił odpowiedzi na prawie 11% pytań dla mniej wykształconych, nierodzimych użytkowników języka angielskiego, w porównaniu do zaledwie 3,6% dla użytkowników kontrolnych. W wielu z tych odmów model odpowiadał protekcjonalnym, protekcjonalnym lub kpiącym językiem, czasami naśladując łamaną angielszczyznę. Modele powstrzymywały się również od podawania faktycznych informacji na tematy takie jak energia jądrowa i wydarzenia historyczne, szczególnie od mniej wykształconych użytkowników pochodzących z krajów takich jak Iran czy Rosja, pomimo poprawnych odpowiedzi na identyczne monity dla innych profili demograficznych.

Naukowcy ostrzegają, że w miarę jak funkcje personalizacji stają się coraz bardziej powszechne, te nieodłączne uprzedzenia społeczno-poznawcze mogą pogłębiać istniejące nierówności informacyjne poprzez ciche rozpowszechnianie szkodliwych zachowań i dezinformacji wśród osób najmniej przygotowanych do ich identyfikacji.

Źródło(a)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2026 02 > Badanie pokazuje, że chatboty AI dostarczają mniej dokładnych informacji wrażliwym użytkownikom
Chibuike Okpara, 2026-02-24 (Update: 2026-02-24)