Według niedawnego raportu The Guardian, najnowszy model ChatGPT coraz częściej korzysta z internetowej encyklopedii Elona Muska Grokipedia, aby odpowiadać na pytania. W ramach dochodzenia sztuczna inteligencja cytowała platformę dla różnych tematów, takich jak struktury polityczne w Iranie, a także szczegóły biograficzne dotyczące postaci historycznych.
To wydarzenie budzi obawy co do jakości informacji dostarczanych przez ChatGPT. Mówiąc dokładniej, szczegóły te nie podlegają tym samym procesom weryfikacji, co źródła utrzymywane przez zespoły redakcyjne lub większą społeczność.
Grokipedia została stworzona przez Elona Muska jako konkurent dla uznanej Wikipedii. Podczas gdy Musk oskarża Wikipedię o lewicowe nastawienie i twierdzi, że jego projekt ma na celu prawdę i neutralność, krytycy często postrzegają Grokipedię jako przeciwną skrajność. Twierdzą oni, że platforma czasami prezentuje treści z politycznie prawicowej perspektywy lub porusza kontrowersyjne tematy w jednostronny sposób.
W przeciwieństwie do wpisów na Wikipedii, które są kuratorowane przez rzeczywistych ludzi, teksty na Grokipedii są generowane głównie przez wewnętrzny model sztucznej inteligencji o nazwie Grok. Edycje użytkowników nie są częścią tego systemu, ponieważ jakość jest rzekomo sprawdzana przez pracowników xAI. Kiedy inne modele językowe, takie jak GPT-5.2, wykorzystują te generowane maszynowo teksty jako źródło faktów, powstaje techniczna pętla sprzężenia zwrotnego, w której sztuczna inteligencja uczy się od siebie nawzajem.
Zwiększa to ryzyko tak zwanego scenariusza "garbage in, garbage out". Jeśli SI zaczną wykorzystywać niefiltrowane materiały od innych SI jako podstawę własnych odpowiedzi, błędy lub konkretne uprzedzenia mogą zostać przekazane bez jakiejkolwiek kontroli. Dochodzenie Guardiana wykazało już, że ChatGPT cytuje Grokipedię i powtarza twierdzenia, które wykraczają poza ustaloną wiedzę lub zostały już dawno obalone. Ilustruje to niebezpieczeństwo, że dezinformacja wygląda bardziej wiarygodnie ze względu na wzajemne cytowanie przez modele sztucznej inteligencji, a użytkownikom coraz trudniej jest wykryć takie fałszywe informacje.
OpenAI już zareagowało na raport i podkreśla, że przeszukiwanie sieci przez model stara się odzwierciedlać szerokie spektrum publicznie dostępnych źródeł i punktów widzenia. Rzecznik stwierdził, że filtry bezpieczeństwa są stosowane w celu zmniejszenia ryzyka wyświetlania linków do treści o wysokim potencjale szkodliwości. Ponadto ChatGPT zapewnia odpowiedzi z cytatami i źródłami w celu zapewnienia przejrzystości. Firma wspomniała również o trwających programach, które mają na celu odfiltrowanie źródeł o niskiej wiarygodności.








