Notebookcheck Logo

Naukowcy ostrzegają przed rojami sztucznej inteligencji tworzącymi fałszywą opinię publiczną

Dekoracyjny obraz przedstawiający chip z napisanym akronimem
ⓘ Igor Omilaev via Unsplash
Dekoracyjny obraz przedstawiający chip z napisanym akronimem "AI"
Międzynarodowy zespół naukowców wydał ostrzeżenie o niebezpieczeństwach związanych z rojami sztucznej inteligencji w odniesieniu do tworzenia fałszywych konsensusów publicznych, zauważając, że mogło to już mieć miejsce.
AI Social Media

Proszę sobie wyobrazić świat, w którym duża grupa ludzi może rozmawiać na określony temat, powodując, że staje się on popularny w Internecie. Albo świat, w którym ci ludzie mogą wymusić rękę osób publicznych, a nawet szerzyć dezinformację. Teraz proszę sobie wyobrazić świat, w którym "ludzie" są w rzeczywistości profilami opartymi na sztucznej inteligencji, działającymi zgodnie, naśladując unikalne ludzkie głosy.

Przed takim niebezpieczeństwem ostrzegają nas naukowcy z wielu instytucji na całym świecie w niedawnej publikacji w czasopiśmie Science.

Międzynarodowy zespół badawczy szczegółowo opisał, w jaki sposób połączenie dużych modeli językowych (LLM) z systemami wieloagentowymi umożliwia tworzenie złośliwych rojów sztucznej inteligencji. W przeciwieństwie do tradycyjnych, łatwych do zidentyfikowania botów kopiuj-wklej, te zaawansowane roje składają się z kontrolowanych przez sztuczną inteligencję person, które utrzymują trwałą tożsamość, pamięć i skoordynowane cele. Mogą one dynamicznie dostosowywać swój ton i treść w oparciu o ludzkie zaangażowanie, działając przy minimalnym nadzorze na wielu platformach.

Głównym zagrożeniem stwarzanym przez te sieci jest wytwarzanie "syntetycznego konsensusu" Zalewając przestrzeń cyfrową sfabrykowanymi, ale bardzo przekonującymi wypowiedziami, roje te tworzą fałszywą iluzję, że określony punkt widzenia jest powszechnie akceptowany. Naukowcy zauważają, że zjawisko to zagraża podstawom demokratycznego dyskursu, ponieważ pojedynczy złośliwy aktor może udawać tysiące niezależnych głosów.

Ten trwały wpływ wykracza poza zmianę tymczasowych opinii; może zasadniczo zmienić język, symbole i tożsamość kulturową społeczności. Co więcej, te skoordynowane dane wyjściowe grożą zanieczyszczeniem danych szkoleniowych zwykłych modeli sztucznej inteligencji, rozszerzając manipulację na ugruntowane platformy AI.

Aby przeciwdziałać temu ewoluującemu zagrożeniu, eksperci twierdzą, że tradycyjne moderowanie treści post po poście nie jest już skuteczne. Mechanizmy obronne muszą obracać się w kierunku identyfikacji statystycznie mało prawdopodobnej koordynacji i śledzenia pochodzenia treści. Naukowcy podkreślają również konieczność zastosowania nauk behawioralnych do badania zbiorowych działań agentów AI, gdy wchodzą oni w interakcje w dużych grupach. Proponowane rozwiązania obejmują wdrażanie metod weryfikacji chroniących prywatność, udostępnianie dowodów za pośrednictwem rozproszonego Obserwatorium Wpływu Sztucznej Inteligencji oraz ograniczanie zachęt finansowych, które napędzają nieautentyczne zaangażowanie.

Źródło(a)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2026 02 > Naukowcy ostrzegają przed rojami sztucznej inteligencji tworzącymi fałszywą opinię publiczną
Chibuike Okpara, 2026-02-16 (Update: 2026-02-16)