Naukowcy ostrzegają przed rojami sztucznej inteligencji tworzącymi fałszywą opinię publiczną

Proszę sobie wyobrazić świat, w którym duża grupa ludzi może rozmawiać na określony temat, powodując, że staje się on popularny w Internecie. Albo świat, w którym ci ludzie mogą wymusić rękę osób publicznych, a nawet szerzyć dezinformację. Teraz proszę sobie wyobrazić świat, w którym "ludzie" są w rzeczywistości profilami opartymi na sztucznej inteligencji, działającymi zgodnie, naśladując unikalne ludzkie głosy.
Przed takim niebezpieczeństwem ostrzegają nas naukowcy z wielu instytucji na całym świecie w niedawnej publikacji w czasopiśmie Science.
Międzynarodowy zespół badawczy szczegółowo opisał, w jaki sposób połączenie dużych modeli językowych (LLM) z systemami wieloagentowymi umożliwia tworzenie złośliwych rojów sztucznej inteligencji. W przeciwieństwie do tradycyjnych, łatwych do zidentyfikowania botów kopiuj-wklej, te zaawansowane roje składają się z kontrolowanych przez sztuczną inteligencję person, które utrzymują trwałą tożsamość, pamięć i skoordynowane cele. Mogą one dynamicznie dostosowywać swój ton i treść w oparciu o ludzkie zaangażowanie, działając przy minimalnym nadzorze na wielu platformach.
Głównym zagrożeniem stwarzanym przez te sieci jest wytwarzanie "syntetycznego konsensusu" Zalewając przestrzeń cyfrową sfabrykowanymi, ale bardzo przekonującymi wypowiedziami, roje te tworzą fałszywą iluzję, że określony punkt widzenia jest powszechnie akceptowany. Naukowcy zauważają, że zjawisko to zagraża podstawom demokratycznego dyskursu, ponieważ pojedynczy złośliwy aktor może udawać tysiące niezależnych głosów.
Ten trwały wpływ wykracza poza zmianę tymczasowych opinii; może zasadniczo zmienić język, symbole i tożsamość kulturową społeczności. Co więcej, te skoordynowane dane wyjściowe grożą zanieczyszczeniem danych szkoleniowych zwykłych modeli sztucznej inteligencji, rozszerzając manipulację na ugruntowane platformy AI.
Aby przeciwdziałać temu ewoluującemu zagrożeniu, eksperci twierdzą, że tradycyjne moderowanie treści post po poście nie jest już skuteczne. Mechanizmy obronne muszą obracać się w kierunku identyfikacji statystycznie mało prawdopodobnej koordynacji i śledzenia pochodzenia treści. Naukowcy podkreślają również konieczność zastosowania nauk behawioralnych do badania zbiorowych działań agentów AI, gdy wchodzą oni w interakcje w dużych grupach. Proponowane rozwiązania obejmują wdrażanie metod weryfikacji chroniących prywatność, udostępnianie dowodów za pośrednictwem rozproszonego Obserwatorium Wpływu Sztucznej Inteligencji oraz ograniczanie zachęt finansowych, które napędzają nieautentyczne zaangażowanie.
Źródło(a)
Nauka przez Tech Xplore

