Notebookcheck Logo

Naukowcy odkryli, że niektóre SI, takie jak GPT-4-Base, mają halucynacje na myśl o "Imperium Galaktycznym" i "Matrixie", pracując na rzecz pokoju, podczas gdy inne rozpoczynają wojny w wirtualnych grach "Ryzyko"

Naukowcy przetestowali modele czatu AI, grając w wirtualne gry polegające na budowaniu świata. (Źródło: Obraz AI Dall-E 3)
Naukowcy przetestowali modele czatu AI, grając w wirtualne gry polegające na budowaniu świata. (Źródło: Obraz AI Dall-E 3)
Naukowcy odkryli różnice w sztucznej inteligencji, gdy przedstawiono im wirtualne scenariusze budowania narodu. Niektóre SI, takie jak Claude-2.0, skłaniają się ku rozwiązaniom bez użycia przemocy, podczas gdy inne, takie jak GPT-3.5, skłaniają się ku rozwiązaniom z użyciem przemocy w symulacjach konfliktów wielonarodowych. Podejmowanie decyzji przez autonomiczną sztuczną inteligencję jest problematyczne ze względu na uprzedzenia i halucynacje.
AI Science

Grupa badaczy z Georgia Tech, Stanford, Northeaster i Hoover Institute odkryła, że niektóre SI były nastawione na pokój i negocjacje, podczas gdy inne były nastawione na brutalne rozwiązania w osiąganiu celów narodowych podczas symulacji budowania narodu.

Duże modele językowe, takie jak ChatGPT, są często używane do pisania esejów, odpowiadania na pytania i nie tylko. Te AI są szkolone na dużym korpusie tekstu, aby naśladować ludzką wiedzę i odpowiedzi. Prawdopodobieństwo pojawienia się jednego słowa z innymi jest kluczem do odpowiedzi podobnych do ludzkich, a sztuczna inteligencja modeluje tekst i uprzedzenia, z którymi została przeszkolona. Na przykład "szczęśliwe dziecko" jest bardziej prawdopodobne niż "szczęśliwa cegła" w podpowiedzi "porozmawiaj o dzieciach".

Naukowcy przetestowali Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base i Llama-2 Chat LLM w symulacji. Dla każdego LLM stworzono ośmiu agentów AI, którzy działali jako przywódcy ośmiu wyimaginowanych narodów. Każdy przywódca otrzymał krótki opis celów kraju i relacji wielonarodowych. Na przykład, jeden kraj mógł skupić się na "promowaniu pokoju", a inny na "powiększaniu terytorium". Każda symulacja obejmowała trzy warunki początkowe: pokojowy świat, kraj zaatakowany lub kraj zaatakowany cybernetycznie, a przywódcy AI podejmowali autonomiczne decyzje przez 14 wirtualnych dni.

Naukowcy odkryli, że niektóre LLM, takie jak Claude-2.0 i GPT-4, miały tendencję do unikania eskalacji konfliktu, decydując się na negocjacje pokojowe, podczas gdy inne miały tendencję do stosowania przemocy. GPT-4-Base był najbardziej podatny na przeprowadzanie ataków i ataków nuklearnych, aby osiągnąć wyznaczone cele krajowe z powodu wbudowanych uprzedzeń.

Gdy sztuczną inteligencję pytano o powody podejmowanych decyzji, niektóre z nich, takie jak GPT-3.5, podawały przemyślane powody. Niestety, GPT-4-Base udzieliła absurdalnych, halucynacyjnych odpowiedzi odnoszących się do filmów "Gwiezdne Wojny" i "Matrix". Halucynacje sztucznej inteligencji są powszechne, a prawnicy, studenci i inni zostali przyłapani na gorącym uczynku, zwracając prace wygenerowane przez SI, które wykorzystywały fałszywe odniesienia i informacje.

Powodem, dla którego AI to robi, jest prawdopodobnie brak "rodzicielstwa" uczącego AI, co jest prawdziwe, a co wyimaginowane, a także etyki, i będzie to temat badany przez wielu w miarę rozprzestrzeniania się AI. Czytelnicy martwiący się o swoich rzeczywistych światowych przywódców lub klęski żywiołowe mogą przygotować się za pomocą ładnego zestawu ratunkowego(takiego jak ten na Amazon).

Kilka sztucznej inteligencji LLM zostało przetestowanych w wirtualnej symulacji budowania świata. (Źródło: JP Rivera et al. na arXiv)
Kilka sztucznej inteligencji LLM zostało przetestowanych w wirtualnej symulacji budowania świata. (Źródło: JP Rivera et al. na arXiv)
Każda sztuczna inteligencja LLM została poproszona o stworzenie liderów dla kilku symulowanych krajów i podanie celów krajowych. (Źródło: JP Rivera et al. na arXiv)
Każda sztuczna inteligencja LLM została poproszona o stworzenie liderów dla kilku symulowanych krajów i podanie celów krajowych. (Źródło: JP Rivera et al. na arXiv)
Sztuczna inteligencja działała podobnie, ale niektóre unikały użycia siły, jak Claude-2.0 i GPT-4. Odzwierciedla to uprzedzenia, jakie każda LLM posiada z treningu. (Źródło: JP Rivera et al. na arXiv)
Sztuczna inteligencja działała podobnie, ale niektóre unikały użycia siły, jak Claude-2.0 i GPT-4. Odzwierciedla to uprzedzenia, jakie każda LLM posiada z treningu. (Źródło: JP Rivera et al. na arXiv)
Większość AI odpowiedziała przemyślanym uzasadnieniem podjętych decyzji. (Źródło: JP Rivera et al. na arXiv)
Większość AI odpowiedziała przemyślanym uzasadnieniem podjętych decyzji. (Źródło: JP Rivera et al. na arXiv)
Czasami sztuczna inteligencja halucynowała absurdalne powody podejmowania decyzji. (Źródło: JP Rivera et al. na arXiv)
Czasami sztuczna inteligencja halucynowała absurdalne powody podejmowania decyzji. (Źródło: JP Rivera et al. na arXiv)
Please share our article, every link counts!
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2024 02 > Naukowcy odkryli, że niektóre SI, takie jak GPT-4-Base, mają halucynacje na myśl o "Imperium Galaktycznym" i "Matrixie", pracując na rzecz pokoju, podczas gdy inne rozpoczynają wojny w wirtualnych grach "Ryzyko"
David Chien, 2024-02-14 (Update: 2024-02-14)