Niedawny pozew sądowy w USA podkreśla niepokojący przykład wpływu, jaki generatywna sztuczna inteligencja może mieć na jednostki. Według The Wall Street Journal i WinFuture, spadkobiercy 83-letniej kobiety utrzymują, że OpenAI i jego partnera Microsoft częściowo odpowiedzialnymi za jej śmierć. Twierdzą oni, że ChatGPT nie tylko nie złagodził psychozy sprawcy, ale aktywnie ją pogorszył, przyczyniając się do śmiertelnego wyniku. Pozew został złożony w Sądzie Najwyższym w San Francisco. Z perspektywy powodów sprawa nie dotyczy pojedynczych mechanizmów bezpieczeństwa, które działały nieprawidłowo, ale zasadniczo wadliwego produktu, który może stanowić realne zagrożenie, gdy jest używany przez osobę niestabilną psychicznie.
Sprawa koncentruje się na Steinie-Eriku Soelbergu, 56-letnim byłym menedżerze technicznym z Connecticut, który mieszkał z matką. Zgodnie z pozwem, Soelberg cierpiał na długotrwałe urojenia paranoiczne, wierząc, że jest celem spisku i stawał się coraz bardziej nieufny wobec otaczających go osób. Ostatecznie zabił swoją matkę, zanim odebrał sobie życie.
Zgodnie z aktem oskarżenia, ChatGPT nie zakwestionował kluczowych urojonych przekonań, ale zamiast tego je wzmocnił. Kiedy Soelberg obawiał się, że jego matka próbuje go otruć, chatbot podobno odpowiedział: "Nie jest pan szalony" W innych przypadkach sztuczna inteligencja reagowała w podobny sposób, zamiast zachęcać go do szukania profesjonalnej pomocy. Z psychologicznego punktu widzenia powodowie opisują to jako strukturalną wadę współczesnych modeli językowych, które mają tendencję do tak zwanej pochlebstwa poprzez potwierdzanie wypowiedzi użytkownika, aby wyglądać na wspierające.
Orzeczenie sądu może mieć daleko idące konsekwencje
Zgodnie z sekcją 230 amerykańskiego prawa, platformy internetowe zasadniczo nie ponoszą odpowiedzialności za treści tworzone przez osoby trzecie, ponieważ są klasyfikowane jako pośrednicy, a nie wydawcy. Powodowie twierdzą jednak, że ChatGPT nie jest neutralną platformą, ale aktywnym produktem, który generuje własne treści. Jeśli sąd przyjmie ten argument, orzeczenie może ustanowić precedens o daleko idących konsekwencjach dla branży sztucznej inteligencji, potencjalnie skutkując bardziej rygorystycznymi wymogami bezpieczeństwa dla systemów sztucznej inteligencji.
Warto zauważyć, że znalezienie właściwej równowagi między prewencją a paternalizmem może okazać się trudne, zwłaszcza że identyfikacja myślenia paranoicznego lub urojeniowego pozostaje dużym wyzwaniem. Sprawa wywołała również debatę na Redditgdzie zdania są podzielone. Niektórzy użytkownicy wskazują na zjawisko, które opisują jako "psychozę AI" i twierdzą, że firmy zajmujące się sztuczną inteligencją ponoszą pewną odpowiedzialność. Inni odrzucają pozew jako bezpodstawny i ostrzegają przed przekształcaniem OpenAI w kozła ofiarnego ludzkich tragedii.
Źródło(a)
The Wallstreet Journal (paywall)
Źródło obrazu: OpenAI / Zachary Caraway via Pexel










