ChatGPT wprowadzi kontrolę rodzicielską i inne zabezpieczenia w następstwie pozwu sądowego

OpenAI poinformowała, że jej chatbot ChatGPT, wykorzystujący sztuczną inteligencję, zostanie objęty kontrolą nieletnich po śmierci 16-letniego Adama Raine'a, który wyraził wobec chatbota myśli o samookaleczeniu. Rodzina nastolatka wszczęła postępowanie sądowe przeciwko OpenAI i jej dyrektorowi generalnemu, Samowi Altmanowi, argumentując, że ChatGPT wydał Adamowi instrukcje popełnienia samobójstwa.
Firma poinformowała, że pracuje nad wprowadzeniem kontroli rodzicielskiej "wkrótce" i stworzeniem dodatkowych zabezpieczeń. W poście na blogu firma stwierdziła, że obecne modele zachęcają ludzi do szukania pomocy, gdy po raz pierwszy wyrażają szkodliwe myśli; uznaje jednak, że w długich rozmowach reakcja bezpieczeństwa ulega pogorszeniu. Firma skomentowała że pracuje nad utrzymaniem niezawodności mechanizmów zabezpieczających w długich rozmowach.
OpenAI powiedział, że bada wcześniejszą interwencję, łącząc ludzi z terapeutami. Do tej pory współpracuje z ponad 90 lekarzami w 30 krajach, ale "lokalizuje zasoby" w USA i Europie, aby zapewnić profesjonalną pomoc, i planuje ekspansję na inne rynki światowe.
Ponadto chatbot może zawierać "wiadomości lub połączenia jednym kliknięciem do zapisanych kontaktów alarmowych, przyjaciół lub członków rodziny z sugerowanym językiem, aby rozpoczęcie rozmowy było mniej zniechęcające"
Według pozwów, Adam był zachęcany do szkodliwych i autodestrukcyjnych myśli, aw niektórych przypadkach promował izolację i uniemożliwiał nastolatkowi kontakt z krewnymi.
Kontrola rodzicielska obejmowałaby wyznaczony kontakt w nagłych wypadkach, z którym w "chwilach ostrego niepokoju" można by się skontaktować bezpośrednio przez ChatGPT. Wraz z premierą GPT-5firma stwierdziła, że model wykazał poprawę w takich obszarach, jak unikanie niezdrowego poziomu zależności emocjonalnej, zmniejszenie pochlebstwa i zmniejszenie częstości występowania nieidealnych reakcji modelu w nagłych wypadkach związanych ze zdrowiem psychicznym o ponad 25% w porównaniu z GPT-4o.
OpenAI nadal pracuje jednak nad dalszymi aktualizacjami modelu w tym zakresie, umożliwiając modelowi "deeskalację" sytuacji stresowych poprzez uziemienie użytkownika w rzeczywistości.
Nie jest jasne, kiedy te zmiany mogą zostać wprowadzone.
Źródło(a)
OpenAI, The New York Times, Pexels (Obraz)