Możliwości dużych modeli językowych, takich jak ChatGPT, zmieniły sposób pracy wielu osób. Jednak niedawny incydent pokazuje, że korzystanie z tych narzędzi może wiązać się z ryzykiem. Profesor Marcel Bucher z Uniwersytetu w Kolonii twierdzi, że stracił dwa lata pracy naukowej z powodu prostej zmiany ustawień - wnioski o dotacje, materiały dydaktyczne i szkice publikacji nagle zniknęły.
Bucher najwyraźniej zamierzał dezaktywować opcję, która pozwala na wykorzystanie danych do szkolenia modeli. Zgodnie z jego oświadczeniemdziałanie to spowodowało usunięcie całej historii jego czatu. W artykule opublikowanym w Natureopisuje on próby zastosowania różnych metod w celu odzyskania dostępu do danych i czatów. Próba skontaktowania się z OpenAI okazała się dla profesora równie bezcelowa. Zgodnie z oświadczeniami profesora, dane zostały trwale usunięte i nie można ich odzyskać. OpenAI powołało się na zasadę "Privacy by Design", co oznacza, że dane są usuwane bez śladu. Dla Buchera wniosek jest jasny: "Jeśli jedno kliknięcie może nieodwracalnie usunąć lata pracy, ChatGPT nie może, moim zdaniem i na podstawie mojego doświadczenia, być uważany za całkowicie bezpieczny do użytku profesjonalnego"
ChatGPT posiada jednak funkcję tworzenia kopii zapasowych. Sztuczna inteligencja oferuje prostą metodę pobierania wszystkich czatów i danych. Opcję "Eksportuj dane" można znaleźć w ustawieniach w sekcji "Kontrola danych" Po kilku chwilach lub godzinach link do pobrania pliku ZIP zawierającego wszystkie przechowywane informacje jest wysyłany pocztą elektroniczną. W zależności od ilości danych przechowywanych w ChatGPT, kompilacja archiwum może zająć trochę czasu. Po wysłaniu wiadomości e-mail, link do pobrania pozostaje ważny przez 24 godziny. Kopie zapasowe są integralną częścią pracy z komputerami i prawdopodobnie nie należy ich zaniedbywać podczas korzystania z narzędzi AI.
Opisany scenariusz nie mógł zostać odtworzony w ostatnim autoteście. Podczas dezaktywacji udostępniania danych w celach szkoleniowych, istniejące czaty pozostały nietknięte i dostępne. Wybranie opcji usunięcia wszystkich czatów wywołało wyraźny komunikat ostrzegawczy wymagający potwierdzenia. Ponieważ utrata danych opisana w Nature miała miejsce w sierpniu, OpenAI mogło od tego czasu wprowadzić poprawki do interfejsu użytkownika i mechanizmów bezpieczeństwa, aby zapobiec przypadkowemu usunięciu.







