Google rozpoczęło wdrażanie trzeciej generacji swojego modelu Gemini AI w listopadzie, mając na celu zapoczątkowanie "nowej ery AI" dzięki trybowi Deep Thin. Gemini 3 Pro jest już uważany za jeden z najbardziej zaawansowanych dostępnych modeli, przewyższając nawet GPT-5 w niektórych testach porównawczych. Jednak jego bezpieczeństwo nadal budzi obawy. Raport południowokoreańskiego start-upu Aim Intelligence, który specjalizuje się w bezpieczeństwie sztucznej inteligencji, sugeruje, że wciąż istnieje znaczne pole do poprawy.
W ramach wewnętrznego eksperymentu Aim Intelligence próbował "jailbreakować" model - omijając jego wytyczne dotyczące bezpieczeństwa i etyki. Według południowokoreańskiej gazety Maeil Business Newspaperwyniki były bardzo niepokojące. W raporcie stwierdzono, że Gemini 3 Pro wygenerował dokładne i praktyczne instrukcje dotyczące produkcji wirusa ospy prawdziwej, potencjalnej broni biologicznej, a także szczegółowe wytyczne dotyczące konstruowania domowych materiałów wybuchowych. W dalszych testach sztuczna inteligencja wygenerowała satyryczną prezentację zatytułowaną Excused Stupid Gemini 3, nieumyślnie podkreślając własne luki w zabezpieczeniach.
Należy zauważyć, że nie udostępniono pełnego zestawu danych ani szczegółowej dokumentacji. Aim Intelligence nie opublikowało artykułu naukowego ani raportu technicznego i nie ma przejrzystych informacji na temat zastosowanych podpowiedzi, struktury eksperymentu ani tego, czy wyniki są powtarzalne. Jak dotąd wszystkie raporty opierają się wyłącznie na wspomnianym wcześniej artykule koreańskich mediów. W oparciu o te ograniczone informacje niemożliwe jest wyciągnięcie ostatecznych wniosków na temat tego, jak bezpieczny jest Gemini 3 Pro.
Wydajność sztucznej inteligencji szybko rośnie, ale środki bezpieczeństwa często mają trudności z dotrzymaniem kroku. Niedawne badanie wykazało nawet, że modelami sztucznej inteligencji można manipulować za pomocą wierszy. W innym przypadku, napędzany sztuczną inteligencją miś dla małych dzieci - zbudowany na GPT-4o firmy OpenAI - odpowiadał na niestosowne pytania seksualne. Nawet w grach wideo, sztuczna inteligencja w grze nadal można łatwo oszukać. Przykłady te podkreślają kluczową kwestię: Systemy sztucznej inteligencji nie tylko muszą stać się inteligentniejsze - muszą również stać się bezpieczniejsze, zanim będzie można im powszechnie zaufać i wdrożyć.
Źródło(a)
Źródło obrazu: Google








