Notebookcheck Logo

Gemini 3 Pro wyjaśnia, jak wytwarzać broń biologiczną i materiały wybuchowe - eksperyment ujawnia lukę w zabezpieczeniach

Aim Intelligence powiedział, że był w stanie skłonić Gemini 3 Pro do wygenerowania instrukcji dotyczących broni biologicznej i materiałów wybuchowych. (Źródło obrazu: Google)
Aim Intelligence powiedział, że był w stanie skłonić Gemini 3 Pro do wygenerowania instrukcji dotyczących broni biologicznej i materiałów wybuchowych. (Źródło obrazu: Google)
Gemini 3 Pro jest jednym z najbardziej wydajnych modeli sztucznej inteligencji swojej generacji, ale raport południowokoreańskiego start-upu Aim Intelligence rodzi pytania o jego bezpieczeństwo. Podczas wewnętrznego testu model ten podobno wygenerował wskazówki dotyczące produkcji broni biologicznej i materiałów wybuchowych, co wywołało poważne obawy.
AI Fail

Google rozpoczęło wdrażanie trzeciej generacji swojego modelu Gemini AI w listopadzie, mając na celu zapoczątkowanie "nowej ery AI" dzięki trybowi Deep Thin. Gemini 3 Pro jest już uważany za jeden z najbardziej zaawansowanych dostępnych modeli, przewyższając nawet GPT-5 w niektórych testach porównawczych. Jednak jego bezpieczeństwo nadal budzi obawy. Raport południowokoreańskiego start-upu Aim Intelligence, który specjalizuje się w bezpieczeństwie sztucznej inteligencji, sugeruje, że wciąż istnieje znaczne pole do poprawy.

W ramach wewnętrznego eksperymentu Aim Intelligence próbował "jailbreakować" model - omijając jego wytyczne dotyczące bezpieczeństwa i etyki. Według południowokoreańskiej gazety Maeil Business Newspaperwyniki były bardzo niepokojące. W raporcie stwierdzono, że Gemini 3 Pro wygenerował dokładne i praktyczne instrukcje dotyczące produkcji wirusa ospy prawdziwej, potencjalnej broni biologicznej, a także szczegółowe wytyczne dotyczące konstruowania domowych materiałów wybuchowych. W dalszych testach sztuczna inteligencja wygenerowała satyryczną prezentację zatytułowaną Excused Stupid Gemini 3, nieumyślnie podkreślając własne luki w zabezpieczeniach.

Należy zauważyć, że nie udostępniono pełnego zestawu danych ani szczegółowej dokumentacji. Aim Intelligence nie opublikowało artykułu naukowego ani raportu technicznego i nie ma przejrzystych informacji na temat zastosowanych podpowiedzi, struktury eksperymentu ani tego, czy wyniki są powtarzalne. Jak dotąd wszystkie raporty opierają się wyłącznie na wspomnianym wcześniej artykule koreańskich mediów. W oparciu o te ograniczone informacje niemożliwe jest wyciągnięcie ostatecznych wniosków na temat tego, jak bezpieczny jest Gemini 3 Pro.

Wydajność sztucznej inteligencji szybko rośnie, ale środki bezpieczeństwa często mają trudności z dotrzymaniem kroku. Niedawne badanie wykazało nawet, że modelami sztucznej inteligencji można manipulować za pomocą wierszy. W innym przypadku, napędzany sztuczną inteligencją miś dla małych dzieci - zbudowany na GPT-4o firmy OpenAI - odpowiadał na niestosowne pytania seksualne. Nawet w grach wideo, sztuczna inteligencja w grze nadal można łatwo oszukać. Przykłady te podkreślają kluczową kwestię: Systemy sztucznej inteligencji nie tylko muszą stać się inteligentniejsze - muszą również stać się bezpieczniejsze, zanim będzie można im powszechnie zaufać i wdrożyć.

Źródło(a)

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2025 12 > Gemini 3 Pro wyjaśnia, jak wytwarzać broń biologiczną i materiały wybuchowe - eksperyment ujawnia lukę w zabezpieczeniach
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)