Notebookcheck Logo

Eksperyment "Nano Banana Pro": Narzędzia do wykrywania AI okazują się bezużyteczne

Kobieta trzymająca banana 3 - To zdjęcie oszukuje wszystkich (Źródło: Nano Banana Pro - przetworzone w programie CyberLink PhotoDirector)
Kobieta trzymająca banana 3 - To zdjęcie oszukuje wszystkich (Źródło: Nano Banana Pro - przetworzone w programie CyberLink PhotoDirector)
Czy oprogramowanie może uchronić nas przed podróbkami? Przetestowaliśmy sześć narzędzi wykrywających za pomocą obrazu "Nano Banana Pro". Wyniki pokazują, że obecna technologia jest łatwa do przechytrzenia. Proste zmiany przy użyciu standardowego oprogramowania wystarczyły, aby obniżyć współczynnik wykrywalności prawie do zera.
AI Fail Cyberlaw

Przypadek Melissy Sims pokazał, jak niebezpieczne mogą być niekontrolowane treści AI w systemie prawnym. Branża obiecuje remedium w postaci tak zwanych "detektorów AI", oprogramowania przeznaczonego do korzystania ze złożonych algorytmów w celu rozpoznania, czy obraz pochodzi od człowieka czy maszyny. Jednak niezawodność tych cyfrowych strażników pozostaje wątpliwa w obliczu celowego oszustwa. Eksperyment z sześcioma najpopularniejszymi obecnie usługami wykrywania poddał to próbie.

Obraz testowy: Surrealistyczne wyzwanie

Aby rzucić wyzwanie narzędziom wykrywającym, wykorzystaliśmy oparty na Google Gemini generator obrazu "Nano Banana Pro" Wybrany monit był celowo prosty, ale nieco kapryśny: "Kobieta w bojowej pozie trzymająca banana na tle nieba. W tle typowy miejski krajobraz z niezainteresowanymi ludźmi"

Pierwszą poważną przeszkodą dla oprogramowania do automatycznego wykrywania bananów był jednak konkretny model. Ponieważ Nano Banana Pro jest stosunkowo nowy na rynku, stanowi martwy punkt dla wielu detektorów.

Usługi te często opierają się na uczeniu maszynowym i są specjalnie przeszkolone do identyfikowania unikalnych sygnatur lub "odcisków palców" uznanych gigantów, takich jak Midjourney, DALL-E 3, Stable Diffusion lub Flux. W związku z tym świeży model, taki jak Nano Banana Pro, ma wyraźną przewagę, ponieważ jego specyficzne wzorce generowania nie są jeszcze częścią danych szkoleniowych detektorów, co pozwala mu łatwiej prześlizgnąć się przez szczeliny.

Kobieta trzymająca banana, oryginał z Nano Banana Pro
Kobieta trzymająca banana, oryginał z Nano Banana Pro

Runda 1: Porażka pomimo znaków wodnych

Na pierwszym etapie detektory stanęły przed łatwym zadaniem. Oryginalny PNG został po prostu przekonwertowany do formatu JPG, a jego metadane zostały wyeliminowane. Co najważniejsze, obraz nadal zawierał wyraźnie widoczny znak wodny Gemini.

Można by przypuszczać, że widoczny branding AI byłby łatwym łupem dla oprogramowania wykrywającego. Wynik był jednak otrzeźwiający: nawet w tym surowym stanie dwa z sześciu testowanych narzędzi zawiodły. Pomimo oczywistego znaku wodnego, sklasyfikowały one prawdopodobieństwo, że obraz został wygenerowany przez sztuczną inteligencję jako niskie.

Źródło: https://app.illuminarty.ai/
Źródło: https://app.illuminarty.ai/
Źródło: https://decopy.ai/de/ai-image-detector/
Źródło: https://decopy.ai/de/ai-image-detector/

Runda 2: Cyfrowa gumka

Quelle: https://app.illuminarty.ai/
Quelle: https://app.illuminarty.ai/
Quelle: https://mydetector.ai/de/ai-image-detector/
Quelle: https://mydetector.ai/de/ai-image-detector/

W drugim kroku zbliżyliśmy się do realistycznego scenariusza fałszerstwa. Identyfikujący znak wodny musiał zniknąć. W ciągu zaledwie kilku sekund wbudowana gumka AI w domyślnej aplikacji Zdjęcia systemu Windows zakończyła pracę bez żadnych problemów.

Wpływ tej drobnej edycji był natychmiastowy. Kolejne narzędzie zostało oszukane, klasyfikując teraz prawdopodobieństwo AI jako niskie. Co ciekawe jednak, Illuminarty faktycznie zwiększyło swoją ocenę prawdopodobieństwa dla obrazu wygenerowanego przez sztuczną inteligencję po edycji. Niemniej jednak trzy z sześciu narzędzi do wykrywania sztucznej inteligencji przypisały prawdopodobieństwo mniejsze niż 30%, że kobieta z bananem była dziełem sztucznej inteligencji.

Runda 3: Doskonałość niedoskonałości

Ostatni krok był decydujący. Obrazy AI są często "zbyt gładkie" i zbyt doskonałe pod względem braku szumów. Aby ostatecznie wprowadzić detektory w błąd, obraz potrzebował sztucznej "rzeczywistości", czyli typowych błędów fotografii cyfrowej. Za pomocą programu Cyberlink PhotoDirector obraz został poddany obróbce końcowej. Dodano niewielką korektę obiektywu, sztuczną aberrację chromatyczną tworzącą kolorowe obwódki na krawędziach, zwiększono kontrast i, co najważniejsze, nałożono realistyczny szum na scenerię. Celem było sprawienie, by obraz wyglądał jak nakręcony prawdziwą, niedoskonałą kamerą. Wszystko to zostało wykonane w ciągu kilku minut.

Oryginalny i przetworzony obraz w porównaniu

Wynikiem tej trzeciej rundy była całkowita porażka technologii wykrywania. Po przejściu obrazu przez standardowe przetwarzanie końcowe, wszystkie sześć testowanych usług poddało się. Żadne z narzędzi nie wskazało prawdopodobieństwa AI większego niż 5 procent. Dla oprogramowania kobieta uderzająca w banana była teraz bez wątpienia prawdziwym zdjęciem.

Źródło: https://copyleaks.com/de/ai-image-detector
Źródło: https://copyleaks.com/de/ai-image-detector
Źródło: https://app.illuminarty.ai/
Źródło: https://isgen.ai/de/KI-Bilddetektor
Źródło: https://app.gowinston.ai/image-detection
Źródło: https://decopy.ai/de/ai-image-detector/
Źródło: https://mydetector.ai/de/ai-image-detector/

Werdykt: Niebezpieczne poczucie bezpieczeństwa

Nasz eksperyment wyraźnie pokazuje, że obecne rozwiązania techniczne w zakresie wykrywania sztucznej inteligencji są wciąż w powijakach. Jeśli wystarczy kilka minut i standardowe oprogramowanie do edycji zdjęć, aby obniżyć wskaźnik wykrywalności z "bardzo prawdopodobnego" do "poniżej 5 procent", narzędzia te są obecnie nie tylko bezużyteczne dla sądów, redakcji prasowych lub organów ścigania - są niebezpieczne. Tworzą one fałszywe poczucie bezpieczeństwa, które po prostu nie istnieje. Zasada "ufaj, ale weryfikuj" działa tylko wtedy, gdy weryfikatorzy nie są ślepi.

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2026 01 > Eksperyment "Nano Banana Pro": Narzędzia do wykrywania AI okazują się bezużyteczne
Marc Herter, 2026-01-12 (Update: 2026-01-12)