Notebookcheck Logo

Aktor podkładający głos pod Master Chiefa, Steve Downes, mówi, że klonowanie głosu AI przekracza granicę i chce, aby to się skończyło

Zrzut ekranu głównego bohatera Halo, Master Chiefa (źródło obrazu r/halo)
Zrzut ekranu głównego bohatera Halo, Master Chiefa (źródło obrazu r/halo)
Steve Downes, aktor podkładający głos w grze Halo Master Chief, publicznie potępił generowane przez sztuczną inteligencję klony swojego występu, argumentując, że nieautoryzowane imitacje oszukują fanów i zagrażają utrzymaniu aktorów. Uznając szersze korzyści płynące ze sztucznej inteligencji, Downes ostrzega, że hiperrealistyczne reprodukcje głosu przekraczają granicę etyczną i wzywa do zaprzestania takiego wykorzystywania jego głosu.
AI Gaming

Steve Downes, głos legendarnego bohatera serii Halo , Master Chiefa, wystąpił niedawno i powiedział, że czuje się niekomfortowo z licznymi reprodukcjami jego głosu przez sztuczną inteligencję, stwierdzając, że "przekraczają one granicę, która wkracza w obszar, z którym czuję się niekomfortowo" Oczywiście, podobnie jak w przypadku większości VA, których praca jest zasadniczo powielana bez wynagrodzenia, chce, aby to się skończyło.

Swoje obawy wyraził w niedawnym AMA na swoim kanale YouTube. Podczas gdy Downes potwierdził korzyści płynące ze sztucznej inteligencji i jej nieuniknione zalety, skrytykował nieautoryzowane wykorzystanie jego głosu, które wprowadza fanów w błąd, myśląc, że słyszą linie, które sam nagrał.

W AMA wyjaśnił:

Jedną z rzeczy, która może być przytłaczająca, jeśli chodzi o uwagę fanów, jest to, kiedy AI się angażuje. Przypuszczam, że wiele z nich jest nieszkodliwych, ale niektóre z nich nie mogą być nieszkodliwe. Bardzo głośno mówiłem o moich odczuciach na temat wykorzystania sztucznej inteligencji, która z jednej strony jest nieunikniona i ma wiele pozytywnych skutków nie tylko dla show-biznesu, ale ogólnie dla ludzkości, ale może być również szkodliwa. Może też być czymś, co pozbawia aktora jego pracy.

Downes kontynuował:

Słyszałem kilka rzeczy w Internecie, jeśli chodzi o sztuczną inteligencję i reprodukcję mojego głosu, który brzmi jak mój głos, który... tak jak powiedziałem, większość rzeczy, które widziałem, jest całkiem nieszkodliwa, ale nie może być tak naprawdę szybko. Więc nie jestem zwolennikiem. Nie podoba mi się to. Wolałbym, żeby tego nie robiono. Jest wiele fanowskich projektów, które są naprawdę fajne, robione z potrzeby serca. Ale kiedy dochodzisz do części AI i oszukujesz kogoś, by myślał, w moim przypadku, że są to linie, które faktycznie wypowiedziałem, kiedy tak nie jest, to wtedy przekraczamy granicę, która wkracza w obszar, z którym nie czuję się komfortowo. Proszę się z tym zgodzić.

Deepfakes i naśladownictwo głosu są coraz powszechniejsze i w ostatnich latach stały się niemal nie do odróżnienia. Klonowanie głosu AI przekroczyło "próg nie do odróżnienia" Liczni analitycy i eksperci przewidują, że w 2026 r. nastąpi boom na fałszywe głosy generowane przez sztuczną inteligencję, co zwiększy ryzyko oszustw. To już rzeczywistość, ponieważ niczego niepodejrzewający ludzie są codziennie narażeni na 1000 generowanych przez sztuczną inteligencję połączeń.

Kup Halo Infinite na Amazon tutaj

Please share our article, every link counts!
Mail Logo
> laptopy testy i recenzje notebooki > Nowinki > Archiwum v2 > Archiwum 2026 01 > Aktor podkładający głos pod Master Chiefa, Steve Downes, mówi, że klonowanie głosu AI przekracza granicę i chce, aby to się skończyło
Rahim Amir Noorali, 2026-01-25 (Update: 2026-01-25)