Prezydent Stanów Zjednoczonych Donald Trump podpisał nową ustawę, która zabrania udostępniania w Internecie zdjęć bez zgody i o charakterze seksualnym. Prawo obejmuje zarówno Deepfakes generowane przez sztuczną inteligencję, jak i prawdziwe zdjęcia.
Ustawa Take It Down Act (za pośrednictwem Engadget) kryminalizuje "świadome publikowanie" lub grożenie publikowaniem fałszywych zdjęć prawdziwych ludzi w jednoznacznych sytuacjach online. Nakazuje ona platformom mediów społecznościowych usunięcie obraźliwych materiałów w ciągu 48 godzin od powiadomienia przez ofiarę.
Według Surfshark, incydenty Deepfake zaczęły już rosnąć w 2025 roku. Z raportu wynika, że tylko w pierwszym kwartale 2025 r. odnotowano blisko 180 zgłoszonych incydentów Deepfake, przekraczając łączną liczbę wszystkich przypadków w 2024 r. o 19%.
Spośród 179 zgłoszeń w pierwszym kwartale, 53 dotyczyły wyraźnych incydentów, podczas gdy oszustwa internetowe stanowiły 48. Incydenty polityczne wzrosły do 40, a 38 różnych raportów dopełniło sumę.
Nowe prawo wprowadzi obowiązek dla wszystkich platform internetowych do stworzenia systemu usuwania zdjęć na żądanie. Electronic Frontier Foundation (EFF), organizacja non-profit zajmująca się ochroną wolności osobistych w Internecie, stwierdziła, że ustawa ma "poważne wady"
EFF stwierdziła, że nowe prawo "nie posiada krytycznych zabezpieczeń przed niepoważnymi lub złożonymi w złej wierze żądaniami usunięcia" Fundacja stwierdziła, że większość usług będzie "polegać na automatycznych filtrach", a żądania mogą być wykorzystywane do "oznaczania legalnych treści, od komentarzy dozwolonego użytku po raporty informacyjne"
Krótkie, 48-godzinne okno czasowe utrudnia również mniejszym platformom "sprawdzenie, czy mowa jest rzeczywiście nielegalna" i argumentowała, że w obecnej formie ustawa zmusza platformy "do aktywnego monitorowania mowy, w tym mowy, która jest obecnie zaszyfrowana"