Choć w debacie publicznej mówi się głównie o deepfejkach politycznych, w praktyce około 98 proc. treści tego typu stanowi deepfejk porn – mówi Aleksandra Wójtowicz, analityczka Polskiego Instytutu Spraw Międzynarodowych.
Czym są deepfejki i dlaczego znajdują się one w centrum zainteresowania polityków?
Aleksandra Wójtowicz: Deepfejk to wygenerowane lub zmanipulowane obrazy, nagrania dźwiękowe lub wideo, które bardzo wiernie imitują rzeczywistość – osoby, przedmioty czy miejsca – i które odbiorca może niesłusznie uznać za autentyczne. Tak podaje AI Act i takiej definicji najczęściej używa się w Unii Europejskiej.
Możesz podać przykład?
– Dobrym przykładem jest znane zdjęcie Donalda Trumpa uciekającego przed policją – wyglądało wiarygodnie, a więc łatwo było uwierzyć, iż to prawda.
Deepfejki to nie tylko polityka, ale też życie prywatne zwykłych osób, dlatego tak groźne jest pochodne zjawisko, czyli pornograficzne deepfejki. To treści pornograficzne tworzone narzędziami generatywnej sztucznej inteligencji. W tym wypadku modele generatywne są zasilane nagraniami czy zdjęciami prawdziwej osoby, a następnie tworzą jej bardzo realistyczny wizerunek w ruchu.

WIĘŹ – łączymy w czasach chaosu
Więź.pl to pogłębiona publicystyka, oryginalne śledztwa dziennikarskie i nieoczywiste podcasty – wszystko za darmo! Tu znajdziesz lifestyle myślący, przestrzeń dialogu, personalistyczną wrażliwość i opcję na rzecz skrzywdzonych.
Czytam – WIĘŹ jestem. Czytam – więc wspieram
Czyli najważniejsze są dwa elementy: generowanie treści oraz możliwość wprowadzenia odbiorcy w błąd?
– Owszem. Nie wszystko, co jest wygenerowane, uznamy za deepfejk. jeżeli ktoś stworzy animację kangura w czapce Mikołaja, jest to fantazja, a nie manipulacja. Deepfejk zakłada, iż ktoś może wziąć treść za prawdziwą. I tu pojawia się problem: jak mierzyć to, czy odbiorca „uwierzy”? Przecież osoby bardziej odporne cyfrowo rozpoznają manipulację, ale inni mogą paść ofiarą fałszu.
Jak zatem wygląda kwestia regulacji? Czy wszystkie systemy prawne ujmują deepfejki w ten sam sposób?
– Nie. Nowe duńskie prawo autorskie, które jest właśnie procedowane i powinno zostać niedługo uchwalone, definiuje je nieco inaczej niż inne kraje europejskie. Skupia się na tym, iż nie można używać cudzej własności intelektualnej do tworzenia treści generatywnych. To nieco inne podejście niż w AI Act, który patrzy przede wszystkim na ryzyko dezinformacji i wprowadzania ludzi w błąd. Co więcej, duńskie prawo zakłada ochronę nie tylko twórców, ale i zwykłych obywateli. To rzeczywiście dość nowatorskie podejście. Uznaje się za własność intelektualną cechy dystynktywne dla danej osoby – głos, ciało, charakterystyczne rysy. Zgodnie z regulacją nie można generować obrazów czy nagrań wyglądających jak konkretna osoba bez jej zgody.
Co istotne, ustawa nie przewiduje jeszcze bezpośrednich sankcji karnych. Osoba, której prawa zostały naruszone, może natomiast domagać się natychmiastowego usunięcia treści, a jeżeli platforma tego nie zrobi, grożą jej potencjalnie kary na podstawie DSA – europejskim Akcie o usługach cyfrowych. Dodatkowo poszkodowani mają prawo żądać kompensacji. Choć nie zostało jeszcze sprecyzowane, czym dokładnie ona będzie. W efekcie zmienia się też sama definicja deepfejków. Chodzi już nie tylko o imitowanie rzeczywistości, ale o naruszenie prawa do czyjejś tożsamości.
Czyli duńskie rozwiązanie można uznać za nowatorskie i przełomowe?
– Tak. Oczywiście prawo od dawna uznaje, iż każdy ma prawo do swojego wizerunku czy ciała. Natomiast sposób, w jaki zapisano to w duńskim Copyright Act, jest innowacyjny.
Jak wygląda sytuacja w innych krajach? Czy gdzieś pojawiają się podobne inspiracje?
– Na razie takich rozwiązań jest niewiele. Większość regulacji dotyczy zjawiska deepfejk porn – i to nie przypadek. Choć w debacie publicznej mówi się głównie o deepfejkach politycznych, to w praktyce około 98 proc. treści tego typu stanowi właśnie deepfejk porn.

- Adam Strzembosz
- Stanisław Zakroczymski
Między prawem i sprawiedliwością
TWARDA OPRAWA, OUTLET
Ciekawym przykładem są Stany Zjednoczone. Tam generalnie obserwujemy wycofywanie się państwa z regulacji cyberprzestrzeni w obszarze dezinformacji czy moderacji treści, ale pojawił się Takedown Act, podpisany w maju 2025 roku przez Donalda Trumpa. Co ciekawe, twarzą tego projektu była Melania Trump – to ona promowała ustawę, występowała w Senacie, wspierała kampanię informacyjną.
Takedown Act zakłada, iż nie wolno publikować niekonsensualnych materiałów pornograficznych, w tym tych należących do deepfejk porn. W ramach tego rozwiązania platformy, rozumiane bardzo szeroko (nie tylko Big Tech, ale także mniejsze strony i aplikacje), muszą stworzyć mechanizmy szybkiego zgłaszania i usuwania takich treści. jeżeli tego nie zrobią, podlegają sankcjom.
Jak to wygląda w Unii Europejskiej?
– najważniejsze znaczenie mają dwie regulacje: wspomniane już AI Act i DSA. AI Act wymaga oznaczania treści generowanych przez sztuczną inteligencję, a DSA nakłada obowiązek ich usuwania, jeżeli są szkodliwe. Obie ustawy powstawały jeszcze zanim deepfejki stały się głośnym problemem, ale pośrednio wymuszają ich moderację przez platformy.
Podobnie działa Online Safety Act w Wielkiej Brytanii. To regulacja zbliżona do DSA: określa ryzyka systemowe i zobowiązuje platformy do reagowania na nie. W przypadku zaniedbań przewidziane są sankcje. Jednak – poza duńskim Copyright Act i amerykańskim Takedown Act – większość istniejących przepisów ma charakter ogólny i nie jest wymierzona bezpośrednio w deepfejki.
A czy Unia Europejska planuje wprowadzić rozwiązania podobne do duńskich?
– Na razie nie wprost. Dyskusja w UE toczy się głównie wokół implementacji AI Act – czyli jak i kiedy wdrożyć go w pełni. W tym kontekście pojawia się także temat deepfejków, ale większą uwagę skupia w tej chwili ochrona dzieci w internecie. Chodzi przede wszystkim o regulacje dotyczące CSAM (Child Sexual Abuse Material), czyli treści związanych z wykorzystywaniem seksualnym małoletnich. To obszar, w którym szczególnie aktywnie lobbuje Big Tech, optując za dostępem do prywatnych wiadomości użytkowników, który miałby jakoby zwiększyć bezpieczeństwo młodzieży w sieci. Rozwiązanie to jest jednak wątpliwe z wielu powodów.
W obszarze treści związanych z wykorzystywaniem seksualnym nieletnich szczególnie aktywnie lobbuje Big Tech, optując za dostępem do prywatnych wiadomości użytkowników, który miałby jakoby zwiększyć bezpieczeństwo dzieci w sieci. Rozwiązanie to jest jednak wątpliwe z wielu powodów
Aleksandra Wójtowicz
W Polsce temat deepfejków – zwłaszcza deep porn – również pojawia się w debacie publicznej, były choćby komisje sejmowe poświęcone temu zagadnieniu. Ale w praktyce priorytetem pozostaje wdrażanie już przyjętych regulacji, takich jak DSA.
Jak twoim zdaniem będzie wyglądała walka z deepfejkami w przyszłości?
– Widziałabym tu trzy wątki. Po pierwsze, trzeba rozróżnić deepfejki polityczne od pornograficznych i innych przypadków niekonsensualnego wykorzystania wizerunku. W przypadku pornografii istnieje szeroki konsensus – to jest jednoznacznie szkodliwe i powinno być karane. Dlatego też w USA udało się przyjąć Takedown Act z poparciem obu partii, co jest tam ogromną rzadkością.
Po drugie, deepfejki polityczne pozostają poważnym wyzwaniem. W tym obszarze regulacji jest tu na razie mniej rozwiązań, ale zakładam, iż będzie ich przybywać. Będzie też pojawiało się więcej inicjatyw edukacyjnych w tym zakresie.
Po trzecie, ludzie rzeczywiście uczą się coraz lepiej rozpoznawać fałszywe obrazy. Widać, iż użytkownicy „wyrabiają sobie oko”. Oczywiście technologia też się rozwija – generowane obrazy są coraz bardziej realistyczne, już rzadziej pojawiają się nienaturalne detale, jak dodatkowe palce czy zniekształcone twarze.
Przypomina mi się sytuacja ze spotkania liderów europejskich z Donaldem Trumpem, gdzie w sieci krążył deepfejk z Macronem, któremu „dodano” trzecią nogę. Mimo iż wyglądało to dość absurdalnie, film był szeroko udostępniany – także przez polityków i dziennikarzy. Odporność na takie treści wciąż jest niska?
– To prawda, ale akurat ten przypadek był słabym i mało wiarygodnym deepfejkiem. Faktycznie jednak stał się popularny, co potwierdza, iż paradoksalnie czasem właśnie te gorszej jakości materiały trafiają na podatny grunt.
Czyli im coś wygląda mniej wiarygodnie, tym więcej osób się na to nabiera?
– Bywa i tak. Dobrej jakości deepfejk potrafi być wręcz „za dobry”, aż nienaturalny. A gdy mamy wrażenie, iż materiał jest kręcony starą Nokią, łatwiej uwierzyć, iż to może być prawdziwe.
Moje podejście różni się od dominującej opinii. Uważam, iż deepfejki polityczne nie są aż tak dużym zagrożeniem, jak się je przedstawia. Owszem, ludzie w nie wierzą i je udostępniają, ale w mojej ocenie nie różni się to zasadniczo od rozpowszechniania innych treści dezinformacyjnych – choćby pisanych. Większość ekspertów sądzi inaczej, ja pozostaję w mniejszości.
Mam też wrażenie, iż przy deepfejkach szybciej odrobiliśmy lekcję niż w przypadku dezinformacji tekstowej. Już na początku zaczęto ostrzegać: „uważaj, obraz może być fałszywy”. To sprawiło, iż świadomość problemu jest stosunkowo wysoka.
Dodam przykład anegdotyczny. Pojawił się kiedyś bardzo słaby deepfejk ojca Rydzyka, w którym miał mówić, iż Nawrocki wygrał wybory, bo on to wymodlił, więc teraz trzeba mu zapłacić. Ten film krążył szeroko, choć wyglądał kiepsko. Wysłał mi go choćby członek mojej rodziny – zagorzały zwolennik strony demokratycznej. Odpisałam mu, iż to deepfejk. Na co on odpowiedział: „wiem, iż to fejk, ale mówiący prawdę”. To świetnie pokazuje, iż często mniej liczy się autentyczność materiału, a bardziej to, czy pasuje do naszych przekonań.
Dlatego deepfejki polityczne będą problemem i pewnie doczekają się regulacji, ale moim zdaniem ich wpływ nie będzie większy niż w przypadku innych form dezinformacji. Ich skala jest mniejsza niż np. deepfejków pornograficznych, a w społeczeństwie istnieje już całkiem silna świadomość tego zagrożenia. Z drugiej strony, przede wszystkim potrzebujemy zdecydowanej odpowiedzi na zagrożenie, jakim są deepfejki pornograficzne.
Aleksandra Wójtowicz – analityczka ds. nowych technologii i cyfryzacji w Polskim Instytucie Spraw Międzynarodowych. Jej zainteresowania badawcze obejmują cyfrowe regulacje, cyberbezpieczeństwo i dezinformację. Stypendystka Europejskiego Forum Alpbach, Transatlantic Security Initiative IRI i Humanity in Action. Wcześniej związana m.in. z NASK, WiseEuropa, Polityką Insight czy ECFR. Absolwentka Uniwersytetu Warszawskiego, studiowała też na George Mason University w Waszyngtonie i na Uniwersytecie Karola w Pradze.
Przeczytaj też: Sztuczne nie-inteligencje. Skutki antropomorfizacji maszyn