Deepfake to technologia wykorzystująca sztuczną inteligencję (AI) do tworzenia fałszywych, ale realistycznych filmów, na których bohaterowie robią rzeczy, których nigdy nie robili w prawdziwym życiu. Technika, która umożliwia montaże wideo, została już zastosowana w licznych fałszywych treści wizualnych z celebrytami, a nawet w fikcyjnych przemówieniach wpływowych polityków. Obecnie krążą debaty na temat etyki i konsekwencji technologii, która powoli znajduje zastosowanie w takich witrynach, jak na przykład kasyno online, na dobre lub na złe.
Czym jest deepfake?
Termin deepfake pojawił się w grudniu 2017 r., kiedy użytkownik Reddita o tej nazwie zaczął publikować fałszywe filmy z celebrytami. Za pomocą opracowanego przez siebie oprogramowania do głębokiego uczenia się dodawał twarze znanych osób do istniejących klipów. Najpopularniejszymi przypadkami były przypadki aktorek Gal Gadot i Emmy Watson. Wyrażenie deepfake wkrótce zaczęło być używane do oznaczania różnych filmów edytowanych za pomocą uczenia maszynowego i innych możliwości sztucznej inteligencji.
Specjalne efekty komputerowe, które tworzą twarze i sceny w audiowizualnym filmie, nie są niczym nowym; kino robi to od wielu lat. Spójrzmy dla przykładu na film Irlandczyk z Robertem de Niro w roli głównej. Wielką zaletą tak zwanego deepfake jest łatwość, z jaką można tę metodę zastosować. W porównaniu z tym, co kiedyś było konieczne, obecna metoda jest prosta i niedroga. Każdy, kto ma dostęp do algorytmów głębokiego uczenia i wiedzy, dobrego procesora graficznego i szerokiej gamy obrazów, może stworzyć przekonujące fałszywe wideo.
Jak powstają deepfake?
Wykorzystywane jest oprogramowanie oparte na bibliotekach open source ukierunkowane na uczenie maszynowe. Według wywiadu z Motherboard wspomniany użytkownik Reddita używał TensorFlow w połączeniu z Keras, API głębokiego uczenia napisanym w języku Python. Programista dostarcza setki, a nawet tysiące zdjęć i filmów zaangażowanych osób, które są automatycznie przetwarzane przez sieć neuronową. To jak trening, podczas którego komputer uczy się, jak wygląda twarz, jak się porusza, jak reaguje na światło i cienie.
Ten „trening” odbywa się następnie w porównaniu z twarzą z oryginalnego filmu i z nową twarzą, dopóki program nie będzie w stanie znaleźć wspólnego punktu między dwiema twarzami i „zszyć” jedną nad drugą. Procedura obejmuje rodzaj sztuczki, w której oprogramowanie robi zdjęcie osoby A i przetwarza je tak, jakby była to osoba B.
Deepfake jest bardzo nową technologią, a jego definicja jest płynna. Zjawisko mylone jest w publicznej dyskusji z technologiami o podobnych lub uzupełniających się funkcjach. Istnieje na przykład program zapowiedziany przez Adobe, który potrafi tworzyć mowę głosem osoby na podstawie prawdziwych próbek. Istnieją również eksperymenty z rekonstrukcją twarzy, z odtworzeniem tych samych linii i mimiki osoby na twarzy innej osoby, a także synchronizacja ust w wideo mówiącej osoby z dźwiękiem i mimiką jej twarzy.
Inne fałszywe filmy stworzone za pomocą sztucznej inteligencji, które zyskały rozgłos, pokazują byłego prezydenta USA Obamę. W jednym z nich określa on obecnego prezydenta USA Donalda Trumpa obraźliwymi epitetami. W innym wygłasza przemówienia, które istniały tylko w formie audio lub pisemnej.
Ryzyko i konsekwencje deepfake
Zazwyczaj filmy tego typu nie są doskonałe, ale są wystarczająco realistyczne, aby oszukać wiele osób. Złe zamiary nie są częścią koncepcji deepfake, ale są oczywiście jedną z opcji. Manipulacja wizerunkami i głosami polityków jest pokazana jako ostrzeżenie. Dzięki takim dostępnym narzędziom łatwiej jest rozpowszechniać fałszywe informacje zgodnie z własnym interesem, popartym rzekomymi dowodami wideo. Może to stanowić zagrożenie dla demokracji i społeczeństwa, w tym zagrażać wiarygodności wszystkiego, co się publikuje.
W przypadku fikcyjnych filmów uwzględniono również złożone kwestie etyczne i prawne o bardziej indywidualnym charakterze. Wprowadzające w błąd nagrania mogą zaszkodzić życiu człowieka, czy to sławnego, czy anonimowego i na razie nie wiadomo na pewno, co ustawodawstwo może z tym zrobić. Udostępnione filmy nie są prawdziwe; jest to twarz jednego człowieka nałożona na ciało drugiego. Jeśli jednak obrazy zdają się uchodzić za prawdziwe i nie ma na to zgody danej osoby, jak sobie z tym poradzić?
Niektórzy już zadają pytania o możliwą trywializację tego terminu, podobnie jak w przypadku wyrażenia fake news. Problem polega na tym, że słowo deepfake będzie używane zbyt luźno i przypadkowo i stanie się wszechobecne, silniejsze niż rzeczywisty wpływ technologii. W ten sposób ludzie o złych intencjach mogą to wykorzystać do poddania w wątpliwość prawdziwych dowodów, które im się nie podobają.
Korzystne zastosowania technologii deepfake
W świecie deepfake panuje nie tylko pesymizm. Istnieją przykłady pozytywnego wykorzystania algorytmów uczenia maszynowego, które ożywiły nowe zjawisko. Zasadą technologii jest rozpoznawanie i rekonstrukcja twarzy, co wskazuje na ogromny potencjał. W rzeczywistości podobne funkcje są już wykorzystywane w zasobach obecnych w codziennym życiu internautów:
- Animojis firmy Apple i emoji AR firmy Samsung mapują twarze osób i odtwarzają ich mimikę w czasie rzeczywistym na wirtualnych lalkach.
- W Instagram Stories i Snapchacie różne filtry wykrywają i przekształcają twarze użytkowników. Istnieje nawet filtr zamiany twarzy między osobami na zdjęciu.
- Kino i cała branża audiowizualna mogą również skorzystać na prostszej metodzie wykonywania efektów specjalnych z twarzami, zwłaszcza dla niezależnych producentów treści o niskich budżetach. Gwiazdy i wpływowi cyfrowi aktorzy mogliby sprzedawać swoje zdjęcia reklamodawcom bez konieczności brania udziału w filmowaniu.
Jednak w rozmowie z Mashable dyrektor MultiComp Lab, części Carnegie Mellon University, powiedział, że ta technologia może mieć ważne zastosowania poza rozrywką. Zdaniem badacza, jeśli zostanie opracowane z jakością wystarczającą do działania w czasie rzeczywistym, oprogramowanie może służyć do prowadzenia terapii w formie wideokonferencji — przydatnej dla osób, które nie czują się komfortowo z pokazywaniem twarzy lub przeprowadzać rozmowy kwalifikacyjne bez uprzedzeń związanych z płcią czy rasą.