Deepfake

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Deepfake (zbitka wyrazowa od ang.: deep learning, głębokie uczenie, oraz fake, fałszywy[1]) – technika obróbki obrazu, polegająca na łączeniu obrazów twarzy ludzkich przy użyciu technik sztucznej inteligencji[1][2].

Technika stosowana jest do łączenia i nakładania obrazów nieruchomych i ruchomych na obrazy lub filmy źródłowe przy użyciu komputerowych systemów uczących się. Uzyskane w ten sposób łudząco realistyczne ruchome obrazy stosowane są w nagraniach filmowych, stwarzając możliwości manipulacji poprzez np. niemożliwą do odróżnienia przez widza zamianę twarzy aktorów występujących w filmie. Może to prowadzić do skompromitowania osoby poprzez fałszywe „obsadzenie jej” np. w roli w filmie pornograficznym[1][2]. Jednym z zagrożeń fałszywymi informacjami jest możliwość wpłynięcia na wyniki wyborów[3].

Pojęcie deepfake pojawiło się po raz pierwszy w końcu 2017, a nazwę zaczerpnięto od pseudonimu użytkownika, który opublikował kilka filmów porno zrealizowanych przy użyciu algorytmu uczenia maszynowego z wykorzystaniem wizerunków m.in. Gal Gadot, Maisie Williams i Taylor Swift[4].

Przykłady[edytuj | edytuj kod]

  • film z twarzą Kita Haringtona, w którym grany przez niego Jon Snow przeprasza za zakończenie serialu „Gra o tron[5]
  • wideoklipy, w których twarz Nicholasa Cage’a została nałożona na słynne sceny z filmów (początek 2018)[5]
  • nagranie przedstawiające Baracka Obamę, wypowiadającego ostrzeżenia (których w rzeczywistości nigdy nie powiedział) przed zagrożeniami, jakie niesie nieetyczne zastosowanie technologii cyfrowych (kwiecień 2018)[5]
  • nagranie z twarzą Marka Zuckerberga, ostrzegającego przed zagrożeniami, jakie niosą cyfrowe technologie (czerwiec 2019)[5]
  • udostępnienie kontrowersyjnej aplikacji internetowej DeepNude pozwalającej na tworzenie naturalistycznych obrazów nagich kobiet za pomocą przesłanych do aplikacji zdjęć prawdziwych osób (czerwiec 2019)[5]

Obrona przed deepfake[edytuj | edytuj kod]

  • Uciekanie od sposobów działania podobnych do znanych metod między innymi wyłudzania pieniędzy "na wnuczka" czy "na policjanta". Zmiana schematów komunikacyjnych nie opierających się na poleceniach głosowych, rozmowach telefonicznych czy rozmowach wideo na na przykład wiadomości SMS lub wiadomości e-mail[6].
  • Szkolenie kadry pod kątem zabezpieczeń i cyberprzestępczości. Uświadamianie o tym, czym jest deepfake oraz jak jemu przeciwdziałać
  • Wspomaganie i rozwój systemów bezpieczeństwa w środowiskach teleinformatycznych.

Zobacz też[edytuj | edytuj kod]

Przypisy[edytuj | edytuj kod]

  1. a b c John Brandon, Terrifying high-tech porn: Creepy ‘deepfake’ videos are on the rise, Fox News, 16 lutego 2018 [dostęp 2019-08-14] (ang.).
  2. a b Publikacja w otwartym dostępie – możesz ją bezpłatnie przeczytać Oscar Schwartz, You thought fake news was bad? Deep fakes are where truth goes to die, „The Guardian”, 12 listopada 2018, ISSN 0261-3077 [dostęp 2019-08-14] (ang.).
  3. Rafał Tomański, Facebook walczy z fake newsami przed wyborami w Azji, Business Insider, 23 stycznia 2019 [dostęp 2019-08-16] (pol.).
  4. Jason Koebler, Samantha Cole, We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now, Vice, 24 stycznia 2018 [dostęp 2019-08-14] (ang.).
  5. a b c d e Lisa Eadicicco, 08:42 14 Lip, 133 458, Niebezpieczny internetowy trend może przyczynić się do zniszczenia twojej reputacji. Nikt nie wie, co z nim zrobić, Business Insider, 14 lipca 2019 [dostęp 2019-08-16] (pol.).
  6. Biznes w czasach deepfake, MIT Sloan Management Review Polska, 13 września 2019 [dostęp 2019-09-25] (pol.).