NOVINKA - Online rekvalifikační kurz Java programátor. Oblíbená a studenty ověřená rekvalifikace - nyní i online.
NOVINKA – Víkendový online kurz Software tester, který tě posune dál. Zjisti, jak na to!

Deepfake - Jak rozpoznat falešné i neexistující tváře?

Viděl jsi, jak Barack Obama nazývá Donalda Trumpa 'naprostým blbcem'. Nebo jak se Mark Zuckerberg chlubí tím, že má "naprostou kontrolu nad ukradenými daty miliard lidí". Či, že se Jon Snow dojemně omlouvá za ponurý konec seriálu Hra o trůny? Pokud ano, tak jsi už viděl deepfake - technologii, která dokáže vytvářet falešná videa, fotografie a dokonce i osoby pomocí umělé inteligence.

Jak se tvoří? Co je k tomu potřeba za techniku? Jak ho rozpoznat? Jak se bránit? A přináší i něco pozitivního?

Blog ITnetwork.cz

K čemu se deepfaky využívají dnes?

Deepfake se používají především v hanbatém průmyslu. Firma Deeptrace zabývající se umělou inteligencí našla v září 2019 na internetu 15 000 deepfake videí, což je dvojnásobný počet oproti výsledkům průzkumu 9 měsíců předtím. Ohromujících 96 % z nich bylo pornografických a 99 % z nich mapovalo obličeje ženských celebrit právě na neslušné účely.

Vzhledem k tomu, že nové techniky umožňují i nekvalifikovaným lidem vytvářet deepfaky s pomocí hrstky fotografií, falešná videa se pravděpodobně rozšíří i mimo svět celebrit a bude nahrávat zhrzeným partnerům, kteří díky trilionů společných fotek budou moci vytvářet deepfaky z pomsty. Jak říká Danielle Citronová, profesorka práva na Bostonské univerzitě pro server Guardian: "Deepfake technologie se stává zbraní proti ženám." Kromě nahoty se používá i na tvorbu parodických videí, satiry a ke zločinným účelům.

Blog ITnetwork.cz

Když se deepfaky stanou skutečné

Technologie deepfake dokáže od základu vytvořit přesvědčivé, ale zcela fiktivní fotografie. Mohou vznikat fiktivní osoby a profily, které slouží k různým účelům - od špionáže až po propagandu lživých informací či krádež.

Lze v něm vytvořit i zvuk, aby se vytvořily "hlasové skiny" nebo "hlasové klony" veřejných osobností. Server Guardian uvádí příklad, kdy šéf britské dceřiné společnosti německé energetické firmy zaplatil téměř 200 000 liber na maďarský bankovní účet poté, co mu zavolal podvodník, který napodobil hlas německého generálního ředitele. Pojišťovny společnosti se domnívají, že hlas byl falešný, ale důkazy jsou nejasné.

Blog ITnetwork.cz

Jak deepfaky vznikají?

Univerzitní výzkumníci a studia speciálních efektů již dlouho posouvají hranice možností manipulace s videem a obrazem. Samotné deepfaky se však zrodily v roce 2017, kdy stejnojmenný uživatel Redditu zveřejnil na webu zfalšované pornografické klipy. Na videích měly vyměněné tváře s pornoherečkami například takové celebrity jako Gal Gadot, Taylor Swift, Scarlett Johansson a další.

Metoda: Kodér a dekodér

K vytvoření videa s výměnou obličeje je potřeba několik kroků. Nejprve je třeba tisíců snímků obličejů obou osob, u nichž proběhne výměna. Tyto fotky se proženou algoritmem umělé inteligence, kterému se říká kodér. Kodér najde a naučí se podobnosti mezi oběma tvářemi, zredukuje je na společné rysy a snímky přitom zkomprimuje. Druhý algoritmus umělé inteligence zvaný dekodér se pak naučí obnovovat obličeje z komprimovaných snímků. Protože se obličeje liší, trénuje se jeden dekodér na obnovení obličeje první osoby a druhý dekodér na obnovení obličeje druhé osoby.

Blog ITnetwork.cz

Chceš-li provést výměnu tváří, jednoduše vlož zakódované obrazy do "nesprávného" dekodéru. Například komprimovaný obraz obličeje osoby A se přivede do dekodéru vycvičeného na osobě B. Dekodér pak rekonstruuje obličej osoby B s výrazy a orientací obličeje A. Pro přesvědčivé video je třeba toto provést na každém snímku. Takže to není nic jednoduchého.

Metoda: GAN - generativní adversariální síť

Jiný způsob vytváření deepfaku využívá takzvanou generativní adversariální síť neboli Gan. Gan proti sobě staví dva algoritmy umělé inteligence. Prvnímu algoritmu, známému jako generátor, je podáván náhodný šum, který se postupně promění v obraz. Tento syntetický obraz se pak přidá k proudu skutečných obrazů - například celebrit -, které se vloží do druhého algoritmu, známého jako diskriminátor. Zpočátku se syntetické obrazy vůbec nepodobají tvářím. Když však tento proces nesčetněkrát zopakuješ a získáš zpětnou vazbu o výkonu, diskriminátor i generátor se zlepší. Při dostatečném počtu cyklů a zpětné vazbě začne generátor vytvářet naprosto realistické obličeje zcela neexistujících osobností.

Kdo vytváří deepfaky?

Deepfake vytváří vlastně všichni. Od akademických a průmyslových výzkumníků až po amatérské nadšence, studia vizuálních efektů a producentů filmů pro dospělé. Tuto technologii mohou využívat i vlády v rámci svých online strategií, kdy mají za cíl zdiskreditovat a narušit činnost extremistických skupin nebo navázat kontakt s cílovými osobami.

Blog ITnetwork.cz

Zajímá tě IT a chtěl bys umět zacházet s moderními technologiemi a brát super peníze? Nečekej a rekvalifikuj se na junior programátora už od 0 Kč:

DIY deepfake

Na běžném domácím počítači je těžké vytvořit dobrý deepfake. Většinou je potřeba špičkových stolních počítačů s výkonnými grafickými kartami. Ideálně s výpočetním výkonem v cloudu. Tím se doba zpracování zkrátí ze dnů až týdnů na hodiny. Je však zapotřebí i odborných znalostí. Například při retušování hotových videí, aby se omezilo blikání a další vizuální vady.

'Je to deepfake či není?' Jak je rozpoznat?

Jak se dají rozpoznat? Budeme upřímní. Už teď je jejich prokázání dost složité, pokud se jedná o kvalitní práci, a v budoucnosti to bude ještě složitější. Technologie se stále zdokonalují.

V roce 2018 američtí vědci zjistili, že deepfake obličeje nemrkají. Není se čemu divit: na většině snímků jsou lidé s otevřenýma očima, takže algoritmy se o mrkání nikdy pořádně nedozvědí. Zpočátku to vypadalo jako stříbrná kulka na problém detekce. Ale sotva byl výzkum zveřejněn, objevily se deepfaky s mrkáním. Taková je povaha hry: jakmile se odhalí slabina, je opravena.

Nekvalitní deepfaky se odhalují snadněji. Co hledat:

  • synchronizace rtů může být špatná
  • tón pleti nejednotný
  • na okrajích transponovaných obličejů může docházet k blikání
  • jemné detaily, jako jsou vlasy, se u deepfaku vykreslují obzvlášť špatně
  • špatně vykreslené šperky a zuby
  • podivné světelné efekty - nekonzistentní osvětlení a odrazy na duhovce

Vlády, univerzity a technologické firmy financují výzkum zaměřený na odhalování deepfaků. Nedávno odstartovala první soutěž Deepfake Detection Challenge, kterou podpořily společnosti Microsoft, Facebook a Amazon.

Blog ITnetwork.cz

Facebook dokonce zakázal deepfake videa, která mohou diváky uvést v omyl, že někdo "řekl slova, která ve skutečnosti neřekl", a to v době před volbami v USA v roce 2020. Tato politika se však vztahuje pouze na dezinformace vytvořené pomocí umělé inteligence, což znamená, že "shallow fake" jsou na platformě stále povoleny. Jedná se totiž pouze o speciálně sestříhaná videa, kdy se používají reálné záznamy, ale tzv. vytrženy z kontextu.

Vznikne kvůli deepfake zmatek?

Určitě budou přibývat deepfaky, které obtěžují, zastrašují, ponižují, podkopávají a destabilizují. Mohou vyvolat velké mezinárodní incidenty? Zde je situace méně jasná. Většina států má vlastní spolehlivé bezpečnostní zobrazovací systémy a nástroje, jak ověřit různé informace. Takže nejspíše ne.

Velké nebezpečí hrozí ovšem obyčejným i 'neobyčejným' lidem spíše než celý státům. Loni se akcie Tesly propadly, když si Elon Musk v živém internetovém pořadu zakouřil jointa. Budou věrohodné deepfaky měnit ceny akcií, ovlivňovat voliče a vyvolávat náboženské napětí? Zde si můžeme téměř vsadit na to, že je odpověď ano.

Blog ITnetwork.cz

Důvěřovat. Ale čemu?

Stanou se z nás skeptici či apatické zombie, kteří se raději ani světovým či domácím děním nebudou obtěžovat se zaobírat? Když je důvěra narušena, je snazší vyvolat pochybnosti o konkrétních událostech. Pro server Guardian sdělila profesorka Lilian Edwardsová, přední odbornice na internetové právo z Newcastle University následující:

"Problémem nemusí být ani tak zfalšovaná realita, jako spíše skutečnost, že skutečná realita se stává věrohodně popíratelnou."

"Vzhledem k tomu, že se tato technologie stává dostupnější, mohly by deepfaky znamenat potíže pro soudy, zejména v bojích o opatrovnictví dětí a u pracovních soudů, kde by mohly být zfalšované události uváděny jako důkaz. Představují však také riziko pro osobní bezpečnost: deepfakes mohou napodobovat biometrické údaje a mohou potenciálně oklamat systémy, které se spoléhají na rozpoznávání obličeje, hlasu, žil nebo chůze. Potenciál podvodů je zřejmý. Pokud někomu z ničeho nic zavoláte, že vám má převést peníze na účet, je nepravděpodobné, že by to provedl. Ale co když si vaše "matka" nebo "sestra" domluví videohovor na WhatsApp a vznese stejnou žádost?," pokládá nepříjemné otázky server Guardian.

Blog ITnetwork.cz

Existuje řešení jak koexistovat s deepfake a nezbláznit se?

Bude to znít jako vytloukání klínu klínem, ale to, co by nám mohlo pomoci v boji proti deepfakům, je opět AI. Vlastně už dnes pomáhá odhalovat falešná videa, ale mnoho stávajících detekčních systémů má závažnou slabinu: nejlépe fungují totiž u celebrit, protože se mohou trénovat na hodinách volně dostupných záznamů. Tolik záznamů obyčejného člověka nikdy jen tak nenajdeme.

Technologické firmy nyní pracují na detekčních systémech, jejichž cílem je upozornit na padělky, kdykoli se objeví. Další strategie se zaměřuje na původ médií. Digitální vodoznaky nejsou spolehlivé, ale systém online účetní knihy blockchain by mohl uchovávat záznamy o videích, fotografiích a zvukových nahrávkách odolné proti manipulaci, takže jejich původ a případné manipulace lze vždy zkontrolovat.

Blog ITnetwork.cz

Programátorů je velký nedostatek. Staň se jedním z nich a vybírej z hromady pracovních nabídek. Rekvalifikuj se v jedné ze šesti technologií:

Další zajímavé články


 

Všechny články v sekci
Blog ITnetwork.cz
Článek pro vás napsala Tereza Blažková 19.4.2022 19:14
Avatar
Autorka ráda zkouší nové formy online marketingu a má blízko k IT businessu. Díky home officu zvládá mateřství i sledovat rychlý svět technologií.
Aktivity