Kereső toggle

Deepfake: Ne higgy a szemednek!

Továbbítás emailben
Cikk nyomtatása

„Persze, hogy igaz, a saját szememmel láttam!” – Könnyen lehet, hogy ez a mondás hamarosan idejétmúlttá válik. Új, különböző innovatív technológiák ötvözetének köszönhetően nemsokára annak sem hihetünk, amit a képernyőn valósnak látni vélünk.

Közeleg a kor, amikor az átlagemberek és a hírességek minden, a médiában megjelent mozdulatát gyanakodva kell néznünk, mert reális esély van rá, hogy a képek és videók, amiket látunk valójában hamisak. Hogyan lehetséges ez? Egy mesterséges intelligencia által folyamatosan fejlesztett tanuló algoritmus terméke által, a technológia neve: deepfake.

A deepfake kifejezés a deep learning – vagyis egy speciális, neurális hálózatokat használó tanuló algorit-mus fajta, valamint a „fake” vagyis a hamis szavak összevonásából lett kialakítva, a kifejezés a modern technológiák széles tárházát takarja. A deepfake – ahogyan már írtunk róla – nem egy új, önálló dolog, hanem több csúcstechnológiás eljárás kreatív ötvözete, mint például a már említett neurális hálók, tanuló algoritmusok és a mesterséges intelligencia. Történetében érdekes, hogy bár csúcstechnológiáról van szó, nem egy amerikai, orosz vagy kínai kutatólaboratóriumból szivárgott ki, hanem az internet legnagyobb fórum hálózatáról, a Redditről származik, amelynek egyik felhasználónevéből ered a deepfake név is. Ez a felhasználó „deepfakes” néven készített olyan pornóvideókat, amelyekben a szereplők fejét lecserélte hírességekére. Ez önmagában nem lett volna annyira meglepő vagy forradalmi dolog az interneten. Az érdekes benne valójában az, hogy ezeket a videókat egyetlen ember mindössze egy asztali számítógépet használva, ingyenes eszközöket kombinálva készítette el.

Az internetes közösségekben mára már elterjedt egy olyan „open source”, vagyis mindenki számára teljesen hozzáférhető software csomag, amit használva bárki képes rajongott sztárjait a legkülönbözőbb jelenetekbe illeszteni – viszonylag könnyen és gyorsan.  A technológia bár bonyolult, de az időközben kifejlesztett és tökéletesített applikációk, akár egy számítástechnikában teljesen járatlan személy számára is könnyen használhatóak, mindössze három hozzávaló szükségességével: a kiválasztott, módosítani kívánt videó, képek az áldozat arcáról – minden lehetséges szögből – valamint egy kis idő, amíg a számítógép lefuttatja az algoritmust. A folyamat automatikus, de leegyszerűsítve zajlik. Az applikáció a benne levő mesterséges intelligenciával támogatott algoritmus segítségével feltérképezi a videón az arc helyzetét és annak részleteit, ezzel párhuzamosan pedig kialakítja az áldozat digitális maszkját a feltöltött képek segítségével. Miután ez sikeres volt, pillanatok alatt ráilleszti a videóra, ezzel kész is a kamufilm, amiről senki nem tudja megmondani, hogy valós jelenetet tükröz vagy módosítottat.

Gal Gadot-tól Marilyn Monroe-n át a szomszédig

A deepfake első áldozatai között volt az izraeli színésznő, a Wonder Woman sztárja, Gal Gadot, valamint az új Star Wars trilógia főszereplője Daisy Ridley, de készültek videók rég elhunyt sztárok, például Marilyn Monroe képmását felhasználva is.

A technológiát azonban nem csak a sztárokkal szemben lehet használni. A deepfakek megjelenése új utakat nyitott a bosszúszomjas exek előtt: még ha nem is volt semmilyen kompromittáló videó vagy kép a volt kedvesükről, a technológia segítségével, a közösségi médián nyilvánosan elérhető képeket használva készíthettek látszólag a célszemélyt ábrázoló videókat. S míg egy sztár esetében egyértelmű, hogy egy ilyen videó hamisítvány, egy átlagembernél ezt egyáltalán nem könnyű bebizonyítani. Milliós rajongói tábor és ügyvédsereg híján pedig kevés lehetősége van egy ilyen módon megtámadott személynek tisztáznia magát. Ha pedig egy videó felkerül az internetre, akkor az örökre ott is marad. A Deeptrace Lab kutatása alapján pedig a deepfake videók 96 százaléka nőket ábrázoló pornográf tartalom. Bár legtöbbször hírességeket használnak fel a videókban, rengeteg átlagos nő is érintett, akiknek képmása tudtuk és beleegyezésük nélkül lett felhasználva.

Van azonban egy merőben más terület is, amit szintén javában felforgat a deepfake technológia: a világ legnagyobb videómegosztó oldalán, a YouTube-on a tartalom 61 százaléka férfiakat ábrázol, főleg politikai témájú kommentárokban. A kutatók szerint ez valószínűleg a nagyon aktív politikai szcénának köszönhető, ami a YouTube-on létezik. Habár a deepfake fókusza az első években főleg a hírességekről készített videók és „bosszúpornó” voltak, ez a trend változni látszik. A számok mutatják, hogy mekkora igény és érdeklődés van politikai témájú deepfake videókra, és a technológia megjelenésétől kezdve kérdés volt az, hogy milyen hatással lesz ez a politikára. A szakértők évek óta hangoztatják, hogy fel kell készülnie a politikának, a médiának és a szavazóknak, hiszen a következő választásokon fegyverként lehet majd használni a deepfake-eket.

Meghackelt választások

Ahogy a 2020-as amerikai választási kampány beindul, egyre több energiát és pénzt fektet az amerikai kormány a deepfake felderítésbe és a szavazók erről való oktatásába. Bár még nem történt semmilyen prominens eset, amikor választáson használták fel a technológiát, de a szakértők szerint ez csak idő kérdése. A Szenátus Hírszerzési Tanácsának elnöke, Adam Schiff is figyelmeztet arra, hogy fel kell készülniük a szavazóknak arra, hogy választási időszakban meg fog emelkedni a gyanús és manipulált tartalmak száma a médiában.

Chris Meserole és Alina Polyakova, a Brookings Intézet Mesterséges Intelligencia kutatói a szavazók mellett már az Egyesült Államokat és szövetségeseit is figyelmeztették, hogy vészesen felkészületlenek az új technológiákkal elkövetett választási manipulációkkal szemben, sokkal több anyagi forrásra lenne szükség ahhoz, hogy megbízható, de főkképp gyors és automatikusan működő módszerek álljanak készen a manipulált videók, képek és hanganyagok azonosítására. Azonban ez egy olyan fegyverkezési verseny ahol a védekező oldal hatalmas hátrányból indul: Hany Farid a University of California at Berkeley digitális törvényszéki szakértője szerint a videóhamisítók hatalmas számbeli és technikai túlerőben vannak, állítása szerint a videókat készítők és az azokat detektálók között az arány 100 az 1-hez. Egyszerűen többeket érdekel a technológia folyamatos fejlesztése, mint annak felderítése.

Farid szerint ennek köszönhető, hogy a technológia elképesztő sebességgel fejlődik. Míg 2019 januárjában hibás és megkérdőjelezhető képminőségű videók készültek, addig év végére egy sosem látott minőségi ugráson mentek keresztül. És amit látunk, az mindössze a jéghegy csúcsa, hiszen ha a technológiát egy állami propagandagépezet használja, akkor a minőség még tovább nő, nehezítve a hamisítványok kiszűrését.

Az igazság utáni kor

Komoly veszélyforrásként kezeli a deepfake-eket a Nemzetbiztonsági Hivatal és a DARPA, vagyis a high-tech haditechnológiák kifejlesztéséért felelős hivatal is, amely többek között az internet és a lopakodó technológia szülőhelye is.

A DARPA célja olyan eszközök kifejlesztése a MediFor és SemaFor képében, amelyek szintén mesterséges intelligenciát és tanuló algoritmusokat használva automatikusan veszik fel a versenyt a deep-fake-ekkel, ezáltal valamelyest kiegyenlítve a harcot a valós és álhír között. Segítségükkel nem csak annyit fognak tudni kideríteni, hogy manipulálva van-e az adott anyag, hanem annak pontos módját is képesek lesznek megmondani. Ebből tanulva pedig remélhetőleg a rendszer képes lesz tartani az iramot a villámgyorsan fejlődő deepfake technológiával. Sajnos kicsi az esélye, hogy az amerikai kormány vagy az óriás tech cégek gyorsan választ fognak találni a deepfake kérdésre vagy legalábbis időben ahhoz, hogy a 2020-as választások zavartalanul folyhassanak le.

Fontos kérdés a közösségi média-platformok, mint a Facebook és a Twitter szerepe a gyanús tartalmak szűrésében és cenzúrájában. A Facebook – karöltve 6 vezető egyetemmel – 10 millió dolláros díjat tűzött ki egy „deepfake azonosító” versenyen. Azt remélik, hogy így találnak valamilyen megoldást erre a sürgető problémára. Óvatosan kell azonban kezelni ezeket a terveket, hiszen ha megfontolatlanul átadja a kormány a kontrollt a hírek és a szólásszabadság esetében a médiaplatformoknak, az potenciálisan még a deepfake-eknél is nagyobb károkat tud okozni.

Amíg pedig nincs egy működő megoldás, addig a téma szakértői Bobby Chesney és Danielle Citron azt javasolta a kormányoknak, hogy hozzanak létre egy speciális csapatot, akik elérhetőek a médiacégek számára, és akik gyorsan le tudnak ellenőrizni képeket és videókat. Ez remélhetőleg egy megfelelő átmeneti megoldás lehet, amíg nem készül el egy olyan eszköz, ami képes ezeket automatikusan felderíteni.

Az embereket sokszor a szemmel látható bizonyítékok győzték meg olyan hihetetlen eseményekről és tragédiákról, mint a náci haláltáborokban zajló borzalmak vagy a Tien-anmen téren a tankok elé álló férfi. Ha nem bízhatunk abban, amit látunk, akkor nem fogjuk elhinni a nézeteinkkel nem összeegyeztethető tényeket. Ez pedig a társadalom további polarizációjához vezethet, amikor mindenki csak a saját oldala által képviselt híreket és tényeket fogadja el, míg a másik oldal hazug álhírterjesztőnek lesz beállítva. Láthattuk ennek a folyamatnak a kezdetét a 2016-os amerikai választáskor, mely azóta sem állt le. Lassan bezáródnak a szekértáborok és közel lehetetlenné válik a politikai oldalak közötti átjárás. Ez pedig az árnyalt vélemények, az egészséges diskurzus, ezáltal pedig a demokrácia válságát hozhatja el.

 

Mit tehetünk ellene?

Nasir Memon, a New York Egyetem professzora szerint lassan maga a mondás, „hiszem, ha látom” kerül veszélybe. Mit tehetünk annak érdekében, hogy laikusként felismerjük a kamuvideókat?
• Meg kell ismernünk e technológia képességeit.
• Kritikusnak kell lenni a még korábbi mércével sziklaszilárdnak tűnő hírekkel szemben is.
• Vegyünk igénybe független hírellenőrző oldalakat.
A legjobb védekezés azonban az éberség és a jólinformáltság. Mind hírességeknek, mind politikusoknak, mind az átlagembereknek meg kell ismerkedni a deepfake-ekkel. Fontos, hogy legalább azzal tisztában legyenek, hogy mire képes ez a technológia. Ha az emberek informáltak, van valamilyen módjuk arra, hogy ellenőrizzék, amit a hírekben látnak, valamint kritikusak a szenzációhajhász cikkekkel és videókkal kapcsolatban, akkor jó esélyük van szembeszállni az „igazság utáni” kor kihívásaival.

Olvasson tovább: