A BME Kommunikáció és médiatudomány szak blogja

#Konzervtelefon


Deepfake: A dezinformációs háború atomfegyvere

2019. április 07. - Molnár Donát

Olyan időket élünk, melyben az Egyesült Államok elnöke laza csuklóval bélyegzi meg a "fake news" híres szópárosával a legkülönfélébb médiumokat. Persze lehet azon vitatkozni, hogy mi számít ma hiteles, illetve hiteltelen hírforrásnak, de az egészen biztos, hogy a történelem folyamán korábban nem tapasztalt formában zúdul az álhír az emberekre. Még az egészséges gyanakvás képessége mellett sem könnyű megkülönböztetni a valóságot teljesen, részben, vagy egyáltalán nem fedő híreket egymástól. Aki jelen van a közösségi médiában, vagy napi szinten olvas híreket, az tudja, hogy egy dezinformációs háború kellős közepén vagyunk, aminek az elsődleges színtere az internet. Ezt az állapotot millió plusz egy dologgal lehet magyarázni, de minden kétséget kizáróan az egyre profibb audiovizuális hamisítási technikák is szerepet játszanak a mostanában tapasztalt epikus "fake news" dömpingben. Az egyik ilyen eljárás az úgynevezett deepfake nevű technológia, aminek a tájékoztatásra gyakorolt hatását egyelőre még megjósolni is nehéz. 

deepfake1.jpg(via)

A deepfake nevű eljárás etimológiai értelemben a deep learning (mély tanulás) és a fake (ál-, hamis) szavakból ered. A név alapján valószínűleg egy összetett eljárásra gondolhatnak először a laikusok, de a technológia megértéséhez közel sincs szükség felsőfokú számítástechnikai képzettséghez. A deepfake szoftverek ugyanis nem csinálnak mást, mint mesterséges intelligencia (AI) segítségével audiovizuálisan meghamisítanak videókat. Az ilyen típusú programok eleve létező videókban szereplő emberek arcát és hangját lecserélik olyan személyekére, akiknek semmi közük sincs az originál képsorokhoz. A mesterséges intelligencia az interneten fellelhető kép és videó fájlok rengetegéből képes megtanulni – általában híres – emberek mimikáját, hangját, gesztikulációját és finommozgásait, amit aztán rekonstruál és beilleszt egy másik videóban lévő szereplő arcára. A meghamisított karakterbe pedig bárki belebújhat, és azt mondhat, vagy tehet, amit csak akar.

Képességeit elnézve a deepfake a technológia akár egy rendszeresített eljárása is lehetne az orwelli világban, csakhogy az audiovizuális képsorok meghamisítására kifejlesztett módszer nem egy disztópikus fiktív regény eleme, hanem nagyon is "kézzel tapintható" valóság. Sajnos nincsenek arra vonatkozóan pontos információk, hogy a mióta létezik a deepfake, mivel a technológia evolúciója rendkívül gyors állapotváltozások sorozata, ezért nehéz megmondani, hogy a jelenleg ismert stádiuma konkrétan mikor született meg. Ezzel együtt viszont nyugodtan kijelenthető, hogy 2-3 éve biztosan egzisztál a deepfake, és a legkülönbözőbb formái ismertek. Az ingyenesen hozzáférhető programoktól kezdve egészen a fizetős alkalmazásokig, rengeteg deepfake szoftver közül válogathatnak a civil felhasználók. Egyszóval ma már széles körben elérhető ez az eljárás, de az első jól regisztrálható felbukkanása egészen konkrétan 2017 második felében, a Reddit nevű közösségi weboldalon történt, ahol a felhasználók a szexuális fantáziáik megélésére használták a technológiát.

A deepfake felhasználási területei 

A deepfake körülbelül 3 évvel ezelőtt azzal robbant be a köztudatba, hogy a Redditen és az internet ’pöcegödreként’ számon tartott 4chan nevű képtábla weboldalon számolatlan olyan felnőtt filmes videó jelent meg, melyekben a női főszereplők testére hírességek arcát rakta a mesterséges intelligencia. Egyszóval ál-celebpornó gyártására fogták be először deepfake technológiát, ami azonnal meghozta az eljárás számára a széleskörű hírnevet.

Az első ilyen videók nagyon kezdetlegesek voltak és pár internetes szubkultúrát leszámítva nem igazán kaptak széleskörű figyelmet. Aztán technológia – a képességeit tekintve – rohamos fejlődésnek indult, és nagyon rövid időn belül teljesen élethű kamu A-listás celeb-pornóvideók kezdtek cirkulálni a világhálón. gal_gadot.jpg

Balra Gal Gadot hollywoodi színésznő, jobb oldalon pedig Gal Gadot arca deepfake segítségével egy pornószínésznő testére montírozva (via)

A kamu celeb-pornó népszerűsége meredeken ívelt felfele, a visszás műfajjal aztán a tartalommegosztó honlapok is komolyan foglalkozni kezdtek. Először a Redditnél kapcsoltak, hogy a hamisítás ezen formája komoly etikai és jogi kérdéseket vet fel. A híres közösségi oldalon először törölni kezdték az ilyen típusú tartalmakat, majd végül teljes körűen kitiltották azokat a felületről. Ezt a példát szinte minden felnőttfilmes videómegosztó portál is követte, és ma már ott tartunk, hogy kizárólag az internet legsötétebb bugyraiban találunk kamu celebpornót, ott viszont szép számmal. 

Fontos megjegyezni, hogy jelenleg úgy áll a helyzet, hogy bárkiről készülhet kamupornó. Ehhez mindösszesen kellő mennyiségű fényképre illetve videóra van szükség a célszemélyről. Ilyen értelemben a deepfake a bosszúpornó műfaját egy teljesen új dimenzióba helyezheti, ami durva visszaéléseket nyithat ajtót. Elég egy vérig sértett exbarát/barátnő, aki elégtételt akar venni vélt, vagy valós sérelmei miatt és kész a baj. 

Az emberi szexuális fantáziákat kiszolgáló felhasználáson túl, a deepfake-et a közhangulat és a politikai folyamatok befolyásolására is fel lehet használni. Vagyis csak lehetne, ugyanis egyelőre nem tudni olyan jelentős esetről, ahol a széleskörű közvélemény formálása miatt, illetve valamilyen politikai, vagy gazdasági haszonszerzés céljából született volna deepfake videó. Persze, ami késik, az nem múlik. A technológiai guruk szerint már nem kell sokat várni, hogy komoly társadalmi botrányt okozzon egy deepfake technológiával meghamisított felvétel. Konzervatív előrejelzések szerint a következő évek sorsfordító országgyűlési, vagy elnökválasztások kampányhajráinak valamelyike alatt bevethetnek manipulatív célból deepfake videókat. Például a 2020 novemberében esedékes amerikai elnökválasztást megelőzően sokak szerint számítani kell olyan videókra, melyek kommunikációs krízist, vagy belpolitikai válságot okozhatnak az Államokban. deepfake2.jpg

(via)

Így védekezz: A deepfake videók felismerése 

Több technológiával foglalkozó internetes portál is feldolgozta már, hogy miként lehet felismerni a deepfake videókat. E szaklapok általában többlépcsős védekezést ajánlanak az olvasóiknak. Ezek értelmében az első védekezési szint technikai jellegű, ami a deepfake korántsem tökéletes képességeire épít. Ezek a szoftverek – pláne az ingyenesen hozzáférhető gagyi cuccok – ugyanis gyakran olyan készterméket állítanak elő, amely hemzseg a szemet szúró hibáktól, így könnyen felismerhető a hamisítás ténye. Az arc illesztése, a hang és a szájmozgás lehetetlen együttállásai, a gazdatest és az "álarc" színárnyalatának és tónusbeli különbségei is olyan figyelmeztető faktorok, melyek egyértelmű jelei lehetnek a deepfake-nek. Több lap is hangsúlyozza, hogy a kevés pislogás egy karakteres árulkodó jel lehet - még a profi szoftverek esetén is. A deepfake algoritmusai ugyanis gyakran megfeledkeznek erről feltétel nélküli emberi reflexről és képesek pislogás nélküli emberarcokat legyártani.

A deepfake felismerés második foka már összetettebb, az ugyanis tartalomfogyasztásbeli szokásváltoztatást követel az emberektől. Aki nem akarja, hogy a deepfake videók megvezessék, annak a jövőben ki kell alakítania magában az egészséges kételkedés képességét, valamint nem árt, ha a realitásérzéke is kellőképp földhözragadt. Mindenkinek a mostaninál alaposabban kell ismernie a közszereplők és a politikai véleményformálók vérmérsékletét, állásfoglalását, illetve attitűdjeit, hogy az audiovizuális hamisítás lehetőségére kezdjenek gyanakodni, ha egy felvételen túl nagyot állít egy társadalmilag meghatározó személy. Például ha egy élethű videóban Nancy Pelosi demokrata alsóházi képviselő hosszan értekezik a Donald Trump amerikai elnök által kilátásba helyezett határfal fontosságáról és pozitív hatásairól, akkor az minimum kételyt kell, hogy ébresszen mindenkiben.

Ha az előző két szint csődöt mond, és egyik segítségével sem lehet hitelt érdemlően bizonyítani a deepfake tényét egy gyanús videóról, akkor ellenőrzőszoftverek segítségével is lehet ellenőrizni egy videó valódiságát. Több szoftverfejlesztő cég is azon dolgozik a nagyvilágban, hogy olyan számítógépes programokat hozzanak létre, melyek közel 100 százalékos biztonsággal megmondják egy videóról, hogy deepfake által hamisított-e. Ezek a programok – deepfakehez hasonlóan – mesterséges intelligenciát használnak a felismerés folyamata alatt. A videó hangszintjétől kezdve, az arc színtónusain át egészen a mimikáig sok mindent megvizsgálnak ezek a programok.

deepfake2.jpeg

(via)

A mesterséges intelligencia, azaz mély tanulása azonban egy végeláthatatlan csiki-csuki harc folyik a deepfake szoftverek és az ilyen típusú videókat felismerő programok között, ugyanis mindkettő a másik hibáiból tanul. A deepfake szoftverfejlesztők egyszerűen megvizsgálják, hogy az felismerő programok milyen hibák kiszűrésével detektálja a hamis tartalmat, majd ezekre a hibákra ráeresztik a mesterséges intelligenciát, hogy korrigálni tudja azokat. Ilyen értelemben pedig az újabb típusú deepfake szoftver a régi hibákat kiküszöbölve már olyan minőségben készít videót, amiről nem tudja megmondani egy régi felismerő program teljes bizonyossággal a hamisítás tényét. Az ördögi kör így bezárul és mindkét oldal folyamatos önfejlesztő paradigmába kerül.

Valós fenyegetés-e a deepfake? 

Kinyílt Pandóra szelencéje, már semminek sem hihetünk! – valószínűleg valami nagyon hasonló járhat az örök pesszimisták fejében, amikor a deepfake társadalomra gyakorolt hatását próbálják megfejteni. Természetesen ezek az aggodalmak teljesen jogosak, de ha a múlt hasonló típusú technológiai fejlesztéseit vesszük figyelembe, akkor nem jelenthet reális fenyegetést a deepfake. Példának okáért a Photoshop segítségével se sikerült soha senkinek háborúkat kirobbantania, vagy választásokat megnyernie. Legalábbis közvetlenül biztosan nem. Nagy valószínűséggel ugyan lesznek visszaélések a technológiával, de a szakértők szerint egyáltalán nem kell világégésre számítani. A nagy közösségi médiumok, és a széleskörű közvélemény befolyásolására alkalmas internetes felületek ugyanis komolyan foglalkoznak a deepfake jelenséggel, és hatalmas erőforrásokat mozgósítottak az utóbbi időben arra, hogy kiszűrjék és letiltsák az ilyen tartalmakat, hogy megakadályozzák a terjedésüket.

Szépen lassan pedig jogi keretek közé is szorítják a deepfake videókat - legalábbis erre utalnak a jelek. Természetesen elsőként az Egyesült Államok kongresszusa, kibervédelmi és nemzetbiztonsági szervezeti vették föl a kesztyűt az ilyen tartalmak ellen. Ugyan még nem látni pontosan azt a jogi struktúrát, amivel egészséges mederben lehet tartani a deepfake jelenséget, de szerencsére már a törvényhozók elkezdték kongatni a vészharangot, hogy a technológiával kapcsolatos visszaélésekre lehet számítani, amivel egészen egyszerűen kezdenie kell valamit a döntéshozóknak.

kep.png