A BME Kommunikáció és médiatudomány szak blogja

#Konzervtelefon


Deepfake: A dezinformációs háború atomfegyvere

2019. április 07. - Molnár Donát

Olyan időket élünk, melyben az Egyesült Államok elnöke laza csuklóval bélyegzi meg a "fake news" híres szópárosával a legkülönfélébb médiumokat. Persze lehet azon vitatkozni, hogy mi számít ma hiteles, illetve hiteltelen hírforrásnak, de az egészen biztos, hogy a történelem folyamán korábban nem tapasztalt formában zúdul az álhír az emberekre. Még az egészséges gyanakvás képessége mellett sem könnyű megkülönböztetni a valóságot teljesen, részben, vagy egyáltalán nem fedő híreket egymástól. Aki jelen van a közösségi médiában, vagy napi szinten olvas híreket, az tudja, hogy egy dezinformációs háború kellős közepén vagyunk, aminek az elsődleges színtere az internet. Ezt az állapotot millió plusz egy dologgal lehet magyarázni, de minden kétséget kizáróan az egyre profibb audiovizuális hamisítási technikák is szerepet játszanak a mostanában tapasztalt epikus "fake news" dömpingben. Az egyik ilyen eljárás az úgynevezett deepfake nevű technológia, aminek a tájékoztatásra gyakorolt hatását egyelőre még megjósolni is nehéz. 

deepfake1.jpg(via)

A deepfake nevű eljárás etimológiai értelemben a deep learning (mély tanulás) és a fake (ál-, hamis) szavakból ered. A név alapján valószínűleg egy összetett eljárásra gondolhatnak először a laikusok, de a technológia megértéséhez közel sincs szükség felsőfokú számítástechnikai képzettséghez. A deepfake szoftverek ugyanis nem csinálnak mást, mint mesterséges intelligencia (AI) segítségével audiovizuálisan meghamisítanak videókat. Az ilyen típusú programok eleve létező videókban szereplő emberek arcát és hangját lecserélik olyan személyekére, akiknek semmi közük sincs az originál képsorokhoz. A mesterséges intelligencia az interneten fellelhető kép és videó fájlok rengetegéből képes megtanulni – általában híres – emberek mimikáját, hangját, gesztikulációját és finommozgásait, amit aztán rekonstruál és beilleszt egy másik videóban lévő szereplő arcára. A meghamisított karakterbe pedig bárki belebújhat, és azt mondhat, vagy tehet, amit csak akar.

Képességeit elnézve a deepfake a technológia akár egy rendszeresített eljárása is lehetne az orwelli világban, csakhogy az audiovizuális képsorok meghamisítására kifejlesztett módszer nem egy disztópikus fiktív regény eleme, hanem nagyon is "kézzel tapintható" valóság. Sajnos nincsenek arra vonatkozóan pontos információk, hogy a mióta létezik a deepfake, mivel a technológia evolúciója rendkívül gyors állapotváltozások sorozata, ezért nehéz megmondani, hogy a jelenleg ismert stádiuma konkrétan mikor született meg. Ezzel együtt viszont nyugodtan kijelenthető, hogy 2-3 éve biztosan egzisztál a deepfake, és a legkülönbözőbb formái ismertek. Az ingyenesen hozzáférhető programoktól kezdve egészen a fizetős alkalmazásokig, rengeteg deepfake szoftver közül válogathatnak a civil felhasználók. Egyszóval ma már széles körben elérhető ez az eljárás, de az első jól regisztrálható felbukkanása egészen konkrétan 2017 második felében, a Reddit nevű közösségi weboldalon történt, ahol a felhasználók a szexuális fantáziáik megélésére használták a technológiát.

A deepfake felhasználási területei 

A deepfake körülbelül 3 évvel ezelőtt azzal robbant be a köztudatba, hogy a Redditen és az internet ’pöcegödreként’ számon tartott 4chan nevű képtábla weboldalon számolatlan olyan felnőtt filmes videó jelent meg, melyekben a női főszereplők testére hírességek arcát rakta a mesterséges intelligencia. Egyszóval ál-celebpornó gyártására fogták be először deepfake technológiát, ami azonnal meghozta az eljárás számára a széleskörű hírnevet.

Az első ilyen videók nagyon kezdetlegesek voltak és pár internetes szubkultúrát leszámítva nem igazán kaptak széleskörű figyelmet. Aztán technológia – a képességeit tekintve – rohamos fejlődésnek indult, és nagyon rövid időn belül teljesen élethű kamu A-listás celeb-pornóvideók kezdtek cirkulálni a világhálón. gal_gadot.jpg

Balra Gal Gadot hollywoodi színésznő, jobb oldalon pedig Gal Gadot arca deepfake segítségével egy pornószínésznő testére montírozva (via)

A kamu celeb-pornó népszerűsége meredeken ívelt felfele, a visszás műfajjal aztán a tartalommegosztó honlapok is komolyan foglalkozni kezdtek. Először a Redditnél kapcsoltak, hogy a hamisítás ezen formája komoly etikai és jogi kérdéseket vet fel. A híres közösségi oldalon először törölni kezdték az ilyen típusú tartalmakat, majd végül teljes körűen kitiltották azokat a felületről. Ezt a példát szinte minden felnőttfilmes videómegosztó portál is követte, és ma már ott tartunk, hogy kizárólag az internet legsötétebb bugyraiban találunk kamu celebpornót, ott viszont szép számmal. 

Fontos megjegyezni, hogy jelenleg úgy áll a helyzet, hogy bárkiről készülhet kamupornó. Ehhez mindösszesen kellő mennyiségű fényképre illetve videóra van szükség a célszemélyről. Ilyen értelemben a deepfake a bosszúpornó műfaját egy teljesen új dimenzióba helyezheti, ami durva visszaéléseket nyithat ajtót. Elég egy vérig sértett exbarát/barátnő, aki elégtételt akar venni vélt, vagy valós sérelmei miatt és kész a baj. 

Az emberi szexuális fantáziákat kiszolgáló felhasználáson túl, a deepfake-et a közhangulat és a politikai folyamatok befolyásolására is fel lehet használni. Vagyis csak lehetne, ugyanis egyelőre nem tudni olyan jelentős esetről, ahol a széleskörű közvélemény formálása miatt, illetve valamilyen politikai, vagy gazdasági haszonszerzés céljából született volna deepfake videó. Persze, ami késik, az nem múlik. A technológiai guruk szerint már nem kell sokat várni, hogy komoly társadalmi botrányt okozzon egy deepfake technológiával meghamisított felvétel. Konzervatív előrejelzések szerint a következő évek sorsfordító országgyűlési, vagy elnökválasztások kampányhajráinak valamelyike alatt bevethetnek manipulatív célból deepfake videókat. Például a 2020 novemberében esedékes amerikai elnökválasztást megelőzően sokak szerint számítani kell olyan videókra, melyek kommunikációs krízist, vagy belpolitikai válságot okozhatnak az Államokban. deepfake2.jpg

(via)

Így védekezz: A deepfake videók felismerése 

Több technológiával foglalkozó internetes portál is feldolgozta már, hogy miként lehet felismerni a deepfake videókat. E szaklapok általában többlépcsős védekezést ajánlanak az olvasóiknak. Ezek értelmében az első védekezési szint technikai jellegű, ami a deepfake korántsem tökéletes képességeire épít. Ezek a szoftverek – pláne az ingyenesen hozzáférhető gagyi cuccok – ugyanis gyakran olyan készterméket állítanak elő, amely hemzseg a szemet szúró hibáktól, így könnyen felismerhető a hamisítás ténye. Az arc illesztése, a hang és a szájmozgás lehetetlen együttállásai, a gazdatest és az "álarc" színárnyalatának és tónusbeli különbségei is olyan figyelmeztető faktorok, melyek egyértelmű jelei lehetnek a deepfake-nek. Több lap is hangsúlyozza, hogy a kevés pislogás egy karakteres árulkodó jel lehet - még a profi szoftverek esetén is. A deepfake algoritmusai ugyanis gyakran megfeledkeznek erről feltétel nélküli emberi reflexről és képesek pislogás nélküli emberarcokat legyártani.

A deepfake felismerés második foka már összetettebb, az ugyanis tartalomfogyasztásbeli szokásváltoztatást követel az emberektől. Aki nem akarja, hogy a deepfake videók megvezessék, annak a jövőben ki kell alakítania magában az egészséges kételkedés képességét, valamint nem árt, ha a realitásérzéke is kellőképp földhözragadt. Mindenkinek a mostaninál alaposabban kell ismernie a közszereplők és a politikai véleményformálók vérmérsékletét, állásfoglalását, illetve attitűdjeit, hogy az audiovizuális hamisítás lehetőségére kezdjenek gyanakodni, ha egy felvételen túl nagyot állít egy társadalmilag meghatározó személy. Például ha egy élethű videóban Nancy Pelosi demokrata alsóházi képviselő hosszan értekezik a Donald Trump amerikai elnök által kilátásba helyezett határfal fontosságáról és pozitív hatásairól, akkor az minimum kételyt kell, hogy ébresszen mindenkiben.

Ha az előző két szint csődöt mond, és egyik segítségével sem lehet hitelt érdemlően bizonyítani a deepfake tényét egy gyanús videóról, akkor ellenőrzőszoftverek segítségével is lehet ellenőrizni egy videó valódiságát. Több szoftverfejlesztő cég is azon dolgozik a nagyvilágban, hogy olyan számítógépes programokat hozzanak létre, melyek közel 100 százalékos biztonsággal megmondják egy videóról, hogy deepfake által hamisított-e. Ezek a programok – deepfakehez hasonlóan – mesterséges intelligenciát használnak a felismerés folyamata alatt. A videó hangszintjétől kezdve, az arc színtónusain át egészen a mimikáig sok mindent megvizsgálnak ezek a programok.

deepfake2.jpeg

(via)

A mesterséges intelligencia, azaz mély tanulása azonban egy végeláthatatlan csiki-csuki harc folyik a deepfake szoftverek és az ilyen típusú videókat felismerő programok között, ugyanis mindkettő a másik hibáiból tanul. A deepfake szoftverfejlesztők egyszerűen megvizsgálják, hogy az felismerő programok milyen hibák kiszűrésével detektálja a hamis tartalmat, majd ezekre a hibákra ráeresztik a mesterséges intelligenciát, hogy korrigálni tudja azokat. Ilyen értelemben pedig az újabb típusú deepfake szoftver a régi hibákat kiküszöbölve már olyan minőségben készít videót, amiről nem tudja megmondani egy régi felismerő program teljes bizonyossággal a hamisítás tényét. Az ördögi kör így bezárul és mindkét oldal folyamatos önfejlesztő paradigmába kerül.

Valós fenyegetés-e a deepfake? 

Kinyílt Pandóra szelencéje, már semminek sem hihetünk! – valószínűleg valami nagyon hasonló járhat az örök pesszimisták fejében, amikor a deepfake társadalomra gyakorolt hatását próbálják megfejteni. Természetesen ezek az aggodalmak teljesen jogosak, de ha a múlt hasonló típusú technológiai fejlesztéseit vesszük figyelembe, akkor nem jelenthet reális fenyegetést a deepfake. Példának okáért a Photoshop segítségével se sikerült soha senkinek háborúkat kirobbantania, vagy választásokat megnyernie. Legalábbis közvetlenül biztosan nem. Nagy valószínűséggel ugyan lesznek visszaélések a technológiával, de a szakértők szerint egyáltalán nem kell világégésre számítani. A nagy közösségi médiumok, és a széleskörű közvélemény befolyásolására alkalmas internetes felületek ugyanis komolyan foglalkoznak a deepfake jelenséggel, és hatalmas erőforrásokat mozgósítottak az utóbbi időben arra, hogy kiszűrjék és letiltsák az ilyen tartalmakat, hogy megakadályozzák a terjedésüket.

Szépen lassan pedig jogi keretek közé is szorítják a deepfake videókat - legalábbis erre utalnak a jelek. Természetesen elsőként az Egyesült Államok kongresszusa, kibervédelmi és nemzetbiztonsági szervezeti vették föl a kesztyűt az ilyen tartalmak ellen. Ugyan még nem látni pontosan azt a jogi struktúrát, amivel egészséges mederben lehet tartani a deepfake jelenséget, de szerencsére már a törvényhozók elkezdték kongatni a vészharangot, hogy a technológiával kapcsolatos visszaélésekre lehet számítani, amivel egészen egyszerűen kezdenie kell valamit a döntéshozóknak.

kep.png

Etikus reklámozás: a mesterséges intelligencia dilemmái a marketingben

Egyelőre nem egy disztópikus, robotok által irányított világban élünk, viszont egy olyan jövő felé haladunk, melyben az emberek egyre fejlettebb technológiákat alkotnak. Ez alól a marketing sem kivétel: a mesterséges intelligencia ezt a tudományterületet is egyre inkább meghódítja. A cél a vásárló felé történő kommunikáció egyénivé tétele, a kérdés pedig az, hogy mégis meddig mehet el ebben egy reklám. 

Az etika a mesterséges intelligenciával ellentétben nemcsak nullákból és egyesekből áll. A mesterséges intelligencia kutatása területén viszont nem ismeretlenek az etikai dilemmák. Nézzünk egy példát! A júniusban megrendezett Cannes Lions kreatív fesztiválon Tenzin Priyadarshi, az MIT-n (Massachusetts Institue of Technology) a The Dalai Lama Center for Ethics and Transformative Values alapítója és vezetője, egyben a Sanofi gyógyszervállalat beszerzési munkatársa, egy olyan érdekes dilemmát vázolt fel a mesterséges intelligencia kutatásban, mely a kulturális különbségekre világít rá. A kitalált forgatókönyv szerint egy autós balesetet szenved, de előtte eldöntheti, hogy jobbra, vagy balra rántja el a kormányt. Tőle jobbra egy olyan motoros halad, aki a törvénynek megfelelően bukósisakot visel, balra pedig hasonlóképpen egy motoros, csak bukósisak nélkül. A kérdés, hogy autósként merre kormányoznánk.

4_3.jpg

Tenzin Priyadarshi kutatásai szerint az amerikaiak többsége inkább jobb oldali irányba rántaná a kormányt, hiszen a bukósisakot viselő motorosnak nagyobb az esélye a túlélésre. Ezzel szemben az ázsiai kliensek a bal oldali motoros kárára döntöttek, ugyanis ő nem tartotta be a közlekedési szabályokat. Ezek szerint az önműködő autókat másképpen kellene programozni a világ különböző részein?

De mit is adhat a mesterséges intelligencia kutatása a marketingnek? Rengeteg reklámot fogyasztunk nap mint nap, így a marketing célja a személyre szóló tartalom létrehozása, és a vásárlási élmény egyénivé tétele lett, azért, hogy a vásárló úgy érezze, az adott reklám valóban neki és csak neki szól. Az MI abban segít, hogy az üzenet a legmegfelelőbb pillanatban, a legjobb felületen és nyelvezettel érje el a potenciális vásárlót. Gondoljunk csak arra, amikor egy internetes vásárlásnál a honlap megmutatja, miket vettek még azok, akik a kinézett terméket megvették. Egy másik példa a dinamikus árazás: ha egy cég akciósan kínál egy terméket, akkor valóban több vásárlója lesz, de kevesebb bevételt szerez, mintha mindannyian az eredeti áron vásároltak volna. Na már most, ha a vállalat a mesterséges intelligencia segítségével csak azoknak ajánlaná akciósan a terméket, akik különben nem feltétlenül vásárolnák meg, a biztos vevőknek pedig eredeti áron kínálná, akkor végeredményben többet kaszálna. Kezdjük érezni a problémát, ugye?

Képzeljük el, hogy egy luxusautókat forgalmazó vállalat marketingesei vagyunk. Etikusnak tartjuk-e a munkánkat, ha böngészési előzmények, érdeklődési körök, életkörülmények alapján választjuk ki, hogy kiknek szeretnénk a legújabb modellt reklámozni? Ezzel még rendben is lehetnénk, de menjünk tovább! Etikusnak tartjuk-e akkor a munkánkat, ha olyanok számára szeretnénk megjelentetni a legújabb modell hirdetését, akiknek szenvedélyük a vezetés, hajlamosak felelőtlenül költekezni és elbüszkélkedni szerzeményeikkel, de annyira nem állnak jól anyagilag? Ennél az etikai fejtörőnél talán már rezeg a léc.

1_2.jpg

Nézzünk azonban egy veszélyesebb példát: alkohol. Az alkoholról azt mondják, iszunk, ha boldogok vagyunk, és akkor is, ha éppen szomorúak. Reklámozhatunk-e alkoholt annak, akinek születésnapja lesz, évfordulója? Esetleg gimnáziumi ballagása? Vagy azoknak, akiről a mesterséges intelligencia segítségével nagy valószínűséggel megállapíthatjuk, hogy depresszióra hajlamosak? Ezek már nem fekete-fehér kérdések, és ötvennél sokkal több árnyalatuk van.

2_2.jpg

3_2.jpg

A mesterséges intelligencia alkalmazása a marketingben felveti továbbá a vásárlói viselkedés irányításának problémáját is. Ha megjósolható a jövő, akkor alakítható is? El tudjuk érni marketingesként, hogy mire vágyjanak az emberek: mit fogyasszanak, mibe öltözködjenek, hogy nézzenek ki? Persze ez nem egy újkeletű kérdés a reklámok területén, de az MI térhódításával sokkal hangsúlyosabbá válhat.

A két kulcsszó: átláthatóság és beleegyezés. A vásárlóknak tisztában kell lenniük az őket megszólító technológiák működési elveivel, és biztosítani kell számukra az opciót, hogy részesei szeretnének-e lenni az újfajta marketingkommunikációnak. Persze a reklámozók már biztos tudják, milyen döntést hoznánk a kérdésben, hiszen talán már jobban is ismernek minket, mint mi saját magunkat.

 Képek: innen, innen, innen.

Tetszett a bejegyzés, és nem akarsz lemaradni a következőről? Akkor kövesd a Konzervtelefon Blogot, és a BME Kommunikáció és Médiatudomány Facebook oldalt!

Emberi kommunikáció lehet-e valaha a gépekkel folytatott csevegés?

Interperszonális kommunikáció során partnereinket érző és gondolkodó lényeknek tartjuk, és feltételezzük, hogy a másik egy adott szándékkal lépett velünk kapcsolatba. Ennek fényében felmerül, hogy hogyan tekintsünk virtuális asszisztenseinkre, és a velük folytatott „társalgásokra”? Ha érzőnek nem is, gondolkodónak tarthatjuk-e őket? Képes lehet egy szoftver a diskurzus rejtett szabályait alkalmazni? A chatbotok világában most ezekre a kérdésekre keressük a választ.

A különböző tudományok - mint a nyelvészet, a filozófia, a szociálpszichológia vagy a pszicholingvisztika - mind máshogy közelítik meg a társalgás kérdéskörét. Utóbbi a technológiai rendszerek megismerése által von le következtetéseket az interakcióra vonatkozóan, vagyis azt vizsgálja, hogy a gépekkel folytatott kommunikációban hogyan valósulnak meg az emberi kommunikációra jellemző elvek.

ke_p1.png

A kutatási téma igencsak releváns, hiszen a virtuális személyi asszisztensek már jó ideje jelen vannak a mobil piacon: a Siri (Apple), az SVoice (Samsung) és a Cortana (Microsoft) hasonló elvek mentén, egyre valóság közelibb formában állnak az emberek rendelkezésére. A Cortanaval például már csevegő tónusban is beszélgethet a felhasználó, így a társalgás olyan, mintha csak egy másik személyhez szólna.

A 'chatterbot', vagy rövidebb és elterjedtebb nevén chatbot tehát egy olyan program, amely a mesterséges intelligencia segítségével kommunikál az emberekkel, előre lefektetett metódusok és parancssorok alapján. Az első chatbotnak az 1966-ban kifejlesztett ELIZA-t tartják, a kifejezést megalkotása pedig Michael Mauldin nevéhez fűződik. Mauldin másik nagy újítása az, hogy 1994-ben létrehozta első Verbo-t (Verbally Enchanted Software Robots), akit Julia-nak nevezett el. Ez volt az első olyan szoftver, ami nem szöveges, hanem hangüzenetben kommunikált.

ke_p2.png

A gépekkel folytatott akusztikus társalgást az Amazon magas szintre fejlesztette az Echo készülék forgalomba hozásával, mely az Alexa nevű beszélő szoftverrel ellátva 2014 novemberében debütált a piacon. A cég eddig körülbelül 3 millió példányt adott el belőle.  

Az Echo egy Bluetooth hangszóró és egy virtuális asszisztens keresztezéséből jött létre, és többféle funkció betöltésére alkalmas: például folyamatosan figyel, azonnal válaszol a felhasználó által feltett kérdésekre, és elvégez egyszerűbb műveleteket, mint például a zene lejátszás vagy az ébresztő beállítása. Működési mechanizmusa a következő: a kérdéseket, kéréseket az „Alexa” felkiáltással nyitjuk, majd kiadjuk az utasítást. A szoftver WiFi hálózatra csatlakozás segítségével találja meg a szükséges információt, illetve folyamatosan tanul: kérdéseinket amellett, hogy rögzíti, a felhőben tárolja - ez pedig a rendszer fejlesztésében segíti az Amazon munkatársait. 

Az ember-gép dialógus azonban nem mindig zökkenőmentes:

Ember: Mikor indul vonat Miskolcra?

Gép: Ma utazik?

Ember: Kedden.

Gép: Ma utazik?

A példa Pléh Csaba "A társalgás pszichológiája" című művében olvasható. Az idézett szöveg rámutat arra, hogy a gépben értetlenséget generálhat az, ha az általa feltett eldöntendő kérdésre a felhasználó a várttól eltérő választ ad. És hogy miért válaszol így a gépnek a felhasználó, ahelyett, hogy igennel, vagy nemmel felelne? Azért, mert a párbeszédeket irányító összetett társas rendszerben az emberek egymást sajátos ismeretekkel, szándékokkal és egymásra vonatkozó gondolattulajdonításokkal teli lényeknek látják. A gépeknek ehhez kell felnőni. 

ke_p3.png

De egyelőre még kérdés, hogy az intelligens személyi asszisztensek egyre fejlődő kompetenciáiknak köszönhetően mikor tölthetnek be teljes értékű szerepet egy társalgásban, illetve, hogy egyáltalán megvalósulhat-e ez az állapot. Vajon túllépnek-e valaha azon, hogy utasításokat hajtanak végre és kérdéseket válaszolnak meg? Képesek leszünk valaha valós társalgási szituációt előidézni velük?

Az biztos, hogy az okos eszközök óriási fejlődést produkáltak a beszédfelismerés és a mesterséges intelligencia terén, ezen a téren sokan  a Siri-t tartják mérföldkőnek: a rendszer az esetek többségében frappáns válasszal szolgál kérdéseinkre. Virtuális asszisztensként állandóan szolgálatkész, és felhasználó kedvében akar járni.

ke_p4.png

Nem kedveli az obszcén szavakat, köszönt és elköszön, ha már nincs rá szükségünk. Mindig megvárja, míg befejezzük mondandónkat, nem vág közbe. Azonban ez a fajta társalgás nem kívánja meg például az ember-ember közti diskurzusban elvárható udvariasságot – mi például minden lelkiismeretfurdalás nélkül bezárhatjuk a programot elköszönés nélkül.

Mark Sagar, az új-zélandi University of Auckland professzora úgy gondolja, egy emberi arccal felruházott chatbottal gazdagabb kommunikáció folytatható, mint szöveges üzenetekkel működő rendszerekkel. Ezért megalkották a Nadia nevezetű avatárt, akinek Cate Blanchett kölcsönözte a hangját, az IBM pedig szoftvert szolgáltatott hozzá.

Nadia a fogyatékossággal élők számára nyújt segítséget a közigazgatási ügyintézésben. A Soul Machines startup által kifejlesztett avatárok arra is programozhatóak, hogy reagáljanak a személy arckifejezéseire a saját szimulált mimikájukkal – vagyis az empátia illúzióját hozzák létre.

ke_p5.png

Mára elmondható, hogy a chatbotok olyan világába léptünk, ahol a fejlesztők azon dolgoznak, hogy az avatárok a lehető legemberibb módon kommunikáljanak velünk. De az, hogy „a lehető legemberibb” eléri-e valaha az „emberi” szintet, az a jövő zenéje. 

képek: innen, innen, innen, innen, innen, és innen