A BME Kommunikáció és médiatudomány szak blogja

#Konzervtelefon


Mesterséges intelligencia: filmek és valóság

2019. december 06. - konzervtelefon

A mesterséges intelligencia (MI) fejlesztésére hatalmas összegeket fordítanak világszerte: az innovációs versenyben nagyhatalmak, egyetemek és tech óriások is részt vesznek, de a startup szférában is születnek igazi áttörések. A technikai lehetőségek bővülése azonban számtalan új etikai kérdést is felvet – ezek egy része Hollywoodot és a streaming szolgáltatókat sem hagyja hidegen. Mik a fő fejlesztési irányok, milyen dilemmák kapcsolódnak ezekhez, és hogyan reflektál minderre a popkultúra?

„Mérnöki szempontból a mesterséges intelligencia fejlesztésében két fő irányvonal van. Az egy-egy feladat megoldására kalibrált rendszerekhez (narrow artificial intelligence) tartoznak a keresőmotorok, ajánló algoritmusok, hangfelismerő alkalmazások, de akár az önvezető autók is. A másik csoportot az általános mesterséges intelligenciák (artificial general intelligence= AGI) alkotják, például a Turing teszten induló chatrobotok vagy több funkció ellátására alkalmas MI asszisztensek” – magyarázza Dr. Héder Mihály, a BME Filozófia és Tudománytörténet tanszékének docense, aki az MI körüli kérdésekkel fejlesztő mérnökként és technikafilozófusként is foglalkozik.

dreamstime_s_19139701.jpg

Robot woman sitting in futuristic hammock.
© Sarah Holmlund | Dreamstime.com

 

A technikai környezet folyamatos bővülése és a jövő technológiái bőven adnak gondolkodnivalót a tudósoknak: gyakran felmerül, hogy a robotok elveszik-e majd az emberek munkáját, vagy, hogy az önvezető autók mit fognak tenni egy-egy élet-halál kérdést jelentő közlekedési helyzetben. „Az MI-k egyre fontosabb döntéseket képesek meghozni helyettünk, de nem lehet őket úgy felelősségre vonni, mint az embereket. Előfordulhat, hogy olyan bonyolulttá válnak, hogy a megalkotóik sem fogják már átlátni a működésüket, ami váratlan, vagy akár veszélyes helyzeteket is eredményezhet. Egyes tudósok – például Stephen Hawking, Ray Kurzweil, Nick Bostrom – azt is el tudják képzelni, hogy ezek a gépek öntudatra ébrednek. Felmerül, hogy az MI-k egyre több területen lesznek az emberek társai, nem csak a munkában, hanem a magánéletben is. Milyen státuszt adunk majd nekik? Továbbra is gépekként kezeljük majd őket? Végül nem szabad megfeledkezni a sötét oldalról sem: egy elszabadult autonóm fegyver óriási pusztítást végezhet.” – mondja a szakértő.

Pusztítók és szeretők

A filmek és a sorozatok jól lekövetik a fejlesztések széles spektrumát, sőt, a jövőben játszódó történetek jól ráéreznek arra, hogy milyen technológiák lesznek elérhetőek a jövőben. Hangsúlyok azonban vannak, Dr. Héder Mihály három kategóriát különít el:

  1. Az MI mint ellenség: az öntudatra ébredt robotok kipusztítják az emberiséget – erre a narratívára példa a Terminátor sorozat, melynek első epizódja 1984-ben debütált.
  2. Az MI mint társ: a robotok az élet egyre több területén jelennek meg partnerként. Az Csillagok között (Interstellar, 2014) című filmben azt látjuk, hogy extrém körülmények között a gépek milyen jól ki tudják egészíteni az emberek képességeit. A nőben (Her, 2013) egy álombarátnőt személyesít meg egy beszélő chatrobot, a Robot&Frank (2012) pedig arra világít rá, hogy az idősek ellátásában milyen előnyei lehetnek egy robotnak.
  3. Az MI mint technológiai környezet: a film cselekményének hátteret adó ultramodern környezetben az önálló személyiséggel nem rendelkező, egy-egy feladatot ellátó MI rendszerek is hangsúlyosan megjelennek. Önállóan ritkábban szerepelnek filmekben, viszont az összetettebb, negatív vagy pozitív személyiséggel rendelkező MI-ket bemutató filmekben stabil a helyük.

interstellar.jpg

(via)

Vannak azonban nehezebben megfogható témák, amelyek a képernyőn is kevésbé vannak jelen: ilyen például az, hogy a mesterséges intelligenciával rendelkező rendszerek nem mindenki számára lesznek egyformán elérhetőek. „A technikai fejlődés és az MI használatának standarddá válása még szélesebbre nyithatja a társadalmi ollót. Azok a csoportok, akik nem férnek hozzá a technológiához, kiszolgáltatottabbá válhatnak és még jobban leszakadhatnak. Akik viszont értik és birtokolják ezeket a rendszereket, azok élvezhetik az előnyeit, még nagyobb hatalomra tehetnek szert. Ez már egy nehezebben dramaturgizálható téma, csakúgy, mint a munkahelyek sorsa.”


A ‘20-as évektől a Black Mirror-ig

Az MI fejlődése az elmúlt évtizedekben gyorsult fel, a téma azonban már sokkal régebb óta foglalkoztatja a filmkészítőket: a szélesvászonra már a húszas években betörtek a robotok. „1927-ben mutatták be a Metropolis című fekete-fehér, német némafilmet, mely 2026-ban játszódik: ez az első olyan film, amiben robot – egész pontosan egy robotnő szerepel.

metropolis.jpg

(via)

Klasszikussá vált ez a film is, csakúgy, mint a 2001: Űrodüsszeia rideg, beszélő mesterséges intelligenciája – az 1968-ban bemutatott mű kora MI vízióit tükrözi. Az 1977-es A komputer gyermeke (Demon Seed) története meglehetősen bizarr: egy Proteus IV nevű robot testet épít magának, domináns és erőszakos személyiségként uralkodik alkotója felesége felett, akit meg is termékenyít.

demonseed.jpg

(via)

A nyolcvanas években egy családi vígjáték, a Rövidzárlat (1986) különbséget tesz jó és rossz robotok között: a meghibásodás miatt öntudatra ébredő 5-ös robot szeretnivaló és jó szándékú. A vele egy szériában készült prototípusok viszont igazi gyilkoló automaták, akik mérlegelés nélkül teljesítik a parancsokat. A Rövidzárlat arra is rámutat, hogy az MI nem csak a sci-fi műfajban jelenik meg, hanem a vígjátékokban, családi filmekben, drámákban és animációs filmekben is. Az utóbbi kategóriába tartozik a Wall-E (2008) is, mely a robotok érzelmei és egymás közötti kapcsolata mellett jól reprezentálja azt is, hogy hova juthat az ellustulásban a társadalom, ha mindent a robotok végeznek az emberek helyett.

5osrobot.jpg

(via)

A filmek abban is változatosak, hogy fizikailag hogyan ábrázolják a mesterséges intelligenciát. „Ebben a kérdésben is három alapkategória van. Az első csoportot a test nélküli MI-k alkotják: például Samantha A nőben, akinek csak a hangját halljuk. A második csoportba az ember számára valamiért szimpatikus MI-k tartoznak. Közülük többen a szexuális vonzerejükkel tesznek jó benyomást: ilyen az Ex Machina Ava-ja, vagy az újabb Battlestar Galactica feldolgozások robotnői – vonzóak, ám életveszélyesek. Mások amiatt tetszenek az embereknek, mert aranyosak: ilyen az előbb említett Wall-E, vagy a 2001-es A.I. Mesterséges Értelem című film kisfiúja, aki igazi álomgyerek. A harmadik kategóriába tartozó MI-k viszont félelmetesek, gyakran gépszerűek, vizuálisan is egyértelmű, hogy veszélyt jelentenek az emberre: a Terminátor robotjait nézve efelől nincs kétségünk.”

exmachina.jpg

(via)

Az utóbbi években nem csak a filmipar alkotott nagyot MI témában, hanem a televíziós és a streaming szolgáltatók is. A Black Mirror (Netflix) például 2011 óta látja el elgondolkodtató és gyakran hátborzongató történetekkel a nézőket: Dr. Héder Mihály azt az epizódot emeli ki, amelyben egy özvegy nővel egy chatrobot beszélget az egykori férj nevében. A Westworld (HBO, 2016) szintén figyelemre méltó alkotás – bár a szakértő szerint kissé leegyszerűsített megközelítés az, hogy a robotok ugyanúgy gyűlölködnek benne, mint az emberek.

Az MI atyjai

A mesterséges intelligenciáról szóló filmek a tudósábrázolásuk miatt is érdekesek: Dr. Héder Mihály szerint ebben egyrészt a régi sztereotípiák jellemzőek, miszerint a tudósok férfiak, szemüvegesek, fehér köpenyesek és gyakran őrültek is. Ugyanakkor az újabb filmekben megjelentek az Elon Muskra emlékeztető gazdag tech vállalkozók is.

A megszokás hatalma

Fontos kérdés, hogy ezek a széles skálán mozgó reprezentációk hogyan alakítják a mesterséges intelligencia megítélését – ezzel például egy 2011-es és egy 2016-os kutatás is foglalkozott. Eredményeiket a technikafilozófus is megerősíti. „Az, hogy a képernyőn rendszeresen találkozhatunk ezekkel a rendszerekkel, megszokottabbá teheti a létezésüket, ezen keresztül pedig nőhet az elfogadottságuk.  A pusztító robotok ijesztők ugyan és félelmeket generálhatnak, de ezek a hatások inkább rövid távon működnek. Az MI rendszerek gyorsan terjednek, rengetegen használják ezeket már most is, annak ellenére, hogy sok rémisztő film készült már eddig is a témában. A technikatörténet azt mutatja, hogy ha egy-egy fejlesztés segítséget és kényelmet jelent, akkor az emberek használni fogják, nem beszélve arról, hogy az MI birtoklása divat és státuszszimbólum is lehet.”

Még több MI dilemma

Ha érdekelnek a mesterséges intelligencia műszaki, filozófiai-etikai, reprezentációs kérdései, gyere el Magyarország eddigi legnagyobb technikafilozófiai konferenciájára, ahol számos más izgalmas témával is találkozhatsz! Önvezető autókról, autonóm fegyverekről, agyi implantátumokról, gépi tanulásról éppúgy szó lesz majd, mint az atomenergiáról, a Big Data-ról és a közösségi média algoritmusairól.

konzerv.png

Adatvédelem: Amikor a kávéfőződ többet tud rólad, mint a párod

Amikor mesterséges intelligenciáról beszélünk, sokan a gyilkos robotokra asszociálunk, akik át akarják venni az uralmat az emberiség fölött. De mi van, ha azt mondom, hogy okos kávégépek, okos hangszórók,  vagy okos fogkefék? Ártatlannak tűnő eszközök, amelyek akár kémkedhetnek is utánunk, a saját otthonunkban. 

Elfogadjuk! De mégis mit? 

Nemrég jött ki a telefonomhoz a legújabb frissítés, és már majdnem automatikusan elfogadtam hozzá az adatvédelmi feltételeket, amikor belém hasított a gondolat, hogy ezeket a szerződéseket vajon elolvassa-e egyáltalán valaki? Tudjuk egyáltalán, hogy mire mondunk igent? Alig ismertem magamra, hiszen arra tanítottak, hogy mielőtt bármit elfogadok/aláírok, azt alaposan olvassam át. A legtöbb esetben ez nálam a protokoll, kivéve ilyenkor. Lehet, hogy most sokan magatokra ismertetek, éppen ezért tanulságként olyan eseteket mutatunk be, amelyekben a felhasználóknak bizony jobb lett volna előbb olvasni.

Jössz velem játszani ?

Kezdjük egy ijesztő esettel, amikor egy cég csúnyán visszaélt a vásárlók személyes adataival. Le kell szögeznünk, hogy ezt csak úgy tudták megtenni, hogy a fogyasztók nem néztek utána annak, hogy milyen szerződést fogadtak el - így elméletileg a cég nem követett el vétséget, amikor egy harmadik félnek kiszivárogtatta az adataikat. Finn Lützow-Holm Myrstad egy TED Talk előadásban beszélt egy bizonyos Cayla nevű játékbabáról, aki akárcsak egy beépült titkos ügynök, kémkedett a gazdái otthonában. Myrstad közelről ismeri a történet, hiszen egy fogyasztói jogokért harcoló szervezetnél dolgozik (Norvég Fogyasztóvédelmi Tanács), ahol különböző, aggályos eseteket vizsgálnak, és ha kell, megteszik a szükséges jogi intézkedéseket. Így történt ez Cayla esetében is.

my-friend-cayla-doll.jpg

(via)

A játékbaba használata rendkívül egyszerű, csak le kell tölteni hozzá egy ártatlannak tűnő applikációt, így válik elérhetővé a babához tartozó összes funkció. Cayla az interneten és a hangfelismerő technológián keresztül könnyedén tud releváns válaszokat adni a gyerekek által feltett kérdésekre. Igen ám, de amikor a vásárlók letöltötték az alkalmazást és elfogadták a hozzátartozó felhasználási feltételeket, egyúttal hozzájárultak ahhoz is, hogy a baba által megszerzett adatokat a gyártó kiszolgáltathatja egy ismeretlen harmadik félnek. Egy marketinges cégnek aranyat érhetnek ilyen bizalmas és őszinte adatok a fogyasztókról az eladás növelése érdekében. 

A problémát az is fokozta, hogy Cayla-ra bárki gond nélkül rá tud kapcsolódni 18 méterről egy okostelefonnal bluetooth-on keresztül. Amikor Myrstad csapata ezt jelezte a babát gyártó cég felé, azt a választ kapták, hogy erre csak egy magasan képzett IT szakember lehet képes. Cáfolásképpen a TED előadás közben csatlakoztak rá a játékra, és a baba hangszóróin keresztül beszéltek. Mondani sem kell, hogy  mennyire veszélyes lehet, amikor egy kisgyerek egyedül játszik és egy idegen ember a játék nyelvén szól hozzá, beszélgetni kezd vele, a bizalmába férkőzik, majd elhívja magával játszani. Kezdetben ez a baba több országban is az év játékának lett megszavazva, de azóta többek között Németországban betiltották és már nem lehet megrendelni az Amazon-ról sem. Jelenleg Cayla egy berlini kém múzeumban pihen, kiállítási darabként. 

A szerelem ára

Hazákban is nagyon népszerűek a randi app-ok, hiszen mennyivel egyszerűbb valakit csak egy suhintással jobbra húzni a Tinderen, mint például egy szórakozóhelyen megszólítani a kiszemeltet egy meghívással vagy menőnek hitt táncmozdulatokkal. Ugyan már! Ez fáradtságos és az ital is drága, a randi oldalakkal viszont otthonról lehet ismerkedni, ráadásul ingyen. Ha nem is pénzért vesszük ezeket a lehetőségeket, de valamivel azért fizetünk értük,  ha nem vigyázunk - például rengeteg személyes adattal.

image.jpg

(via)

Finn Lützow-Holm Myrstad és csapata alaposan elolvasta az egyik legnépszerűbb randi app adatkezelési nyilatkozatát - ha mindenki ezt tenné, akkor valószínűleg nem lenne a vezető randialkalmazások között, mert sokan inkább nem regisztrálnának. A fő menünél például egy már előre kipipált nyilatkozat van arról, hogy az app a felhasználó összes Facebook képéhez hozzáférhet. Ez még csak a jéghegy csúcsa, hiszen a szerződés szövege lényegében azt mondja ki, hogy a regisztrálók teljes randi dokumentációját (beleértve az adatokat, beszélgetéseket, fotókat) szabadon használhatja a cég. Ez azt jelenti, hogy bármilyen platformon megjelenítheti azokat, sőt, el is adhatja az összegyűjtött információt, hiszen korlátlan jogokat gyakorol felettük.  

Kémkedő fogkefék

Az NPR és az Edison Research kutatása szerint minden 6. amerikainak van már okoshangszórója, mely tulajdonképpen egy otthoni asszisztens, aki csatlakozik a netre, így például hangutasításra zenét tud lejátszani, beszámol az időjárásról, de beszélgetni is lehet vele - derül ki Kashmir Hill és Surya Mattu TED előadásából. A tech óriások mind fejlesztettek saját okoshangszórókat, hogy az asszisztenseik már ne csak az okostelefonokon keresztül legyenek elérhetőek. A Siri beköltözött a HomePod-ba, a Google-Assistant a Google Home-ba és Alexa pedig az Echo nevű okoshangfalba. Magyarországon ez az őrület  még csak gyerekcipőben jár, de könnyen lehet, hogy hamarosan reggelente mi is Alexához szólunk majd elsőként, hiszen az okos otthon fogalma itthon is egyre népszerűbb, és valljuk be, eléggé jól hangzik. De fontos megnéznünk az érme mindkét oldalát. Jópofa és kényelmes tud lenni, ha csak az ágyból kikiabálunk Alexának, hogy főzze meg a kávénkat, de ha mindez a személyes adatainkba kerül, akkor már nem is tűnik annyira vonzónak, hogy egy mesterséges intelligencia csináljon helyettünk reggelit.

51p7mapzz3l_ac_sl1000.jpg

(via)

Kashmir Hill és Surya Mattu kíváncsi volt arra, hogy ezek az eszközök milyen adatokat tárolnak és küldenek tovább a felhasználókról. Ezért egy két hónapos kísérlet során Kashmir lakásában, amit csak lehetett kicseréltek okosra - ilyen volt az ágy, a fogkefe, a hangfal, az izzók, az óra, a vécé és még sorolhatnánk, hiszen összesen 18 készüléket telepítettek. Egy speciális router segítségével nyomon követték az összes eszköz hálózati tevékenységét. Kiderült, hogy ezek mindent rögzítettek, ami a házban történt: tudták Kashmirról az alvási szokásait, hogy naponta hányszor és mennyi ideig mos fogat, mikor van otthon, de tisztában voltak azzal is, hogy hány percig nézi a tv-t. Az Echo volt a legsunyibb, mivel minden 3. percben kapcsolatba lépett a szerverekkel, függetlenül attól, hogy használták-e vagy sem. Ezért felmerül a kérdés, kinek éri meg jobban az okoseszköz? Nekünk, vagy a gyártónak, aki rengeteg személyes adathoz fér hozzá, amiket később eladhat reklámügynökségeknek vagy kutatócégeknek? Valószínűleg vannak, akiket nem zavar, hogy a cégek nem tisztelik a magánéletünket, de sokan nem szeretnének a tudtunk nélkül piackutatásokban részt venni.

1_5.jpg

(via)

A falnak is füle van: segít ezen a szabályozás?

Többek között az adatvédelmi fenyegetések ellen lépett hatályba 2018. május 25-én a GDPR (General Data Protection Regulation) törvény, amivel az EU egységesíteni szeretné az Unión belüli személyes adatok tárolására és felhasználására vonatkozó szabályokat. A szabályozás minden olyan EU-s vállalkozóra vonatkozik, aki valamilyen formában személyes adatokkal dolgozik, sőt azoknak is figyelniük kell a GDPR betartására, akik EU-s állampolgároknak biztosítanak szolgáltatásokat vagy termékeket, még akkor is, ha a cég nem az Európai Unión belül működik. Személyes adatnak tekinthető minden olyan információ a felhasználóról, amely alapján bárhogyan is, de beazonosítható a személy, például:

  • név
  • lakcím
  • telefonszám
  • e-mail cím
  • IP cím és cookie adatok - bár ezek alapján nem egyértelműen azonosítható be egy természetes személy, de mégis bekerültek a személyes adatok csoportjába.

A GDPR megosztó, sokan túlzásnak tartják, ugyanakkor egy technológiailag fejlett világban élünk, ahol ezek a virtuális veszélyek kezdenek elhatalmasodni, így nem ártanak az óvintézkedések. 

Végül, gondoljunk bele abba, hogy egyre több ember takarja le a laptopján a kamerát, mivel elterjedt hiedelem, hogy valakik, valahonnan rácsatlakozhatnak a számítógépeinkre és figyelhetnek minket. A kérdés az, hogy ha ennyire szeretnénk megóvni az adatainkat és személyazonosságunkat, akkor miért nem olvassuk el az adatvédelmi szerződéseket? Pedig, ha vakon elfogadjuk ezeket, az talán nagyobb veszéllyel járhat, mintha nem fedjük le a webkameránkat.

A bejegyzés szerzője Sőregi Kitti, a BME KomMédia képzés alapszakos hallgatója. 

Kapcsolódó:

konzerv.png

Deepfake: A dezinformációs háború atomfegyvere

Olyan időket élünk, melyben az Egyesült Államok elnöke laza csuklóval bélyegzi meg a "fake news" híres szópárosával a legkülönfélébb médiumokat. Persze lehet azon vitatkozni, hogy mi számít ma hiteles, illetve hiteltelen hírforrásnak, de az egészen biztos, hogy a történelem folyamán korábban nem tapasztalt formában zúdul az álhír az emberekre. Még az egészséges gyanakvás képessége mellett sem könnyű megkülönböztetni a valóságot teljesen, részben, vagy egyáltalán nem fedő híreket egymástól. Aki jelen van a közösségi médiában, vagy napi szinten olvas híreket, az tudja, hogy egy dezinformációs háború kellős közepén vagyunk, aminek az elsődleges színtere az internet. Ezt az állapotot millió plusz egy dologgal lehet magyarázni, de minden kétséget kizáróan az egyre profibb audiovizuális hamisítási technikák is szerepet játszanak a mostanában tapasztalt epikus "fake news" dömpingben. Az egyik ilyen eljárás az úgynevezett deepfake nevű technológia, aminek a tájékoztatásra gyakorolt hatását egyelőre még megjósolni is nehéz. 

deepfake1.jpg(via)

A deepfake nevű eljárás etimológiai értelemben a deep learning (mély tanulás) és a fake (ál-, hamis) szavakból ered. A név alapján valószínűleg egy összetett eljárásra gondolhatnak először a laikusok, de a technológia megértéséhez közel sincs szükség felsőfokú számítástechnikai képzettséghez. A deepfake szoftverek ugyanis nem csinálnak mást, mint mesterséges intelligencia (AI) segítségével audiovizuálisan meghamisítanak videókat. Az ilyen típusú programok eleve létező videókban szereplő emberek arcát és hangját lecserélik olyan személyekére, akiknek semmi közük sincs az originál képsorokhoz. A mesterséges intelligencia az interneten fellelhető kép és videó fájlok rengetegéből képes megtanulni – általában híres – emberek mimikáját, hangját, gesztikulációját és finommozgásait, amit aztán rekonstruál és beilleszt egy másik videóban lévő szereplő arcára. A meghamisított karakterbe pedig bárki belebújhat, és azt mondhat, vagy tehet, amit csak akar.

Képességeit elnézve a deepfake a technológia akár egy rendszeresített eljárása is lehetne az orwelli világban, csakhogy az audiovizuális képsorok meghamisítására kifejlesztett módszer nem egy disztópikus fiktív regény eleme, hanem nagyon is "kézzel tapintható" valóság. Sajnos nincsenek arra vonatkozóan pontos információk, hogy a mióta létezik a deepfake, mivel a technológia evolúciója rendkívül gyors állapotváltozások sorozata, ezért nehéz megmondani, hogy a jelenleg ismert stádiuma konkrétan mikor született meg. Ezzel együtt viszont nyugodtan kijelenthető, hogy 2-3 éve biztosan egzisztál a deepfake, és a legkülönbözőbb formái ismertek. Az ingyenesen hozzáférhető programoktól kezdve egészen a fizetős alkalmazásokig, rengeteg deepfake szoftver közül válogathatnak a civil felhasználók. Egyszóval ma már széles körben elérhető ez az eljárás, de az első jól regisztrálható felbukkanása egészen konkrétan 2017 második felében, a Reddit nevű közösségi weboldalon történt, ahol a felhasználók a szexuális fantáziáik megélésére használták a technológiát.

A deepfake felhasználási területei 

A deepfake körülbelül 3 évvel ezelőtt azzal robbant be a köztudatba, hogy a Redditen és az internet ’pöcegödreként’ számon tartott 4chan nevű képtábla weboldalon számolatlan olyan felnőtt filmes videó jelent meg, melyekben a női főszereplők testére hírességek arcát rakta a mesterséges intelligencia. Egyszóval ál-celebpornó gyártására fogták be először deepfake technológiát, ami azonnal meghozta az eljárás számára a széleskörű hírnevet.

Az első ilyen videók nagyon kezdetlegesek voltak és pár internetes szubkultúrát leszámítva nem igazán kaptak széleskörű figyelmet. Aztán technológia – a képességeit tekintve – rohamos fejlődésnek indult, és nagyon rövid időn belül teljesen élethű kamu A-listás celeb-pornóvideók kezdtek cirkulálni a világhálón. gal_gadot.jpg

Balra Gal Gadot hollywoodi színésznő, jobb oldalon pedig Gal Gadot arca deepfake segítségével egy pornószínésznő testére montírozva (via)

A kamu celeb-pornó népszerűsége meredeken ívelt felfele, a visszás műfajjal aztán a tartalommegosztó honlapok is komolyan foglalkozni kezdtek. Először a Redditnél kapcsoltak, hogy a hamisítás ezen formája komoly etikai és jogi kérdéseket vet fel. A híres közösségi oldalon először törölni kezdték az ilyen típusú tartalmakat, majd végül teljes körűen kitiltották azokat a felületről. Ezt a példát szinte minden felnőttfilmes videómegosztó portál is követte, és ma már ott tartunk, hogy kizárólag az internet legsötétebb bugyraiban találunk kamu celebpornót, ott viszont szép számmal. 

Fontos megjegyezni, hogy jelenleg úgy áll a helyzet, hogy bárkiről készülhet kamupornó. Ehhez mindösszesen kellő mennyiségű fényképre illetve videóra van szükség a célszemélyről. Ilyen értelemben a deepfake a bosszúpornó műfaját egy teljesen új dimenzióba helyezheti, ami durva visszaéléseket nyithat ajtót. Elég egy vérig sértett exbarát/barátnő, aki elégtételt akar venni vélt, vagy valós sérelmei miatt és kész a baj. 

Az emberi szexuális fantáziákat kiszolgáló felhasználáson túl, a deepfake-et a közhangulat és a politikai folyamatok befolyásolására is fel lehet használni. Vagyis csak lehetne, ugyanis egyelőre nem tudni olyan jelentős esetről, ahol a széleskörű közvélemény formálása miatt, illetve valamilyen politikai, vagy gazdasági haszonszerzés céljából született volna deepfake videó. Persze, ami késik, az nem múlik. A technológiai guruk szerint már nem kell sokat várni, hogy komoly társadalmi botrányt okozzon egy deepfake technológiával meghamisított felvétel. Konzervatív előrejelzések szerint a következő évek sorsfordító országgyűlési, vagy elnökválasztások kampányhajráinak valamelyike alatt bevethetnek manipulatív célból deepfake videókat. Például a 2020 novemberében esedékes amerikai elnökválasztást megelőzően sokak szerint számítani kell olyan videókra, melyek kommunikációs krízist, vagy belpolitikai válságot okozhatnak az Államokban. deepfake2.jpg

(via)

Így védekezz: A deepfake videók felismerése 

Több technológiával foglalkozó internetes portál is feldolgozta már, hogy miként lehet felismerni a deepfake videókat. E szaklapok általában többlépcsős védekezést ajánlanak az olvasóiknak. Ezek értelmében az első védekezési szint technikai jellegű, ami a deepfake korántsem tökéletes képességeire épít. Ezek a szoftverek – pláne az ingyenesen hozzáférhető gagyi cuccok – ugyanis gyakran olyan készterméket állítanak elő, amely hemzseg a szemet szúró hibáktól, így könnyen felismerhető a hamisítás ténye. Az arc illesztése, a hang és a szájmozgás lehetetlen együttállásai, a gazdatest és az "álarc" színárnyalatának és tónusbeli különbségei is olyan figyelmeztető faktorok, melyek egyértelmű jelei lehetnek a deepfake-nek. Több lap is hangsúlyozza, hogy a kevés pislogás egy karakteres árulkodó jel lehet - még a profi szoftverek esetén is. A deepfake algoritmusai ugyanis gyakran megfeledkeznek erről feltétel nélküli emberi reflexről és képesek pislogás nélküli emberarcokat legyártani.

A deepfake felismerés második foka már összetettebb, az ugyanis tartalomfogyasztásbeli szokásváltoztatást követel az emberektől. Aki nem akarja, hogy a deepfake videók megvezessék, annak a jövőben ki kell alakítania magában az egészséges kételkedés képességét, valamint nem árt, ha a realitásérzéke is kellőképp földhözragadt. Mindenkinek a mostaninál alaposabban kell ismernie a közszereplők és a politikai véleményformálók vérmérsékletét, állásfoglalását, illetve attitűdjeit, hogy az audiovizuális hamisítás lehetőségére kezdjenek gyanakodni, ha egy felvételen túl nagyot állít egy társadalmilag meghatározó személy. Például ha egy élethű videóban Nancy Pelosi demokrata alsóházi képviselő hosszan értekezik a Donald Trump amerikai elnök által kilátásba helyezett határfal fontosságáról és pozitív hatásairól, akkor az minimum kételyt kell, hogy ébresszen mindenkiben.

Ha az előző két szint csődöt mond, és egyik segítségével sem lehet hitelt érdemlően bizonyítani a deepfake tényét egy gyanús videóról, akkor ellenőrzőszoftverek segítségével is lehet ellenőrizni egy videó valódiságát. Több szoftverfejlesztő cég is azon dolgozik a nagyvilágban, hogy olyan számítógépes programokat hozzanak létre, melyek közel 100 százalékos biztonsággal megmondják egy videóról, hogy deepfake által hamisított-e. Ezek a programok – deepfakehez hasonlóan – mesterséges intelligenciát használnak a felismerés folyamata alatt. A videó hangszintjétől kezdve, az arc színtónusain át egészen a mimikáig sok mindent megvizsgálnak ezek a programok.

deepfake2.jpeg

(via)

A mesterséges intelligencia, azaz mély tanulása azonban egy végeláthatatlan csiki-csuki harc folyik a deepfake szoftverek és az ilyen típusú videókat felismerő programok között, ugyanis mindkettő a másik hibáiból tanul. A deepfake szoftverfejlesztők egyszerűen megvizsgálják, hogy az felismerő programok milyen hibák kiszűrésével detektálja a hamis tartalmat, majd ezekre a hibákra ráeresztik a mesterséges intelligenciát, hogy korrigálni tudja azokat. Ilyen értelemben pedig az újabb típusú deepfake szoftver a régi hibákat kiküszöbölve már olyan minőségben készít videót, amiről nem tudja megmondani egy régi felismerő program teljes bizonyossággal a hamisítás tényét. Az ördögi kör így bezárul és mindkét oldal folyamatos önfejlesztő paradigmába kerül.

Valós fenyegetés-e a deepfake? 

Kinyílt Pandóra szelencéje, már semminek sem hihetünk! – valószínűleg valami nagyon hasonló járhat az örök pesszimisták fejében, amikor a deepfake társadalomra gyakorolt hatását próbálják megfejteni. Természetesen ezek az aggodalmak teljesen jogosak, de ha a múlt hasonló típusú technológiai fejlesztéseit vesszük figyelembe, akkor nem jelenthet reális fenyegetést a deepfake. Példának okáért a Photoshop segítségével se sikerült soha senkinek háborúkat kirobbantania, vagy választásokat megnyernie. Legalábbis közvetlenül biztosan nem. Nagy valószínűséggel ugyan lesznek visszaélések a technológiával, de a szakértők szerint egyáltalán nem kell világégésre számítani. A nagy közösségi médiumok, és a széleskörű közvélemény befolyásolására alkalmas internetes felületek ugyanis komolyan foglalkoznak a deepfake jelenséggel, és hatalmas erőforrásokat mozgósítottak az utóbbi időben arra, hogy kiszűrjék és letiltsák az ilyen tartalmakat, hogy megakadályozzák a terjedésüket.

Szépen lassan pedig jogi keretek közé is szorítják a deepfake videókat - legalábbis erre utalnak a jelek. Természetesen elsőként az Egyesült Államok kongresszusa, kibervédelmi és nemzetbiztonsági szervezeti vették föl a kesztyűt az ilyen tartalmak ellen. Ugyan még nem látni pontosan azt a jogi struktúrát, amivel egészséges mederben lehet tartani a deepfake jelenséget, de szerencsére már a törvényhozók elkezdték kongatni a vészharangot, hogy a technológiával kapcsolatos visszaélésekre lehet számítani, amivel egészen egyszerűen kezdenie kell valamit a döntéshozóknak.

kep.png

Etikus reklámozás: a mesterséges intelligencia dilemmái a marketingben

Egyelőre nem egy disztópikus, robotok által irányított világban élünk, viszont egy olyan jövő felé haladunk, melyben az emberek egyre fejlettebb technológiákat alkotnak. Ez alól a marketing sem kivétel: a mesterséges intelligencia ezt a tudományterületet is egyre inkább meghódítja. A cél a vásárló felé történő kommunikáció egyénivé tétele, a kérdés pedig az, hogy mégis meddig mehet el ebben egy reklám. 

Az etika a mesterséges intelligenciával ellentétben nemcsak nullákból és egyesekből áll. A mesterséges intelligencia kutatása területén viszont nem ismeretlenek az etikai dilemmák. Nézzünk egy példát! A júniusban megrendezett Cannes Lions kreatív fesztiválon Tenzin Priyadarshi, az MIT-n (Massachusetts Institue of Technology) a The Dalai Lama Center for Ethics and Transformative Values alapítója és vezetője, egyben a Sanofi gyógyszervállalat beszerzési munkatársa, egy olyan érdekes dilemmát vázolt fel a mesterséges intelligencia kutatásban, mely a kulturális különbségekre világít rá. A kitalált forgatókönyv szerint egy autós balesetet szenved, de előtte eldöntheti, hogy jobbra, vagy balra rántja el a kormányt. Tőle jobbra egy olyan motoros halad, aki a törvénynek megfelelően bukósisakot visel, balra pedig hasonlóképpen egy motoros, csak bukósisak nélkül. A kérdés, hogy autósként merre kormányoznánk.

4_3.jpg

Tenzin Priyadarshi kutatásai szerint az amerikaiak többsége inkább jobb oldali irányba rántaná a kormányt, hiszen a bukósisakot viselő motorosnak nagyobb az esélye a túlélésre. Ezzel szemben az ázsiai kliensek a bal oldali motoros kárára döntöttek, ugyanis ő nem tartotta be a közlekedési szabályokat. Ezek szerint az önműködő autókat másképpen kellene programozni a világ különböző részein?

De mit is adhat a mesterséges intelligencia kutatása a marketingnek? Rengeteg reklámot fogyasztunk nap mint nap, így a marketing célja a személyre szóló tartalom létrehozása, és a vásárlási élmény egyénivé tétele lett, azért, hogy a vásárló úgy érezze, az adott reklám valóban neki és csak neki szól. Az MI abban segít, hogy az üzenet a legmegfelelőbb pillanatban, a legjobb felületen és nyelvezettel érje el a potenciális vásárlót. Gondoljunk csak arra, amikor egy internetes vásárlásnál a honlap megmutatja, miket vettek még azok, akik a kinézett terméket megvették. Egy másik példa a dinamikus árazás: ha egy cég akciósan kínál egy terméket, akkor valóban több vásárlója lesz, de kevesebb bevételt szerez, mintha mindannyian az eredeti áron vásároltak volna. Na már most, ha a vállalat a mesterséges intelligencia segítségével csak azoknak ajánlaná akciósan a terméket, akik különben nem feltétlenül vásárolnák meg, a biztos vevőknek pedig eredeti áron kínálná, akkor végeredményben többet kaszálna. Kezdjük érezni a problémát, ugye?

Képzeljük el, hogy egy luxusautókat forgalmazó vállalat marketingesei vagyunk. Etikusnak tartjuk-e a munkánkat, ha böngészési előzmények, érdeklődési körök, életkörülmények alapján választjuk ki, hogy kiknek szeretnénk a legújabb modellt reklámozni? Ezzel még rendben is lehetnénk, de menjünk tovább! Etikusnak tartjuk-e akkor a munkánkat, ha olyanok számára szeretnénk megjelentetni a legújabb modell hirdetését, akiknek szenvedélyük a vezetés, hajlamosak felelőtlenül költekezni és elbüszkélkedni szerzeményeikkel, de annyira nem állnak jól anyagilag? Ennél az etikai fejtörőnél talán már rezeg a léc.

1_2.jpg

Nézzünk azonban egy veszélyesebb példát: alkohol. Az alkoholról azt mondják, iszunk, ha boldogok vagyunk, és akkor is, ha éppen szomorúak. Reklámozhatunk-e alkoholt annak, akinek születésnapja lesz, évfordulója? Esetleg gimnáziumi ballagása? Vagy azoknak, akiről a mesterséges intelligencia segítségével nagy valószínűséggel megállapíthatjuk, hogy depresszióra hajlamosak? Ezek már nem fekete-fehér kérdések, és ötvennél sokkal több árnyalatuk van.

2_2.jpg

3_2.jpg

A mesterséges intelligencia alkalmazása a marketingben felveti továbbá a vásárlói viselkedés irányításának problémáját is. Ha megjósolható a jövő, akkor alakítható is? El tudjuk érni marketingesként, hogy mire vágyjanak az emberek: mit fogyasszanak, mibe öltözködjenek, hogy nézzenek ki? Persze ez nem egy újkeletű kérdés a reklámok területén, de az MI térhódításával sokkal hangsúlyosabbá válhat.

A két kulcsszó: átláthatóság és beleegyezés. A vásárlóknak tisztában kell lenniük az őket megszólító technológiák működési elveivel, és biztosítani kell számukra az opciót, hogy részesei szeretnének-e lenni az újfajta marketingkommunikációnak. Persze a reklámozók már biztos tudják, milyen döntést hoznánk a kérdésben, hiszen talán már jobban is ismernek minket, mint mi saját magunkat.

 Képek: innen, innen, innen.

Tetszett a bejegyzés, és nem akarsz lemaradni a következőről? Akkor kövesd a Konzervtelefon Blogot, és a BME Kommunikáció és Médiatudomány Facebook oldalt!

Emberi kommunikáció lehet-e valaha a gépekkel folytatott csevegés?

Interperszonális kommunikáció során partnereinket érző és gondolkodó lényeknek tartjuk, és feltételezzük, hogy a másik egy adott szándékkal lépett velünk kapcsolatba. Ennek fényében felmerül, hogy hogyan tekintsünk virtuális asszisztenseinkre, és a velük folytatott „társalgásokra”? Ha érzőnek nem is, gondolkodónak tarthatjuk-e őket? Képes lehet egy szoftver a diskurzus rejtett szabályait alkalmazni? A chatbotok világában most ezekre a kérdésekre keressük a választ.

A különböző tudományok - mint a nyelvészet, a filozófia, a szociálpszichológia vagy a pszicholingvisztika - mind máshogy közelítik meg a társalgás kérdéskörét. Utóbbi a technológiai rendszerek megismerése által von le következtetéseket az interakcióra vonatkozóan, vagyis azt vizsgálja, hogy a gépekkel folytatott kommunikációban hogyan valósulnak meg az emberi kommunikációra jellemző elvek.

ke_p1.png

A kutatási téma igencsak releváns, hiszen a virtuális személyi asszisztensek már jó ideje jelen vannak a mobil piacon: a Siri (Apple), az SVoice (Samsung) és a Cortana (Microsoft) hasonló elvek mentén, egyre valóság közelibb formában állnak az emberek rendelkezésére. A Cortanaval például már csevegő tónusban is beszélgethet a felhasználó, így a társalgás olyan, mintha csak egy másik személyhez szólna.

A 'chatterbot', vagy rövidebb és elterjedtebb nevén chatbot tehát egy olyan program, amely a mesterséges intelligencia segítségével kommunikál az emberekkel, előre lefektetett metódusok és parancssorok alapján. Az első chatbotnak az 1966-ban kifejlesztett ELIZA-t tartják, a kifejezést megalkotása pedig Michael Mauldin nevéhez fűződik. Mauldin másik nagy újítása az, hogy 1994-ben létrehozta első Verbo-t (Verbally Enchanted Software Robots), akit Julia-nak nevezett el. Ez volt az első olyan szoftver, ami nem szöveges, hanem hangüzenetben kommunikált.

ke_p2.png

A gépekkel folytatott akusztikus társalgást az Amazon magas szintre fejlesztette az Echo készülék forgalomba hozásával, mely az Alexa nevű beszélő szoftverrel ellátva 2014 novemberében debütált a piacon. A cég eddig körülbelül 3 millió példányt adott el belőle.  

Az Echo egy Bluetooth hangszóró és egy virtuális asszisztens keresztezéséből jött létre, és többféle funkció betöltésére alkalmas: például folyamatosan figyel, azonnal válaszol a felhasználó által feltett kérdésekre, és elvégez egyszerűbb műveleteket, mint például a zene lejátszás vagy az ébresztő beállítása. Működési mechanizmusa a következő: a kérdéseket, kéréseket az „Alexa” felkiáltással nyitjuk, majd kiadjuk az utasítást. A szoftver WiFi hálózatra csatlakozás segítségével találja meg a szükséges információt, illetve folyamatosan tanul: kérdéseinket amellett, hogy rögzíti, a felhőben tárolja - ez pedig a rendszer fejlesztésében segíti az Amazon munkatársait. 

Az ember-gép dialógus azonban nem mindig zökkenőmentes:

Ember: Mikor indul vonat Miskolcra?

Gép: Ma utazik?

Ember: Kedden.

Gép: Ma utazik?

A példa Pléh Csaba "A társalgás pszichológiája" című művében olvasható. Az idézett szöveg rámutat arra, hogy a gépben értetlenséget generálhat az, ha az általa feltett eldöntendő kérdésre a felhasználó a várttól eltérő választ ad. És hogy miért válaszol így a gépnek a felhasználó, ahelyett, hogy igennel, vagy nemmel felelne? Azért, mert a párbeszédeket irányító összetett társas rendszerben az emberek egymást sajátos ismeretekkel, szándékokkal és egymásra vonatkozó gondolattulajdonításokkal teli lényeknek látják. A gépeknek ehhez kell felnőni. 

ke_p3.png

De egyelőre még kérdés, hogy az intelligens személyi asszisztensek egyre fejlődő kompetenciáiknak köszönhetően mikor tölthetnek be teljes értékű szerepet egy társalgásban, illetve, hogy egyáltalán megvalósulhat-e ez az állapot. Vajon túllépnek-e valaha azon, hogy utasításokat hajtanak végre és kérdéseket válaszolnak meg? Képesek leszünk valaha valós társalgási szituációt előidézni velük?

Az biztos, hogy az okos eszközök óriási fejlődést produkáltak a beszédfelismerés és a mesterséges intelligencia terén, ezen a téren sokan  a Siri-t tartják mérföldkőnek: a rendszer az esetek többségében frappáns válasszal szolgál kérdéseinkre. Virtuális asszisztensként állandóan szolgálatkész, és felhasználó kedvében akar járni.

ke_p4.png

Nem kedveli az obszcén szavakat, köszönt és elköszön, ha már nincs rá szükségünk. Mindig megvárja, míg befejezzük mondandónkat, nem vág közbe. Azonban ez a fajta társalgás nem kívánja meg például az ember-ember közti diskurzusban elvárható udvariasságot – mi például minden lelkiismeretfurdalás nélkül bezárhatjuk a programot elköszönés nélkül.

Mark Sagar, az új-zélandi University of Auckland professzora úgy gondolja, egy emberi arccal felruházott chatbottal gazdagabb kommunikáció folytatható, mint szöveges üzenetekkel működő rendszerekkel. Ezért megalkották a Nadia nevezetű avatárt, akinek Cate Blanchett kölcsönözte a hangját, az IBM pedig szoftvert szolgáltatott hozzá.

Nadia a fogyatékossággal élők számára nyújt segítséget a közigazgatási ügyintézésben. A Soul Machines startup által kifejlesztett avatárok arra is programozhatóak, hogy reagáljanak a személy arckifejezéseire a saját szimulált mimikájukkal – vagyis az empátia illúzióját hozzák létre.

ke_p5.png

Mára elmondható, hogy a chatbotok olyan világába léptünk, ahol a fejlesztők azon dolgoznak, hogy az avatárok a lehető legemberibb módon kommunikáljanak velünk. De az, hogy „a lehető legemberibb” eléri-e valaha az „emberi” szintet, az a jövő zenéje. 

képek: innen, innen, innen, innen, innen, és innen