Sok képregény-rajongó titkolt vágya vált valóra 2017 év végén, mikor az internet bugyraiban felbukkant a Wonder Womant alakító Gal Gadot színésznőt ábrázoló pornófilm. Természetesen nem karrierváltásról volt szó, hanem ijesztőbb dologról: a meglehetősen életszerűnek tűnő videót szoftverrel állította elő a feltöltő. Persze aki kritikusabban nézte, hamar kiszúrhatta a furcsaságokat, például a testtől néha ijesztően elkülönülő arcot, ami még ebben a kötetlen filmes műfajban is gyanús. De nem Gadot volt az egyetlen, akiről erotikus jelenetek kerültek fel a netre, többek közt Taylor Swift, Maisie Williams és Scarlett Johansson arcát is alapanyagként használták fel szexi montázsokhoz.
A Motherboard portál 2017 év végén, egy dezinformációs kampányoktól és álhírektől fűtött időszakban írt először hosszasabban az úgynevezett deepfake videókról, amik a Redditről indultak útjukra egy deepfakes nevű felhasználó által. A redditező abból űzött furcsa hobbit, hogy szabadidejében hírességek arcát cserélte össze pornósztárokéval, gépi tanulásos algoritmusok segítségével. Az ötletet más netezők is elkezdték másolni, valaki egy FakeApp mobilappot is fejlesztett erre a feladatra, megadva a lehetőséget, hogy azok is elkészíthessék a saját hamis pornójukat, akik nem értenek semmiféle gépi algoritmushoz.
Ugyan a pornónézők nagy része tisztában volt a videók valótlanságával, ez nem tette kevésbé szórakoztatóvá számukra a megtekintésüket. A PornHub még tavaly is küzdött azzal, hogy eltávolítsa az ilyen felvételeket, amik erősen sértik a celebek személyiségi jogait -
némelyiket 700 ezernél is több alkalommal tekintették meg.
A deepfake gyakorlatilag a fotómanipuláció egy továbbfejlesztett változata, csak itt gépi tanulást és mesterséges intelligenciát használó programok dolgoznak azon, hogy egy adott videóban bárki arcát kicserélhessék egy másik emberére. Az egészhez mindössze egy rakás fotóra és videóra van szükség, hogy a célszemély minél több arckifejezését realisztikusan mintázhassák a manipuláció során. A technológia olyan nyílt forráskódú gépi algoritmusokat használ ki, mint például a Google Tensorflow-ja. A tényleg hihető eredményhez korábban több száz képre volt szükség, de azóta ezen a téren is nagy előrelépést sikerült elérni: a Samsung nemrég fejlesztett egy olyan programot, amelynek használatához elegendő egyetlen fotó (akár egy Facebook-profilkép), és máris le lehet animálni egy rövid videót úgy, hogy nagyjából élethűnek tűnjön. Szerencsére ezt még nem használhatja mindenki, de már csak idő kérdése.
Pornó után politika
2018-ban már minden nagy külföldi techlap tematizálta a jelenséget, és nem csak a pornó miatt. A színésznők után Barack Obama következett, de az egykori amerikai elnök már nem erotikus töltetű filmben kapott szerepet. Jordan Peele filmrendező és a Buzzfeed közösen készítettek egy videót elrettentő célzattal, amiben Obama szája élethűen mozog, és olyan mondatokat ejt ki, mint például "Trump tökéletesen szarházi". A republikánus elnököt sem kímélték, Donald Trumpról 2018-ban kezdett el manipulált videó terjedni, amin a párizsi klímaegyezményről beszél.
A szakértők is elkezdték felhívni arra a figyelmet, hogy bár a pornó sem ártatlan játék, de a technológia igazán nagy károkat a dezinformáció újfajta módjaként, politikai célzattal okozhat, hiszen a használatával olyan mondatokat adhatnak közéleti szereplők szájába, amiket ők valójában sosem ejtettek ki. A kivitelezésre látványos példa az az inkább vicces, de mégis szájtátásra késztető videó, ahol a különböző országok vezetői egyszerre mind eléneklik John Lennon Imagine című dalát.
És ugyan látszik, hogy a felvétel nem valódi és tájékoztató jelleggel készült, de elég elképzelni, hogy mekkora visszhangot kapna, hogy mondjuk valaki Kim Dzsongunról készítene egy olyan videót, amiben háborút hirdet az USA ellen.
Ben Sasse szenátor szerint a videók manipulálása geopolitikai szinten is veszélyes, ezért az idén a Kongresszusnak benyújtottak egy olyan törvénytervezetet, ami jogilag is büntetné a deepfake használatát és terjesztését. Mark Warner virginiai szenátor 2018-ban azt hangoztatta, hogy 2020-ra a deepfake lesz az új valóságshow, Marco Rubio republikánus szenátor szerint pedig a deepfake a modern megfelelője a nukleáris fegyvereknek.
A párbeszéd tavaly megindult, de bőven vannak hangok a szkeptikusak oldalán is. Tim Hwang, a Massachusetsi Műszaki Egyetem médialaborjának professzora szerint nem lesz annyira sorsdöntő a technológia dezinformáció terén, mint sokan gondolják.
Késik, vagy múlik a forradalom?
Egy kép többet mond minden szónál, főleg ha mozgókép, így az aggodalom indokolt. A hangfelvételek és videók sokszor egyértelmű bizonyítékok lehetnek egy-egy ügyben, és az emberek a saját szemüknek és fülüknek hajlamosabbak hinni, mint mondjuk az írott szónak.
A The Verge publicistája márciusban írt arról, hogy a tavaly rettegett krízis nyomai a vártnál kisebb mértékben mutatkoztak meg, és könnyen elképzelhető, hogy az egész deepfake egy lufi és megmarad riogatás szintjén. A politikai deepfake-ek azóta sem zúdulnak ránk tömegesen a közösségi oldalakon. A szerző kijelentését arra a gondolatra alapozza, hogy a politikai trollok sosem voltak annyira aktívak, mint tavaly, célba vették például álhírekkel, kamuprofilokkal a francia választásokat. A technológia hozzáférhető, de a fabrikált videók készítése valamiért mégsem lett bevált szokás a tavalyi év során annyira, mint az álhírterjesztés.
Több szakértő szerint ez egyáltalán nem jelenti azt, hogy később nem változhat a helyzet, mivel mint minden technológia, a deepfake-ek is egyre kifinomultabbá és szélesebb körben használhatóvá válnak, és míg vannak rosszakarók, azok használni is fogják az eszközöket. És ott van az is a szerző szerint, hogy egy ideje már lehet manipulált képeket készíteni különféle programokkal, híres kamufotó például a 2004-es elnökválasztási kampány során előkerült felvétel, amelyen John Kerry ül Jane Fonda mellett egy vietnami háború ellen rendezett tüntetésen.
A mesterséges intelligencia és a gépi tanulás ezt a lehetőséget automatizálja, felgyorsítja és a mozgóképekkel valósághűbbé teszi, de nem feltétlen éri meg a macerát, hiszen ettől egyetlen videó még nem elég bizonyíték források hiányában, és egyelőre szabad szemmel is lebuktatható a legtöbb.
Az ellenszer is készül
A jó hír, hogy az amerikai kormány és a privát cégek már aktívan dolgoznak olyan, szintén mesterséges intelligenciát használó szoftvereken, amik kiszúrják a hamis videók árulkodó jeleit, mondjuk a fizika törvényeinek ellentmondó árnyékokat, rosszul eső fényeket, a geometriai formákat, pixelszintű anomáliákat. Gyanús jel, ha videón látható arc nem pislog eleget, vagy azt természetellenesen teszi, illetve ott vannak még a lélegzetvétellel járó apró mozdulatok, vagy a haj mozgása. A DARPA dedikált csapata, a Media Forensics is ilyen szoftvert fejleszt több millió dollárból.
A fő harcmező azonban ismét a közösségi média, hiszen ezeken a felületeken sikerül elérni tömegeket az interneten, ezeket használják ki azok is, akik álhíreket terjesztenek. A Facebook tavaly óta használ algoritmus a deepfake-ek kiszűrésére, de nem csak automatizáltan, hanem emberi moderátorokkal is szűrik az ilyen típusú tartalmakat.
Mivel legalább annyi szkeptikus szakember van, mint amennyi információkrízist vetít előre, nehéz megmondani, mit hoz a jövő. Ugyan a deepfake-ek pornófilmekhez és lejáratási kampányokhoz való használata valós fenyegetés, a politikainak még nincsenek látható jelei.
A 2016-os fake news hullámot előre megjósoló Aviv Ovadya, a Michigan Egyetem kutatója viszont leginkább egy másik jelenségtől fél, mégpedig attól, hogy a kamuval elárasztott interneten az emberek még bizalmatlanabbak lesznek, és a valós információkat is megkérdőjelezik. Az általa valóságapátiának hívott állapotban pedig a dezinformátorok a valódi tényekre ráfoghatják, hogy valójában azok a hamisak, ezáltal pedig tovább csökkenhet a médiába és intézményekbe vetett hit, aminek eredményeként pedig az emberek annyira se lesznek informáltak, mint amennyi egy működő demokráciához szükséges.