So 'Deep Fakes' nova meja digitalnega kriminala?

Tehnologija posebnih učinkov je v zadnjih nekaj desetletjih doživela pravi razcvet, saj se je CGI iz osnovno surovega in primitivnega skorajda ločil od resničnosti. Zdaj, ko postaja ustvarjanje verisimilitudinoznih posnetkov vse bolj običajno, politični strokovnjaki in strokovnjaki za kazensko pravo pričakujejo paniko okoli tako imenovane 'globoke ponarejene' tehnologije, ki bi lahko dodatno zapletla tekočo mednarodno razpravo o 'lažnih novicah'. Kaj pa je pravzaprav 'globok ponaredek' in kolikšno grožnjo bo ta tehnologija predstavljala v prihodnosti?





Globoko ponarejena (včasih stilizirana kot „deepfake“) tehnologija se nanaša na sintetizirane in / ali naložene slike in / ali videoposnetke, ustvarjene z umetno inteligenco z uporabo obstoječih slik in videoposnetkov. S pomočjo strojnega učenja bi lahko ta tehnologija teoretično ustvarila prepričljive posnetke osebe, ki izvaja dejanje, ki se v resnici nikoli ni zgodilo.

Owen Williams, poklicni inženir programske opreme in umetnik vizualnih učinkov, je ponudil preprosto razlago.



'To je način uporabe avtomatiziranega programskega sistema za zamenjavo človekovega obraza v videoposnetku z drugim obrazom, ki je veliko bolj samodejen in prepričljiv, kot je bilo mogoče s preteklo tehnologijo,' je dejal Williams. Oxygen.com .



Williams je opozoril, da so priljubljeni filmi, kot sta 'Jurassic Park' in 'Blade Runner: The Final Cut', uporabljali računalniško programsko opremo za nekatere prizore na načine, ki bi lahko bili predhodnica globokih ponaredkov: 'V filmski industriji je to res pogosto. Recimo, da imate lik, ki mora izvesti trik, in bi raje videli, da je njihov obraz viden. Klasična rešitev bi bila taka, da bi jih videli samo od zadaj ali pa bi jim bili lasje na obrazu, tako da ne bi mogli ugotoviti, da gre za dvojnico. Toda zgodovina filmskih ustvarjalcev, ki uporabljajo računalnike, da igralski obraz postavijo nad kaskaderskega dvojnika, je precej vpletena. '



'Včasih je bil to zelo ročen postopek,' je nadaljeval Williams. 'Zdaj z globoko ponarejeno tehnologijo računalnik hraniš dve stvari: najprej video, ki ga boš zamenjal, in nato kup vnosov obraza, s katerim boš zamenjal. Dobiti morate dovolj slik osebe, ki dela različne izraze obraza in iz različnih zornih kotov. Ustvarjate knjižnico, kako lahko obraz te osebe izgleda v različnih situacijah, nato pa računalnik preide skozi in si ogleda video. Prav tako ne potrebuje natančnega ujemanja. Lahko zmečka in preoblikuje tisto, kar ima v knjižnici, da ustreza temu, kar potrebuje. Kar je včasih zahtevalo na desetine umetnikov stotine ur, da so poskusili izvesti res zapleten učinek, je zdaj le pritisk gumba. '

Faset te tehnologije, ki skrbi ljudi, je, da ni nujno, da oseba prostovoljno predloži obraz, da se ta postopek izvede, glede na to, koliko slik obstaja na spletu večine ljudi - zlasti zvezdnikov in političnih osebnosti.



'Obstaja dovolj slik katere koli slavne osebe pod dovolj koti, da jo lahko ustvarite [brez soglasja],' je dejal Williams. 'Za to je treba opraviti nekaj dela, toda za vse obrobno priljubljene osebe bodo te stvari obstajale. Menim, da je manj verjetno, da bi bilo to mogoče za navadno osebo. '

Prvi globoko ponarejeni videoposnetki so se pojavili na forumih Reddit konec leta 2017, glede na Variety . Uporabnik je trdil, da je z njegovim računalnikom ustvarjal zelo realistične pornografske videoposnetke različnih zvezdnikov, ki se ukvarjajo s spolnimi dejavnostmi, ki se v resnici niso nikoli zgodile. Uporabnik je trdil, da je računalniku nahranil na tisoče fotografij zvezd, iz katerih je umetna inteligenca lahko ustvarila obrazne izraze in gibe. Aplikacija, ki so jo uporabljali globoko ponarejeni ustvarjalci in jo delijo na Redditu, je bila sčasoma prenesena več kot 100.000-krat. (Reddit bo sčasoma prepovedal tovrstne vsebine in dejal, da krši njihovo politiko o 'neprostovoljni pornografiji'). po mnenju The Verge .)

Williams dvomi o realizmu, ki ga ta medij trenutno lahko doseže.

'Če ste kdaj dejansko gledali enega od teh globokih ponaredkov ... je tam neka čudnost,' je dejal Williams. 'Niso polirani. Verjetno bo vse boljše in boljše, še posebej zato, ker je Hollywoodu treba to narediti avtomatizirano in ne plačevati dragih izvajalcev. '

Podobno je Williams ugibal, da kljub temu panika okoli globoke lažne pornografije , spreminjanje kulturnih odnosov do narave stvari, kot so maščevalne pornografije ali uhajanje golih slik, pomeni, da bodo ljudje, ki ustvarjajo tovrstne medije, verjetno obsojeni in ne bodo slavljeni, tudi v industriji zabave za odrasle.

'Nikoli ne bo v glavnem,' je teoretiziral Williams. 'Po' Fappening 'Na Redditu se je zgodilo, ljudje so lahko spremenili pogovor in rekli:' To ni škandal, to je spolni zločin. ' Zato preprosto ne vidim, da bi to postalo toliko škandal, kot ljudje mislijo, da se bo. Ljudje lahko tudi dokaj enostavno najdejo originalno pornografijo, iz katere je nastal globok ponaredek, kar pomeni, da je dokaj enostavno razkriti. '

Toda to ne povzroča samo zaskrbljenosti, ker bi ga lahko uporabili za ustvarjanje lažne pornografije slavnih. Ljudje so zaskrbljeni tudi zaradi političnih posledic.

Politični strokovnjaki so začeli pisati o širjenju globokih ponaredkov leta 2018. Članek Guardiana novembra istega leta opazili virusno širjenje videoposnetka, v katerem je domnevno prikazan predsednik Donald Trump, ki belgijski narod spodbuja k odstopu od Pariškega podnebnega sporazuma. To je spodbudilo širšo razpravo o možnostih, da različne vlade to tehnologijo uporabljajo v množičnih kampanjah za dezinformacije, pogovor, ki se je že začel zaradi tekoče preiskave vpletenosti Rusije v predsedniške volitve v ZDA leta 2016.

Panika okoli globokih ponaredkov je celo uredništvo Bloomberg Media Group navdihnila, da je o tej zadevi pripravil močno zastavljeno besedilo.

„Video dokazi so postali steber kazensko-pravnega sistema ... ravno zato, ker se zdi film tako zanesljiv zapis o govoru ali dejanjih nekoga. Globoki ponaredki bi takšne dokaze lahko osumili, ' so zapisali junija 2018. 'Glavni izziv bo torej prepoznavanje in razkritje teh ponaredkov - če je to mogoče.'

Williams se je strinjal, da narava globokih ponaredkov ogroža naše pojmovanje 'resničnosti' glede video dokazov, vendar je opozoril, da ta pravna močvirja ni značilna samo za našo sodobno digitalno krajino.

'Nekako pride do te ideje, da imajo ljudje tak video enak resnici, kar še nikoli ni bilo tako. To smo vedeli od Rodneyja Kinga naprej. Ali pa si omislite Eric Garner : Ljudje so mislili, da je [policist, ki ga je ubil] nedolžen, ne glede na to, kakšen videoposnetek je napovedal. Zdi se mi [veliko strahov okoli globokih ponaredkov] nekoliko neutemeljenih. '

Williams je naštel še nekaj drugih incidentov, ki niso vključevali globoke ponarejene tehnologije, ki so pokazali načine, kako je bil video drzno manipuliran, da bi se izognili javnemu mnenju o zadevi, Kontroverzna odstranitev ACORN-a Jamesa O'Keefeja in nedavni škandal posnet video posnetek, na katerem naj bi bil novinar CNN Jim Acosta napadel uslužbenca Bele hiše .

Končni zaključek Williamsa je bil, da je histerija okoli globokih ponaredkov nekoliko pretirana.

„Kar se mi dogaja, bo delovalo v obe smeri. Če bo video izšel in bo resničen, bodo ljudje trdili, da je ponaredek. Če pride do videoposnetka in je ponaredek, bodo ljudje trdili, da je resničen. Vsak primer predpostavlja določeno količino resnice, ki je dodeljena videu [samemu sebi]. Težko je vedeti, v katero smer bo vse to šlo. Če Pee trak dejansko izšel, na primer, točno veste, kaj bi se zgodilo: polovica ljudi bi rekla: 'To so biki - t, to je neki igralec!' in pol ljudi bi reklo: 'Tu je! Resnično je!' Torej se v resnici nič ne bi spremenilo. To se običajno dogaja z novo tehnologijo: stvari se ne spremenijo tako močno, kot si ljudje mislijo. '

[Foto: SAUL LOEB / AFP / Getty Images]

Priljubljene Objave