uredi› krajšaj› T:179 M:323 Z: [×]
Je globoke ponaredke mogoče preprečiti?
Pevka, besedilopiska in milijarderka Taylor Swift ima nekaj skupnega z vse večjim številom neslavnih ljudi: grozovito izkušnjo s pojavljanjem v prirejenih spolno obarvanih podobah, ki jih izdelajo popolni tujci ob pomoči umetne inteligence (UI).

Jeremy Hsu, New Scientist
Komaj teden dni po tistem, ko so eksplicitne podobe Swiftove, generirane z umetno inteligenco, obkrožile internet, se je pojavilo še več manipuliranih fotografij in posnetkov, na katerih naj bi izražala podporo ameriškemu predsedniškemu kandidatu Donaldu Trumpu. Še pred fotografijami pa so goljufi klonirali glas Swiftove ter še nekaj drugih slavnih oseb in z umetnointeligenčnim orodjem za sinhronizacijo ustnic izdelali lažno oglasno akcijo z nagradami.
Izkušnja Swiftove ponazarja cel spekter skrb vzbujajočih trendov, povezanih s fotografijami, z zvočnimi in s slikovnimi posnetki, imenovanimi globoki ponaredki, ki jih je mogoče ustvariti z orodji UI. Je zdaj, ko jih otročje preprosto lahko ustvari vsak za malo ali celo nič denarja, prepozno, da bi ustavili njihovo širjenje?
Same težave
Orodja UI so že spodbudila nedovoljeno širjenje pornografskih globokih ponaredkov in finančne goljufije, ki so ljudi in podjetja 'olajšale' za milijone dolarjev. Globoki ponaredki so vse večja grožnja tudi za volitve zaradi nenatančnih in lažnih informacij. »Zaskrbljenost je upravičena in oprijemljiva, težave imamo tukaj in zdaj, razmere se naglo poslabšujejo,« opozarja Siwei Lyu z univerze v Buffalu v zvezni državi New York.
Prvi val globokih ponaredkov se je razbohotil z razvojem generativnih nasprotniških mrež leta 2014, tehnike, ki modele UI naščuva med seboj, da tekmujejo in tako postopno izboljšujejo prepričljivost ponarejenih podob. A ta generacija tehnologije za globoke ponaredke je bila zamudna, ustvarjalci pa so morali biti tehnično podkovani v UI. Po Lyujevih besedah bi za polminutni posnetek običajno potrebovali tedne digitalne obdelave in veliko računalniške moči, pa rezultat še vedno ne bi bil povsem prepričljiv.
Hitra komercializacija novejših tehnologij UI v preteklih dveh letih je pripomogla, da globokih ponaredkov ni težko napaberkovati. Vsak, ki zna napisati ukaz, lahko z izdelki, kot so Midjourney, DALL-E iz OpenAI in Stable Diffusion podjetja Stability AI, v sekundi ustvari tudi podobe. Z drugimi orodji pa uporabnik nato klonira glas, tako da naloži ali posname slušni vzorec. Nekateri ponudniki storitev UI so že poskrbeli za varovalke, tako da nekaterih vsebin z njihovimi orodji ni mogoče ustvariti. Predstavnik OpenAI je povedal, da njihova orodja zavrnejo zahtevo za vsebino z znano osebo ali pornografsko obarvano vsebino, za vsa orodja pa to ne velja.
Globoki ponaredki v številkah
• 95.000 – število globokih ponaredkov na spletu leta 2023
• 550-odstotno povečanje števila globokih ponaredkov med 2019 in 2023
• 98-odstotni delež pornografskih globokih ponaredkov
Ekipa strokovnjakov za spletno varnost Home Security Heroes je lani naredila raziskavo in ugotovila, da je lani po spletu krožilo več kot 95.000 globokih ponaredkov oziroma 550 odstotkov več kot leta 2019. Razkrila je tudi, da je kar 98 odstotkov ponaredkov predstavljalo pornografijo, od tega 99 odstotkov z žensko.

Pornografske globoke ponaredke s Taylor Swift je izdelala anonimna skupina na internetnem forumu 4Chan, ko je načrtno poskušala prelisičiti varovala v zelo razširjenem orodju UI Microsoft Designer (Microsoft je to pomanjkljivost že odpravil). »Skupnost na 4Chan je dejansko izgubila občutek za to, kako to vpliva na osebe iz mesa in krvi,« je komentirala Christina Lopez G. iz podjetja za analiziranje družbenih omrežij Graphika. S sodelavcem Santiagom Lakatosom sta ugotovila, da se ti globoki ponaredki nato v manj kot dveh tednih razširijo na družbene platforme, kot sta Telegram in X. Ena od objav na zadnjem je zbrala več kot 45 milijonov ogledov, preden so blokirali uporabnikov račun. Telegram je v svoji izjavi za javnost povedal, da aktivno moderira škodljive vsebine na platformi, vključno z nedovoljeno pornografijo, in odstrani vse takšne deljene objave, za katere izve.
V vseh pornografskih globokih ponaredkih, ki nastanejo brez dovoljenja upodobljenih oseb, ne nastopajo zvezdniki. V Združenih državah Amerike, Kanadi, Avstraliji, Španiji in Braziliji so že bile tarča tudi učiteljice in šolarke. »Dokazano so tarča prav ženske in s tem jih včasih želijo tudi ustrahovati, jim groziti,« je povedala Emmie Hine z univerze v italijanski Bologni. »To je soroden pojav kot pornografija iz maščevanja, le da za orodja UI ne potrebuješ dejanskih intimnih fotografij, saj jih izdelaš.«
Zaradi globokih ponaredkov so bolj zapletene tudi volitve. V kampanji z robotskimi telefonskimi klici v zvezni državi New Hampshire so ponaredili glas ameriškega predsednika Joeja Bidna in volivce odvračali od udeležbe. Ameriška zvezna komisija za komunikacije je presodila, da so klici, ki jih opravijo s ponarejenimi glasovi, protizakoniti. Tarča globokega ponarejanja je bil februarja lani tudi kandidat na županskih volitvah v Chicagu, letos pa že neki politik v New Yorku.
»Bojim se, da se je val globokih ponaredkov že dvignil – kaj val, kar pravi cunami s potresi vred.«
En sam globoki ponaredek bi lahko povzročil zmedo v notranji politiki. »Četudi bi se zgodilo le enkrat in bi v ZDA na predvolilni večer objavili posnetek z Bidnom, bi to lahko imelo velik vpliv,« je prepričana Sarah Kreps z univerze Cornell v New Yorku.
Do nečesa takšnega je nemara prišlo pred parlamentarnimi volitvami na Slovaškem septembra lani. Slušni globoki ponaredek, v katerem so predsedniku stranke podtikali, da hoče ponarediti volitve, so na Facebooku objavili tik pred odprtjem volišč in zmagala je konkurenčna stranka.

Globoki ponaredki bi lahko ogrozili tudi državno varnost, če bi ob njihovi pomoči prišli do podatkov ali sprožili ukrepanje vladnih uslužbencev ali celo vojaškega osebja, je opozorila Krepsova. »Ta tehnologija je danes tako razširjena, da skoraj ne moremo opisati vseh možnosti zlorabe,« je dodala.
Globoki ponaredki politične in pornografske narave ter goljufije utegnejo postati še pogostejši. »Bojim se, da se je val globokih ponaredkov že dvignil – kaj val, kar pravi cunami s potresi vred,« pa opozarja V. S. Subrahmanian z univerze Northwestern v Illinoisu.
Krotenje
Rešitve so za zdaj premalo učinkovite. V skladu z aktom o digitalnih storitvah, ki ga je sprejela Evropska unija, se od tehnoloških platform zahteva, naj odkrivajo in označujejo vsebino, ustvarjeno z UI. ZDA pripravlja podobne standarde. Tehnološka panoga je poleg tega sprejela standard C2PA, s katerim bi v digitalne vsebine vkodirali podatek o izvoru in ime avtorja. Meta je napovedala, da bo označevala podobe, generirane z UI in objavljene na njenih družbenih omrežjih, Google pa bo svojim generativnim orodjem UI dodal vodni žig C2PA, kar je OpenAI že storil.
Vodni žig, ki bi ga uporabljala velika tehnološka podjetja, bi lahko koristil, vendar z njim zlonamernežem ne bi preprečili uporabe odprtokodnih umetnointeligenčnih orodij, je opozoril Hany Farid s kalifornijske univerze v Berkeleyju. Z njim prav tako ni mogoče preprečiti kršenja zasebnosti in objavljanja brez privolitve tistih, ki se pojavljajo v pornografskih ponaredkih, sploh če je namen nadlegovati in ustrahovati, je razložila Gili Vidan z univerze Cornell. »Vprašanje, ali so neki medij zmanipulirali z UI, je skoraj nepomembno za dejansko težavo,« je dodala.
Vsaj šest ameriških zveznih držav in več držav je prepovedalo ustvarjati in širiti škodljive globoke ponaredke. V ZDA razmišljajo o zakonski ureditvi na zvezni ravni. Nedavna študija je kljub temu pokazala, da v državah s prepovedjo deljenja in gledanja pornografskih globokih posnetkov, na primer v Avstraliji in Južni Koreji, prednjačijo pri ustvarjanju, delitvi in gledanju takšnih podob in posnetkov. Tehnološke platforme imajo zato najbrž največ moči in odgovornosti za zajezitev poplave globokih ponaredkov.
Microsoftov predsednik Brad Smith je 13. februarja na svojem bogu zapisal, da bo podjetje zaščitilo svobodo izražanja, a hkrati ne bo ščitilo širjenja pornografije, ki je nastala brez pristanka vpletenih. Google, Midjourney, Stability AI, X in 4Chan se niso odzvali na prošnjo po komentarju. Meta je poslala izsek iz obstoječe politike o globokih ponaredkih, ki jo je njen odbor za nadzorovanje že označil za pomanjkljivo in nepovezano.
Sophie Maddocks s pensilvanske univerze meni, da je čas za družbeni obračun s spolno obarvanimi globokimi ponaredki – naj bo na njih upodobljena Swiftova ali kdorkoli drug. »Rešitve niso nujno jedrska fizika, le prevetriti bi bilo treba vrednote, ko gre za telesno nedotakljivost in zasebnost vseh, vključno žensk.«
Globoki ponaredki so podžgali tudi običajne goljufije. Ameriška zvezna komisija za trgovino je lani javnost opozorila na goljufe, ki so ponaredili glas družinskega člana in ljudi prelisičili, da so sorodniku, ki naj bi se znašel v škripcih, poslali denar.
Častihlepni goljufi pa so se za še donosnejša nakazila spravili na poslovneže, in sicer z lažnimi nadrejenimi. Eden prvih tovrstnih incidentov se je zgodil že leta 2019, vpleten pa je bil direktor britanske energetske družbe, ki je nasedel globokemu ponaredku šefovega glasu. Na goljufov tekoči račun je nakazal skoraj četrt milijona dolarjev.
Takšne goljufije so v zadnjih letih postale še bolj dodelane. Uradni predstavniki Hongkonga so razkrili, da je neki zaposleni v večnacionalni družbi prenakazal več kot 25 milijonov dolarjev denarja svoje družbe. Goljufi so z globokim ponaredkom ustvarili klic prek Zooma in predvajali prepričljiv posnetek finančnega direktorja družbe ter nekaj sodelavcev.
Copyright New Scientist Ltd.
Zakup člankov
Za plačilo lahko uporabite plačilno kartico, PayPal, Apple Pay ali Google Pay:
Najprej se morate prijaviti.
V kolikor še nimate svoje prijave, se lahko registrirate.


