uredi› krajšaj› T:184 M:327 Z: [×]
Tri metode
Po spletu so se kot blisk razširile seksualno nazorne podobe Taylor Swift, ene največjih pop zvezdnic na svetu. Milijoni so si lahko ogledali globoko ponarejeno pornografijo brez privoljenja Swiftove, širili pa so jo na družbenem omrežju X, nekoč znanem kot Twitter. X se je odločil za drastičen korak in blokiral vsa iskanja s Taylor Swift kot ključnima besedama.

Če obstaja, obstaja tudi porno različica.
Melissa Heikkilä, MIT Technology Review
Pojav ni nov, saj globoko ponarejena pornografija obstaja že leta, pohod generativne umetne inteligence (UI) pa je le olajšal ustvarjanje takšnega materiala in omogočil spolno nadlegovanje ljudi prek računalniško generiranih podob in posnetkov.
Od vseh tipov gorja, povezanega z generativno UI, so ravno globoki ponaredki brez privolitve udeleženih tisti, ki prizadenejo največ ljudi, pri čemer so glavna tarča ženske, je pojasnil Henry Ajder, strokovnjak za UI, ki se je specializiral za generativno UI in sintetične medije.
»To bo dolga, naporna igra mačke z mišjo,« se je izrazil Rumman Chowdrurry, direktor etičnega svetovalnega in revizorskega podjetja Parity Consulting.
Na srečo je nekaj upanja. Nova orodja in zakoni bi storilcem lahko preprečili zlorabo fotografij in olajšali sodno preganjanje.
V nadaljevanju - tri metode za boj proti globokim pornografskim ponaredkom brez soglasja udeleženih.
Vodni žig

Vodni žig SynthID ostane viden tudi če fotografije podvržemo različnim filtrom.
Družbena omrežja pregledujejo objave, naložene na njihovih platformah, in odstranjujejo vsebine, ki kršijo njihova pravila. A ta postopek je v najboljšem primeru pomanjkljiv in zgreši ogromno škodljive vsebine, kot dokazujejo tudi posnetki Swiftove na platformi X. Poleg tega je težko ločevati med pristno vsebino in tisto, ki je nastala z umetno inteligenco.
Ena od tehničnih možnosti bi lahko bili vodni žigi, neviden znak na podobah, ki računalnikom pomagajo prepoznati, ali so sintetično generirane. Google je razvil sistem z imenom SynthID, ki z nevronskimi mrežami spremeni razporeditev slikovnih pik na fotografijah in doda človeškim očem neviden vodni žig. Zasnovan je tako, da se ga odkrije tudi po posegih v podobo ali če kdo naredi njen zaslonski posnetek. Teoretično bi s tem orodjem lahko olajšali moderiranje na družbenih omrežjih, programi in skrbniki pa bi hitreje opazili lažne vsebine, vključno s ponarejeno pornografijo brez soglasja.
Plusi: Vodni žigi bi lahko bili uporabno orodje, s katerim bi lažje in hitreje prepoznali umetnointeligenčno generirano vsebino in neprimerne objave, ki jih je treba izbrisati. Če bi vodni žig privzeto vključili v vse podobe, bi napadalci težje ustvarili globoke ponaredke brez soglasja vpletenih, trdi Sasha Luccioni, raziskovalka v zagonskem podjetju za UI Hugging Face, ki preučuje pristranskost sistemov UI.
Minusi: Ti sistemi so še vedno eksperimentalni in niso v širši uporabi. Spreten napadalec jih še vedno lahko zaobide. Poleg tega podjetja te tehnologije ne uporabljajo za vse podobe. Uporabniki Googlovega generatorja slik Imagen AI lahko izbirajo, ali naj njihove sintetično izdelane podobe vsebujejo tudi vodni žig. Vsi ti dejavniki omejujejo njegovo uporabnost v boju proti ponarejeni pornografiji.
Varovalni ščit

Sistem PhotoGuard - če uporabnik umetnointeligenčne aplikacije manipulira z zaščiteno podobo, je rezultat videti nerealističen.
Trenutno so vse fotografije, ki jih objavimo na internetu, nezaščiten plen in jih lahko kdorkoli zlorabi za globoke ponaredke. In ker so najnovejši sistemi UI za izdelovanje podob izvrstni, je vse težje dokazati, da je vsebina, generirana z UI, ponaredek.
A uporabniki z nekaj novimi orodji že lahko zaščitijo svoje fotografije, da jih ni mogoče zlorabiti in izmaličiti s sistemi UI.
Eno takšnih orodij, imenovano PhotoGuard, so razvili raziskovalci na massachusetskem tehnološkem inštitutu. Deluje kot varovalni ščit, ki za človeško oko nezaznavno spremeni slikovne pike na fotografiji. Če uporabnik umetnointeligenčne aplikacije, kot je generator slik Stable Diffusion, manipulira z zaščiteno podobo, je rezultat videti nerealističen. Fawkes, sorodno orodje, ki so ga razvili raziskovalci na chicaški univerzi, v fotografije vnese skrite signale, zaradi katerih ima težje delo programska oprema za prepoznavo obrazov.
Tretje novo orodje, Nightshade, bi lahko pomagalo preprečiti zlorabo v sistemih UI. Razvili so ga raziskovalci na chicaški univerzi, slikam pa doda nevidno plast 'strupa'. Orodje so razvili za zaščito umetnikov, da tehnološke družbe brez privolitve ne bi mogle pograbiti njihovih avtorskih podob. Teoretično bi ga lahko uporabili za vse podobe, za katere avtor ne želi, da pristanejo v sistemih UI. Ko tehnološka podjetja z interneta pobirajo material za učenje, ne da bi avtorji vsebin to dovolili, te 'zastrupljene' podobe pokvarijo model UI. Fotografija mačke bi se lahko spremenila v psa, tudi podoba Taylor Swift bi se lahko spremenila v to žival.
Plusi: Ta orodja napadalcem otežijo zlorabo podob, če želijo z njimi ustvariti škodljive vsebine. Obetamo si lahko, da bodo zasebnim uporabnikom omogočila zaščito pred zlorabami posnetkov z UI, sploh če jih bodo uporabili v aplikacijah za zmenkarije in na družbenih omrežjih, meni Ajder.
»Vsi bi morali uporabljati Nightshade za vsako fotografijo, ki jo objavimo na internetu,« poudarja Luccionijeva.
Minusi: Takšni obrambni ščiti delujejo le v najnovejši generaciji modelov UI in ni jamstva, da prihodnje različice ne bodo mogle 'povoziti' teh varovalnih mehanizmov. Poleg tega ne delujejo na fotografijah, ki so že na spletu, in težje jih je uporabiti za fotografije znanih ljudi, saj ti ne morejo nadzirati, katere njihove fotografije se bodo pojavile na spletu.
Zakonodaja
Tehnični ukrepi imajo omejen doseg in trajne spremembe bo mogoče doseči le s strožjo zakonodajo, je prepričana Luccionijeva.

Globoki ponaredki s Taylor Swift, ki so zakrožili po internetu, so dodatno zagnali prizadevanja za ukrotitev tovrstne pornografije. V Beli hiši so izjavili, da je incident strašljiv, in pozvali kongres, naj ukrepa. Trenutno je v Združenih državah Amerike zakonodaja razdrobljena in vsaka zvezna država ubira drugačen pristop k zakonom v zvezi s ponarejanjem fotografij. Kalifornija in Virginija sta prepovedali ustvarjanje pornografskih globokih ponaredkov brez soglasja, v New Yorku in Virginiji pa poleg tega ni dovoljeno niti širiti takšnih vsebin.
Morda se bo kaj premaknilo tudi na zvezni ravni. Nov zakonski predlog, po katerem bo delitev ponarejenih fotografij golote štelo za zvezni zločin, je bil vnovič predstavljen v ameriškem kongresu. Zakonodajalce je škandal z globoko ponarejeno pornografijo na srednji šoli v New Jerseyju spodbudil, da so se odzvali z osnutkom zakona, imenovanim Zakon o preprečevanju globoko ponarejenih intimnih podob. Zaradi pozornosti, ki je je bil deležen primer Swiftove, bi predlog lahko dobil večjo vsesplošno podporo v parlamentu.
Zakonodajalci po vsem svetu sprejemajo strožje zakone, ki urejajo tehnologijo. Britanski zakon o spletni varnosti, ki so ga sprejeli lani, prepoveduje delitev globoke ponarejene pornografije, ne pa tudi njenega ustvarjanja. Storilcem grozi do šest mesecev zapora.
V Evropski uniji se cel kup novih zakonskih predlogov težave loteva z različnih zornih kotov. Obširni zakon o umetni inteligenci od ustvarjalcev globokih ponaredkov zahteva, da nedvoumno označijo, da je material ustvarila umetna inteligenca. Zakon o digitalnih storitvah pa tehnološkim družbam nalaga, da hitreje brišejo škodljive vsebine.
Kitajski zakon o globokih ponaredkih, ki je začel veljati 2023, gre najdlje. Na Kitajskem morajo ustvarjalci globokih ponaredkov poskrbeti za nekaj ukrepov, s katerimi preprečijo, da bi njihove storitve zlorabili za protizakonite ali škodljive namene. Preden fotografije uporabnikov spremenijo v globoke ponaredke, morajo pridobiti njihovo soglasje. Preveriti morajo istovetnost ljudi in označiti vsebino, ustvarjeno z UI.
Plusi: Zakonodaja žrtvam omogoča prijavljanje, ustvarjalci ponarejene pornografije, ki ne pridobijo soglasja, pa morajo za to odgovarjati na sodišču. Zakonodaja tudi učinkovito odvrača od protizakonitega početja in jasno sporoča, da takšne zlorabe niso sprejemljive. Zakoni in kampanje za osveščanje javnosti, ki pripomorejo k zavedanju, da so avtorji globokih pornografskih ponaredkov krivi spolni zlorabe, bi lahko imeli velik vpliv, meni Ajder. »S tem bi spremenili nekoliko mlačen odnos, ki ga imajo nekateri do takšnih vsebin, češ da v resnici nikomur ne škodijo in da niso prava spolna zloraba,« je dodal.
Minusi: Takšen zakon bo težko uresničevati, opozarja Ajder. Ob trenutnih tehnikah bi žrtve težko ugotovile, kdo jih je napadel, in storilca bi bilo težko obtožiti, sploh če je iz druge države z drugačnimi zakoni. Tožbe bi bile v tem primeru zelo zahtevne.
Copyright Technology Review, distribucija Tribune Content Agency.
Zakup člankov
Za plačilo lahko uporabite plačilno kartico, PayPal, Apple Pay ali Google Pay:
Najprej se morate prijaviti.
V kolikor še nimate svoje prijave, se lahko registrirate.


