uredi› krajšaj› T:189 M:442 Z: [×]

Objavljeno: 25.2.2020 | Monitor Marec 2020

Izgubljeni boj proti lažnim novicam

Proti umetno inteligentnim robotom za lažne novice se bojujemo s še več umetne inteligence, a to je zgrešeno.

Samuel Woolley, MIT Technology Review

Vedno, ko se na Twitterju prijavite in preberete priljubljeno objavo, je zelo verjetno, da boste naleteli na profile spletnih robotov, ki jo všečkajo ali komentirajo. Ko malo poklikate, lahko opazite, da imajo njihovi vzdevki veliko objav v pogosto zelo kratkem času. Včasih v svojih komentarjih prodajajo kramo ali širijo digitalne viruse. Drugi računi, zlasti robotski, ki se na neko novico ali uradno izjavo odzovejo z žolčno latovščino, so popolnoma politični.

Samo po sebi se ponuja pojasnilo, da je za ta pojav kriva napredna računalniška znanost. In res, pogovarjal sem se s številnimi ljudmi, ki menijo, da algoritmi strojnega učenja, podkrepljeni s strojnim učenjem ali z umetno inteligenco, političnim programskim robotom omogočajo izpiljeno posnemanje okolice in vzajemno delovanje z ljudmi.

Med dogodki, v katerih so po prepričanju strokovnjakov pomembno vlogo igrali politični spletni roboti in dezinformacije – to so referendum o izstopu Združenega kraljestva iz Evropske unije, dvoboj med Clintonovo in Trumpom leta 2016, krimska kriza –, naj bi pametna umetno inteligentna orodja računalnikom omogočala pretvarjanje, da so ljudje, in pomagala manipulirati z javno razpravo.

Olja na ogenj so prilili še kritiki in novinarji: pisali so skrajno provokativne članke o vzponu oborožene umetno inteligentne propagandne mašinerije in zgodbe, v katerih so trdili, da je umetna inteligenca premagala demokracijo. Celo moje lastne raziskave o tem, kako družbena omrežja izrabljajo za vpliv na javno mnenje, ugrabljanje resnice in tihe proteste, kar je znano pod izrazom računalniška propaganda, so citirali v člankih, ki so namigovali, da so naši robotski gospodarji že tu.

V resnici pa zapleteni mehanizmi, kot je umetna inteligenca, doslej niso igrali pomembne vloge v propagandnih kampanjah. Vsi dokazi, ki sem jih videl o podjetju Cambridge Analytica, kažejo, da to ni nikoli ponujalo »psihografičnih« tržnih orodij, ki naj bi jih imelo že med ameriškimi volitvami 2016. Trdilo pa je, da s posebnimi sporočili lahko meri na posameznike v skladu z njihovimi osebnostnimi profili, izdelanimi na podlagi sporne Facebookove podatkovne zbirke.

Ko sem delal na oxfordskem internetnem inštitutu, smo preverjali, kako, če sploh, so Twitterjeve robote uporabili med razpravo o izstopu Združenega kraljestva iz EU. Ugotovili smo, da so jih sicer veliko uporabili za širjenje sporočil tabora za izstop, vendar je bila velika večina samodejnih računov zelo preprosta. Sprogramirani so bili za spreminjanje spletnih razprav s spletnimi roboti, ki so jih izdelali preprosto za spodbujanje všečkov in sledenja, širjenje povezav, usmerjanje trendov in trolanje pri opoziciji. Niti je vlekla majhna skupina ljudi, ki se dobro spozna na čarobnost memov in viralnost, sejanje zarot po spletu in opazovanje, kako se razraščajo. Razprave so onemogočali s preprosto računalniško sestavljeno e-slamo in hrupom, načrtno dodanima izbranim oznakam, da bi prekinili spletne razprave. Povezave do člankov, ki so nekega politika prikazovali v čisto določeni luči, so širili z lažnimi ali namestniškimi računi, sprogramiranimi za nenehno objavljanje in deljenje iste navlake. Te kampanje niti niso prikrivale svojega namena: roboti niso bili izdelani za funkcionalno razpravljanje in niso izkoriščali možnosti umetne inteligence.

Nič več neumen

A videti je znake, da se začenjajo uporabljati računalniška propaganda in lažne informacije na podlagi tehnologije umetne inteligence. Hekerji in druge skupine po družbenih omrežjih že preizkušajo učinkovitost nevarnejših umetno inteligentnih robotov. V članku na spletišču Gizmodo iz leta 2017 so poročali o dveh informatikih, ki sta umetno inteligenco naučila izdelati lasten postopek za ribarjenje: »Med poskusi se je umetno inteligentni heker odrezal bistveno bolje od človeških tekmecev. Sestavil in razširil je več objav, namenjenih ribarjenju, kot ljudje in njihova uspešnost je bila opazno večja.«

Problematične vsebine ne širijo le programski roboti, zmožni strojnega učenja, prav tako za sporno uporabo in razvoj tehnologije niso odgovorna le družbena omrežja. Raziskovalci poudarjajo, da je strojno učenje lahko omadeževano zaradi napadov – zlonamerni akterji vplivajo na podatke za učenje, da bi vplivali na rezultate konkretnega algoritma, še preden taka naprava sploh pride v javno uporabo.

Kalev Leetaru, predavatelj na univerzi Georgea Washingtona, ocenjuje, da prvi napadi umetno inteligentnih robotov morda ne bodo usmerjeni v družbena omrežja, temveč v zaprtje ciljnih spletnih strežnikov, tako da jih bodo preplavili s prometom.

»Predstavljajte si, da bi med seboj povezane robote prepustili nadzoru sistema globokega učenja in temu algoritmu umetne inteligence predali upravljanje vseh gumbov in tipk te mreže robotov,« je napisal Leetaru.

Ta razvoj ni namenjen temu, da bi novičarski portali laže obvladovali nepregledne količine vsebin, temveč, na primer, več milijard dolarjev vrednemu podjetju, da bi laže ohranilo svoj ugled.

»Prav tako v živo dobiva podatke o stanju na internetu od velikih podjetij za kibernetično varnost in nadzor z vsega sveta, da lahko vsak trenutek opazuje, kako se žrtev in preostali internet odzivata na napad. Vse to se morda zgodi, potem ko algoritem več tednov opazuje tarčo do zadnje podrobnosti, si tako ustvaril podobo o splošnih vzorcih prometa, podrobnostih ter vedenjskih vzorcih in se prevrta skozi žrtvine zunanje plasti obrambe.«

Onkraj obrambe

Aprila 2008 so Marca Zuckerberga zaslišali v kongresu. Pod političnim mikroskopom se je znašel zaradi zlorabe podatkov o uporabnikih med volitvami leta 2016. V svojem pričevanju v dveh delih je umetno inteligenco omenil več kot 30-krat in namignil, da bo ta rešitev za težave z digitalnimi dezinformaciji, saj bo omogočila programe, ki se bodo zmožni spopasti že samo z nepreglednim obsegom računalniške propagande. Napovedal je, da bo v prihodnjem desetletju umetna inteligenca odrešiteljica za ogromne težave, s kakršnimi se spopadajo Facebook in druga podjetja, ko poskušajo krotiti globalno širjenje rumenih vsebin in manipulacije.

Obstaja torej način, da bi umetno inteligenco in avtomatizirano tehnologijo programskih robotov uporabili za obrambo pred spletnim manipuliranjem z javnim mnenjem? Lahko umetno inteligenco izkoristimo za boj proti umetni inteligenci?

V observatoriju za družbena omrežja na univerzi v Indiani so sestavili javna orodja, ki izkoriščajo strojno učenje za odkrivanje robotov. Preverijo 1.200 lastnosti in tako odločijo, ali gre prej za človeka ali robota.

Facebookova produktna vodja Tessa Lyons je leta 2018 oznanila, da jim strojno učenje pomaga prepoznavati dvojnike razkrinkanih zgodb. Preverjevalec dejstev iz Francije je, denimo, razkrinkal trditev, da je osebo, ki jo je zadela kap, mogoče rešiti, če jo zbodeš v prst in iz njega iztiskaš kri. Algoritem je nato odkril več kot dvajset domen in 1.400 povezav, ki so širile isto trditev.

V takšnih primerih družbena omrežja ob pomoči strojnega učenja zaznajo in celo potrdijo takšna preverjanja dejstev po vsem svetu, s temi popravki na podlagi dokazov pa opozorijo na lažne vsebine.

V akademskih krogih poteka obsežna razprava, ali je pasivno prepoznavanje morebitnih lažnih informacij, da bi zaščitili uporabnike družabnih omrežij, sploh učinkovito. Nekateri strokovnjaki menijo, da preverjanje dejstev tako na spletu kot v resničnem življenju v trenutni obliki ni pretirano uspešno. Na začetku lanskega leta je spletna stran za preverjanje dejstev Snopes prekinila partnerstvo s Facebookom. Kot je povedalo vodstvo tega podjetja, si pri Facebooku po njihovem mnenju niso prizadevali, da bi bilo njihovo preverjanje bolj praktično za medije, temveč, da bi to plat olajšali izključno sebi.

Podjetja, kot je Facebook, se pri pregledovanju vsebine še vedno opirajo na majhne, običajno neprofitne organizacije. Potencialno lažni članki in posnetki se jim pogosto posredujejo brez dodatnih informacij v zvezi s tem, zakaj so pravzaprav vzbudili pozornost.

In tako glavni smisel tega dela ni pomoč novičarskim portalom, da preverijo na kupe vsebin in namigov, ki jih dobivajo vsak dan, in s tem pripomorejo k boljšemu novinarskemu delu, temveč predvsem pomagajo naknadno ohranjati ugled bogatih podjetij. Facebook bi moral sam prevzeti odgovornost za preverjanje podatkov, namesto da pregledovanje in razkrinkavanje novic prepušča drugim. Facebook in druga družbena omrežja bi poleg tega morala prenehati preverjati podatke šele po njihovi objavi, ko lažen članek že obkroži splet. Ta podjetja naj razvijejo nekakšen sistem zgodnjega opozarjanja na računalniško propagando.

Facebook, Google in sorodne družbe zaposlujejo ljudi, da iščejo in brišejo objave z nasilno vsebino ali s podatki terorističnih skupin. Vnema teh zaposlenih je precej manjša, ko gre za izkoreninjenje dezinformacij. Obilje različnih vsebin, prek katerih se po spletu pretakajo lažni podatki – od volitev v Indiji do pomembne športne prireditve v Južni Afriki –, je prezahtevno, da bi umetna inteligenca lahko delovala samostojno brez pomoči človeškega znanja. A v prihodnosti bi potrebovali cele armade ljudi po vsem svetu, če bi želeli učinkovito pregledovati neverjetne količine vsebin v najrazličnejših mogočih okoliščinah.

Skratka, za računalniško propagando na družbenih omrežjih ni preproste rešitve. Primerno metodo bi morale iskati same družbe, to je njihova odgovornost. Za zdaj se zdi, da Facebook bistveno bolj zanimajo odnosi z javnostjo kot umirjanje toka računalniške propagande in nazornih vsebin. Po podatkih spletišča The Verge podjetje več časa posveti poudarjanju uspehov pri odstranjevanju konkretnih zlobnih in nasilnih prispevkov kot sistematični preobrazbi svojih metod za zagotavljanje večje kakovosti.

Onkraj preverjanja podatkov

V boju proti računalniški propagandi bo nazadnje zmagala kombinacija človeškega dela in umetne inteligence, ni pa še jasno, kakšna bo in kako bo delovala. Preverjanje podatkov ob podpori umetne inteligence je le ena od možnosti. Strojno in globoko učenje skupaj s človeškimi delavci bi računalniško propagando, dezinformacije in politično nadlegovanje lahko preprečevala še na več drugih načinov.

Jigsaw, Googlov inkubator za tehnologijo, kjer sem bil leto dni raziskovalec, je razvil in sestavil umetno inteligentno orodje, imenovano Perspective, namenjeno zatiranju spletnega trolanja in sovražnega govora. To orodje (osebno nisem sodeloval pri razvoju) je aplikacijski programski vmesnik, ki razvijalcem omogoča, da samodejno odkrivajo neprimerno izražanje.

Sporno je, ker poleg lažnih alarmov – opozori tudi na prispevke, ki v resnici niso trolanje in ne pomenijo zlorabe – tudi krni izražanje. Kot opozarja Wired, so orodje učili s strojnim učenjem, vendar vsako takšno orodje učijo tudi s podatki ljudi, ki imajo seveda vsak svoje predsodke. Bi torej orodje, ki so ga razvili za odkrivanje rasističnega in sovražnega govora, lahko pogorelo zaradi zgrešenega pristopa k učenju?

Facebook je leta 2016 predstavil Deeptext, umetno inteligentno orodje, podobno Googlovemu Perspective. Družba je povedala, da z njim izbrišejo 60.000 sovražnih prispevkov na teden, vendar je hkrati tudi priznala, da orodje ne more delovati brez razmeroma velikega števila človeških moderatorjev, ki so tako glavni pri brisanju škodljivih vsebin. Twitter je konec leta 2017 končno začel uvajati ukrepe za onemogočanje groženj in komentarjev z nasilno vsebino. A medtem ko mu je dejansko uspelo omejiti takšne vsebine – ob hkratnem ukinjanju kupa računov političnih spletnih robotov –, ni nedvoumno razložil, kako odkriva in ukinja sporne račune. Kljub vsemu s svojimi raziskovalnimi kolegi na Twitterju še vedno skoraj vsak mesec najdem brutalno manipulativne mreže spletnih robotov.

Onkraj obzorja

Ni presenečenje, da tehnolog, kot je Zuckerberg, predlaga tehnično rešitev, vendar umetna inteligenca sama po sebi ni popolna. Kratkoviden pogled tehnoloških šefov na računalniške rešitve izraža naivnost in oholost, zaradi katerih so uporabniki Facebooka in drugih omrežij sploh postali tako ranljivi.

Armade pametnih umetno inteligentnih robotov, ki bi manipulirali javno mnenje med volitvami, še ne obstajajo. Bi jih lahko dobili v prihodnosti? Morda. A treba je opozoriti, da niti armade pametnih političnih spletnih robotov ne bodo zmogle delovati samostojno, še vedno bodo potrebovale človeški nadzor za manipuliranje in zavajanje. Ne bomo dobili spletne različice terminatorja. Veliki duhovi s področja računalniške znanosti in umetne inteligence, vključno s Turingovim nagrajencem Edom Feigenbaumom in Geoffom Hintonom, botrom globokega učenja, odločno zavračajo strahove, da je singularnost – nezadržno obdobje pametnih naprav – že za naslednjim vogalom. V raziskavah javnega mnenja ameriške zveze strokovnjakov za umetno inteligenco jih je več kot devet desetin menilo, da prihoda super inteligence še ni mogoče napovedati niti okvirno. Večina se jih strinja tudi, ko oziroma če bomo dobili super pametne računalnike, ti ne bodo ogrožali človeštva.

Stanfordski raziskovalci, ki spremljajo najnovejše dosežke na področju umetne inteligence, menijo, da trenutno naši »strojni gospodarji« še vedno ne kažejo zdrave pameti ali vsaj splošne inteligentnosti petletnega otroka. Kako bodo torej ta orodja spodkopala človekovo vladavino ali, na primer, rešila izrazito človeške družbene težave, kot sta politična polarizacija in pomanjkanje kritičnega razmišljanja? V Wall Street Journalu so leta 2017 jedrnato zapisali: »Brez ljudi je umetna inteligenca še vedno precej neumna.«

Grady Booch, eden najvidnejših strokovnjakov za sisteme umetne inteligence, je prav tako skeptičen do vzpona super pametnih zlonamernih strojev, vendar iz drugega razloga. V govoru na konferenci TED leta 2016 je povedal, da bi bila preuranjena zaskrbljenost zaradi širjenja superinteligence v marsičem nevarno odvračanje pozornosti, saj nam že razmah računalništva samega po sebi prinaša številne človeške in družbene težave, ki bi se jih morali lotiti takoj.

Še pomembneje pa je, je poudaril Booch, da trenutni sistemi umetne inteligence zmorejo različne čudovite naloge, od pogovarjanja z ljudmi v naravnem jeziku do prepoznavanja predmetov, vendar o tem odloča človek in je vse kodirano s človekovimi vrednotami. Niso programirani, temveč naučeni, kako naj se vedejo.

»V znanstvenem jeziku temu pravimo temeljna resnica,« je razložil Booch, »pri čemer je pomembno, da te stroje, ker jih razvijamo, tudi učimo naših vrednot. Zato umetni inteligenci zaupam enako, če ne še bolj, kot dobro vzgojenemu človeku.«

Boochovo misel bi še nadgradil. Za preprečevanje računalniške propagande bi se morali osredotočiti na ljudi, ki stojijo za temi orodji.

Da, nenehno razvijajoča se tehnologija lahko avtomatizira širjenje dezinformacij in trolanje. Storilcem omogoča anonimno delovanje brez strahu, da bi jih odkrili. A ta nabor orodij kot način političnega sporazumevanja je v bistvu osredotočen na človeški cilj prevzemanja nadzora. Propaganda je človeški izum, star kot družba. Kot mi je nekoč povedal strokovnjak za robotiko, se ne bi smeli bati naprav, ki so pametne kot ljudje, temveč bi nas moralo biti strah ljudi, ki ne uporabijo dovolj pameti pri razvijanju naprav.

Povzeto iz knjige The Reality Game: How the Next Wave of Technology Will Break the Truth, avtorja Samuela Woolleyja.

Copyright Technology Review, distribucija Tribune Content Agency.

Zakup člankov

Izbirate lahko med:

Za plačilo lahko uporabite plačilno kartico, PayPal, Apple Pay ali Google Pay:

 

Najprej se morate prijaviti.
V kolikor še nimate svoje prijave, se lahko registrirate.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji