28. 6. 2024 | Mladina 26 | Družba
Igra številk
Goljufi se pri izvajanju finančnih prevar vse bolj zatekajo k uporabi umetne inteligence in programov za kloniranje govora, ki lahko pri telefonskih prevarah imitirajo glasove naših bližnjih
Maja letos je po družbenih omrežjih zaokrožil zelo očiten lažni videoposnetek, v katerem je sintetični klon predsednika vlade Roberta Goloba promoviral sumljivo spletno platformo za vlaganje v nafto in plin.
© zajem zaslona POP TV
Umetna inteligenca lahko izjemno prepričljivo imitira naš glas in način govora. Za tako imenovano kloniranje govora potrebuje le nekaj minut zvočnega posnetka govorjenja določene osebe, ki ga analizira v nekaj trenutkih, zatem pa lahko program začne tej osebi v usta polagati besede. Ta tehnologija se je v zadnjih mesecih v rokah spletnih prevarantov izkazala za zelo učinkovito orodje, ki lahko oškodovance opehari denimo s pomočjo klonov glasov njihovih bližnjih. Prišlo je tudi do prevar, v katerih so bila velika podjetja s pomočjo globokih ponaredkov oškodovana za milijonske vsote.
Zakup člankov
Celoten članek je na voljo le naročnikom. Če želite zakupiti članek, je cena 4,5 EUR. S tem nakupom si zagotovite tudi enotedenski dostop do vseh ostalih zaklenjenih vsebin. Kako do tedenskega zakupa?
28. 6. 2024 | Mladina 26 | Družba
Maja letos je po družbenih omrežjih zaokrožil zelo očiten lažni videoposnetek, v katerem je sintetični klon predsednika vlade Roberta Goloba promoviral sumljivo spletno platformo za vlaganje v nafto in plin.
© zajem zaslona POP TV
Umetna inteligenca lahko izjemno prepričljivo imitira naš glas in način govora. Za tako imenovano kloniranje govora potrebuje le nekaj minut zvočnega posnetka govorjenja določene osebe, ki ga analizira v nekaj trenutkih, zatem pa lahko program začne tej osebi v usta polagati besede. Ta tehnologija se je v zadnjih mesecih v rokah spletnih prevarantov izkazala za zelo učinkovito orodje, ki lahko oškodovance opehari denimo s pomočjo klonov glasov njihovih bližnjih. Prišlo je tudi do prevar, v katerih so bila velika podjetja s pomočjo globokih ponaredkov oškodovana za milijonske vsote.
Od lažnih ugrabitev do ponarejenih videokonferenc
V zadnjem letu je bila ta zmogljivost umetne inteligence uporabljena oziroma zlorabljena z zavajanjem javnosti za politične namene. Razni anonimni nepridipravi – bodisi spletni troli, ki z umetno inteligenco ustvarjajo satirično vsebino, bodisi tisti, ki skušajo z zvočnimi ponaredki oblatiti politične nasprotnike – so družbena omrežja preplavili s ponarejenimi zvočnimi posnetki izjav, ki jih politiki niso nikoli izrekli.
Kriminalci, ki umetno inteligenco uporabljajo za finančne prevare, sintezo govora zlorabljajo na mnogo intimnejši, osebni ravni, ki je po svoje še bolj srhljiva. Na to je pred nekaj meseci v intervjuju za Mladino opozoril Gašper Beguš, jezikoslovec in eden naših vodilnih strokovnjakov za umetno inteligenco, ki raziskuje in predava na lingvističnem oddelku kalifornijske Univerze v Berkeleyju. O potencialnih zlorabah sistemov umetne inteligence, je povedal, da je »temeljna grožnja tukaj seveda človek. Že zdaj lahko kdo v teoriji ustvari model, ki prepričljivo imitira na primer vašo babico, vas pokliče in prosi, da ji nakažete denar na bančni račun, vse to pa je generirala umetna inteligenca«. Dodal je, da smo tovrstne zlorabe »v preteklosti že uspešno spravili pod nadzor, a razlika je, da je izvedba takšnih prevar zdaj dokaj enostavna, če ima neka kriminalna entiteta dostop do teh modelov«.
Beguš je o tem pred natanko pol leta govoril kot o teoretični zlorabi, od tedaj pa so domiselni, tehnološko podkovani prevaranti po vsem svetu, zlasti pa v ZDA, izvedli že veliko tovrstnih finančnih goljufij. Nekaterim oškodovancem je sredi noči zazvonil telefon, na drugi strani linije pa jim je kriminalec z zloveščim robotskim glasom povedal, da je ugrabil njihovega bližnjega sorodnika in zahteval visoko odkupnino. Za dokaz, da se je ugrabitev dejansko zgodila, se je po telefonu nato oglasil tudi sintetičen, a prepričljiv glas ugrabljenca, ki je rotil za pomoč, zato oškodovanci niso podvomili o resnosti situacije in so ugrabiteljem odkupnino nemudoma nakazali na neizsledljiv račun neke spletne banke.
»Zdaj lahko kloniramo glas skorajda kogarkoli in ga pripravimo do tega, da pove skoraj karkoli. In tisto, kar mislite, da se bo zgodilo, je točno to, kar se dogaja.«
O enem tovrstnih primerov, ki se je marca zgodil v Brooklynu, je poročala revija The New Yorker. Oškodovanka, anonimna notranja oblikovalka luksuznih domov, je šele po uspešno opravljeni transakciji poklicala svojo mamo, ki naj bi bila ugrabljena, in jo vprašala, ali je z njo vse v redu. Odvrnila ji je: »Ja, v postelji sem,« in zmedeno vprašala: »Zakaj?« V tem članku z zgovornim naslovom »Strašljiva umetnointeligenčna prevara, ki zlorabi glas vašega bližnjega« je zadevo komentiral še en raziskovalec z Univerze v Berkeleyju, Hany Farid, strokovnjak za umetno inteligenco in manipuliranje medijev. »Zdaj lahko kloniramo glas skorajda kogarkoli in ga pripravimo do tega, da pove skoraj karkoli. In tisto, kar mislite, da se bo zgodilo, je točno to, kar se dogaja,« je povedal. Kot je dodal, bo »zlikovcu verjetno v 99 odstotkih primerov spodletelo, a bo zaradi tistega odstotka uspešnih prevar vseeno postal zelo, zelo bogat. To je igra številk.«
Takšnih lažnih ugrabitev se je v ZDA doslej zgodilo že kar nekaj, a vseeno gre za precej skrajne oblike tovrstnih prevar. Pogostejše so »nedolžnejše« goljufije, pri katerih oškodovancev ne pokličejo sintetični glasovi njihovih bližnjih, temveč roboti, ki se pretvarjajo, da so uradniki iz raznih bančnih organizacij in vladnih agencij. Ti telefonirajo denimo s ponudbo nižanja obrestnih mer kreditnih kartic ali opozarjajo na ponarejena naročila za avtorizacije pri spletnih nakupih, s čimer lahko od naivnih tarč prevar pridobijo občutljive podatke, kot so številke računov in PIN kode.
Vse to so prevare na mikro ravneh, pri katerih so načelno oškodovani običajni ljudje, umetna inteligenca pa je na delu tudi pri milijonskih goljufijah, ki so po žepu udarile že več finančnih mogotcev. Sloviti primer tovrstne prevare se je zgodil februarja, ko se je hongkonški finančnik, zaposlen v britanski mednarodni korporaciji Arup, udeležil lažne videokonference, v kateri ga je globoki ponaredek izvršnega direktorja podjetja prepričal za vrtoglavo nakazilo 25 milijonov ameriških dolarjev, ki jih je prenesel na neizsledljivi račun prebrisanih prevarantov.
Zdrava mera skepticizma
Sintetizatorji govora, ki jih poganja umetna inteligenca, še niso prav vešči slovenščine, zlasti če govorimo v (denimo ljubljanskem) slengu. V raziskavi za pričujoči članek sem z nekajminutnim posnetkom praznega govoričenja nahranil Speechify, priljubljeni komercialni program za sintezo govora, in z njegovo pomočjo v nekaj sekundah ustvaril svoj digitalni klon, da bi opeharil najboljšo prijateljico. Z uporabo sintetičnega glasu z neznane številke bi jo poprosil za denarno pomoč. Ustvaril sem dokaj prepričljiv lažni scenarij, v katerem naj bi mi sredi gorenjske avtoceste skoraj zmanjkalo goriva, zato sem se ustavil na bencinski postaji, a sem doma pozabil bančno kartico, izpraznila pa se je tudi baterija mojega telefona. K sreči se je na bencinski postaji pojavil naključni dobrodelnež, ki mi je posodil telefon in ponudil, da prijateljica denar prek NLB aplikacije Flik nakaže na njegov račun, on pa ga zame dvigne na najbližjem bankomatu.
Zadeva se je dokaj hitro zalomila: tako obroben jezik, kot je slovenščina, ni ravno na prioritetni listi učnega načrta modelov umetne inteligence. Čeprav je lažni glas zvenel skorajda identično mojemu, ga je izdal nenavaden naglas: zvenel je kot mešanica primorskega naglasa in slovenščine, kakršno govorijo na primer ameriški Slovenci v Clevelandu ali pa mormonski misijonarji, ki se po hitrem postopku naučijo našega jezika. Čeprav je prijateljica po prvih sekundah pogovora nemudoma ponudila, da mi »flikne« želeni znesek, je digitalni klon o svoji zagati še naprej nakladal, zato je po čudnem naglasu prepoznala, da jo trolam. »A je to umetna inteligenca? Zveniš totalno butasto,« je rekla. Potem ko smo se na obeh straneh pošteno nasmejali, pa je dodala: »Če bi me klical ob šestih zjutraj, bi ti takoj fliknila ta denar.«
Hongkonški finančnik se je udeležil lažne videokonference, na kateri ga je globoki ponaredek izvršnega direktorja podjetja pretental za vrtoglavo nakazilo 25 milijonov ameriških dolarjev.
Skratka, pri nas se tovrstnih prevar, vsaj za zdaj, še ni treba bati. To so nam potrdili tudi na Generalni policijski upravi, kjer nas je predstavnik policije za odnose z javnostmi za področje kriminalitete Drago Menegalija pomiril, da »do zdaj nismo zaznali tovrstnega načina storitve (t. i. shock call), niti nismo zaznali, da bi storilci pri izvrševanju goljufij na spletu uporabljali umetno inteligenco«. A je dodal, da pa so jim »tovrstni načini storitve kaznivega dejanja znani iz tujine«.
Seveda gre le za vprašanje časa, zato previdnost ni odveč. Prejšnji mesec je po družbenih omrežjih zaokrožil tako imenovani globoki ponaredek (ang. »deepfake«, op. p.), torej lažni videoposnetek, v katerem je sintetični klon predsednika vlade Roberta Goloba promoviral sumljivo spletno platformo za vlaganje v nafto in plin. Zadeva je sicer že na daleč smrdela po ponaredku, saj je premier govoril z nenavadnim slovanskim naglasom, ki zagotovo ni bil slovenski, pa tudi sicer video ni bil ravno visokotehnološki presežek.
A vseeno, to so zametki lažnih prevarantskih vsebin, ustvarjenih z umetno inteligenco, ki so iz dneva v dan vse bolj prefinjene in prepričljive, slej ko prej pa bodo tudi v našem prostoru začele predstavljati grožnjo, zaradi katere bo čedalje težje ločevati med resničnostjo in fikcijo. Na telefonske goljufije, ki jih prevaranti izvedejo s pomočjo umetne inteligence oziroma sintetizatorjev glasov, zato opozarja tudi slovenski Center za varnejši internet, ki deluje pod okriljem Fakultete za družbene vede v Ljubljani. Na svoji spletni »točki osveščanja o varni rabi interneta« Safe.si je v zapisu, naslovljenem »Telefonske prevare: neznani izzivi znanih glasov in umetne inteligence«, opozoril prav na »kompleksne in čustveno vpete situacije za prejemnika klica, ki morda niti ne bi pomislil, da klicatelj v resnici ni njegov prijatelj in da sploh ne gre za resnično osebo, pač pa za kopijo prijateljevega glasu, ki je bila ustvarjena s pomočjo umetne inteligence«. Pri Safe.si tako ugotavljajo, da je »prekiniti linijo neznancu dokaj lahko, ko pa je na drugi strani nekdo, ki zveni popolnoma enako kot naš bližnji, je zelo težko z gotovostjo prepoznati, da gre za prevaro«. Kot dodajajo, je zato »nujna zdrava mera skepticizma«.
Pisma bralcev pošljite na naslov pisma@mladina.si. Minimalni pogoj za objavo je podpis z imenom in priimkom ter naslov. Slednji ne bo javno objavljen.