Mis toimub tehisintellekti „kapoti all“ ja miks me seda teadma peame?
Kui kirjutada Google’i otsimootorisse sõna „tehisintellekt“, siis saab 0,43 sekundi jooksul 349 000 vastet. Infot selle kohta tekib järjest juurde ning tehisintellekti rakendusi kasutatakse juba kümnetes valdkondades. Kas me aga teame, mis toimub nende rakenduste „kapoti all“ ning kas need on usaldusväärsed ja turvalised? Kuidas tagada, et tehisintellektile söödetud andmed pärinevad usaldatavatest allikatest, on vabad eelarvamustest ega ole vastuvõtlikud manipuleerimisele? Oluline küsimus on ka tehisintellekti algoritmide toimimise mõistmine.
Me enamasti ei taju, et tehisintellekti rakendusi kasutavad näiteks veebipoed ja -otsingud, masintõlge, nutikad kodud või taristud, autod või küberturvalisuse lahendused. Tehisintellekti tehnoloogiad muudavad meie elu ja majandust olulisel määral ka tervishoius, transpordis, tootmises, avalikes teenustes või toidu tootmises ja põllumajanduses.
Usaldusväärse tehisintellekti (AI) küsimustega tegeles juba 2018. aastal Euroopa Komisjoni moodustatud sõltumatu kõrgetasemeline tehisintellekti eksperdirühm, mis koostas eetikasuunised usaldusväärse tehisintellekti arendamiseks. Dokumendi kohaselt on usaldusväärsel tehisintellektil kolm aspekti, mis iseloomustavad seda kogu süsteemi elutsükli jooksul: a) see peaks olema seaduslik ja vastama kõigile kohaldatavatele õigusnormidele, b) see peaks olema eetiline ja tagatud peaks olema eetikapõhimõtete ja -väärtuste järgimine, ning c) see peaks olema nii tehniliselt kui ka sotsiaalselt töökindel, sest isegi kui kavatsused on head, võivad tehisintellekti süsteemid tekitada tahtmatut kahju.
Dokumendis sõnastatakse, et iga nimetatud aspekt on iseenesest vajalik, kuid pole usaldusväärse tehisintellekti saavutamiseks piisav. Ideaaljuhul toimivad kõik kolm omavahel kooskõlas ja kattuvad üksteisega oma töös. Kui praktikas tekivad nende aspektide vahel pinged, peaks ühiskond püüdma neid kooskõlla viia. Dokumendis tuuakse välja ka näiteid tehisintellekti põhjustatud kriitilistest probleemidest, mis puudutavad tehisintellekti abil inimeste tuvastamist ja jälgimist, varjatud tehisintellekti süsteemide kasutamist, tehisintellektil põhinevat ja põhiõigusi rikkuvat kodanike hindamist või autonoomseid surmavaid relvasüsteeme.
Mida ootame usaldusväärselt ja turvaliselt tarkvaralt?
Tarkavarateaduse instituudi professori Pawel Sobocinski meelest tuleb usaldusväärsest tehisintellektist rääkides lahendada esmalt kaks probleemi. „Mõeldes tehisintellektist kui tarkvarast, siis selleks, et tarkvara oleks usaldusväärne, peab see käituma vastavalt ootustele. Võtame näiteks tarkvara lennukites, autodes või elektrijaamades. Taoline kriitiline tarkvara ei tohiks valel hetkel kokku joosta ega teha midagi väljaspool selle spetsifikatsiooni,“ räägib Sobocinski.
Turvalisuseks peame Sobocinski sõnul aga tagama, et häkkerid ei saaks kergesti sisse murda ega tekitada IT-süsteemides kaost: varastada või lunastada andmeid, häirida ja võib-olla isegi hävitada kriitilist infrastruktuuri. Küberturvalisuse teebki professori hinnangul eriti keeruliseks – ja seetõttu ka põnevaks – see, et lisaks tehnilistele aspektidele mängib rolli ka inimlik mõõde, kus erinevad petuskeemid, nagu andmepüük, on üles ehitatud ideele, et inimene on iga arvutisüsteemi turvalisuse nõrgim osa.
Rakendusliku tehisintellekti professor Tanel Tammet on Sobocinskiga ühel meelel: „Tehisintellekti üks suurtest probleemidest, mida rõhutab muuhulgas Euroopa AI strateegia, on vähene usaldusväärsus ja kerge rünnatavus: väga raske on olla veendunud, et AI ei tee vahel „rumalaid” otsuseid, mida praegused AI süsteemid tihtipeale teevadki.“ Tammet rõhutab, et eriti oluline on usaldusväärsus kriitilistes valdkondades, nagu meditsiin, transport jne, ning AI laiem rakendamine nõuab suutlikkust tagada selle usaldusväärsus.
Täna on tehisintellektiga seotud ka üksjagu müüte ja liigseid ootuseid. Tammeti hinnangul on üks tuntud müüt tema võimekus suuta pea ükskõik mida juba praegu. „Tegelikult on praegused AI süsteemid võimekad ainult väga spetsiifilistes valdkondades ja nõuavad rakendamiseks pikka ja keerulist õppimist suure hulga andmete pealt, mida on tihtipeale väga raske või pea võimatu hankida,“ selgitab Tammet.
Hea näide on tema sõnul meditsiin, kus AI laiem rakendamine seisab alles ees ning on praegu piiratud nendesamade takistuste ja vähese usaldusväärsusega. „Teine hea näide on isejuhtivad autod, mille praegune võimekus ootamatute olukordadega hakkama saada on liiga madal, et täielikult autonoomseid sõidukeid saaks laiemalt rakendada,“ märgib Tanel Tammet.
Ka Pawel Sobocinski hinnangul on tehisintellekti ümber palju haipi, kuid nagu oleme viimastel aastatel õppinud, ei ole „algoritmi usaldamine“ inimkonnale pikas perspektiivis tervislik valik. Samas leiab ta, et tehisintellekt mängib paratamatult meie elus aina olulisemat rolli. Kuid me ei saa entusiastidel lasta kontrollimatult tegutseda. „Kui soovime, et tehisintellekt oleks meie igapäeva osa, siis peavad tehisintellektile tuginevad süsteemid olema nii usaldusväärsed kui ka turvalised,“ on professor Sobocinski veendunud.
Selles suunas tegutseb tarkvarateaduse instituudi professor Juri Belikov, kes on koos teiste teadlastega uurinud masinõppe mudelite tõlgendatavuse teemat. See tähendab, et kuigi masinõppetehnikad annavad häid tulemusi, siis tihti ei mõista kasutajad, kuidas need otsused sünnivad, ning seetõttu ei ole need tehnikad kuigi usaldusväärsed. Belikovi jt teadusartikkel „Measuring Explainability and Trustworthiness of Power Quality Disturbances Classifiers Using XAI – Explainable Artificial Intelligence“ tegelebki sellele probleemile lahenduse leidmisega.
Belikovi sõnul võimaldavad XAI tehnikad seletada masinõppe mudeleid valdkondades, kus need on kriitilise tähtsusega: kaitsevaldkond, tervishoid ja isejuhtivad autod. „Meie uurijate rühm uuris XAI tehnikaid kasutades elektrisüsteeme ning keskendusime rikete ja elektrisüsteemi nn normist kõrvalekallete klassifitseerimise ülesannetele. Jõudsime tulemusele, millel on märkimisväärne potentsiaal selgitada masinõppe algoritmide otsuseid,“ rääkis Belikov.
Tehisintellekt on küberrünnakute suhtes haavatav
Küberkriminalistika ja küberjulgeoleku keskuse professori Olaf Maenneli sõnul on turvalise tehisintellekti temaatika järjest kasvav uurimissuund ning olukorras, kus AI rakendusi võetakse aina enam kasutusele, tuleb selle teemaga üha rohkem tegeleda ka Eestis. Kui esitada küsimus, miks meil on vaja turvalist AI-d, siis üks põhjustest on, et üha enam valitsuse otsuseid põhinevad suurandmete analüüsil või masinõppevahenditel. Kui nende meetodite sisendit saab manipuleerida, on tulemused samuti valed. Nii et selliste suurandmete tööriistade valedest soovitustest võib teha valesid järeldusi ja otsuseid. Maenneli hinnangul me ei saa hetkel ka väita, et olemasolevad süsteemid on lõpuni turvalised, ning see, mille Eesti on e-teenuste abil üles ehitanud, kujutab endast veel üsna habrast ökosüsteemi.
Ka Harvardi Ülikoolilt mõni aasta tagasi ilmunud Marcus Comiteri raportis („Attacking Artificial Intelligence: AI’s Security Vulnerability and What Policymakers Can Do About It“) märgitakse, et kaasaegsete tehisintellektisüsteemide aluseks olevad meetodid on süstemaatiliselt haavatavad uut tüüpi küberrünnakute suhtes, mida nimetatakse tehisintellekti rünnakuks. Nii saavad kurjategijad manipuleerida süsteemidega, et muuta nende käitumist pahatahtliku lõppeesmärgi saavutamiseks. Comiter rõhutab, et kuna tehisintellektisüsteemid on üha rohkem integreeritud ühiskonna kriitilistesse komponentidesse, kujutavad rünnakud tehisintellektile esilekerkivat ja süstemaatilist haavatavust, millel võib olla märkimisväärne mõju riigi julgeolekule.
Raportis kirjeldatakse, et erinevalt traditsioonilistest küberrünnakutest, mis on põhjustatud bug’idest või inimlikest vigadest koodis, võimaldavad rünnakuid AI-algoritmide loomupärased piirangud, mida praegu ei saa parandada. Lisaks suurendavad rünnakud tehisintellektile nende objektide hulka, mida saab kasutada küberrünnakute sooritamiseks. Esmakordselt saab nüüd küberrünnakuteks kasutada füüsilisi objekt: näiteks muuta stoppmärgi isejuhtiva auto silmis roheliseks tuleks, kleepides lihtsalt märgi külge mõne teibitüki. Ka andmeid saab kasutada relvana, kui muudetakse näiteks andmete kogumise, säilitamise ja kasutamise viise.
Autori sõnul mõjutavad tehisintellekti rünnakud kõige otsesemalt viit valdkonda: interneti sisufiltreid, militaarvaldkonda, õiguskaitset, varasemalt inimeste tehtud ülesandeid, mis on asendatud tehisintellektiga, ja kodanikuühiskonda. „Need valdkonnad on rünnakute jaoks atraktiivsed sihtmärgid ja muutuvad üha haavatavamaks, kuna tehisintellekti kasutatakse üha enam kriitiliste ülesannete jaoks,“ märgib Marcus Comiter raportis.
Kuhu on liikumas Eesti?
Majandus- ja kommunikatsiooniministeeriumi riigi andmete valdkonna juht Ott Velsberg on alates 2018. aastast tegelenud Eesti avaliku sektori tehisintellekti süsteemidega ehk krattidega. Kratt on tehisintellekti süsteem ja põhineb tarkvaralisel algoritmil, mis on autonoomne, õppimisvõimeline ning täidab traditsiooniliselt inimese poolt tehtavaid toiminguid (kratid.ee). „Kui esimese kratikava sihiks oli läbi viia 50 projekti, siis tänaseks oleme neid teinud üle saja,“ räägib Velsberg ja lisab, et juba on näha, et isegi katseprojektid toovad organisatsioonidele ja asutustele reaalset kasu. Ta tõi näiteks käibemaksupettuse tuvastamise projekti, mis püüab üles leida teadlikult või inimliku eksimuse tõttu valesti esitatud käibemaksu tagastamisnõudeid. Valminud masinõppe mudel võimaldab tulevikus esitatud käibemaksu tagastusnõudeid skoorida ehk määrata tõenäosust, kui reaalselt on tegu korrektselt või mittekorrektselt esitatud tagastusnõudega.
Kratinduse peamise edutegurina tõi Velsberg välja asutuste ja meeskondade toetamise ning kompetentside kasvatamise. Samuti on kaasa aidanud vabavaralisus: Eestil on nüüd koodivaramus üle 20 loodud lahenduse, mida saavad taaskasutada nii avalik kui ka erasektor. „Ja see koostöö pole ainult siseriiklik, vaid ka riikidevaheline,“ märgib Ott Velsberg.
Eesti „kratikava“ 2022–2023 kohaselt on avaliku sektori tegevuste peamine eesmärk ühelt poolt toetada krattide kasutuselevõtu baasvõimekuste loomist nendes avaliku sektori asutuses, mis ei ole seni kratte rakendanud, ja teisalt kinnistada ning võimendada asutusi, kellel on baas juba olemas, kuid seda ei ole juurutatud. Selle kava elluviimiseks erinevates suundades kulutab riik lähiaastatel 20 miljonit eurot.
Krattide usaldusväärsust ja turvalisust tagatakse andmejälgija, andmekaitsealase mõjuhinnangu, koolituste ja avatud lähtekoodi abil. Siin mängib riigi andmete valdkonna juhi sõnul rolli inimeste teadlikkus ning selleks tuleb olla tark tellija. Andmete usaldusväärsust tõstavad erinevad juhendid, näiteks kuidas andmeid märgendada, ning et märgendamisega peavad tegelema mitu inimest, et tagada märgendatud andmete õigsus. Samuti on asutustel turvalisuse tagamiseks vaja vastata ISKE nõuetele ning peame ka teadma, kuidas andmeid turvaliselt kasutada ja töödelda, räägib Velsberg.
„Meie viimase aja fookuses on olnud andmehalduse koolitused ning tänaseks on selle läbinud 300 inimest. Asutused on saanud aru, et andmehaldus on asi, kuhu peab panustama,“ ütleb Velsberg. Murekoht on endiselt asutuste IT-alased kompetentsid, kuna alguses võeti tehisintellekti projekte ühekordsena, kuid nüüd on selge, et neid on vaja pidevalt seirata, hooldada ja toetada. „See tähendab, et kui me teeme riigis mõne tehisintellektil põhineva lahenduse valmis, siis peame kohe arvestama, et seda tuleb ülal hoida ka viie aasta pärast,“ selgitab Velsberg. Rakenduste loomisel peab tema hinnangul arvestama ka inimeste käitumise muutustega. Silmapaistev näide on siin COVID-pandeemia, kus kõnetuvastus ei suutnud alguses sõnast „covid“ aru saada.
Pawel Sobocinski sõnul on Eesti poliitikakujundajate nägemus, et AI kasutamise teedrajav trend peaks jätkuma: üha rohkem avalikke teenuseid liigub võrku, on üha enam omavahel AI-algoritmide toel ühendatud ning seda poliitilist visiooni peab toetama usaldusväärne teadus.
„Kodanike turvalisust, privaatsust ja väärikust tuleb austada. Kui haiguslood, demokraatlikud protsessid ja finantsandmed on omavahel seotud ja algoritmidega töödeldud, peame usaldusväärsusele ja turvalisusele erilist tähelepanu pöörama,“ rõhutab Sobocinski. Ta märgib, et kui Eesti tahab olla tehisintellekti avalikus sektoris kasutamise varajane juurutaja ja teerajaja, on see meie teadlaste jaoks tohutult suur võimalus sellel suunal tööd teha ja protsesse mõjutada. „Lisaks sellele toovad teadusuuringud kaasa uue tehnoloogia, uued spin-off’id, ettevõtted ja uued võimalused,“ ütleb professor Sobocinski.
Ta mainib ka, et maailm liigub Eestiga sarnases suunas, kuid võib-olla mitte samas tempos. Eesti väiksus toob endaga kaasa eeliseid: bürokraatlikud hierarhiad on lühemad, otsuste tegemine paindlikum ja edusamme on võimalik saavutada kiiremini. Lõpuks mõjutavad samad AI kasutuselevõtuga seotud riskid ja võimalused üha enam kõiki EL-i riike, USA-d ja ülejäänud maailma. Pawel Sobocinski on veendunud, et seetõttu on selle valdkonna uurimine nii õigeaegne kui ka oluline ning Eesti on selleks ideaalne koht.
Artikkel ilmus esmakordselt Tallinna Tehnikaülikooli ajakirjas Mente et Manu aprillis 2022.