Ellex Raidla eksperdid Hegle Pärna ja Merlin Liis-Toomela
Merlin Liis-Toomela ja Hegle Pärna.
FOTO: Ellex Raidla
Tehisintellekti loodu võib olla kallutatud ning selle loodud sisu puhul tuleb võtta arvesse ka võimalikke eksimusi, mida tehisaru võib teha. Eksimuste vältimiseks ja n-ö kuulikindla tehisaru loomiseks on oluline aga inimjärelevalve, mis on ka tehisintellekti määruse üks võtmeteemasid. Milline roll on inimesel tehisaru otsustusprotsessi juures ja sellel, et tehisaru ei tegutseks üksipäini?
Autonoomsed otsused ja inimjärelevalve olulisus
Tehisintellekti süsteemid on üldjuhul loodud selleks, et aidata meil teha otsuseid või vähemalt abistada meid õigete otsusteni jõudmise teekonnal. Suuri ja võimekaid mudeleid on võimalik muuhulgas kasutada selleks, et valida aianduskeskusest kiiresti sobiv taim, leida sõbrale sünnipäevaks õige kink või koostada tuumajaama tuleohutuseeskirjad. Ilmselgelt ei ole kasutusvaldkonnad võrdse kaaluga oma tagajärgede poolest. Kui mudel valib iseseisvalt vale kingi, siis piirdub selle valiku tagajärg tõenäoliselt üksnes kerge pettumusega ning reaalset kahju tehisaru kasutajale eksimusest ilmselt ei teki. Olukord on sootuks erinev, kui tegemist on mõne eluliselt olulise valikuga, näiteks töökohale sobiva kandidaadi valimisega, kohtuotsuse langetamisega või suisa tervisealase otsusega – näiteks sobiva medikamendi või raviskeemi valimine.Ükski tehisintellekti mudel ei ole täiuslik ning tehisintellekti mudelid omandavad oskused neile antud treeningandmete põhjal. Kui andmed on mingit pidi kaldu või puudulikud, siis kajastub ka see anomaalia mudeli oskustes. Seega on teatud juhtudel mõistlik või isegi kohustuslik teostada inimjärelevalvet, eriti kui mõjutatud on isikute turvalisus, üldine heaolu või õigused. Tehistaibu kallutatus võib väljenduda isegi eelnevalt mainitud lihtsamate ülesannete puhul. Näiteks leidis juba 2020. aastal aset juhtum, kus üks avalikkusele kättesaadavaks tehtud piltide paremaks muutmise mudel muutis kvaliteedi parandamise käigus kõik tumedanahalised inimesed heledanahalisteks inimesteks. Kuulsaim näide eeltoodust oli USA endise presidendi Obama pilt, mis levis sotsiaalmeedia platvormidel kulutulena. Konkreetne näide lõi elava diskussiooni inimjärjelevalve vajaduse üle juba mudelite treenimise etapis, kuna treeningandmestikud ei pruugi sisaldada alati piisavalt mitmekesiseid andmeid ning seega võivad tehisintellekti süsteemid teha kallutatud otsuseid, mis võivad osutuda diskrimineerivaks.