Autonoomsed otsused ja inimjärelevalve olulisus

Tehisintellekti süsteemid on üldjuhul loodud selleks, et aidata meil teha otsuseid või vähemalt abistada meid õigete otsusteni jõudmise teekonnal. Suuri ja võimekaid mudeleid on võimalik muuhulgas kasutada selleks, et valida aianduskeskusest kiiresti sobiv taim, leida sõbrale sünnipäevaks õige kink või koostada tuumajaama tuleohutuseeskirjad. Ilmselgelt ei ole kasutusvaldkonnad võrdse kaaluga oma tagajärgede poolest. Kui mudel valib iseseisvalt vale kingi, siis piirdub selle valiku tagajärg tõenäoliselt üksnes kerge pettumusega ning reaalset kahju tehisaru kasutajale eksimusest ilmselt ei teki. Olukord on sootuks erinev, kui tegemist on mõne eluliselt olulise valikuga, näiteks töökohale sobiva kandidaadi valimisega, kohtuotsuse langetamisega või suisa tervisealase otsusega – näiteks sobiva medikamendi või raviskeemi valimine.Ükski tehisintellekti mudel ei ole täiuslik ning tehisintellekti mudelid omandavad oskused neile antud treeningandmete põhjal. Kui andmed on mingit pidi kaldu või puudulikud, siis kajastub ka see anomaalia mudeli oskustes. Seega on teatud juhtudel mõistlik või isegi kohustuslik teostada inimjärelevalvet, eriti kui mõjutatud on isikute turvalisus, üldine heaolu või õigused. Tehistaibu kallutatus võib väljenduda isegi eelnevalt mainitud lihtsamate ülesannete puhul. Näiteks leidis juba 2020. aastal aset juhtum, kus üks avalikkusele kättesaadavaks tehtud piltide paremaks muutmise mudel muutis kvaliteedi parandamise käigus kõik tumedanahalised inimesed heledanahalisteks inimesteks. Kuulsaim näide eeltoodust oli USA endise presidendi Obama pilt, mis levis sotsiaalmeedia platvormidel kulutulena. Konkreetne näide lõi elava diskussiooni inimjärjelevalve vajaduse üle juba mudelite treenimise etapis, kuna treeningandmestikud ei pruugi sisaldada alati piisavalt mitmekesiseid andmeid ning seega võivad tehisintellekti süsteemid teha kallutatud otsuseid, mis võivad osutuda diskrimineerivaks.