Mākslīgo inteliļļences (MI) pielietojums strauji aug un arvien vairāk ieaujas mūsu ikdienas dzīve un nozīmes ar augstu riska pakāpi, piemēram, veselības aprūpe, telekomunikācijas un enerītika. Taču, ar lielo spēku nāk liela atbildība: MI sistēmas reizēm pieļauj kļūdas vai sniedz nepārliecinātas atbildes, kam var būt nopietnas sekas.
MIT Themis AI, ko kopū dibinājis un vada profesore Daniela Rus no CSAIL laboratorijas, piedāvā revolucionāru risinājumu. Viņu tehnoloijija ļauj MI modeļiem "zināt, ko viņi nezina". Tas nozīme, ka MI sistēmas var pašas norādīt, kad tās ir nepārliecinātas par saviem prognozēm, tādejādi novērōņot kļūdas pirms tās rada kaitējumu.
Kāpēc tas ir tik svarīgi?
Daudzi MI modeļi, pat vismodernākie, reizēm var radīt t.s. “halucinācijas”—tie sniedz kļūdīgas vai nepamatotas atbildes. Nozīmes, kurām lēmumi ir svarīgi, piemēram, medicīniskā diagnostikā vai autonomā braukšanā, tam var būt katastrofālas sekas. Themis AI izstrādāja Capsa, platformu, kas pielieto nepārliecinātības kvantificēšanu: tā mēra un kvantificē MI izvades nepārliecinātībā detalizētā un uzticamā veidā.
Kā tas darbojas?
Iemācot modeļiem izpratni par nenoteiktību, tie var nodrošināt izvadi ar riska vai uzticamības marķējumu. Piemēram, pašbraucoša automašīna var norādīt, ka tā nav pārliecināta par situāciju, un tādēļ aktivizēt cilvēka iejaukšanos. Tas ne tikai palielina drošību, bet arī lietotāju uzticēšanos AI sistēmām.
capsa_torch.wrapper() kurā izvade sastāv gan no prognozes, gan riska:

Secinājums
MIT komanda parāda, ka AI nākotne nav tikai par kļūšanu gudrākam, bet galvenokārt par drošāku un godīgāku darbību. Mēs, Fortis AI, uzskatām, ka AI patiešām kļūst vērtīgs tikai tad, kad tas ir caurspīdīgs par saviem ierobežojumiem. Izmantojot progresīvus nenoteiktības kvantificēšanas rīkus, piemēram, Capsa, jūs varat īstenot šo vīziju praksē.