Dirbtinio intelekto (DI) taikymas sparčiai auga ir vis labiau persipina su mūsų kasdieniu gyvenimu bei aukštos rizikos pramonės šakomis, tokiomis kaip sveikatos priežiūra, telekomunikacijos ir energetika. Tačiau su dideliais gebėjimais ateina ir didelė atsakomybė: DI sistemos kartais klysta arba pateikia neaiškius atsakymus, kurių pasekmės gali būti reikšmingos.
MIT Themis AI, kurią iš dalies įkūrė ir kuriai vadovauja profesorė Daniela Rus iš CSAIL laboratorijos, siūlo pažangią sprendimo priemonę. Jų technologija leidžia DI modeliams „žinoti, ko jie nežino“. Tai reiškia, kad DI sistemos gali pačios nurodyti, kada jos yra nepasiruošusios ar neįsitikinusios savo prognozėmis, taip užkertant kelią klaidoms prieš joms padarant žalą.
Kodėl tai yra tokia svarbu?
Daugelis DI modelių, net ir pažangūs, kartais patiria vadinamasias „haliucinacijas“ — jie pateikia neteisingus ar nepagrįstus atsakymus. Sektoriuose, kur sprendimai turi didelę reikšmę, pavyzdžiui, medicininiuose diagnozėse ar autonominiame vairavime, tai gali sukelti katastrofiškas pasekmes. Themis AI sukūrė Capsa — platformą, taikančią nežinomybės kiekybinimą (uncertainty quantification): ji matuoja ir kiekybiškai įvertina DI išvesties neapibrėžtumą detaliu ir patikimu būdu.
Kaip tai veikia?
Primesdami modeliams nežinomybės suvokimą (uncertainty awareness), galima pridėti išvestims rizikos arba patikimumo žymą. Pavyzdžiui, savarankiškai važiuojantis automobilis gali pranešti, kad tam tikra situacija kelia neaiškumų, ir dėl to aktyvuoti žmogaus įsikišimą. Tai ne tik padidina saugumą, bet ir didina vartotojų pasitikėjimą DI sistemomis.
capsa_torch.wrapper() kurio išvestis sudaryta tiek iš prognozės, tiek iš rizikos:

Išvados
MIT komanda parodo, kad AI ateitis nėra vien apie tai, kad ji taptų protingesnė, bet svarbiausia — kad ji veiktų saugiau ir teisingiau. Fortis AI mano, kad AI iš tikrųjų tampa vertinga tik tuomet, kai ji aiškiai nurodo savo ribas. Naudodami pažangius neapibrėžtumo kiekybinimo įrankius, tokius kaip Capsa, šią viziją galite įgyvendinti ir praktikoje.