Uporaba umetne inteligence (AI) hitro narašča in postaja vse bolj prepletena z našim vsakdanjim življenjem ter ključnimi industrijami, kot so zdravstvo, telekomunikacije in energetika. Toda z veliko močjo pride tudi velika odgovornost: AI-sistemi včasih delajo napake ali dajejo negotove odgovore, ki lahko imajo velike posledice.
Themis AI z MIT-a, soustanovljena in vodena s strani profesorice Daniele Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča modelom AI, da »vedo, česar ne vedo«. To pomeni, da lahko AI-sistemi sami sporočijo, kdaj so negotovi glede svojih napovedi, kar omogoča preprečevanje napak, preden povzročijo škodo.
Zakaj je to tako pomembno?
Veliko AI-modelov, tudi naprednih, včasih kaže t. i. »halucinacije« — dajejo napačne ali neutemeljene odgovore. V sektorjih, kjer imajo odločitve velike posledice, kot so medicinska diagnostika ali avtonomna vožnja, so lahko te napake katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost AI-izhodov na podroben in zanesljiv način.
Kako deluje?
Z učenjem modelov zavesti o negotovosti lahko opremijo izhode z oznako tveganja ali zanesljivosti. Na primer: samovozeče vozilo lahko sporoči, da ni prepričano v določeno situacijo, in tako sproži človeško intervencijo. To povečuje ne le varnost, ampak tudi zaupanje uporabnikov v AI-sisteme.
capsa_torch.wrapper() kjer je izhod sestavljen tako iz napovedi kot iz ocene tveganja:

Sklep
MIT ekipa pokaže, da prihodnost AI ni le v tem, da postane pametnejša, temveč predvsem v tem, da deluje bolj varno in pravično. V Fortis AI verjamemo, da umetna inteligenca postane resnično vredna šele, ko je pregledna glede lastnih omejitev. Z naprednimi orodji za kvantificiranje negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.