Uporaba umetne inteligence (UI) hitro narašča in se vse bolj prepleta z našim vsakdanjim življenjem in panogami z visokimi vložki, kot so zdravstvo, telekomunikacije in energetika. Vendar pa z veliko močjo prihaja tudi velika odgovornost: sistemi UI včasih delajo napake ali dajejo negotove odgovore, ki imajo lahko velike posledice.
Themis AI z MIT-ja, ki ga je soustanovil in vodi profesorica Daniela Rus iz laboratorija CSAIL, ponuja prebojno rešitev. Njihova tehnologija omogoča, da AI modeli „zvedo, kaj ne vedo“. To pomeni, da lahko sistemi UI sami označijo, kdaj so negotovi glede svojih napovedi, s čim se prepreči napakam, preden povzročijo škodo.
Zakaj je to tako pomembno?
Veliko AI modelov, tudi naprednih, včasih kaže tako imenovane „halucinacije“ – dajejo napačne ali neutemeljene odgovore. V sektorjih, kjer odločitve težijo, kot sta medicinska diagnoza ali avtonomna vožnja, so lahko posledice katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: podrobno in zanesljivo meri in kvantificira negotovost izhodov AI.
Kako deluje?
Z vgradnjo zavesti o negotovosti v modele, lahko ti opremojo izhode z oznako tveganja ali zanesljivosti. Na primer: avtonomni avto lahko sporoči, da ni prepričan glede situacije, in zato sproži človeški poseg. To ne povečuje le varnosti, temveč tudi zaupanje uporabnikov v sisteme umetne inteligence.
capsa_torch.wrapper() kjer je izhod tako napoved kot tveganje:

Zaključek
MIT ekipa kaže, da prihodnost umetne inteligence ni le v tem, da postane pametnejša, temveč predvsem v tem, da deluje varneje in pošteneje. Pri Fortis AI verjamemo, da umetna inteligenca postane resnično dragocena šele, ko je pregledna glede lastnih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.