Primjena umjetne inteligencije (AI) brzo raste i sve se više isprepliće s našim svakodnevnim životom i industrijama s visokim ulozima kao što su zdravstvo, telekomunikacije i energetika. Ali s velikom moći dolazi i velika odgovornost: AI sustavi ponekad griješe ili daju nesigurne odgovore koji mogu imati velike posljedice.
MIT-ov Themis AI, suosnovan i vođen od strane profesorice Daniele Rus iz CSAIL laboratorija, nudi revolucionarno rješenje. Njihova tehnologija omogućava AI modelima da ‘znaju ono što ne znaju’. To znači da AI sustavi mogu sami naznačiti kada su nesigurni u svoje prognoze, čime se mogu spriječiti pogreške prije nego što nanesu štetu.
Zašto je ovo toliko važno?
Mnogi AI modeli, čak i napredni, ponekad mogu pokazivati takozvane “halucinacije”—daju pogrešne ili neutemeljene odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnoze ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI razvio je Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti (uncertainty quantification): mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.
Kako to funkcionira?
Uvođivanjem svijesti o nesigurnosti modelima, oni mogu opremiti izlaze oznakom rizika ili pouzdanosti. Na primjer: autonomni automobil može naznačiti da nije siguran u vezi sa situacijom i stoga aktivirati ljudsku intervenciju. To ne samo da povećava sigurnost, već i povjerenje korisnika u AI sustave.
capsa_torch.wrapper() gdje se izlaz sastoji i od predviđanja i od rizika:

Zaključak
MIT tim pokazuje da budućnost umjetne inteligencije nije samo u tome da postane pametnija, već prvenstveno u tome da funkcionira sigurnije i poštenije. U Fortis AI vjerujemo da umjetna inteligencija postaje zaista vrijedna tek kada je transparentna u pogledu vlastitih ograničenja. S naprednim alatima za kvantifikaciju nesigurnosti poput Capsa, tu viziju možete provesti u praksi.