Tekoälyn (AI) käyttö kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme sekä korkean panoksen toimialoihin, kuten terveydenhuoltoon, televiestintään ja energia-alaan. Suuren voiman myötä tulee myös suuri vastuu: AI-järjestelmät tekevät ajoittain virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.
MIT:n Themis AI, jonka perustajia ja johtajia on muun muassa CSAIL-labin professori Daniela Rus, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa AI-malleille kyvyn "tietää mitä ne eivät tiedä". Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa epävarmuudestaan ennusteissaan, mikä mahdollistaa virheiden ehkäisemisen ennen kuin ne aiheuttavat haittaa.
Miksi tämä on niin tärkeää?
Monet AI-mallit, jopa kehittyneet, voivat joskus ilmentää niin kutsuttuja "hallusinaatioita"—ne antavat virheellisiä tai perusteettomia vastauksia. Toimialoilla, joissa päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tästä voi seurata kohtalokkaita seurauksia. Themis AI kehitti Capsa-alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi AI-tuotosten epävarmuutta yksityiskohtaisella ja luotettavalla tavalla.
Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riskin- tai luotettavuusmerkillä. Esimerkiksi itseajava auto voi ilmoittaa epävarmuudestaan tilanteessa ja siten aktivoida ihmisen puuttumisen toimintaan. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta AI-järjestelmiin.
capsa_torch.wrapper() jonka tuloksena on sekä ennuste että riski:

Yhteenveto
MIT tiimi näyttää, että tekoälyn tulevaisuus ei ole vain älykkäämpää toimintaa, vaan ennen kaikkea turvallisempaa ja oikeudenmukaisempaa. Fortis AI uskoo, että tekoälystä tulee todella arvokas vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneiden epävarmuuden kvantifiointityökalujen, kuten Capsan, avulla voitte toteuttaa tämän vision käytännössä.