MIT doet onderzoek om AI slimmer te maken

MIT-tiimi opettaa AI-malleille sitä, mitä ne eivät vielä tienneet.

Tekoälyn (AI) käyttö kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme sekä korkean panoksen toimialoihin, kuten terveydenhuoltoon, televiestintään ja energia-alaan. Suuren voiman myötä tulee myös suuri vastuu: AI-järjestelmät tekevät ajoittain virheitä tai antavat epävarmoja vastauksia, joilla voi olla vakavia seurauksia.

MIT:n Themis AI, jonka perustajia ja johtajia on muun muassa CSAIL-labin professori Daniela Rus, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa AI-malleille kyvyn "tietää mitä ne eivät tiedä". Tämä tarkoittaa, että AI-järjestelmät voivat itse ilmoittaa epävarmuudestaan ennusteissaan, mikä mahdollistaa virheiden ehkäisemisen ennen kuin ne aiheuttavat haittaa.

Miksi tämä on niin tärkeää?
Monet AI-mallit, jopa kehittyneet, voivat joskus ilmentää niin kutsuttuja "hallusinaatioita"—ne antavat virheellisiä tai perusteettomia vastauksia. Toimialoilla, joissa päätöksillä on suuri painoarvo, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tästä voi seurata kohtalokkaita seurauksia. Themis AI kehitti Capsa-alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi AI-tuotosten epävarmuutta yksityiskohtaisella ja luotettavalla tavalla.

 Miten se toimii?
Kun malleille opetetaan epävarmuustietoisuutta, ne voivat varustaa tulokset riskin- tai luotettavuusmerkillä. Esimerkiksi itseajava auto voi ilmoittaa epävarmuudestaan tilanteessa ja siten aktivoida ihmisen puuttumisen toimintaan. Tämä lisää paitsi turvallisuutta myös käyttäjien luottamusta AI-järjestelmiin.

Teknisen toteutuksen esimerkkejä

  • PyTorchiin integroituna mallin kääre tehdään seuraavasti capsa_torch.wrapper() jonka tuloksena on sekä ennuste että riski:

Python example met capsa

TensorFlow-mallien kanssa Capsa toimii dekorattorin avulla:

tensorflow

Vaikutus yrityksille ja käyttäjille
Tämä teknologia merkitsee Fortis AI:lle ja sen asiakkaille valtavaa harppausta eteenpäin. Voimme toimittaa tekoälysovelluksia, jotka ovat paitsi älykkäitä myös turvallisempia ja paremmin ennakoitavia, ja joissa on pienempi riski harhaannuksista. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä, kun tekoäly otetaan käyttöön liiketoimintakriittisissä sovelluksissa.

Yhteenveto
MIT tiimi näyttää, että tekoälyn tulevaisuus ei ole vain älykkäämpää toimintaa, vaan ennen kaikkea turvallisempaa ja oikeudenmukaisempaa. Fortis AI uskoo, että tekoälystä tulee todella arvokas vasta, kun se on läpinäkyvä omista rajoituksistaan. Kehittyneiden epävarmuuden kvantifiointityökalujen, kuten Capsan, avulla voitte toteuttaa tämän vision käytännössä.

Gerard

Gerard toimii tekoälykonsulttina ja -päällikkönä. Suureissa organisaatioissa karttunut laaja kokemus antaa hänelle kyvyn nopeasti selvittää ongelman ytimen ja edetä ratkaisun suuntaan. Taloudellinen tausta varmistaa liiketaloudellisesti vastuulliset valinnat.