MIT tutkii tekoälyn älykkäämmäksi tekemistä

MIT-tiimi opettaa tekoälymalleille asioita, joita ne eivät vielä tienneet.

Tekoälyn (AI) soveltaminen kasvaa nopeasti ja kietoutuu yhä tiiviimmin jokapäiväiseen elämäämme ja korkean panoksen aloihin, kuten terveydenhuoltoon, tietoliikenteeseen ja energiaan. Mutta suuren voiman mukana tulee myös suuri vastuu: tekoälyjärjestelmät tekevät joskus virheitä tai antavat epävarmoja vastauksia, joilla voi olla suuria seurauksia.

MIT:n Themis AI, jonka on perustanut ja jota johtaa professori Daniela Rus CSAIL-laboratoriosta, tarjoaa uraauurtavan ratkaisun. Heidän teknologiansa antaa tekoälymallien "tietää, mitä ne eivät tiedä". Tämä tarkoittaa, että tekoälyjärjestelmät voivat itse ilmoittaa, milloin ne ovat epävarmoja ennusteistaan, jolloin virheet voidaan estää ennen kuin ne aiheuttavat vahinkoa.

Miksi tämä on niin tärkeää?
Monet tekoälymallit, jopa edistyneet, voivat joskus osoittaa niin kutsuttuja "hallusinaatioita" – ne antavat virheellisiä tai perusteettomia vastauksia. Aloilla, joilla päätökset ovat raskaita, kuten lääketieteellisessä diagnostiikassa tai autonomisessa ajamisessa, tällä voi olla tuhoisia seurauksia. Themis AI kehitti Capsan, alustan, joka soveltaa epävarmuuden kvantifiointia: se mittaa ja kvantifioi tekoälyn tuotoksen epävarmuuden yksityiskohtaisesti ja luotettavasti.

 Miten se toimii?
Tuomalla malleihin epävarmuustietoisuutta, ne voivat varustaa tulokset riski- tai luotettavuusmerkinnällä. Esimerkiksi itseajava auto voi ilmoittaa, ettei se ole varma tilanteesta, ja aktivoida siksi ihmisen väliintulon. Tämä ei ainoastaan lisää turvallisuutta, vaan myös käyttäjien luottamusta tekoälyjärjestelmiin.

Teknisen toteutuksen esimerkkejä

  • Kun integroidaan PyTorchiin, mallin kääre (wrapping) tapahtuu capsa_torch.wrapper() jolloin tulos koostuu sekä ennusteesta että riskistä:

Python example met capsa

TensorFlow-malleja varten Capsa käyttää koristelijaa (decorator):

tensorflow

Vaikutus yrityksille ja käyttäjille
Tämä teknologia merkitsee Fortis AI:lle ja sen asiakkaille valtavaa harppausta eteenpäin. Voimme toimittaa tekoälysovelluksia, jotka eivät ole ainoastaan älykkäitä, vaan myös turvallisia ja paremmin ennustettavia, vähentäen hallusinaatioiden riskiä. Se auttaa organisaatioita tekemään paremmin perusteltuja päätöksiä ja vähentämään riskejä vietäessä tekoälyä liiketoimintakriittisiin sovelluksiin.

Johtopäätös
MIT tiimi osoittaa, että tekoälyn tulevaisuus ei pyöri vain älykkäämmäksi tulemisen ympärillä, vaan ennen kaikkea turvallisemman ja oikeudenmukaisemman toiminnan ympärillä. Fortis AI:ssa uskomme, että tekoälystä tulee todella arvokasta vasta, kun se on läpinäkyvä omien rajoitustensa suhteen. Kehittyneillä epävarmuuden kvantifiointityökaluilla, kuten Capsalla, voit toteuttaa tämän vision käytännössä.

Gerard

Gerard toimii tekoälykonsulttina ja -johtajana. Laajalla kokemuksella suurista organisaatioista hän pystyy purkamaan ongelman erittäin nopeasti ja työskentelemään kohti ratkaisua. Yhdistettynä taloudelliseen taustaan hän varmistaa liiketoiminnallisesti perustellut valinnat.

AIR (Keinotekoinen Älyrobotti)