Použitie umelej inteligencie (AI) rýchlo rastie a stále viac preniká do nášho každodenného života a do odvetví s vysokou zodpovednosťou, ako sú zdravotníctvo, telekomunikácie a energetika. S veľkou mocou však prichádza aj veľká zodpovednosť: AI systémy občas robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne následky.
Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratória CSAIL, ponúka prelomové riešenie. Ich technológia umožňuje AI modelom „vedieť, čo nevedia“. To znamená, že AI systémy samy dokážu naznačiť, keď sú v svojich predikciách neisté, čo umožňuje zabrániť chybám skôr, než napáchajú škodu.
Prečo je to také dôležité?
Mnohé AI modely, dokonca aj pokročilé, môžu občas vykazovať tzv. „halucinácie“ — poskytujú nesprávne alebo nedôvodnené odpovede. V odvetviach, kde majú rozhodnutia veľkú váhu, ako je lekárska diagnostika alebo autonómna doprava, môže mať to katastrofálne následky. Themis AI vyvinula Capsa, platformu, ktorá aplikuje kvantifikáciu neistoty: meria a kvantifikuje neistotu výstupu AI podrobným a spoľahlivým spôsobom.
Ako to funguje?
Tým, že modelom vštepíme povedomie o neistote, môžu označovať svoje výstupy štítkom rizika alebo spoľahlivosti. Napríklad: autonómne vozidlo môže označiť, že si nie je isté ohľadom určitej situácie, a aktivovať ľudský zásah. To zvyšuje nielen bezpečnosť, ale aj dôveru používateľov v AI systémy.
capsa_torch.wrapper() pričom výstup pozostáva z predikcie aj rizika:

Záver
MIT tím ukazuje, že budúcnosť AI nespočíva len v tom, aby bola inteligentnejšia, ale predovšetkým v tom, aby fungovala bezpečnejšie a spravodlivejšie. Vo Fortis AI veríme, že AI má skutočnú hodnotu iba vtedy, keď je transparentná voči vlastným obmedzeniam. S pokročilými nástrojmi kvantifikácie neistoty, ako je Capsa, môžete túto víziu zaviesť do praxe.