Aplikácia umelej inteligencie (AI) rýchlo rastie a čoraz viac sa prelína s naším každodenným životom a kľúčovými odvetviami, ako je zdravotníctvo, telekomunikácie a energetika. Ale s veľkou mocou prichádza aj veľká zodpovednosť: systémy AI niekedy robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne dôsledky.
Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratória CSAIL, prináša prelomové riešenie. Ich technológia umožňuje modelom AI, aby „zvedeli, čo nevedia“. To znamená, že systémy AI dokážu samy signalizovať, kedy si nie sú isté svojimi predpoveďami, čím sa predchádza chybám skôr, ako spôsobia škodu.
Prečo je to také dôležité?
Mnoho modelov AI, dokonca aj tých pokročilých, môže občas vykazovať tzv. “halucinácie” – poskytujú chybné alebo nepodložené odpovede. V odvetviach, kde sú rozhodnutia kritické, ako je lekárska diagnostika alebo autonómne riadenie, to môže mať zničujúce následky. Themis AI vyvinula Capsa, platformu, ktorá aplikuje kvantifikáciu neistoty (uncertainty quantification): meria a kvantifikuje neistotu výstupov AI podrobným a spoľahlivým spôsobom.
Ako to funguje?
Týmto modelom sa vštepuje povedomie o neistote, čo im umožňuje poskytovať výstupy s označením rizika alebo spoľahlivosti. Napríklad, autonómne vozidlo môže signalizovať, že si nie je isté situáciou, a preto aktivovať zásah človeka. To nielen zvyšuje bezpečnosť, ale aj dôveru používateľov v systémy umelej inteligencie.
capsa_torch.wrapper() pričom výstup pozostáva z predpovede aj rizika:

Záver
MIT tím ukazuje, že budúcnosť AI sa netýka len toho, aby sa stala inteligentnejšou, ale predovšetkým bezpečnejšou a spravodlivejšou. My v Fortis AI veríme, že AI sa stáva skutočne cennou, až keď je transparentná ohľadom svojich vlastných obmedzení. S pokročilými nástrojmi na kvantifikáciu neistoty, ako je Capsa, môžete túto víziu uviesť do praxe.