Používání umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a s odvětvími s vysokou důležitostí, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou silou přichází i velká odpovědnost: AI systémy někdy chybují nebo poskytují nejisté odpovědi, což může mít závažné důsledky.
Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že AI systémy mohou samy indikovat, kdy jsou ohledně svých predikcí nejisté, čímž lze předejít chybám dříve, než způsobí škodu.
Proč je to tak důležité?
Mnoho AI modelů, dokonce i pokročilých, může občas vykazovat tzv. „halucinace“ — poskytují nesprávné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí vážné důsledky, jako je lékařská diagnostika nebo autonomní řízení, může být toto katastrofální. Themis AI vyvinula Capsa, platformu, která uplatňuje kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobně a spolehlivě.
Jak to funguje?
Tím, že modelům vštěpujete povědomí o nejistotě (uncertainty awareness), mohou opatřit výstupy štítkem rizika nebo spolehlivosti. Například autonomní vůz může oznámit, že si není v určité situaci jistý, a tím aktivovat zásah lidského řidiče. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v AI systémy.
capsa_torch.wrapper() kde výstup obsahuje jak predikci, tak riziko:

Závěr
MIT tým ukazuje, že budoucnost AI nespočívá jen v tom, aby byla chytřejší, ale především v tom, aby fungovala bezpečněji a spravedlivěji. Ve Fortis AI věříme, že AI má skutečnou hodnotu teprve tehdy, když je transparentní ohledně svých vlastních omezení. Díky pokročilým nástrojům pro kvantifikaci neurčitosti, jako je Capsa, můžete tuto vizi uvést i do praxe.