MIT doet onderzoek om AI slimmer te maken

Tým MIT učí modely AI to, co dosud nevěděly.

Používání umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a s odvětvími s vysokou důležitostí, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou silou přichází i velká odpovědnost: AI systémy někdy chybují nebo poskytují nejisté odpovědi, což může mít závažné důsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI „vědět, co nevědí“. To znamená, že AI systémy mohou samy indikovat, kdy jsou ohledně svých predikcí nejisté, čímž lze předejít chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho AI modelů, dokonce i pokročilých, může občas vykazovat tzv. „halucinace“ — poskytují nesprávné nebo nepodložené odpovědi. V odvětvích, kde mají rozhodnutí vážné důsledky, jako je lékařská diagnostika nebo autonomní řízení, může být toto katastrofální. Themis AI vyvinula Capsa, platformu, která uplatňuje kvantifikaci nejistoty: měří a kvantifikuje nejistotu výstupu AI podrobně a spolehlivě.

 Jak to funguje?
Tím, že modelům vštěpujete povědomí o nejistotě (uncertainty awareness), mohou opatřit výstupy štítkem rizika nebo spolehlivosti. Například autonomní vůz může oznámit, že si není v určité situaci jistý, a tím aktivovat zásah lidského řidiče. To zvyšuje nejen bezpečnost, ale i důvěru uživatelů v AI systémy.

Příklady technické implementace

  • Při integraci s PyTorch probíhá zabalování modelu přes capsa_torch.wrapper() kde výstup obsahuje jak predikci, tak riziko:

Python example met capsa

Pro modely TensorFlow funguje Capsa s dekorátorem:

tensorflow

Dopad pro firmy a uživatele
Pro Fortis AI a její zákazníky znamená tato technologie obrovský krok vpřed. Můžeme dodat AI řešení, která nejsou jen inteligentní, ale také bezpečnější a lépe předvídatelná s menším rizikem halucinací. Pomáhá organizacím lépe podloženě rozhodovat a snižovat rizika při zavádění AI do kritických podnikových aplikací.

Závěr
MIT tým ukazuje, že budoucnost AI nespočívá jen v tom, aby byla chytřejší, ale především v tom, aby fungovala bezpečněji a spravedlivěji. Ve Fortis AI věříme, že AI má skutečnou hodnotu teprve tehdy, když je transparentní ohledně svých vlastních omezení. Díky pokročilým nástrojům pro kvantifikaci neurčitosti, jako je Capsa, můžete tuto vizi uvést i do praxe.

Gerard

Gerard působí jako AI konzultant a manažer. Díky bohatým zkušenostem z velkých organizací dokáže velmi rychle rozklíčovat problém a směřovat k řešení. Ve spojení s ekonomickým zázemím zajišťuje obchodně odpovědná rozhodnutí.