MIT zkoumá, jak učinit AI chytřejší

Tým MIT učí modely AI to, co ještě nevěděly.

Použití umělé inteligence (AI) rychle roste a stále více se prolíná s naším každodenním životem a klíčovými odvětvími, jako je zdravotnictví, telekomunikace a energetika. Ale s velkou mocí přichází i velká odpovědnost: systémy AI někdy dělají chyby nebo poskytují nejisté odpovědi, které mohou mít velké důsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratoře CSAIL, nabízí průlomové řešení. Jejich technologie umožňuje modelům AI, aby „věděly, co nevědí“. To znamená, že systémy AI mohou samy signalizovat, kdy si nejsou jisté svými předpověďmi, čímž lze předejít chybám dříve, než způsobí škodu.

Proč je to tak důležité?
Mnoho modelů AI, i těch pokročilých, může někdy vykazovat tzv. „halucinace“ – poskytují chybné nebo nepodložené odpovědi. V odvětvích, kde rozhodnutí mají velkou váhu, jako je lékařská diagnostika nebo autonomní řízení, to může mít katastrofální následky. Themis AI vyvinula Capsa, platformu, která aplikuje kvantifikaci nejistoty (uncertainty quantification): měří a kvantifikuje nejistotu výstupů AI podrobným a spolehlivým způsobem.

 Jak to funguje?
Tím, že modelům dodáme povědomí o nejistotě, můžeme jejich výstupy opatřit štítkem rizika nebo spolehlivosti. Například autonomní vozidlo může uvést, že si není jisté ohledně určité situace, a proto aktivovat zásah člověka. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy umělé inteligence.

Příklady technické implementace

  • Při integraci s PyTorch se zabalení modelu provádí pomocí capsa_torch.wrapper() kde výstupem je jak předpověď, tak riziko:

Python example met capsa

Pro modely TensorFlow používá Capsa dekorátor:

tensorflow

Dopad pro společnosti a uživatele
Pro Fortis AI a její klienty tato technologie představuje obrovský krok vpřed. Můžeme dodávat aplikace umělé inteligence, které jsou nejen inteligentní, ale také bezpečné a lépe předvídatelné s menší pravděpodobností halucinací. Pomáhá organizacím činit lépe podložená rozhodnutí a snižovat rizika při zavádění AI do kritických podnikových aplikací.

Závěr
MIT tým ukazuje, že budoucnost umělé inteligence se netýká jen toho, aby se stala chytřejší, ale především toho, aby fungovala bezpečněji a spravedlivěji. My ve společnosti Fortis AI věříme, že umělá inteligence se stává skutečně cennou teprve tehdy, když je transparentní ohledně svých vlastních omezení. S pokročilými nástroji pro kvantifikaci nejistoty, jako je Capsa, můžete tuto vizi uvést do praxe.

Gerard

Gerard aktivně působí jako konzultant a manažer v oblasti AI. Díky rozsáhlým zkušenostem s velkými organizacemi dokáže mimořádně rychle rozklíčovat problém a dospět k řešení. V kombinaci s ekonomickým zázemím zajišťuje obchodně odpovědná rozhodnutí.

AIR (Umělá inteligence Robot)