MIT doet onderzoek om AI slimmer te maken

A MIT csapata megtanítja az AI modelleket olyan dolgokra, amikről korábban nem tudtak.

A mesterséges intelligencia (MI) alkalmazása gyorsan növekszik, és egyre jobban beépül mindennapi életünkbe és nagy kockázatú ágazatokba, például az egészségügybe, a távközlésbe és az energetikába. De nagy hatalommal nagy felelősség jár: az MI-rendszerek néha hibáznak vagy bizonytalan válaszokat adnak, amelyek súlyos következményekkel járhatnak.

A MIT Themis AI projektje, amelyet Daniela Rus professzor a CSAIL laborból társ-alapított és vezet, úttörő megoldást kínál. Technológiájuk lehetővé teszi az MI-modellek számára, hogy „tudják, mit nem tudnak”. Ez azt jelenti, hogy a rendszerek képesek jelezni, mikor bizonytalanok előrejelzéseikben, így hibák előzhetők meg, mielőtt kárt okoznának.

Miért fontos ez ennyire?
Sok MI-modell, még a fejlettek is, időnként ún. „hallucinációkat” produkálhatnak — hamis vagy megalapozatlan válaszokat adnak. Olyan területeken, ahol a döntések nagy súllyal esnek latba, például az orvosi diagnosztikában vagy az önvezetésnél, ennek katasztrofális következményei lehetnek. A Themis AI kifejlesztette a Capsa nevű platformot, amely bizonytalanságmérést alkalmaz: részletesen és megbízhatóan méri és kvantifikálja az MI-kimenetek bizonytalanságát.

 Hogyan működik?
Ha a modellekben kialakul a bizonytalanságtudatosság, akkor kimeneteikhez kockázati vagy megbízhatósági jelzést adhatnak. Például egy önvezető jármű jelezheti, hogy bizonytalan egy adott helyzetben, és ez emberi beavatkozást aktiválhat. Ez nemcsak a biztonságot növeli, hanem a felhasználók bizalmát is erősíti az MI-rendszerek iránt.

Technikai megvalósítási példák

  • PyTorchtal történő integráció esetén a modell becsomagolása (wrapping) keresztül történik capsa_torch.wrapper() amelynek kimenete mind az előrejelzésből, mind a kockázatból áll:

Python example met capsa

TensorFlow-modellek esetén a Capsa egy dekorátort használ:

tensorflow

Hatás a vállalatokra és a felhasználókra
A Fortis AI és ügyfelei számára ez a technológia hatalmas előrelépést jelent. Olyan AI-alkalmazásokat tudunk szállítani, amelyek nemcsak intelligensek, hanem biztonságosabbak és jobban kiszámíthatók, kisebb hallucinációs kockázattal. Ez segíti a szervezeteket megalapozottabb döntések meghozatalában és csökkenti az AI vállalati kritikus alkalmazásokba történő bevezetésével járó kockázatokat.

Következtetés
A MIT csapat Ez megmutatja, hogy az AI jövője nemcsak az intelligencia növeléséről szól, hanem elsősorban a biztonságosabb és igazságosabb működésről. A Fortis AI úgy véli, hogy az AI csak akkor válik valóban értékessé, ha átlátható a saját korlátait illetően. Olyan fejlett bizonytalanságmérő eszközökkel, mint a Capsa, ezt a víziót gyakorlatba is átültetheti.

Gerard

Gerard AI tanácsadóként és vezetőként tevékenykedik. Széles tapasztalattal nagy szervezeteknél képes rendkívül gyorsan feltárni egy problémát és megoldás felé vezetni. Gazdasági háttérrel kombinálva üzletileg megalapozott döntéseket hoz.