A mesterséges intelligencia (MI) alkalmazása gyorsan növekszik, és egyre jobban beépül mindennapi életünkbe és nagy kockázatú ágazatokba, például az egészségügybe, a távközlésbe és az energetikába. De nagy hatalommal nagy felelősség jár: az MI-rendszerek néha hibáznak vagy bizonytalan válaszokat adnak, amelyek súlyos következményekkel járhatnak.
A MIT Themis AI projektje, amelyet Daniela Rus professzor a CSAIL laborból társ-alapított és vezet, úttörő megoldást kínál. Technológiájuk lehetővé teszi az MI-modellek számára, hogy „tudják, mit nem tudnak”. Ez azt jelenti, hogy a rendszerek képesek jelezni, mikor bizonytalanok előrejelzéseikben, így hibák előzhetők meg, mielőtt kárt okoznának.
Miért fontos ez ennyire?
Sok MI-modell, még a fejlettek is, időnként ún. „hallucinációkat” produkálhatnak — hamis vagy megalapozatlan válaszokat adnak. Olyan területeken, ahol a döntések nagy súllyal esnek latba, például az orvosi diagnosztikában vagy az önvezetésnél, ennek katasztrofális következményei lehetnek. A Themis AI kifejlesztette a Capsa nevű platformot, amely bizonytalanságmérést alkalmaz: részletesen és megbízhatóan méri és kvantifikálja az MI-kimenetek bizonytalanságát.
Hogyan működik?
Ha a modellekben kialakul a bizonytalanságtudatosság, akkor kimeneteikhez kockázati vagy megbízhatósági jelzést adhatnak. Például egy önvezető jármű jelezheti, hogy bizonytalan egy adott helyzetben, és ez emberi beavatkozást aktiválhat. Ez nemcsak a biztonságot növeli, hanem a felhasználók bizalmát is erősíti az MI-rendszerek iránt.
capsa_torch.wrapper() amelynek kimenete mind az előrejelzésből, mind a kockázatból áll:

Következtetés
A MIT csapat Ez megmutatja, hogy az AI jövője nemcsak az intelligencia növeléséről szól, hanem elsősorban a biztonságosabb és igazságosabb működésről. A Fortis AI úgy véli, hogy az AI csak akkor válik valóban értékessé, ha átlátható a saját korlátait illetően. Olyan fejlett bizonytalanságmérő eszközökkel, mint a Capsa, ezt a víziót gyakorlatba is átültetheti.