MIT forsker i at gøre AI klogere

MIT-team lærer AI-modeller, hvad de endnu ikke vidste.

Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver stadig mere sammenflettet med vores dagligdag og kritiske industrier som sundhedspleje, telekommunikation og energi. Men med stor magt følger også stort ansvar: AI-systemer laver sommetider fejl eller giver usikre svar, som kan have store konsekvenser.

MIT’s Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Deres teknologi giver AI-modeller mulighed for at ‘vide, hvad de ikke ved’. Dette betyder, at AI-systemer selv kan angive, hvornår de er usikre på deres forudsigelser, hvilket forhindrer fejl, før de forvolder skade.

Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan til tider udvise såkaldte “hallucinationer”—de giver forkerte eller uunderbyggede svar. I sektorer, hvor beslutninger har stor vægt, såsom medicinsk diagnose eller autonom kørsel, kan dette få katastrofale følger. Themis AI udviklede Capsa, en platform der anvender usikkerhedskvantificering: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.

 Hvordan virker det?
Ved at give modellerne usikkerhedsbevidsthed kan de forsyne outputs med et risiko- eller pålidelighedsmærke. For eksempel kan en selvkørende bil angive, at den er usikker på en situation, og derfor aktivere menneskelig indgriben. Dette øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.

Eksempler på teknisk implementering

  • Ved integration med PyTorch involverer indpakningen af modellen via capsa_torch.wrapper() hvor outputtet består af både forudsigelsen og risikoen:

Python example met capsa

For TensorFlow-modeller bruger Capsa en decorator:

tensorflow

Indvirkningen for virksomheder og brugere
For Fortis AI og deres kunder betyder denne teknologi et enormt skridt fremad. Vi kan levere AI-applikationer, der ikke kun er intelligente, men også sikre og mere forudsigelige med mindre risiko for hallucinationer. Det hjælper organisationer med at træffe bedre informerede beslutninger og reducere risici ved implementering af AI i forretningskritiske applikationer.

Konklusion
MIT hold viser, at fremtiden for AI ikke kun handler om at blive klogere, men især også om at fungere mere sikkert og retfærdigt. Hos Fortis AI tror vi på, at AI først bliver rigtig værdifuld, når den er gennemsigtig omkring sine egne begrænsninger. Med avancerede usikkerhedskvantificeringsværktøjer som Capsa kan du også omsætte denne vision til praksis.

Gerard

Gerard er aktiv som AI-konsulent og leder. Med stor erfaring fra store organisationer kan han usædvanligt hurtigt afdække et problem og arbejde hen imod en løsning. Kombineret med en økonomisk baggrund sikrer han forretningsmæssigt forsvarlige valg.

AIR (Kunstig Intelligens Robot)