MIT doet onderzoek om AI slimmer te maken

MIT-team lär AI-modeller det de ännu inte visste.

Användningen av artificiell intelligens (AI) växer snabbt och blir alltmer integrerad i vår vardag och i högprioriterade branscher såsom sjukvård, telekom och energi. Men med stor kraft följer också stort ansvar: AI-system gör ibland fel eller ger osäkra svar som kan få stora konsekvenser.

MIT:s Themis AI, medgrundat och lett av professor Daniela Rus från CSAIL-laboratoriet, erbjuder en banbrytande lösning. Deras teknik gör det möjligt för AI-modeller att "veta vad de inte vet". Det innebär att AI-system själva kan signalera när de är osäkra på sina förutsägelser, vilket gör det möjligt att förebygga misstag innan de orsakar skada.

Varför är detta så viktigt?
Många AI-modeller, även avancerade sådana, kan ibland uppvisa så kallade "hallucinationer" — de levererar felaktiga eller ogrundade svar. I sektorer där beslut är av stor vikt, som medicinsk diagnostik eller självkörande fordon, kan detta få förödande följder. Themis AI utvecklade Capsa, en plattform som tillämpar uncertainty quantification: den mäter och kvantifierar osäkerheten i AI:s output på ett detaljerat och tillförlitligt sätt.

 Hur fungerar det?
Genom att lära modeller uncertainty awareness kan de förse utdata med en risk- eller pålitlighetsetikett. Till exempel kan en självkörande bil indikera att den är osäker i en situation och därför aktivera mänsklig intervention. Detta ökar inte bara säkerheten utan också användarnas förtroende för AI-system.

Exempel på teknisk implementering

  • Vid integration med PyTorch sker wrappningen av modellen via capsa_torch.wrapper() där output består av både förutsägelsen och risken:

Python example met capsa

För TensorFlow-modeller fungerar Capsa med en dekoratör:

tensorflow

Effekten för företag och användare
För Fortis AI och dess kunder innebär denna teknik ett stort steg framåt. Vi kan leverera AI-lösningar som inte bara är intelligenta, utan också säkrare och mer förutsägbara med mindre risk för hallucinationer. Det hjälper organisationer att fatta bättre underbyggda beslut och minska risker vid införandet av AI i affärskritiska applikationer.

Slutsats
MIT team visar att AI:s framtid inte bara handlar om att bli smartare, utan framför allt om att fungera säkrare och mer rättvist. Hos Fortis AI tror vi att AI först blir verkligt värdefullt när den är transparent om sina egna begränsningar. Med avancerade verktyg för osäkerhetskvantifiering som Capsa kan ni också omsätta den visionen i praktiken.

Gerard

Gerard är verksam som AI-konsult och chef. Med mycket erfarenhet från stora organisationer kan han särskilt snabbt reda ut ett problem och arbeta mot en lösning. Kombinerat med en ekonomisk bakgrund säkerställer han affärsmässigt ansvarstagande beslut.