MIT doet onderzoek om AI slimmer te maken

Echipa MIT învață modelele AI ceea ce încă nu știau.

Aplicarea inteligenței artificiale (AI) crește rapid și devine tot mai integrată în viața noastră de zi cu zi și în industrii cu miză mare, precum sănătatea, telecomunicațiile și energia. Dar la o putere mare vine și o responsabilitate mare: sistemele AI uneori greșesc sau oferă răspunsuri nesigure care pot avea consecințe semnificative.

Themis AI de la MIT, co-fondată și condusă de profesoara Daniela Rus din laboratorul CSAIL, oferă o soluție revoluționară. Tehnologia lor permite modelelor AI să „știe ce nu știu”. Asta înseamnă că sistemele AI pot semnala singure când sunt nesigure în privința predicțiilor lor, prevenind astfel erorile înainte să producă daune.

De ce este atât de important?
Multe modele AI, chiar și cele avansate, pot uneori să manifeste așa-numitele „halucinații” — oferă răspunsuri incorecte sau nefondate. În sectoare în care deciziile au greutate mare, precum diagnosticul medical sau conducerea autonomă, acest lucru poate avea consecințe dezastruoase. Themis AI a dezvoltat Capsa, o platformă care aplică cuantificarea incertitudinii: măsoară și cuantifică nesiguranța rezultatelor AI într-un mod detaliat și de încredere.

 Cum funcționează?
Prin a învăța modelele conștientizarea incertitudinii, ele pot atașa rezultatelor un etichetă de risc sau de încredere. De exemplu: o mașină autonomă poate semnala că nu este sigură într-o anumită situație și poate declanșa astfel intervenția umană. Aceasta nu numai că sporește siguranța, dar și încrederea utilizatorilor în sistemele AI.

Exemple de implementare tehnică

  • La integrarea cu PyTorch, învelirea (wrapping) modelului se face prin capsa_torch.wrapper() unde ieșirea constă atât din predicție, cât și din risc:

Python example met capsa

Pentru modelele TensorFlow, Capsa funcționează cu un decorator:

tensorflow

Impactul pentru companii și utilizatori
Pentru Fortis AI și clienții săi, această tehnologie reprezintă un salt uriaș înainte. Putem livra aplicații AI care nu sunt doar inteligente, ci și sigure și mai previzibile, cu o probabilitate redusă de halucinații. Aceasta ajută organizațiile să ia decizii mai bine fundamentate și să reducă riscurile la implementarea AI în aplicații critice pentru afaceri.

Concluzie
MIT echipă arată că viitorul AI nu înseamnă doar a deveni mai inteligent, ci mai ales a funcționa mai sigur și mai echitabil. La Fortis AI credem că AI devine cu adevărat valoros doar atunci când este transparent în privința propriilor limitări. Cu instrumente avansate de cuantificare a incertitudinii, precum Capsa, puteți transpune această viziune în practică.

Gerard

Gerard activează ca consultant și manager în domeniul AI. Cu multă experiență în cadrul unor organizații mari, el poate dezlega rapid o problemă și conduce către o soluție. Combinat cu un background economic, el asigură alegeri responsabil din punct de vedere business.