Приложението на изкуствения интелект (AI) расте бързо и все повече се вплита в ежедневието ни и в критични индустрии като здравеопазване, телекомуникации и енергетика. Но с голямата мощ идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.
Themis AI на MIT, съоснована и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага пробивно решение. Тяхната технология позволява на AI моделите да „знаят какво не знаят“. Това означава, че AI системите могат сами да сигнализират кога са несигурни относно своите прогнози, което позволява да се предотвратят грешки преди да нанесат вреда.
Защо това е толкова важно?
Много AI модели, дори напредналите, понякога проявяват т.нар. „халюцинации“ — дават неверни или необосновани отговори. В сектори, където решенията имат тежки последици, като медицинска диагноза или автономно шофиране, това може да бъде фатално. Themis AI разработи Capsa — платформа, която прилага количествено измерване на несигурността: тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.
Как работи това?
Като се обучат моделите на осъзнаване на несигурността (uncertainty awareness), те могат да предоставят изходи с етикет за риск или надеждност. Например: автономен автомобил може да сигнализира, че не е сигурен в дадена ситуация и да активира човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.
capsa_torch.wrapper() като изходът включва както прогнозата, така и риска:

Заключение
MIT екип показва, че бъдещето на AI не се свежда само до това да стане по-умна, а преди всичко до това да работи по-безопасно и по-справедливо. В Fortis AI вярваме, че AI става наистина ценен едва когато е прозрачен относно собствените си ограничения. С помощта на напреднали инструменти за квантитиране на несигурността, като Capsa, можете да превърнете тази визия в практическа реалност.