MIT doet onderzoek om AI slimmer te maken

Екип от MIT учи AI модели на неща, които още не знаеха.

Приложението на изкуствения интелект (AI) расте бързо и все повече се вплита в ежедневието ни и в критични индустрии като здравеопазване, телекомуникации и енергетика. Но с голямата мощ идва и голяма отговорност: AI системите понякога допускат грешки или дават несигурни отговори, които могат да имат сериозни последици.

Themis AI на MIT, съоснована и ръководена от професор Даниела Рус от лабораторията CSAIL, предлага пробивно решение. Тяхната технология позволява на AI моделите да „знаят какво не знаят“. Това означава, че AI системите могат сами да сигнализират кога са несигурни относно своите прогнози, което позволява да се предотвратят грешки преди да нанесат вреда.

Защо това е толкова важно?
Много AI модели, дори напредналите, понякога проявяват т.нар. „халюцинации“ — дават неверни или необосновани отговори. В сектори, където решенията имат тежки последици, като медицинска диагноза или автономно шофиране, това може да бъде фатално. Themis AI разработи Capsa — платформа, която прилага количествено измерване на несигурността: тя измерва и количествено определя несигурността на изхода на AI по детайлен и надежден начин.

 Как работи това?
Като се обучат моделите на осъзнаване на несигурността (uncertainty awareness), те могат да предоставят изходи с етикет за риск или надеждност. Например: автономен автомобил може да сигнализира, че не е сигурен в дадена ситуация и да активира човешка намеса. Това повишава не само безопасността, но и доверието на потребителите в AI системите.

Примери за техническа имплементация

  • При интеграция с PyTorch опаковането (wrapping) на модела се извършва чрез capsa_torch.wrapper() като изходът включва както прогнозата, така и риска:

Python example met capsa

За TensorFlow модели Capsa работи с декоратор:

tensorflow

Въздействието за фирмите и потребителите
За Fortis AI и нейните клиенти тази технология означава огромна стъпка напред. Ние можем да доставяме AI приложения, които не само са интелигентни, но и са по-безопасни и по-предсказуеми с по-малък риск от халиюцинации. Това помага на организациите да вземат по-добре обосновани решения и да намалят рисковете при въвеждането на AI в критични за бизнеса приложения.

Заключение
MIT екип показва, че бъдещето на AI не се свежда само до това да стане по-умна, а преди всичко до това да работи по-безопасно и по-справедливо. В Fortis AI вярваме, че AI става наистина ценен едва когато е прозрачен относно собствените си ограничения. С помощта на напреднали инструменти за квантитиране на несигурността, като Capsa, можете да превърнете тази визия в практическа реалност.

Жерард

Джерард е активен като консултант по ИИ и мениджър. С многогодишен опит в големи организации той може изключително бързо да разплете проблем и да работи към решение. В комбинация с икономически опит той осигурява бизнес-отговорни решения.