Застосування штучного інтелекту (ШІ) швидко зростає і все більше інтегрується в наше повсякденне життя та у критично важливі галузі, такі як охорона здоров’я, телекомунікації та енергетика. Але велика сила тягне за собою велику відповідальність: системи ШІ іноді помиляються або дають невпевнені відповіді, що може мати значні наслідки.
Themis AI від MIT, співзаснована та очолювана професоркою Даніелою Рус із лабораторії CSAIL, пропонує проривне рішення. Їхня технологія дозволяє моделям ШІ «знати, чого вони не знають». Це означає, що системи ШІ можуть самостійно вказувати, коли вони невпевнені у своїх прогнозах, що дає змогу запобігти помилкам до того, як вони завдадуть шкоди.
Чому це так важливо?
Багато моделей ШІ, навіть просунутих, іноді демонструють так звані «галюцинації» — вони дають хибні або непідтверджені відповіді. У секторах, де рішення мають серйозні наслідки, наприклад у медицині чи автономному водінні, це може бути катастрофічним. Themis AI розробила Capsa — платформу, що застосовує кількісну оцінку невизначеності: вона вимірює та кількісно визначає невпевненість результатів ШІ детально та надійно.
Як це працює?
Навчаючи моделі усвідомлювати невизначеність, можна позначати їхні результати рівнем ризику або надійності. Наприклад, автономний автомобіль може вказувати, що він невпевнений у певній ситуації, і таким чином ініціювати втручання людини. Це підвищує не лише безпеку, але й довіру користувачів до систем ШІ.
capsa_torch.wrapper() де вихід включає як прогноз, так і ризик:

Висновок
MIT команда це демонструє, що майбутнє ШІ полягає не лише в підвищенні інтелекту, а перш за все в безпечнішій та справедливішій роботі. У Fortis AI вірять, що ШІ стає справді цінним лише тоді, коли він прозоро повідомляє про власні обмеження. За допомогою передових інструментів кількісної оцінки невизначеності, таких як Capsa, ви можете втілити цю концепцію на практиці.