人工知能(AI)の応用は急速に拡大しており、私たちの日常生活や医療、電気通信、エネルギーといった重大な影響を及ぼす産業分野にますます深く組み込まれつつあります。しかし大きな力には大きな責任が伴います:AIシステムは時に誤りを犯したり、不確かな回答を出したりし、それが重大な結果を招くことがあります。
MIT発のThemis AIは、CSAILラボのダニエラ・ルス教授が共同設立・主導する画期的な解決策を提供します。彼らの技術はAIモデルに「自分が知らないことを知る」能力を付与します。つまり、AIシステムが自ら予測に対する不確かさを示すことができ、被害が発生する前に誤りを防げるようになります。
なぜこれが重要なのか?
多くのAIモデル、たとえ高度なものでも、いわゆる「幻覚(hallucination)」を示すことがあります―誤った、あるいは根拠のない回答を返すのです。医療診断や自動運転のように判断の重みが大きい領域では、これが壊滅的な結果を招く可能性があります。Themis AIはCapsaというプラットフォームを開発し、不確実性の定量化(uncertainty quantification)を適用しています:AI出力の不確実性を詳細かつ信頼性の高い方法で測定し、数値化します。
仕組みは?
モデルに不確実性への認識(uncertainty awareness)を持たせることで、出力にリスクや信頼性のラベルを付与できます。例えば自動運転車はある状況に対して自信がないことを示し、人間の介入を促すことができます。これにより安全性が向上するだけでなく、ユーザーのAIシステムに対する信頼も高まります。
capsa_torch.wrapper() 出力は予測とリスクの両方で構成されます:

結論
MITは チーム 将来のAIは単に賢くなることだけでなく、より安全かつ公平に機能することが重要であることを示しています。Fortis AIは、AIが自らの限界について透明であるときにこそ真に価値を持つと考えています。Capsaのような高度な不確実性定量化ツールを使えば、その考えを実務で実現できます。