تطبيق الذكاء الاصطناعي يتسارع ويصبح متداخلًا أكثر في حياتنا اليومية والصناعات عالية المخاطر مثل الرعاية الصحية والاتصالات والطاقة. لكن مع القوة الكبيرة تأتي مسؤولية كبيرة: أنظمة الذكاء الاصطناعي أحيانًا ترتكب أخطاء أو تُعطي إجابات غير مؤكدة قد تكون لها تبعات كبيرة.
Themis AI من MIT، التي شاركت في تأسيسها وتُدار جزئيًا بواسطة البروفيسورة دانييلا روس من مختبر CSAIL، تقدم حلاً رائدًا. تُمكّن تقنيتهم نماذج الذكاء الاصطناعي من "معرفة ما لا تعرفه". هذا يعني أن أنظمة الذكاء الاصطناعي تستطيع الإشارة بنفسها متى تكون غير متأكدة من توقعاتها، مما يسمح بتجنب الأخطاء قبل أن تتسبب في ضرر.
لماذا هذا مهم؟
العديد من نماذج الذكاء الاصطناعي، حتى المتطورة منها، قد تُظهر ما يُسمى بـ"الهلوسات" — تقدم إجابات خاطئة أو غير مبررة. في قطاعات تتسم بثِقَل القرار مثل التشخيص الطبي أو القيادة الذاتية، قد تكون العواقب كارثية. طورت Themis AI منصة تُسمى Capsa تطبّق قياس الكمّية للريبة: تقيس وتحدّد كمّيًا مستوى عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصّلة وموثوقة.
كيف يعمل ذلك؟
من خلال تعليم النماذج وعي عدم اليقين، يمكنها تزويد المخرجات بتسمية للمخاطرة أو الثقة. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما وبالتالي تطلب تدخلًا بشريًا. هذا لا يزيد السلامة فحسب، بل يعزز أيضًا ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper() حيث تتكون المخرجات من كل من التنبؤ والمخاطرة:

الخاتمة
MIT الفريق يُظهر أن مستقبل الذكاء الاصطناعي لا يقتصر على أن يصبح أكثر ذكاءً فحسب، بل على أن يعمل بأمان وعدالة أكبر أيضاً. في Fortis AI نؤمن بأن الذكاء الاصطناعي لا يحقق قيمة حقيقية إلا عندما يكون شفافاً بشأن حدوده. مع أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنكم تطبيق هذه الرؤية عملياً.