การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) เติบโตอย่างรวดเร็วและยิ่งทับซ้อนเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีผลกระทบสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงาน แต่เมื่อมีกำลังมากก็ต้องมีความรับผิดชอบมากขึ้น: ระบบ AI บางครั้งอาจทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอนซึ่งอาจมีผลกระทบร้ายแรง
Themis AI ของ MIT ซึ่งก่อตั้งและนำโดยศาสตราจารย์ Daniela Rus จากห้องปฏิบัติการ CSAIL นำเสนอแนวทางที่ก้าวล้ำ เทคโนโลยีของพวกเขาช่วยให้แบบจำลอง AI สามารถ ‘รู้ในสิ่งที่ตนไม่รู้’ ได้ ซึ่งหมายความว่าระบบ AI สามารถระบุด้วยตนเองเมื่อมีความไม่แน่นอนเกี่ยวกับการทำนาย ทำให้สามารถป้องกันความผิดพลาดก่อนที่จะก่อให้เกิดความเสียหาย
ทำไมสิ่งนี้จึงสำคัญ?
แบบจำลอง AI จำนวนมาก แม้แต่แบบที่ก้าวหน้า บางครั้งก็แสดงให้เห็นสิ่งที่เรียกว่า ‘ฮัลลูซิเนชัน’ — ให้คำตอบที่ผิดหรือไม่มีพื้นฐาน ในภาคส่วนที่การตัดสินใจมีความสำคัญมาก เช่น การวินิจฉัยทางการแพทย์หรือการขับขี่อัตโนมัติ ผลลัพธ์อาจร้ายแรง Themis AI พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่นำการวัดความไม่แน่นอน (uncertainty quantification) มาใช้: มันวัดและระบุปริมาณความไม่แน่นอนของผลลัพธ์จาก AI อย่างละเอียดและเชื่อถือได้
มันทำงานอย่างไร?
ด้วยการสอนให้แบบจำลองมีความตระหนักในความไม่แน่นอน พวกมันจึงสามารถแนบป้ายความเสี่ยงหรือความเชื่อมั่นกับผลลัพธ์ ตัวอย่างเช่น รถขับเคลื่อนอัตโนมัติอาจระบุว่าไม่แน่ใจในสถานการณ์หนึ่งและกระตุ้นให้มีการแทรกแซงจากมนุษย์ ซึ่งไม่เพียงเพิ่มความปลอดภัย แต่ยังเพิ่มความไว้วางใจของผู้ใช้ในระบบ AI ด้วย
capsa_torch.wrapper() โดยที่เอาต์พุตประกอบด้วยทั้งการทำนายและความเสี่ยง:

บทสรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้หมายถึงเพียงการมีความฉลาดขึ้นเท่านั้น แต่ยังเกี่ยวกับการทำงานที่ปลอดภัยและเป็นธรรมมากขึ้นด้วย ที่ Fortis AI เราเชื่อว่า AI จะมีคุณค่าแท้จริงก็ต่อเมื่อมันโปร่งใสเกี่ยวกับขีดจำกัดของตัวเอง ด้วยเครื่องมือวัดความไม่แน่นอนขั้นสูง เช่น Capsa คุณสามารถนำวิสัยทัศน์นี้ไปใช้งานได้จริง