השימוש בבינה מלאכותית (AI) מתפתח במהירות ונעשה משולב יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח רב מגיעה גם אחריות רבה: מערכות AI טועות לעתים או מספקות תשובות לא ודאיות שעלולות לגרום לתוצאות משמעותיות.
Themis AI של MIT, שהוקמה ומנוהלת בחלקה על ידי הפרופסור דניאלה רוס ממעבדת CSAIL, מציעה פתרון פורץ דרך. הטכנולוגיה שלהם מאפשרת למודלי AI "לדעת את מה שהם לא יודעים". משמעות הדבר היא שמערכות AI יכולות לציין בעצמן מתי הן לא בטוחות בתחזיותיהן, ובכך למנוע טעויות לפני שהן גורמות נזק.
מדוע זה חשוב כל כך?
רבים ממודלי ה-AI, אפילו מתקדמים, עלולים להציג לעתים מה שנקרא "הלוצינציות" — הם מספקים תשובות שגויות או חסרות ביסוס. בסקטורים שבהם החלטות נושאות משקל כבד, כמו אבחנה רפואית או נהיגה אוטונומית, הדבר עלול להוביל לתוצאות קטסטרופליות. Themis AI פיתחה את Capsa, פלטפורמה המשתמשת במדידת אי־ודאות (uncertainty quantification): היא מודדת ומחשבת את חוסר הוודאות ביציאות ה-AI בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הענקת מודעות לאי־ודאות למודלים, ניתן לספק לתוצרים תווית סיכון או אמינות. לדוגמה: רכב אוטונומי יכול לציין שאינו בטוח לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק מעלה את הבטיחות, אלא גם את אמון המשתמשים במערכות ה-AI.
capsa_torch.wrapper() כאשר הפלט מורכב גם מהתחזית וגם מהסיכון:

מסקנה
MIT צוות מצביע על כך שעתיד הבינה המלאכותית אינו רק על היותה חכמה יותר, אלא בעיקר על פעילות בטוחה והוגנת יותר. ב-Fortis AI אנו מאמינים שבינה מלאכותית תהיה בעלת ערך אמיתי רק כאשר היא שקופה לגבי המגבלות שלה. עם כלי מדידה מתקדמים של אי-וודאות כמו Capsa, תוכלו גם ליישם את החזון הזה בפועל.