MIT იკვლევს ხელოვნური ინტელექტის უფრო ჭკვიანად გასაკეთებლად

MIT გუნდი ასწავლის AI მოდელებს იმას, რაც მათ ჯერ არ იცოდნენ.

ხელოვნური ინტელექტის (AI) გამოყენება სწრაფად იზრდება და სულ უფრო მეტად ერწყმის ჩვენს ყოველდღიურ ცხოვრებასა და მაღალი რისკის ინდუსტრიებს, როგორიცაა ჯანდაცვა, ტელეკომუნიკაციები და ენერგეტიკა. მაგრამ დიდი ძალა დიდ პასუხისმგებლობასაც გულისხმობს: AI სისტემები ზოგჯერ შეცდომებს უშვებენ ან არასაიმედო პასუხებს იძლევიან, რამაც შეიძლება სერიოზული შედეგები გამოიწვიოს.

MIT-ის Themis AI, რომლის თანადამფუძნებელი და ხელმძღვანელია პროფესორი დანიელა რუსი CSAIL ლაბორატორიიდან, გვთავაზობს გარდამტეხ გადაწყვეტას. მათი ტექნოლოგია AI მოდელებს საშუალებას აძლევს, იცოდნენ, „რა არ იციან“. ეს ნიშნავს, რომ AI სისტემებს შეუძლიათ თავად მიუთითონ, როდესაც მათი პროგნოზების მიმართ უნდობლობა აქვთ, რითაც ზიანის მიყენებამდე შეცდომების თავიდან აცილება ხდება შესაძლებელი.

რატომ არის ეს ასე მნიშვნელოვანი?
ბევრი AI მოდელი, თუნდაც მოწინავე, ზოგჯერ ავლენს ე.წ. „ჰალუცინაციებს“ — ისინი გასცემენ არასწორ ან დაუსაბუთებელ პასუხებს. სექტორებში, სადაც გადაწყვეტილებებს დიდი წონა აქვს, როგორიცაა სამედიცინო დიაგნოსტიკა ან ავტონომიური მართვა, ამან შეიძლება კატასტროფული შედეგები გამოიწვიოს. Themis AI-მა შექმნა Capsa, პლატფორმა, რომელიც იყენებს გაურკვევლობის კვანტიფიკაციას: ის ზომავს და აკონკრეტებს AI-ის გამოსავლის გაურკვევლობას დეტალური და სანდო გზით.

 როგორ მუშაობს ეს?
მოდელებისთვის გაურკვევლობის ცნობიერების მინიჭებით, მათ შეუძლიათ შედეგებს მიანიჭონ რისკის ან სანდოობის ეტიკეტი. მაგალითად: ავტონომიურმა მანქანამ შეიძლება მიუთითოს, რომ არ არის დარწმუნებული სიტუაციაში და ამიტომ გაააქტიუროს ადამიანის ჩარევა. ეს ზრდის არა მხოლოდ უსაფრთხოებას, არამედ მომხმარებელთა ნდობასაც ხელოვნური ინტელექტის სისტემების მიმართ.

ტექნიკური დანერგვის მაგალითები

  • PyTorch-თან ინტეგრაციისას მოდელის შეფუთვა ხდება capsa_torch.wrapper() როდესაც შედეგი შედგება როგორც პროგნოზისგან, ასევე რისკისგან:

Python example met capsa

TensorFlow მოდელებისთვის Capsa იყენებს დეკორატორს:

ტენსორფლოუ

გავლენა კომპანიებსა და მომხმარებლებზე
Fortis AI-ს და მისი კლიენტებისთვის ეს ტექნოლოგია უზარმაზარ წინგადადგმულ ნაბიჯს ნიშნავს. ჩვენ შეგვიძლია მივაწოდოთ AI აპლიკაციები, რომლებიც არა მხოლოდ ინტელექტუალურია, არამედ უსაფრთხო და უკეთ პროგნოზირებადია, ჰალუცინაციების ნაკლები რისკით. ეს ეხმარება ორგანიზაციებს უკეთ დასაბუთებული გადაწყვეტილებების მიღებაში და რისკების შემცირებაში ბიზნეს კრიტიკულ აპლიკაციებში AI-ის დანერგვისას.

დასკვნა
MIT გუნდი აჩვენებს, რომ AI-ის მომავალი არა მხოლოდ უფრო ჭკვიანურად მუშაობაზეა, არამედ უპირველეს ყოვლისა, უფრო უსაფრთხო და სამართლიან ფუნქციონირებაზე. Fortis AI-ში გვჯერა, რომ AI ნამდვილად ღირებული ხდება მხოლოდ მაშინ, როდესაც ის გამჭვირვალეა საკუთარი შეზღუდვების შესახებ. Capsa-ს მსგავსი მოწინავე გაურკვევლობის კვანტიფიკაციის ხელსაწყოებით, თქვენ შეგიძლიათ ეს ხედვა პრაქტიკაშიც განახორციელოთ.

გერარდი

გერარდი აქტიურია, როგორც ხელოვნური ინტელექტის კონსულტანტი და მენეჯერი. დიდი ორგანიზაციებში მუშაობის მრავალწლიანი გამოცდილებით, მას შეუძლია განსაკუთრებით სწრაფად გაშიფროს პრობლემა და მიაღწიოს მის გადაწყვეტას. ეკონომიკურ განათლებასთან ერთად, ის უზრუნველყოფს ბიზნესისთვის გამართლებულ არჩევანს.

AIR (ხელოვნური ინტელექტის რობოტი)