MIT doet onderzoek om AI slimmer te maken

MIT टीम एआई मॉडलों को वह सिखाती है जो उन्हें पहले पता नहीं था।

कृत्रिम बुद्धिमत्ता (AI) का उपयोग तेजी से बढ़ रहा है और यह हमारे दैनिक जीवन तथा स्वास्थ्य सेवा, दूरसंचार और ऊर्जा जैसी हाई-स्टेक्स उद्योगों में गहराई से सम्मिलित हो रहा है। लेकिन बड़ी शक्ति के साथ बड़ी जिम्मेदारी भी आती है: AI प्रणालियाँ कभी-कभी गलतियाँ करती हैं या अनिश्चित उत्तर देती हैं जिनके गंभीर परिणाम हो सकते हैं।

MIT की Themis AI, जिसे CSAIL लैब की प्रोफेसर Daniela Rus ने सह-स्थापित और नेतृत्व किया है, एक अग्रणी समाधान पेश करती है। उनकी तकनीक AI मॉडलों को यह सक्षम बनाती है कि वे 'जानें कि वे क्या नहीं जानते'। इसका मतलब है कि AI प्रणालियाँ स्वयं यह संकेत दे सकती हैं जब वे अपनी भविष्यवाणियों के बारे में अनिश्चित हों, जिससे हानिकारक निर्णयों से पहले गलतियों को रोका जा सकता है।

यह क्यों महत्वपूर्ण है?
कई AI मॉडल, यहाँ तक कि उन्नत भी, कभी-कभी तथाकथित 'हलुसिनेशन' दिखा सकते हैं—वे गलत या बिना आधार के उत्तर देते हैं। ऐसे क्षेत्रों में जहाँ निर्णयों का असर बड़ा होता है, जैसे चिकित्सा निदान या स्वायत्त ड्राइविंग, इसका विनाशकारी परिणाम हो सकता है। Themis AI ने Capsa विकसित किया, एक प्लेटफॉर्म जो uncertainty quantification लागू करता है: यह AI आउटपुट की अनिश्चितता को विस्तृत और भरोसेमंद तरीके से मापता और मात्रात्मक रूप में दर्शाता है।

 यह कैसे काम करता है?
मॉडल्स को uncertainty awareness सिखाकर, वे अपनी आउटपुट के साथ जोखिम या विश्वसनीयता का लेबल जोड़ सकते हैं। उदाहरण के लिए: एक स्वयं-चालित कार यह संकेत दे सकती है कि किसी स्थिति के बारे में वह अनिश्चित है और इसलिए मानव हस्तक्षेप सक्रिय कर सकती है। इससे न केवल सुरक्षा बढ़ती है, बल्कि उपयोगकर्ताओं का AI प्रणालियों पर विश्वास भी मजबूत होता है।

तकनीकी कार्यान्वयन के उदाहरण

  • PyTorch के साथ एकीकरण में, मॉडल को रैप करने की प्रक्रिया इस प्रकार होती है capsa_torch.wrapper() जिसमें आउटपुट में अनुमान के साथ-साथ जोखिम भी शामिल होता है:

Python example met capsa

TensorFlow- मॉडलों के लिए Capsa एक डेकॉरेटर के साथ काम करता है:

tensorflow

कंपनियों और उपयोगकर्ताओं के लिए प्रभाव
फोर्टिस एआई और उसके ग्राहकों के लिए यह तकनीक एक बड़ा कदम आगे है। हम ऐसे एआई-प्रयोगों की पेशकश कर सकते हैं जो न केवल बुद्धिमान हैं, बल्कि सुरक्षित और अधिक पूर्वानुमेय भी हैं तथा हालुसिनेशन की संभावना कम करते हैं। यह संगठनों को अच्छी तरह तर्कसंगत निर्णय लेने और व्यवसाय-आवश्यक अनुप्रयोगों में एआई लागू करने के दौरान जोखिम घटाने में मदद करता है।

निष्कर्ष
MIT टीम यह दिखाता है कि एआई का भविष्य केवल स्मार्ट होने के बारे में नहीं है, बल्कि खासकर अधिक सुरक्षित और निष्पक्ष तरीके से कार्य करने के बारे में है। फोर्टिस एआई में हम मानते हैं कि एआई तभी वास्तव में मूल्यवान बनता है जब यह अपनी सीमाओं के बारे में पारदर्शी होता है। कैप्सा जैसे उन्नत अनिश्चितता मापने वाले टूल्स के साथ आप इस दृष्टिकोण को व्यवहार में भी लागू कर सकते हैं।

जेरार्ड

जेरार्ड एक सक्रिय एआई कंसल्टेंट और मैनेजर हैं। बड़ी संस्थाओं में व्यापक अनुभव के साथ वे किसी समस्या को बहुत तेज़ी से सुलझा कर समाधान की ओर ले जा सकते हैं। आर्थिक पृष्ठभूमि के संयोजन से वे व्यावसायिक रूप से जिम्मेदार निर्णय लेते हैं।