एआई एजेंट’ टिकट की बुकिंग से लेकर बीमा पॉलिसी तक दिलाएंगे, लेकिन इनका इस्तेमाल कितना सुरक्षित?

पिछले दो वर्षों में जहां ‘जनरेटिव’ आर्टिफिशियल इंटेलिजेंस (एआई) प्रणालियों ने लोगों का ध्यान खींचा, वहीं इस साल ‘एआई एजेंट’ के उभार के साथ कृत्रिम बुद्धिमत्ता की दुनिया में एक नये युग की शुरुआत के संकेत मिलते हैं.

artifical Intelligence (img: Pixabay)

सिडनी, 16 जनवरी : पिछले दो वर्षों में जहां ‘जनरेटिव’ आर्टिफिशियल इंटेलिजेंस (एआई) प्रणालियों ने लोगों का ध्यान खींचा, वहीं इस साल ‘एआई एजेंट’ के उभार के साथ कृत्रिम बुद्धिमत्ता की दुनिया में एक नये युग की शुरुआत के संकेत मिलते हैं. ‘एआई एजेंट’ का मतलब उन स्वतंत्र प्रणालियों से है, जो प्रत्यक्ष मानव इनपुट के बिना ही उपयोगकर्ता की तरफ से निर्णय लेने और कार्रवाई करने में सक्षम हैं. इनके विकास के पीछे का विचार यह है कि हमारे रोजमर्रा के जटिल कार्य ‘एआई एजेंट’ के जिम्मे चले जाएंगे, जिससे निजी और पेशेवर जीवन अधिक आसान बन जाएगा. ‘एआई एजेंट’ हमारी ओर से अनुबंधों पर चर्चा कर सकेंगे, वित्त प्रबंधन से जुड़े फैसले ले पाएंगे और यहां तक कि यात्रा, होटल की बुकिंग करने में सक्षम होंगे.सेल्सफोर्स के मुख्य कार्यकारी मार्क बेनियॉफ ने बताया कि वह एक साल में एक अरब से ज्यादा ‘एआई एजेंट’ पेश करने के लक्ष्य पर काम कर रहे हैं. वहीं, मेटा प्रमुख मार्क जुकरबर्ग ने भविष्यवाणी की है कि ‘एआई एजेंट’ की संख्या जल्द ही वैश्विक आबादी से अधिक हो जाएगी.

कंपनियों में ‘एआई एजेंट’ पेश करने के लिए मची होड़ के बीच उनके सामाजिक प्रभाव, नैतिक सीमाओं और दीर्घकालिक परिणामों को लेकर कयासों का दौर भी शुरू हो गया है. लोगों के मन में सवाल उठ रहे हैं कि ‘एआई एजेंट’ हमारी कार्य प्रणाली और निर्णय लेने की प्रक्रिया को कैसे बदलेंगे? और यह सुनिश्चित करने के लिए किन सुरक्षा उपायों की जरूरत है कि इन प्रणालियों से मानव हितों को नुकसान न पहुंचे?

‘एआई एजेंट’ अपने हिसाब से काम करते हैं

-जनरेटिव एआई प्रणालियां मानव इनपुट, मसलन ‘प्रॉम्प्ट’ (एक विशिष्ट परिणाम हासिल करने के लिए एआई मॉडल को दिया गया निर्देश, प्रश्न या अनुरोध) के आधार पर टेक्स्ट, फोटो, वीडियो, ऑडियो सहित अन्य डेटा का उत्पादन करती हैं. वहीं, ‘एआई एजेंट’ उपयोगकर्ता की ओर से दिए जाने वाले ‘कमांड’ के बजाय स्वतंत्र रूप से काम करते हैं. वे आपकी तरफ से किसी समझौते पर बातचीत कर सकते हैं, फैसले ले सकते हैं और यहां तक कि अन्य प्रणालियों के साथ जटिल संवाद की शुरुआत कर सकते हैं.

उदाहरण के तौर पर, कल्पना कीजिए कि आप एक निजी “एआई वित्तीय सलाहकार एजेंट” का इस्तेमाल कर जीवन बीमा पॉलिसी लेने जा रहे हैं. ऐसी स्थिति में यह एजेंट आपकी माली हालत, स्वास्थ्य संबंधी डेटा और पारिवारिक जरूरतों का विश्लेषण करने के साथ ही विभिन्न कंपनियों के ‘एआई एजेंट’ के साथ अलग-अलग पॉलिसी पर बात कर उचित फैसला लेगा. आपका स्वास्थ्य संबंधी डेटा और वित्तीय स्थिति के आकलन के लिए यह अस्पताल और बैंक के ‘एआई एजेंट’ के साथ समन्वय करेगा. इस तरह, ‘एआई एजेंट’ न सिर्फ मानवीय प्रयास घटाने का वादा करते हैं, बल्कि समय की बचत करने में भी सहायक हैं, लेकिन इन प्रणालियों पर निर्भरता के कुछ खतरे भी हैं.

संभव है कि बीमा कंपनियों का अधिक उन्नत ‘एआई एजेंट’ कृत्रिम बुद्धिमत्ता के मामले में आपके निजी ‘एआई एजेंट’ पर भारी पड़े, जिसके चलते आप अधिक किस्त वाली जीवन बीमा पॉलिसी ले बैठें. इसके अलावा, निजता के हनन संबंधी चिंताएं भी उभरती हैं, क्योंकि कई प्रणालियों को आपके संवेदनशील चिकित्सकीय और वित्तीय डेटा तक पहुंच हासिल होती है. यही नहीं, अगर कहीं कोई चूक हो जाती है, तो इस बात का पता लगाना मुश्किल होता है कि किस प्रणाली को कसूरवार ठहराया जाए और किस मंच पर अपनी शिकायत उठाई जाए.

नैतिक और व्यावहारिक चुनौतियों का अंबार

-बीमा की दुनिया में ‘एआई एजेंट’ की कल्पना अभी पूरी तरह से साकार नहीं हो सकी है. लेकिन उन्नत ‘एआई एजेंट’ तेजी से बाजार में दस्तक दे रहे हैं. सेल्सफोर्स और माइक्रोसॉफ्ट ने अपने कुछ कॉरपोरेट उत्पादों में पहले ही ‘कोपायलट एक्शन्स’ जैसे ‘एआई एजेंट’ शामिल कर दिए हैं. गूगल अपने नवीनतम एआई मॉडल ‘जेमिनी 2.0’ की घोषणा के बाद से ही कई निजी ‘एआई एजेंट’ पेश करने की कोशिशों में जुटा हुआ है. ओपनएआई के भी इस साल एक निजी ‘एआई एजेंट’ जारी करने की उम्मीद है.

अरबों ‘एआई एजेंट’ के अस्तित्व में आने और एक साथ काम करने का परिदृश्य कई नैतिक और व्यावहारिक चुनौतियों को जन्म देता है. दरअसल, प्रतिस्पर्धी कंपनियां विभिन्न तकनीकी वास्तुकला (किसी व्यावसायिक रणनीति को पूरा करने वाली डिजाइन या ढांचा), नैतिक ढांचे और व्यावसायिक प्रोत्साहन के आधार पर इन एजेंट का निर्माण करेंगी. लिहाजा कुछ एजेंट उपयोगकर्ता की गोपनीयता को प्राथमिकता देंगे, जबकि अन्य गति और दक्षता को.

ये एजेंट देशों की सीमाओं के परे काम करेंगे, जहां एआई स्वायत्तता, डेटा गोपनीयता और उपभोक्ता संरक्षण को नियंत्रित करने वाले नियम-कानून अलग-अलग होते हैं. इससे एक खंडित परिदृश्य सामने आ सकता है, जहां एआई एजेंट परस्पर विरोधी नियमों और मानकों के तहत काम करते हैं, जिससे प्रणालीगत जोखिम पैदा हो सकते हैं.

इन उपायों से जोखिम घटाने में मिलेगी मदद

-‘एआई एजेंट’ मेहनत और समय दोनों की बचत करने में मददगार हैं. ऐसे में उनके उभार से पैदा होने वाली चुनौतियों से निपटने के लिए हमें कई मोर्चों पर समन्वित कार्रवाई करने की जरूरत पड़ेगी. अंतरराष्ट्रीय निकायों और सरकारों को ऐसे सामंजस्यपूर्ण नियामक ढांचे विकसित करने चाहिए, जो ‘एआई एजेंट’ के सीमा पार संवाद करने के परिदृश्य को संबोधित करें. इन ढांचों में पारदर्शिता और जवाबदेही सुनिश्चित करने के लिए स्पष्ट मानक स्थापित करने चाहिए, खासतौर पर उन परिदृश्यों में जिनमें एजेंट मानव हितों को सीधे प्रभावित करने वाले मुद्दों पर संवाद करते हैं.

इसके अलावा, एआई एजेंट विकसित करने वाली प्रौद्योगिकी कंपनियों को विकास के शुरुआती चरणों से ही सुरक्षा और नैतिक प्रश्नों को प्राथमिकता देनी चाहिए. उन्हें यह सुनिश्चित करना चाहिए कि एजेंट मानवीय मूल्यों पर टिके रहें. ‘एआई एजेंट’ की ओर से किए गए सभी निर्णयों और कार्यों को “ऑडिट ट्रेल” में शामिल किया जाना चाहिए, जिस तक पहुंच और इस्तेमाल आसान हो. अलग-अलग ‘एआई एजेंट’ के बीच विवाद का समाधान इस तरह से होना चाहिए, जिससे उपयोगकर्ताओं के हितों की रक्षा हो सके. ‘एआई एजेंट’ के उभार से पैदा होने वाली चुनौतियों से निपटने में उपयोगकर्ताओं की भी अहम भूमिका है. इन प्रणालियों को कोई भी काम सौंपने से पहले आपको यह स्पष्ट कर लेना चाहिए कि संबंधित ‘एआई एजेंट’ किस तरह काम करते हैं, ये किस डेटा का इस्तेमाल करते हैं, उन्हें किनके साथ साझा करते हैं और कोई भी निर्णय कैसे लेते हैं.

Share Now

\