
Meta AI Chatbot Controversy: सोशल मीडिया की दिग्गज कंपनी Meta एक बार फिर विवादों में घिर गई है. एक रिपोर्ट में खुलासा हुआ है कि Meta के AI चैटबॉट्स, जो फेसबुक, इंस्टाग्राम और व्हाट्सऐप जैसे प्लेटफॉर्म्स पर उपलब्ध हैं, बच्चों समेत सभी यूजर्स से आपत्तिजनक और अश्लील बातचीत कर सकते हैं. इस रिपोर्ट ने सोशल मीडिया पर AI टेक्नोलॉजी के गलत इस्तेमाल को लेकर बड़ी चिंता खड़ी कर दी है. 'वॉल स्ट्रीट जर्नल' (WSJ) की जांच में पता चला है कि Meta के मशहूर हस्तियों की आवाज में तैयार किए गए चैटबॉट्स भी गलत तरीके से बातचीत में शामिल हो सकते हैं.
रिपोर्ट के मुताबिक, जॉन सीना, क्रिस्टन बेल और जुडी डेंच जैसी हस्तियों की आवाज वाले बॉट्स ने बच्चों के साथ भी आपत्तिजनक बातें कीं. जांच के दौरान कई ऐसे उदाहरण सामने आए, जहां ये बॉट्स कुछ ही मिनटों में बातचीत को अश्लील और अवैध गतिविधियों की तरफ मोड़ देते थे.
ये भी पढें: Meta New Recruitment: मेटा भारत में अपने ऑपरेशंस का कर रहा विस्तार, शुरू की नई भर्ती
नाबालिग संग भी चैटबॉट्स ने की अश्लील बातें?
सबसे चौंकाने वाली बात यह थी कि जब यूजर ने खुद को नाबालिग बताया, तब भी बॉट्स ने ग्राफिक सेक्सुअल बातें करना जारी रखा. एक मामले में जॉन सीना की आवाज वाला बॉट एक 17 साल के बच्चे के साथ आपत्तिजनक सीन में उलझता पाया गया. इतना ही नहीं, कुछ बॉट्स ने तो गैरकानूनी गतिविधियों को भी रोल-प्ले करने के लिए कहा, जो बेहद खतरनाक संकेत है.
जब यह मामला सामने आया तो Meta ने WSJ की रिपोर्ट को "भड़काऊ" और "काल्पनिक" बताया. कंपनी का कहना है कि इस तरह के उदाहरण आम यूजर्स के अनुभवों का प्रतिनिधित्व नहीं करते. Meta के मुताबिक, 20 साल से कम उम्र के यूजर्स के साथ सिर्फ 0.02% इंटरैक्शन में ही ऐसा कंटेंट पाया गया है.
Meta ने सुरक्षा का किया दावा
Meta ने दावा किया कि उसने अपने AI चैटबॉट्स में और भी कड़े सुरक्षा इंतजाम कर लिए हैं, ताकि इस तरह की गलत बातचीत रोकी जा सके. कंपनी का कहना है कि वह लगातार अपने सिस्टम को बेहतर बना रही है ताकि हर उम्र के यूजर्स के लिए सुरक्षित माहौल तैयार किया जा सके.
हालांकि, सोशल मीडिया पर लोग सवाल उठा रहे हैं कि जब इतनी बड़ी कंपनियां भी बच्चों को सुरक्षित नहीं रख पा रहीं, तो आम यूजर्स का भरोसा कैसे कायम रहेगा? ये घटना एक बार फिर से इस बात की याद दिलाती है कि AI के क्षेत्र में जबरदस्त सावधानी और सख्त नियमों की जरूरत है.