'सत्यानाश हो AI का': PM मोदी का Deepfake वीडियो वायरल, विदेशी अंदाज में देशी लड़के से मिलाया हाथ
Photo- @ibmindia20/X

FACT CHECK: सोशल मीडिया की दुनिया में रोज कुछ न कुछ ऐसा देखने को मिल ही जाता है, जो आपको हैरान कर दे. लेकिन हाल ही में एक वीडियो सामने आया है, जिसे देखकर ज्यादातर लोग सिर्फ एक ही बात कह रहे हैं, "सत्यानाश हो AI का!" दरअसल, ये वीडियो दिखने में तो बिल्कुल असली लगता है. एक लड़का शानदार सी कार के सामने खड़ा है और फिर एक शख्स कार से बाहर आता है. वो न सिर्फ लड़के से हाथ मिलाता है, बल्कि हूबहू देश के प्रधानमंत्री नरेंद्र मोदी जैसा दिखता है. पहली नजर में आप सोचेंगे कि शायद पीएम मोदी किसी शादी या इवेंट में पहुंचे होंगे. लेकिन सच्चाई कुछ और ही है.

ये भी पढें: FACT CHECK: केंद्र सरकार द्वारा सभी महिलाओं को फ्री सोलर आटा चक्की दिया जाएगा? वायरल दावा निकला फर्जी, जानें सच

क्या वाकई पीएम मोदी ने किसी नॉर्मल युवक से हाथ मिलाया?

अब आइए जानें इस वीडियो की असलियत

थोड़ी सी पड़ताल करने पर साफ हो गया कि ये वीडियो AI की मदद से बनाया गया एक डीपफेक वीडियो है. यानी किसी और आदमी की वीडियो पर पीएम मोदी का चेहरा एडिट करके लगाया गया है. न आवाज असली है, न हावभाव – सब कुछ कंप्यूटर जनरेटेड है.

वीडियो में एक लाइन लिखी नजर आती है, "अब जलने वाले बोलेंगे एडिटिंग है." दरअसल, इसी लाइन ने बता दिया कि बनाने वाले को भी पता है कि लोग इसे देखकर कन्फ्यूज हो जाएंगे. साथ ही वीडियो शेयर करने वाले ने कैप्शन दिया, "सत्यानाश हो AI का, पता नहीं आगे क्या-क्या देखना पड़ेगा!" सच कहें तो इस वीडियो को देखकर वाकई यही लगता है.

लोगों की प्रतिक्रिया

वीडियो पर लोगों ने खूब कमेंट किए.  कोई बोला, "भाई ये क्या बनता जा रहा है AI!" तो किसी ने लिखा, "मोदी जी को गरबा करते देखा, अब ये भी देख लिया!"

हालांकि, कुछ लोगों ने चिंता जताई कि इस तरह के वीडियो अगर मजाक में भी बनते रहे तो आगे चलकर बहुत दिक्कत हो सकती है.

डीपफेक क्यों है खतरनाक?

AI तकनीक अब इतनी एडवांस हो गई है कि किसी का भी चेहरा या आवाज नकली वीडियो में लगाना मुश्किल नहीं रहा. ये मजेदार तो लग सकता है, लेकिन इसका दुरुपयोग भी हो सकता है. चुनाव के समय, अफवाह फैलाने में या किसी की छवि खराब करने के लिए इसका इस्तेमाल किया जा सकता है.

प्रधानमंत्री मोदी खुद भी AI और डीपफेक को लेकर चिंता जता चुके हैं. उन्होंने कहा था कि ऐसे कंटेंट पर वॉटरमार्क जरूरी है ताकि लोग पहचान सकें कि वीडियो असली है या नकली.

ऐसी स्थिति में क्या करें आप?

हर वायरल वीडियो को सच मत मानिए. शक हो तो गूगल रिवर्स इमेज या वीडियो सर्च करें. कोई वीडियो असली लगे तो भी पहले उसकी पुष्टि करें. बिना जांचे-परखे शेयर करने से बचें.

क्योंकि अगली बार अगर आप किसी को किसी नामी नेता से हाथ मिलाते देखें, तो याद रखें कि सच में AI का सत्यानाश हो रहा है.