'सत्यानाश हो AI का': PM मोदी का Deepfake वीडियो वायरल, विदेशी अंदाज में देशी लड़के से मिलाया हाथ
सोशल मीडिया की दुनिया में रोज कुछ न कुछ ऐसा देखने को मिल ही जाता है, जो आपको हैरान कर दे. लेकिन हाल ही में एक वीडियो सामने आया है, जिसे देखकर ज्यादातर लोग सिर्फ एक ही बात कह रहे हैं, "सत्यानाश हो AI का!"
FACT CHECK: सोशल मीडिया की दुनिया में रोज कुछ न कुछ ऐसा देखने को मिल ही जाता है, जो आपको हैरान कर दे. लेकिन हाल ही में एक वीडियो सामने आया है, जिसे देखकर ज्यादातर लोग सिर्फ एक ही बात कह रहे हैं, "सत्यानाश हो AI का!" दरअसल, ये वीडियो दिखने में तो बिल्कुल असली लगता है. एक लड़का शानदार सी कार के सामने खड़ा है और फिर एक शख्स कार से बाहर आता है. वो न सिर्फ लड़के से हाथ मिलाता है, बल्कि हूबहू देश के प्रधानमंत्री नरेंद्र मोदी जैसा दिखता है. पहली नजर में आप सोचेंगे कि शायद पीएम मोदी किसी शादी या इवेंट में पहुंचे होंगे. लेकिन सच्चाई कुछ और ही है.
क्या वाकई पीएम मोदी ने किसी नॉर्मल युवक से हाथ मिलाया?
अब आइए जानें इस वीडियो की असलियत
थोड़ी सी पड़ताल करने पर साफ हो गया कि ये वीडियो AI की मदद से बनाया गया एक डीपफेक वीडियो है. यानी किसी और आदमी की वीडियो पर पीएम मोदी का चेहरा एडिट करके लगाया गया है. न आवाज असली है, न हावभाव – सब कुछ कंप्यूटर जनरेटेड है.
वीडियो में एक लाइन लिखी नजर आती है, "अब जलने वाले बोलेंगे एडिटिंग है." दरअसल, इसी लाइन ने बता दिया कि बनाने वाले को भी पता है कि लोग इसे देखकर कन्फ्यूज हो जाएंगे. साथ ही वीडियो शेयर करने वाले ने कैप्शन दिया, "सत्यानाश हो AI का, पता नहीं आगे क्या-क्या देखना पड़ेगा!" सच कहें तो इस वीडियो को देखकर वाकई यही लगता है.
लोगों की प्रतिक्रिया
वीडियो पर लोगों ने खूब कमेंट किए. कोई बोला, "भाई ये क्या बनता जा रहा है AI!" तो किसी ने लिखा, "मोदी जी को गरबा करते देखा, अब ये भी देख लिया!"
हालांकि, कुछ लोगों ने चिंता जताई कि इस तरह के वीडियो अगर मजाक में भी बनते रहे तो आगे चलकर बहुत दिक्कत हो सकती है.
डीपफेक क्यों है खतरनाक?
AI तकनीक अब इतनी एडवांस हो गई है कि किसी का भी चेहरा या आवाज नकली वीडियो में लगाना मुश्किल नहीं रहा. ये मजेदार तो लग सकता है, लेकिन इसका दुरुपयोग भी हो सकता है. चुनाव के समय, अफवाह फैलाने में या किसी की छवि खराब करने के लिए इसका इस्तेमाल किया जा सकता है.
प्रधानमंत्री मोदी खुद भी AI और डीपफेक को लेकर चिंता जता चुके हैं. उन्होंने कहा था कि ऐसे कंटेंट पर वॉटरमार्क जरूरी है ताकि लोग पहचान सकें कि वीडियो असली है या नकली.
ऐसी स्थिति में क्या करें आप?
हर वायरल वीडियो को सच मत मानिए. शक हो तो गूगल रिवर्स इमेज या वीडियो सर्च करें. कोई वीडियो असली लगे तो भी पहले उसकी पुष्टि करें. बिना जांचे-परखे शेयर करने से बचें.
क्योंकि अगली बार अगर आप किसी को किसी नामी नेता से हाथ मिलाते देखें, तो याद रखें कि सच में AI का सत्यानाश हो रहा है.