FACT CHECK: सोशल मीडिया की दुनिया में रोज कुछ न कुछ ऐसा देखने को मिल ही जाता है, जो आपको हैरान कर दे. लेकिन हाल ही में एक वीडियो सामने आया है, जिसे देखकर ज्यादातर लोग सिर्फ एक ही बात कह रहे हैं, "सत्यानाश हो AI का!" दरअसल, ये वीडियो दिखने में तो बिल्कुल असली लगता है. एक लड़का शानदार सी कार के सामने खड़ा है और फिर एक शख्स कार से बाहर आता है. वो न सिर्फ लड़के से हाथ मिलाता है, बल्कि हूबहू देश के प्रधानमंत्री नरेंद्र मोदी जैसा दिखता है. पहली नजर में आप सोचेंगे कि शायद पीएम मोदी किसी शादी या इवेंट में पहुंचे होंगे. लेकिन सच्चाई कुछ और ही है.
क्या वाकई पीएम मोदी ने किसी नॉर्मल युवक से हाथ मिलाया?
सत्यानाश हो AI का
पता नहीं आगे क्या क्या देखना पड़ेगा 🤓🙄 pic.twitter.com/kesi5wEkP6
— Ms.Bhumi (@ibmindia20) July 18, 2025
अब आइए जानें इस वीडियो की असलियत
थोड़ी सी पड़ताल करने पर साफ हो गया कि ये वीडियो AI की मदद से बनाया गया एक डीपफेक वीडियो है. यानी किसी और आदमी की वीडियो पर पीएम मोदी का चेहरा एडिट करके लगाया गया है. न आवाज असली है, न हावभाव – सब कुछ कंप्यूटर जनरेटेड है.
वीडियो में एक लाइन लिखी नजर आती है, "अब जलने वाले बोलेंगे एडिटिंग है." दरअसल, इसी लाइन ने बता दिया कि बनाने वाले को भी पता है कि लोग इसे देखकर कन्फ्यूज हो जाएंगे. साथ ही वीडियो शेयर करने वाले ने कैप्शन दिया, "सत्यानाश हो AI का, पता नहीं आगे क्या-क्या देखना पड़ेगा!" सच कहें तो इस वीडियो को देखकर वाकई यही लगता है.
लोगों की प्रतिक्रिया
वीडियो पर लोगों ने खूब कमेंट किए. कोई बोला, "भाई ये क्या बनता जा रहा है AI!" तो किसी ने लिखा, "मोदी जी को गरबा करते देखा, अब ये भी देख लिया!"
हालांकि, कुछ लोगों ने चिंता जताई कि इस तरह के वीडियो अगर मजाक में भी बनते रहे तो आगे चलकर बहुत दिक्कत हो सकती है.
डीपफेक क्यों है खतरनाक?
AI तकनीक अब इतनी एडवांस हो गई है कि किसी का भी चेहरा या आवाज नकली वीडियो में लगाना मुश्किल नहीं रहा. ये मजेदार तो लग सकता है, लेकिन इसका दुरुपयोग भी हो सकता है. चुनाव के समय, अफवाह फैलाने में या किसी की छवि खराब करने के लिए इसका इस्तेमाल किया जा सकता है.
प्रधानमंत्री मोदी खुद भी AI और डीपफेक को लेकर चिंता जता चुके हैं. उन्होंने कहा था कि ऐसे कंटेंट पर वॉटरमार्क जरूरी है ताकि लोग पहचान सकें कि वीडियो असली है या नकली.
ऐसी स्थिति में क्या करें आप?
हर वायरल वीडियो को सच मत मानिए. शक हो तो गूगल रिवर्स इमेज या वीडियो सर्च करें. कोई वीडियो असली लगे तो भी पहले उसकी पुष्टि करें. बिना जांचे-परखे शेयर करने से बचें.
क्योंकि अगली बार अगर आप किसी को किसी नामी नेता से हाथ मिलाते देखें, तो याद रखें कि सच में AI का सत्यानाश हो रहा है.












QuickLY