PM Modi का नकली वीडियो हो रहा वायरल, बोले- ये बहुत खतरनाक है

PM Modi: AI के आने से जहां एक तरफ बहुत सी चीजें आसान हो गई हैं, वहीं दूसरी ओर इससे लोगों को खासा परेशानियों का भी सामना करना पड़ रहा है। लोग डीपफेक वीडियोज बनाकर वायरल कर देते हैं। इस समय डीपफेक का खतरा सबसे बड़े खतरों में एक है। हाल ही में पीएम मोदी की एक वीडियो काफी ज्यादा वायरल हो रही है जिसमें पीएम मोदी गरबा खेलते नजर आ रहे हैं। हालांकि इस वीडियो का फैक्ट चेक के बाद पता चला कि ये वीडियो फेक है।
डीपफेक सबसे बड़ा खतरा
प्रधानमंत्री नरेंद्र मोदी (PM Modi ) ने शुक्रवार को दिल्ली स्थित बीजेपी हेडक्वॉर्टर में आयोजित दिवाली मिलन कार्यक्रम में पत्रकारों को संबोधित करते हुए डीपफेक को सबसे बड़े खतरों में से एक बताया है। उन्होंने कहा कि डीपफेक का सामना इस समय भारतीय सिस्टम को करना पड़ रहा है। इस तरह के वीडियो से समाज में अराजकता पैदा हो सकती है।
@narendramodi speaks on Deepfake videos. He also mentioned how his voice is being used to make songs. #AI #deepfake #technology #tech #genz #modi #RashmikaMandanna #india #threattofuture #song #modisong pic.twitter.com/4q2beHCWmQ
— Bikramjeet Dutta (@DuttaBikramjeet) November 17, 2023
पीएम मोदी ने पत्रकारों से किया आग्रह
प्रधानमंत्री ने मीडिया से भी लोगों को इस बढ़ती समस्या के बारे में शिक्षित और जागरूक करने का आग्रह किया। प्रधानमंत्री मोदी ने अपने संबोधन में उस गरबा वीडियो का भी जिक्र किया जिसमें महिलाओं के बीच पीएम मोदी को गरबा डांस करते हुए दिखाया गया है। यह morphed गरबा वीडियो काफी वायरल हो रहा है। इस वीडियो को देखकर ये पता लगा पाना बेहद मुश्किल है कि ये सच में पीएम मोदी हैं या नहीं? पीएम मोदी ने कहा कि उन्होंने बचपन से ‘गरबा नहीं खेला है’।
हाल ही में इन एक्ट्रेस को भी डीपफेक का करना पड़ा सामना
बता दें कि हाल के दिनों में डीपफेक वीडियो के मामले बढ़े हैं। कुछ दिन पहले ही एक्ट्रेस रश्मिका मंदाना का डीपफेक वीडियो वायरल हुआ था। इसी तरह सचिन तेंदुलकर की बेटी सारा तेंदुलकर और शुभमन गिल की तस्वीर को एडिट करके वायरल किया गया था। इतना ही नहीं एक्ट्रेस काजोल और कैटरीना कैफ को भी डीपफेक का शिकार होना पड़ा है।
PM Modi Jee dancing in Garba.
Exceptional video of Modi Jee.
🙏 pic.twitter.com/9LNpTvvYuc— Think India (@India1000Years) November 11, 2023
डीपफेक के लिए AI करता है मद
बता दें कि डीपफेक वीडियो बनाने के लिए AI मदद करता है। दरअसल, आर्टिफिशियल इंटेलीजेंस की मदद से किसी भी तस्वीर, वीडियो या फिर ऑडियो को बिल्कुल अलग बनाया जा सकता है। वीडियो बनने के बाद ये पता लगा पाना बेहद मुश्किल है कि वीडियो रियल है या फेक। डीपफेक का इस्तेमाल करके लोग बड़ी ही आसानी से किसी भी इंसान को ब्लैकमेल कर सकते हैं।
चुनाव के समय हो रहा गलत इस्तेमाल
इस समय पांच राज्यों में चुनाव है और आने वाले कुछ महीनों में लोकसभा 2024 के भी चुनाव हैं। ऐसे में लोग डीपफेक की मदद से दूसरे नेताओं की वीडियो बनाकर वायरल करके भोली भाली जनता को भी बेवकूफ बनाने की कोशिश कर रहे हैं। किसी भी वीडियो को देखकर उसे सच मानने से पहले वीडियो की सत्यता को जांच लें।
Also Read: MP में चुनाव के पहले चरण में मचा हड़कंप, दिमनी में हुआ पथराव, चली गोलियां