Artificial Intelligence: Deepfake के साथ ही घातक होगा नया AI एप Q*, रोक की अपील के बाद भी Sam Altman करेंगे शुरू!
Artificial Intelligence: आर्टिफिशियल इंटेलिजेंस इंसानों के बहुत से कामों को आसान बना रहा है। इंसानों से बातें करने से लेकर उनके मुश्किल सवालों का जवाब देने तक का काम आर्टिफिशियल इंटेलिजेंस करते हैं। आर्टिफिशियल इंटेलिजेंस दुनिया का ही एक पॉपुलर टर्म बन चुका है चैट जीपीटी। दुनियाभर के कई शोधकर्ताओं, वैज्ञानिकों व उद्योगपतियों ने एक खुला पत्र लिखा है। इस खुले पत्र में उन्होंने सभी एआई लैब्स को जीपीटी-4 की तुलना में ज्यादा शक्तिशाली एआई सिस्टम की ट्रेनिंग पर कम से कम 6 महीने के लिए रोक लगाने की अपील की है। इसके बावजूद सैम ऑल्टमैन Q* प्रोजेक्ट लाना चाहते हैं।
सैम ऑल्मैन की वापसी
ChatGPT को बनाने वाली कंपनी OpenAI में Sam Altman की वापसी हो गई है। इस वापसी के चलते OpenAI ने सभी का ध्यान खींचा और उसके एक नए प्रोजेक्ट Q* के बारे में भी जानकारी मिली है। प्रोजेक्ट Q* एक AGI टूल है। यह प्रोजेक्ट इंसानों के लिए काफी खतरनाक बताया जा रहा है।
Q* की काबिलियत
प्रोजेक्ट Q*, एक आर्टिफिशियल जनरल इंटेलीजेंस (AGI) है, जो खुद से मैथमेटिक्स के सवालों को हल कर सकता है। ये इंसानों की तरह ही रीजनिंग जैसे प्रॉब्लम्स को हल करने की काबीलियत रखता है। रिसर्चर्स के लिखे गए लेटर में प्रोजेक्ट Q* की काबिलियत और उससे होने वाले खतरों के बारे में बताया है। रिपोर्ट में बताया गया है कि OpenAI के पास अभी इस प्रोजेक्ट को रोकने के पर्याप्त साधन नहीं हैं।
समाज और मानवता के लिए खतरा
ओपन लेटर लिखने वाले 1,100 से ज्यादा वैश्विक शोधकर्ताओं और अधिकारियों ने तर्क दिया है कि इंसानी दिमाग के साथ प्रतिस्पर्धा करने वाला एआई सिस्टम समाज और मानवता के लिए बड़े जोखिम पैदा कर सकता है। लिहाजा, दुनियाभर में चल रहे सभी बड़े आर्टिफिशियल इंटेलिजेंस प्रयोगों को फिलहाल रोक देना चाहिए। साथ ही कहा कि इस पर 6 महीने की रोक सार्वजनिक तौर पर नजर भी आनी चाहिए। ऐसा ना हो कि एआई प्रयोगों पर रोक सिर्फ दिखावटी हो और चुपचाप ये जारी रहें।
ओपन लेटर में क्या कहा गया है
असिलोमर एआई सिद्धांतों के मुताबिक, एडवांस एआई धरती पर जीवन के इतिहास में एक बड़े बदलाव का प्रतिनिधित्व कर सकता है। लिहाजा, प्रयोगों पर 6 महीने की फौरी रोक के दौरान बड़े एक्सपेरिमेंट्स के लिए योजना बनाई जानी चाहिए। साथ ही इसे उचित देखभाल के जरिये संसाधनों के साथ मैनेज किया जाना चाहिए। अगर बिना योजना बनाए ऐसे ही बड़े एआई प्रयोग होते रहे तो हमारे लिए भारी जोखिमभरा साबित हो सकता है। इस बात को दुनिया की शीर्ष एआई प्रयोगशालाएं और कई शोधों में स्वींकार किया गया है।
AI को नियंत्रित नहीं कर सकते
दुनियाभर के विद्वानों ने ओपन लेटर में कहा है कि दुर्भाग्य से बड़े एआई प्रयोगों से पहले योजना और प्रबंधन का स्तर बहुत अच्छा नहीं हो रहा है। इसी का नतीजा है कि हाल के दिनों में एआई प्रयोगशालाओं के बीच डिजिटल माइंड्स बनाने और इस्तेमाल करने की होड़ सी मच गई। हालांकि, इस डिजिटल दिमाग को बनाने वालों को भी इसकी पूरी समझ नहीं है। यही नहीं, वे ना तो इसे नियंत्रित कर सकते हैं।
AI का गलत इस्तमाल ‘DeepFake’
आजकल DeepFake काफी चलन में है। DeepFake इसे एक स्पेशल मशीन लर्निंग का इस्तेमाल करके बनाया जाता है जिसे डीप लर्निंग कहा जाता है। डीप लर्निंग में कंप्यूटर को दो वीडियोज या फोटो दिए जाते हैं जिन्हें देखकर वह खुद ही दोनों वीडियो या फोटो को एक ही जैसा बनाता है। यह ठीक उसी तरह है जैसे बच्चा किसी चीज की नकल करता है। इस तरह के फोटो वीडियोज में हिडेन लेयर्स होते हैं जिन्हें सिर्फ एडिटिंग सॉफ्टवेयर से ही देखा जाता है। एक लाइन में कहें तो डीपफेक, रियल इमेज-वीडियोज को बेहतर रियल फेक फोटो-वीडियोज में बदलने की एक प्रक्रिया है। डीपफेक फोटो-वीडियोज फेक होते हुए भी रियल नजर आते हैं।
हो रहा गलत इस्तेमाल
DeepFake द्वारा AI का गलत इस्तमाल रहा है, ऐसे में कैसे कह सकते हैं कि AI आने वाले कामों को आसान करेगा। AI दुनिया के लिए गलत साबित हो रहा है, AI को लाते वक्त लगा था यह लोगों के लिए एक Helping Hand की तरह काम करेगा लोगों को काम में आसानी होगी। मगर हुआ उल्टा, इसका गलत इस्तेमाल करके लोगों को ब्लैकमेल किया जा रहा है। व्यूज और पैसे कमाने के लिए लोग बड़े-बड़े सेलेब्रिटीज की फोटोज औऱ वीडियोज का गलत इस्तेमाल कर रहे हैं। इसलिए लोग चाहते हैं कि AI पर सख्त कानून बने और ऐसे फेक वीडियोज से बचा जा सके।
Also Read: Bihar News: बिहार में जाति जनगणना पर बोले तेजस्वी, मंच पर किया शादी का जिक्र?