टेक इन्फ्लुएंसर वरुण मय्या ने कृत्रिम बुद्धिमत्ता-जनित डीपफेक के बढ़ते खतरे के बारे में एक चेतावनी जारी की है, जो वास्तविक और सिंथेटिक मीडिया के बीच बढ़ते अलग-थलग आक्रोश को उजागर करता है। उन्होंने इस बात पर जोर दिया कि एआई प्रौद्योगिकी अग्रिमों के रूप में, इन निर्णयों को अधिक परिष्कृत करने का फैसला किया जाता है, जिससे जनता को प्रामाणिकता को छोड़ने के लिए इसे चालान करने के लिए बढ़ते हुए बढ़ाया जाता है।
“एक बार यह तकनीक वास्तविक समय का निर्माण करती है और यहां तक कि तेजी से उत्पन्न करने के लिए, ये घोटाले केवल अधिक रचनात्मक होने जा रहे हैं,” मय्या ने चेतावनी दी। उनकी टिप्पणी अत्यधिक यथार्थवादी नकली सामग्री बनाने में सक्षम कृत्रिम बुद्धिमत्ता उपकरणों के तेजी से विकास को संबोधित करने की उलझन को रेखांकित करती है।
दीपफेक के प्रसार ने महत्वपूर्ण घटनाओं का नेतृत्व किया है। उदाहरण के लिए, स्कैमर्स ने सार्वजनिक आंकड़ों को लागू करने के लिए एआई-जनित वीडियो का उपयोग किया है, जो धोखाधड़ी निवेश योजनाओं को बढ़ावा देता है।
एआई-जनित मीडिया का यथार्थवाद बढ़ रहा है
चुनौती इन एआई-जनित वीडियो के यथार्थवाद में वृद्धि में निहित है। जैसा कि एक पर्यवेक्षक ने कहा, “यह सुनिश्चित करने के लिए एआई उत्पन्न करता है। लेकिन आगामी समय में, यह वास्तविक लगेगा।” यह भावना डीपफेक की क्षमता के बारे में बढ़ती चिंताओं को दर्शाती है, जो वास्तविक सामग्री से अप्रभेद्य हो जाती है, व्यक्तिगत सुरक्षा और सार्वजनिक ट्रस्ट के लिए जोखिम पैदा करती है।
बढ़ती चुनौती (WAN 2.2)
मय्या द्वारा हाइलाइट की गई मुख्य चुनौती, आधुनिक एआई-जनित सामग्री द्वारा प्राप्त अभिनय यथार्थवाद है। डीपफेक पीढ़ी की गति और परिष्कार एक महत्वपूर्ण संक्रमण बिंदु है।
वरुण मय्या चेतावनी के संदर्भ में “WAN 2.2” एक अत्यधिक उन्नत, अत्याधुनिक वीडियो जनरेशन मॉडल के लिए संदर्भित करता है।
यहाँ WAN 2.2 क्या है, जो कि DEEPFAKE चर्चा के संदर्भ पर आधारित है:
डेवलपर: यह अलीबाबा की टोंगी लैब द्वारा जारी किया गया था।
उद्देश्य: यह एक ओपन-सोर्स मॉडल है जिसका उपयोग टेक्स्ट-टू-वीडियो (T2V) और इमेज-टू-वीडियो (I2V) पीढ़ी के लिए किया जाता है।
DEEPFAKES के लिए महत्व: WAN 2.2 एक प्रमुख उन्नति है जो AI वीडियो की पिछली सीमाओं को संबोधित करता है, विशेष रूप से उन क्षेत्रों में जो सामग्री को अधिक वास्तविक और नियंत्रण योग्य बनाते हैं। यही कारण है कि इसे दीपफेक चिंताओं के संदर्भ में उद्धृत किया गया है:
यह प्रकाश, रचना और कैमरा आंदोलन जैसे तत्वों पर सटीक नियंत्रण के लिए अनुमति देता है, जिससे उत्पन्न वीडियो पेशेवर रूप से शॉट और अत्यधिक यथार्थवादी दिखता है।
यह एक बड़े पैमाने पर, उच्च गुणवत्ता वाले डेटासेट पर प्रशिक्षित है, जिससे यह अधिक जटिल, चिकनी और प्राकृतिक गति उत्पन्न करने की अनुमति देता है, जो डीपफेक को समझाने के लिए महत्वपूर्ण है।
यह वीडियो पीढ़ी की गुणवत्ता और दक्षता को बढ़ाने के लिए एक परिष्कृत वास्तुकला का उपयोग करता है, जिसके परिणामस्वरूप सुपरर आउटपुट होता है।
सोशल मीडिया प्रतिक्रियाएँ
मय्या की चेतावनी ने सोशल मीडिया पर प्रतिक्रियाओं की एक हड़बड़ी पैदा कर दी है, जिसमें उपयोगकर्ता एआई-जनित सामग्री की तेजी से उन्नति पर चिंता व्यक्त करते हैं।
एक उपयोगकर्ता ने एआई सामग्री निर्माण के नैतिक निहितार्थों पर सवाल उठाया: “डीपफेक प्रगति के वित्तपोषण को रोकने की आवश्यकता है। वहां।
एक सोशल मीडिया उपयोगकर्ता ने दुरुपयोग पर अंकुश लगाने के लिए नियामक उपायों का सुझाव दिया: “एआई वीडियो जनरेटर के लिए एक सख्त नियम होना चाहिए, जो कि एआई द्वारा बनाया गया है। वास्तविक नहीं है !! वरुण, आपको यह अभियान शुरू करना चाहिए और हम सभी आपका समर्थन करेंगे!”
“बुनियादी पर जाएं और इंटरनेट को बंद करें,” एक अन्य उपयोगकर्ता ने टिप्पणी की, एआई-जनित सामग्री के प्रसार पर हताशा को दर्शाते हुए।
एक अन्य ने कहा कि एआई वीडियो और छवि पीढ़ी में सुधार, सार्वजनिक जागरूकता और नियम घोटालों को रोकने और व्यक्तियों की पहचान की रक्षा करने के लिए महत्वपूर्ण होंगे।
। इन्फ्लुएंसर तेजी से आगे बढ़ने वाले एआई टूल्स (टी) एआई एडवांसर्स और स्कैम्स के बारे में चेतावनी देता है
Source link