यहां बताया गया है कि कैसे एआई-पावर्ड डीपफेक ऑडियो आपको बेवकूफ बना सकता है

  • नए शोध से पता चलता है कि ऑडियो डीपफेक ज्यादातर लोगों को बेवकूफ बना सकता है।
  • डीपफेक चुनाव को अस्थिर कर सकते हैं और उपयोगकर्ताओं को तथ्यों पर अविश्वास करने के लिए प्रेरित कर सकते हैं।
  • कुछ डीपफेक का उपयोग ऑडियोबुक और वैयक्तिकृत नोट्स भेजने के लिए किया जाता है।
ट्रेन में सफर के दौरान कोई व्यक्ति हेडफ़ोन का उपयोग करके अपने फ़ोन पर ऑडियो सुन रहा है।
ऑडियो सुन रहा हूँ.

फ्लैशपॉप/गेटी इमेजेज़

कृत्रिम बुद्धिमत्ता (एआई) में प्रगति के कारण आप सुने गए शब्दों पर भरोसा नहीं कर सकते।

आधुनिक अध्ययन पता चलता है कि डीपफेक ऑडियो मानव श्रोताओं को लगभग 25 प्रतिशत बार धोखा दे सकता है। यह बढ़ती लहर का हिस्सा है एआई-जनित डीपफेक तथ्य को कल्पना से अलग करने के बारे में चिंताएँ पैदा करना।

"ऐसा हुआ करता था कि 'देखना ही विश्वास करना है'" नासिर मेमन, एक आईईईई फेलो, और कंप्यूटर विज्ञान और इंजीनियरिंग के प्रोफेसर एनवाईयू टंडन, लाइफवायर को एक ईमेल साक्षात्कार में बताया। "अब, डीपफेक के साथ, यह अब सच नहीं है। समाज में पहचान की धारणा महत्वपूर्ण है। अन्य लोगों के साथ संवाद करने और सहयोग करने के लिए पहचान आवश्यक है, और हम पहचान को ऑडियो सुविधाओं के साथ जोड़ते हैं।"

डीपफेक जो उपयोगकर्ताओं को मूर्ख बनाता है

ऑडियो डीपफेक का पता लगाना स्पष्ट रूप से कठिन होता जा रहा है। यूनिवर्सिटी कॉलेज लंदन में किए गए अध्ययन में, 500 से अधिक स्वयंसेवकों ने अंग्रेजी और मंदारिन में डीपफेक और वास्तविक आवाज़ों के संयोजन की समीक्षा की। कुछ प्रतिभागियों को पहचान में सहायता के लिए डीप-फ़ेक्ड वॉयस सैंपल से पहले अवगत कराया गया था। औसतन, प्रतिभागियों ने अपने प्रशिक्षण की परवाह किए बिना, 73 प्रतिशत बार डीपफेक की सही पहचान की।

"ऑडियो डीपफेक बहुत विश्वसनीय हो सकते हैं और पहले से ही हर दिन सुधार हो रहा है," शॉन सर्बर, साइबर सुरक्षा फर्म में तकनीकी खाता प्रबंधन के वरिष्ठ निदेशक टैनियम एक ईमेल में कहा. "जैसे-जैसे एआई तकनीक आगे बढ़ रही है, यह आंकड़ा बढ़ने की संभावना है, जिससे डीपफेक प्रतिरूपण से जुड़े संभावित जोखिम बढ़ जाएंगे।"

साइबर अपराधी फर्जी पहचान बनाने के लिए डीपफेक ऑडियो का उपयोग कर सकते हैं जिनका पता लगाना मुश्किल हो सकता है, स्टुअर्ट वेल्स, एक पहचान सत्यापन विशेषज्ञ और मुख्य प्रौद्योगिकी अधिकारी जुमियो कॉर्पोरेशन, ईमेल के माध्यम से कहा गया। इसके अलावा, अपराधी बैंक खातों, व्यावसायिक ईमेल खातों और मौजूदा उपयोगकर्ताओं से संबंधित अन्य चीज़ों की सुरक्षा को खतरे में डालते हुए खाते पर कब्ज़ा कर सकता है।

"एक अनजान पीड़ित के लिए, डीपफेक ऑडियो का पता लगाना मुश्किल हो सकता है, लेकिन जब मशीन द्वारा विश्लेषण किया जाता है उस उद्देश्य के लिए डिज़ाइन किए गए शिक्षण मॉडल, यह मानव-जनित भाषण से अप्रभेद्य है," उसने जोड़ा। "भाषण बनाने वाली शारीरिक रचना का अनुमान लगाकर, मूल की पहचान करना संभव है, चाहे वह मानव हो या मशीन।"

मेमन ने कहा कि ऑडियो डीपफेक का एक और खतरा चुनावों को अस्थिर करने या पटरी से उतारने के माध्यम से राजनीतिक हस्तक्षेप है।

ऑडियो डीपफेक बहुत विश्वसनीय हो सकते हैं और उनमें पहले से ही हर दिन सुधार हो रहा है।

उन्होंने कहा, "उदाहरण के लिए, निक्सन पर अनिवार्य रूप से वॉयस रिकॉर्डिंग के आधार पर महाभियोग चलाया गया था।" "वे वास्तविक रिकॉर्डिंग थे, लेकिन आप कल्पना कर सकते हैं कि डीपफेक ऑडियो के साथ क्या संभव होगा।"

डीपफेक ऑडियो हमें बर्बाद नहीं कर सकता

जरूरी नहीं कि सभी डीपफेक ऑडियो गलत इरादे वाले हों। उदाहरण के लिए, आप इसका उपयोग "किसी प्रियजन को आश्चर्यजनक उपहार के रूप में 'आई लव यू' जैसा कुछ कहते हुए खुद को रिकॉर्ड करने के लिए कर सकते हैं।" मैक स्टीयरटेक कंपनी के मालिक सिमिफाई करें एक ईमेल में कहा.

Google Play और Apple पुस्तकें उपयोग करती हैं एआई-जनित आवाजें उनकी ऑडियो सामग्री के लिए. Google Play पर प्रकाशक तब तक ऑटो-नैरेटेड ऑडियोबुक बना सकते हैं, जब तक उनके पास ऑडियोबुक के अधिकार हैं और वे ऑटो-नरेशन का विकल्प चुनते हैं।

राजनीतिक संचार समेत डीपफेक ऑडियो की समस्या बढ़ेगी जॉन वी. पावलिक, पत्रकारिता और मीडिया अध्ययन के प्रोफेसर रटगर्स यूनिवर्सिटी, एक ईमेल में भविष्यवाणी की गई। उन्होंने कहा कि डीपफेक ऑडियो संभवतः ऑनलाइन आम हो जाएगा, खासकर सोशल और इंटरैक्टिव मीडिया पर।

स्मार्टफोन पकड़े हुए किसी व्यक्ति का क्लोज़अप जिसमें आने वाली अज्ञात कॉल दिखाई दे रही है।
अज्ञात कॉल आ रही है.

केल्विन चैन वाई मेंग / गेटी इमेजेज़

उन्होंने कहा, "लोगों को लगातार आलोचनात्मक दृष्टिकोण बनाए रखने की आवश्यकता होगी।" "और जब भी उन्हें किसी संदिग्ध चीज का सामना करना पड़ेगा, तब तक यह मान लेना आवश्यक होगा कि यह एक डीपफेक है इसकी प्रामाणिकता को अलग से और स्वतंत्र रूप से सत्यापित किया जा सकता है, आमतौर पर विश्वसनीय समाचार मीडिया स्रोतों के माध्यम से।"

लेकिन उम्मीद है कि डीपफेक ऑडियो हमें भविष्य में गलत सूचनाओं की ओर नहीं ले जाएगा। लोग अपने पसंदीदा राजनीतिक अभिनेता के बारे में डीपफेक ऑडियो पर स्वचालित रूप से विश्वास नहीं कर सकते हैं, खासकर यदि यह किसी बदनाम स्रोत से आता है, सुब्रमण्यम विंसेंटमार्ककुला सेंटर फॉर एप्लाइड एथिक्स में पत्रकारिता और मीडिया एथिक्स के निदेशक सांता क्लारा विश्वविद्यालय, एक ईमेल में नोट किया गया। उन्होंने कहा कि जब डीपफेक फैलता है, तब भी वे केवल ऑनलाइन मंचों पर ही हो सकते हैं जो कथा के अनुरूप हों।

"कानून की वास्तविक अदालतें, या अन्य तथ्य-आधारित प्रक्रियात्मक संस्थान जो नियमों और धीमी गति से काम करते हैं ऑनलाइन सहभागी भीड़ की तुलना में ऑपरेशन के निर्णय लेने में अपेक्षाकृत अधिक सक्षम हैं," उन्होंने कहा जोड़ा गया. "संक्षेप में, उम्मीद करें कि बिल्ली और चूहे की हथियारों की दौड़ और डीपफेक मीडिया-आधारित लड़ाई जारी रहेगी, जिसमें अच्छे अभिनेता वितरण को प्रभावित करेंगे और बुरे अभिनेता उन पर लाभ उठाने की कोशिश करेंगे।"