सावधान! AI के जरिये बढ़ रहे मोबाइल फोन पर धोखाधड़ी के मामले, सुरक्षा के लिए अपनाए ये खास टिप्स

डीएन ब्यूरो

आपके जानने वाले लोगों की आवाज़ों की नकल करने के लिए एआई का उपयोग करके स्कैम कॉल का उपयोग लोगों को परेशान करने के लिए किया जा रहा है। पढ़िये पूरी खबर डाइनामाइट न्यूज़ पर

फाइल फोटो
फाइल फोटो


नॉर्विच (इंग्लैंड): आपके जानने वाले लोगों की आवाज़ों की नकल करने के लिए एआई का उपयोग करके स्कैम कॉल का उपयोग लोगों को परेशान करने के लिए किया जा रहा है। ये कॉल जेनरेटिव एआई के रूप में जाने जाते हैं, जो उपयोगकर्ता के संकेतों के आधार पर टेक्स्ट, इमेज या वीडियो जैसे किसी अन्य मीडिया को बनाने में सक्षम सिस्टम को संदर्भित करता है।

डीपफेक ने पिछले कुछ वर्षों में कई हाई-प्रोफाइल घटनाओं के साथ कुख्याति प्राप्त की है, जैसे कि फेसबुक और इंस्टाग्राम पर दिखाई देने वाले विचारोत्तेजक विज्ञापनों की एक श्रृंखला में अभिनेत्री एम्मा वॉटसन की छवि का उपयोग किया जा रहा है।

2022 का व्यापक रूप से साझा किया गया और तोड़-मरोड़कर दिखाया गया वीडियो भी था जिसमें यूक्रेनी राष्ट्रपति वलोडिमिर ज़ेलेंस्की यूक्रेनवासियों को 'हथियार डालने' के लिए कहते दिखाई दिए।

अब, किसी व्यक्ति की आवाज की यथार्थवादी प्रतिलिपि, ऑडियो डीपफेक बनाने की तकनीक तेजी से आम होती जा रही है। किसी की आवाज़ की यथार्थवादी प्रतिलिपि बनाने के लिए आपको एल्गोरिदम को प्रशिक्षित करने के लिए डेटा की आवश्यकता होती है। इसका मतलब है कि आपके इच्छित लक्ष्य की आवाज़ की बहुत सारी ऑडियो रिकॉर्डिंग होना। व्यक्ति की आवाज़ के जितने अधिक उदाहरण आप एल्गोरिदम में डाल सकते हैं, अंतिम प्रतिलिपि उतनी ही बेहतर और अधिक विश्वसनीय होगी।

हम में से कई लोग पहले से ही अपने दैनिक जीवन का विवरण इंटरनेट पर साझा करते हैं। इसका मतलब यह है कि किसी आवाज़ की यथार्थवादी प्रतिलिपि बनाने के लिए आवश्यक ऑडियो डेटा सोशल मीडिया पर आसानी से उपलब्ध हो सकता है।

लेकिन एक बार कॉपी बाहर आ जाने पर क्या होता है? सबसे बुरा क्या हो सकता है? एक डीपफेक एल्गोरिदम डेटा रखने वाले किसी भी व्यक्ति को 'आप' से जो चाहे कहलवाने में सक्षम कर सकता है। व्यवहार में, यह उतना ही सरल हो सकता है जितना कि कुछ लिखना और कंप्यूटर से उसे आपकी आवाज़ के अनुरूप ज़ोर से बोलना।

बड़ी चुनौतियां

यह भी पढ़ें | सुरक्षा में सेंध: यूपी पुलिस ने उजागर किया खतरे का सबसे बड़ा नेटवर्क, जानिये..हैरान करने वाला मामला

यह क्षमता ऑडियो गलत सूचना और दुष्प्रचार के प्रसार को बढ़ाने का जोखिम अपने साथ लाती है। इसका उपयोग अंतरराष्ट्रीय या राष्ट्रीय जनमत को प्रभावित करने की कोशिश के लिए किया जा सकता है, जैसा कि ज़ेलेंस्की के 'वीडियो' के साथ देखा गया है।

लेकिन इन तकनीकों की सर्वव्यापकता और उपलब्धता स्थानीय स्तर पर भी महत्वपूर्ण चुनौतियाँ पैदा करती है - विशेष रूप से 'एआई स्कैम कॉल्स' की बढ़ती प्रवृत्ति में। कई लोगों को एक झूठी कॉल प्राप्त हुई होगी जो हमें बताती है, उदाहरण के लिए, कि हमारे कंप्यूटर से छेड़छाड़ की गई है और हमें तुरंत लॉग इन करना चाहिए, जिससे संभावित रूप से कॉल करने वाले को हमारे डेटा तक पहुंच मिल जाएगी।

अक्सर यह पता लगाना बहुत आसान होता है कि यह एक धोखा है, खासकर तब जब कॉल करने वाला ऐसा अनुरोध कर रहा हो जो किसी वैध संगठन का कोई व्यक्ति नहीं कर रहा हो। हालाँकि, अब कल्पना करें कि फोन के दूसरी तरफ की आवाज़ सिर्फ किसी अजनबी की नहीं है, बल्कि बिल्कुल किसी दोस्त या प्रियजन की तरह लगती है। यह बदकिस्मत प्राप्तकर्ता के लिए जटिलता और घबराहट का एक बिल्कुल नया स्तर पेश करता है।

सीएनएन द्वारा रिपोर्ट की गई एक हालिया कहानी में एक घटना पर प्रकाश डाला गया है जहां एक मां को एक अज्ञात नंबर से कॉल आया। जब उसने फोन उठाया तो वह उसकी बेटी थी। कथित तौर पर बेटी का अपहरण कर लिया गया था और वह फिरौती की मांग के लिए अपनी मां को फोन कर रही थी।

दरअसल, लड़की सुरक्षित और स्वस्थ थी। घोटालेबाजों ने उसकी आवाज का डीपफेक बनाया था। यह कोई अकेली घटना नहीं है, जिसमें कथित कार दुर्घटना सहित झूठी कहानियों की विविधताएं हैं, जहां दुर्घटना के बाद पीड़ित मदद के लिए अपने परिवार को पैसे के लिए बुलाता है।

नई तकनीक का उपयोग कर पुरानी चाल

यह अपने आप में कोई नया घोटाला नहीं है, 'आभासी अपहरण घोटाला' शब्द कई वर्षों से प्रचलित है। इसके कई रूप हो सकते हैं लेकिन एक आम तरीका यह है कि पीड़ितों को अपने किसी प्रियजन को छुड़ाने के लिए फिरौती देने के लिए बरगलाया जाए, उन्हें लगता है कि उन्हें धमकी दी जा रही है।

यह भी पढ़ें | AI वीडियो कॉल के जरिये धोखाधड़ी, व्यक्ति के खाते से हजारों गायब, जानें पूरा मामला

धोखाधड़ी का पता चलने से पहले पीड़ित को त्वरित फिरौती का भुगतान करने के लिए घोटालेबाज निर्विवाद अनुपालन स्थापित करने का प्रयास करता है। हालाँकि, शक्तिशाली और उपलब्ध एआई प्रौद्योगिकियों के आगमन ने काफी हद तक वृद्धि कर दी है - और चीजों को और अधिक व्यक्तिगत बना दिया है। किसी गुमनाम कॉल करने वाले का फोन काट देना एक बात है, लेकिन आपके बच्चे या साथी की तरह लगने वाले किसी व्यक्ति के कॉल का जवाब देने के लिए आपके निर्णय पर वास्तविक विश्वास की आवश्यकता होती है।

एक सॉफ्टवेयर है जिसका उपयोग डीपफेक की पहचान करने के लिए किया जा सकता है, और यह ऑडियो का एक दृश्य प्रतिनिधित्व तैयार करेगा जिसे स्पेक्ट्रोग्राम कहा जाता है। जब आप कॉल सुन रहे हों तो इसे वास्तविक व्यक्ति से अलग बताना असंभव लग सकता है, लेकिन जब स्पेक्ट्रोग्राम का साथ-साथ विश्लेषण किया जाता है तो आवाज़ों को अलग किया जा सकता है। कम से कम एक समूह ने डाउनलोड के लिए डिटेक्शन सॉफ़्टवेयर की पेशकश की है, हालांकि ऐसे समाधानों का उपयोग करने के लिए अभी भी कुछ तकनीकी ज्ञान की आवश्यकता हो सकती है।

अधिकांश लोग स्पेक्ट्रोग्राम इस्तेमाल करने में सक्षम नहीं होंगे, इसलिए जब आप निश्चित नहीं हैं कि आप जो सुन रहे हैं वह वास्तविक चीज़ है तो आप क्या कर सकते हैं? मीडिया के किसी भी अन्य रूप की तरह आप भी इससे दो चार हो सकते हैं: संशयवादी बनें।

यदि आपको अचानक किसी प्रियजन का फोन आता है और वे आपसे पैसे मांगते हैं या ऐसे अनुरोध करते हैं जो आपको उनकी प्रवृत्ति के अनुकूल नहीं लगता है, तो उन्हें वापस कॉल करें या उन्हें एक टेक्स्ट भेजें यह पुष्टि करने के लिए कि आप वास्तव में उनसे बात कर रहे हैं।

जैसे-जैसे एआई की क्षमताओं का विस्तार होगा, वास्तविकता और कल्पना के बीच की रेखाएं तेजी से धुंधली होती जाएंगी। और इसकी संभावना नहीं है कि हम प्रौद्योगिकी को वापस डिब्बे में डाल सकेंगे। इसका मतलब है कि लोगों को और अधिक सतर्क रहने की जरूरत होगी।










संबंधित समाचार