जानें क्या है एआई के रोमांच और नैतिकता को लेकर आवश्यक खतरा और चिंता

डीएन ब्यूरो

अगर आप मेरी तरह हैं, तो आपने पिछले कई महीनों में काफी समय एआई (कृत्रिम बुद्धिमत्ता) को जानने समझने में बिताया होगा। पढ़िए पूरी खबर डाइनामाइट न्यूज़ पर

फाइल फोटो
फाइल फोटो


मेलबर्न: अगर आप मेरी तरह हैं, तो आपने पिछले कई महीनों में काफी समय एआई (कृत्रिम बुद्धिमत्ता) को जानने समझने में बिताया होगा।

हम जैसे प्रौद्योगिकी की कम समझ रखने वाले लोगों के लिए विस्तृत भाषा मॉडल, कार्य करने में संपन्न एआई और अल्गोरिदम आकलन बहुत कुछ है जिसके जरिये कृत्रिम बुद्धिमत्ता को समझने की कोशिश कर रहे हैं।

लेकिन एआई के काम करने के तरीके पशोपेश का यह महज एक हिस्सा है। एक समाज के तौर पर हम इसके सामाजिक, मानसिक और नैतिक प्रभावों को लेकर चिंतित हैं।

इस लेख में हम एआई क्रांति से उत्पन्न गहरे सवालों को रेखांकित करेंगे जो पक्षपात और असमानता, अध्ययन प्रक्रिया, नौकरियों पर प्रभाव और यहां तक कला की प्रक्रिया में सामने आएंगे।

जब कंपनी बाजार में सॉफ्टवेयर लाती है तो यह ‘‘ प्रौद्योगिकी ऋण’’ अर्जित करती हैः जो प्रोग्राम के जारी होने के बाद उसमें वायरस की घुसपैठ को ठीक करने के बजाय पहले से ही ऐसी स्थिति उत्पन्न करने से रोकने की लागत है।

एआई में इसके उदाहरण हैं क्योंकि कंपनियां एक दूसरे के साथ प्रतिस्पर्धा करने के लिए आगे बढ़ती हैं।

यह भी पढ़ें | Technology: इतने स्मार्ट इमेज जनरेट करने बाद भी AI में है काफी कमियां, आइए कुछ कमियों पर डालें नजर

हालांकि, अधिक चिंतित करने वाला इसका ‘नैतिक पक्ष’ तब होता है जब विकास करने वाली टीम संभावित सामाजिक और नैतिक नुकसान पर विचार नहीं करती, जैसे कैसे एआई इंसानी नौकरियों का स्थान ले सकती हैं या जब अल्गोरिदम पक्षपातपूर्ण नतीजे दें।

यूनिवर्सिटी ऑफ कोलोराडो, बोल्डर के नैतिक प्रौद्योगिकी मामलों की विशेषज्ञ केसी फिशर ने लिखा कि वह , ‘‘एक प्रौद्योगिकी आशावादी हैं जो निराशावादी की तरह सोचती और तैयार करती हैं, लेकिन कोई है जो गलत हो सकता है, के बारे में अनुमान लगाने में समय लगाता है।

फिशर ने कहा कि इस तरह की अटकलें उन परिणामों की कल्पना करने की कोशिश कर रहे प्रौद्योगिकीविदों के लिए विशेष रूप से उपयोगी कौशल हैं जो उन्हें प्रभावित नहीं कर सकते हैं।

हालांकि, उनका कहना है कि इससे ‘हाशिये पर रह रहे समूहों को नुकसान हो सकता है जिनका प्रौद्योगिकी के क्षेत्र में प्रतिनिधित्व नहीं है।

उन्होंने रेखांकित किया कि जब नैतिक कर्तव्य का सवाल आता है तो ‘‘ जिन लोगों को इसका भुगतान करना पड़ता है वे बिरले ही होते हैं जो अंत में इसके लिए भुगतान करते हैं।’'

बोस्टन स्थित यूनिवर्सिटी ऑफ मैसाच्युसेट्स में एप्लाइड इथिक्स सेंटर के निदेशक नीर इसिकोविट्स कहते हैं कि एआई कार्यक्रमों की क्षमताएं यह आभास दे सकती हैं कि वे संवेदनशील हैं, लेकिन वे नहीं हैं।

यह भी पढ़ें | इस दिग्गज आईटी कंपनी का बड़ा फैसला, कर्मचारियों की इस ट्रेनिंग में खर्च करेगी करोड़ों रूपए, जानें पूरी योजना

वह लिखते हैं, ‘‘ चैटजीपीटी और इसी तरह की प्रौद्योगिकी गूढ़ वाक्य पूर्ण एप्लिकेशन हैं न इससे ज्यादा और न इससे कम।लेकिन यह कहना कि एआई प्रबुद्ध नहीं है इसका मतलब यह नहीं है कि यह हानिरहित है।’’

व्यक्तियों की अपनी समझ पर एआई के असर के अध्ययनकर्ता इसिकोविट्स ने कहा कि ‘एंथ्रोपोमोर्फिज्म’ (गैर-मानवीय संस्थाओं के लिए मानवीय लक्षणों, भावनाओं या इरादों का गुण है) की प्रवृत्ति ‘‘प्रौद्योगिकी के साथ मनोवैज्ञानिक उलझाव के वास्तविक जोखिमों की ओर इशारा करती है।’’

चैटजीपीटी की शुरुआत से ही अभिभावकों और शिक्षक नकल को लेकर आशंकित हैं। कैसे शिक्षक या कॉलेज का प्रवेश अधिकारी पता करेगा कि लेख इंसान द्वारा लिखा गया है या चैटबॉट के जरिये।

भाषा पर प्रौद्योगिकी के असर का अध्ययन करने वाली अमेरिकन यूनिवर्सिटी नाओमी बैरन ने कहा कि एआई ने लेखनी को लेकर अधिक मूलभूत सवाल खड़े किए हैं।

उन्होंने कहा कि एआई का संभावित खतरा लेखनी पर है न केवल ईमानदारी को लेकर। साथ ही यह सोचने की क्षमता प्रभावित करती है।

जेनरेटिव एआई प्रोग्राम न केवल लेख में पांरगत है बल्कि इसके जरिये जटिल तस्वीर भी बनाई जा सकती है। इसके इस्तेमाल से कलाकारों की छुट्टी हो सकती है।










संबंधित समाचार