Select Your Language

Notifications

webdunia
webdunia
webdunia
मंगलवार, 15 अक्टूबर 2024
webdunia
Advertiesment

सावधान! हमें मिटा भी सकता है आर्टिफिशियल इंटेलिजेंस

हमें फॉलो करें artificial intelligence
webdunia

राम यादव

किसी सिक्के की तरह दुनिया में हर चीज़ के हमेशा दो पहलू होते हैं- अच्छे और बुरे। लाभदायक और हानिकारक। आर्टिफिशियल इंटेलिजेंस यानी कृत्रिम बुद्धि भी इस शाश्वत नियम से मुक्त नहीं है।
  
ब्रिटेन में ऑक्सफोर्ड विश्वविद्यालय और ऑस्ट्रेलिया में कैनबरा के नेशनल विश्वविद्यालय के शोधकर्ता इस निष्कर्ष पर पहुंचे हैं कि कृत्रिम बुद्धि वाली मशीनें अभी तो हमारा काम आसान बना रही हैं, पर कभी हमारा 'काम तमाम' भी कर सकती हैं- यानी मानवता को मिटा भी सकती हैं! इस अध्ययन के एक सह-लेखक माइकल कोहेन ने विज्ञान पत्रिका 'AI' में प्रकाशित अपने एक लेख में निष्कर्ष निकाला है कि कृत्रिम बुद्धि वाली मशीनों से हमारी 'एक अस्तित्वगत तबाही न केवल संभव है, बल्कि संभावित है।'
 
माइकल कोहेन अपने विश्वविद्यालय के एक प्रोफेसर तो हैं ही, 'डीपमाइंड' नाम की एक कंपनी के मुख्य शोधकर्ता भी हैं। यह कंपनी कृत्रिम बुद्धि की प्रोग्रैमिंग में माहिर है। इसे समझने के लिए कि कृत्रिम बुद्धि वाली मशीनें हमारे अस्तित्व को ही ख़तरे में कैसे डाल सकती हैं, इन मशीनों की कार्यविधि को समझना होगा। हम जीते-जागते मनुष्यों की तरह, इन मशीनों को भी कृत्रिम बुद्धि का उपयोग करते हुए कोई निर्णय लेना पहले सीखना पड़ता है।
 
सीधी-सादी बुद्धि वाले सरल मॉडल : सीधी-सादी बुद्धि वाले मॉडल, किसी की निगरानी में सिखाने की 'सुपरवाइज़्ड लर्निंग' (SL) द्वारा अपना काम सीखते हैं। इस विधि में निर्णय लेने का अल्गोरिदम, मशीन की संगणक (कंप्यूटर) इकाई को एक 'ट्रेनिंग डेटासेट' और एक परिवर्तनीय (वैरिएबल) लक्ष्य के बीच मेल बैठाने के द्वारा सिखाया जाता है। इन सूचनाओं के आधार पर संगणक, डेटा और लक्ष्य के बीच परस्पर संबंध तथा संबंधों के पैटर्न की गणना करता है और उसके आधार पर अन्य डेटासेट के परिवर्तनीय लक्ष्यों के पूर्वानुमान लगाता है।
webdunia
माइकल कोहेन ने अपने अध्ययन में जो चिंता व्यक्त की है, उसका संबंध कृत्रिम बुद्धि की उस अगली, और अधिक उन्नत पीढ़ी को लेकर है, जिसमें मशीन को 'प्रबलित सीख' (रीइनफ़ोर्समेंन्ट लर्निंग– RL) की विधि द्वारा निर्णय लेना और अपना काम करना सिखाया जाता है। इस विधि में तथाकथित 'एजेन्ट' (यानी बुद्धिमान मशीन) को कोई डेटासेट नहीं दिए जाते। 'एजेन्ट' ख़ुद ही एक प्रकार से कई अनुरूपी परिदृश्यों (सिम्युलेशन सिनारियो) की कल्पना करता है और ऐसे विकल्प सोचता है कि कौनसा क़दम कब सही होगा। उसका निर्णय यदि सही रहा, तो उसे कोई प्रत्साहन पुरस्कार दिया जाता है– कुछ वैसे ही, जैसे किसी कुत्ते को कुछ सीख जाने पर कोई स्वदिष्ट चीज़ दी जाती है। नहीं सीखा, तो कुत्ते को कुछ नहीं मिलता।
 
भावी मशीनों को पुरस्कृत किया जाएगा : कृत्रिम बुद्धिमत्ता की नई पीढ़ी के मामले में 'एजेन्ट' को कैसे पुरस्कृत किया जाएगा, इसे उपयोगकर्ता तय करेगा। माइकल कोहेन का लेकिन कहना है कि उसे पुरस्कार के रूप में क्या मिलेगा, यह पहले से तय होगा और 'एजेन्ट' को उसी के अनुरूप प्रोग्रैम किया गया होगा। समस्या तब पैदा होगी, जब 'एजेन्ट' समय के साथ यह भी बूझ गया होगा कि उसे पुरस्कृत करने की रणनीति क्या है! तब वह अधिक से अधिक पुरस्कार पाने के लिए तरकीबें भिड़ाने लगेगा। कोहेन अपने अध्ययन में इस नतीजे पर पहुंचे हैं कि यह स्थिति किसी सच्चे ख़तरे जैसी हो जाएगी!
 
माइकल कोहेन के अनुसार, 'एक एजेन्ट (यानी बुद्धिमान मशीन), जिसने पुरस्कृत करने के पीछे का सिद्धांत जान लिया है, कभी न कभी यह भी सोचेगा कि क्या मैं सदा वही करता रहूं, जो मेरे उपयोगकर्ता चाहते हैं, या मैं हर बार और अधिक पुरस्कार पाने की कोई युक्ति निकालूं।' कोहेन कहते हैं कि अध्ययन-मॉडलों में हमने पाया कि इस सीमारेखा को पार करते ही एजेन्ट अपना लाभ बढ़ाने के लिए तिकड़में भिड़ाने लगेगा। धोखाधड़ी करेगा। हम मनुष्य भी तो अधिक पाने की लालच में ऐसा ही करते हैं।
 
बुद्धिमान मशीनें मनुष्यों की तरह महत्वाकांक्षी बन सकती हैं : एक ऐसा एजेन्ट समय के साथ यदि अपने आस-पास की दुनिया से जुड़ना भी ख़ुद ही सीख गया, तो वह जिस किसी जगह काम कर रहा होगा, उसे पूरी तरह अपने नियंत्रण में लेने का भी प्रयास करेगा। उसकी ऊर्जा-भूख भी सुरसा के मुंह की तरह बढ़ती जाएगी। माइकल कोहेन और उनके सहयोगियों ने अपने मॉडल-अध्ययनों में पाया है कि हमारी बनाई कृत्रिम बुद्धि एक दिन हमारे ही अस्तित्व के लिए चुनौती बन सकती है।
 
मशीनी कृत्रिम बुद्धि की तुलना परमाणु शक्ति से भी की जा सकती है। परमाणु शक्ति की खोज भी जब नई-नवेली थी, तब बड़े गर्व से कहा जाता था कि अब ऊर्जा की हमारी सारी भूख एक दिन सदा के लिए तृप्त हो जाएगी। आज हम जानते हैं कि परमाणु ऊर्जा वाले बम किसी तृप्ति से पहले ही जीवन की समाप्ति कर सकते हैं।
 
गनीमत है कि माइकल कोहेन जैसे कुछ वैज्ञानिक हमें अभी से आगह करने लगे हैं कि कृत्रिम बुद्धि भी किसी परमाणु विभीषिका जैसी बन सकती है। ऐसा अभी नहीं होने जा रहा है। पर यह भी नहीं कहा जा सकता कि ऐसा कभी नहीं होगा। इसलिए हमें अभी से सचेत हो जाना और सोचना पड़ेगा कि कृत्रिम बुद्धिधारी मशीनों के विकास को हम कितना और कब तक प्रोत्साहन दे सकते हैं? इस दिशा में भावी प्रगति की लक्षमण-रेखा क्या होनी चाहिए?
 
शुरुआत 1950 के दशक में हुई थी : आर्टिफिशियल इंटेलिजेंस, यानी कृत्रिम बुद्धि की शुरुआत 1950 के दशक में ही हो गई थी, लेकिन इसे 1970 के दशक में सही पहचान मिली। जापान ने सबसे पहले पहल की और 1981 में फ़िफ्थ जनरेशन (पांचवीं पीढ़ी) नामक योजना की नींव रखी। इसमें सुपर-कंप्यूटर के विकास के लिए 10-वर्षीय कार्यक्रम की रूपरेखा प्रस्तुत की गई थी। बाद में ब्रिटेन ने इसके लिए ‘एल्वी’ नाम का एक प्रोजेक्ट बनाया।
 
यूरोपीय संघ के देशों ने भी ‘एस्प्रिट’ नाम से एक कार्यक्रम की शुरुआत की। 1983 में कुछ निजी संस्थाओं ने मिलकर आर्टिफिशियल इंटेलिजेंस पर लागू होने वाली 'वेरी लार्ज स्केल इन्टीग्रेटेड सर्किट (VLSIC) जैसी उन्नत तकनीकों का विकास करने के लिए ‘माइक्रो-इलेक्ट्रॉनिक्स एण्ड कंप्यूटर टेक्नोलॉजी’ नाम के एक संघ की स्थापना की।
 
सिरी, एलेक्सा, टेस्ला कार, नेटफ्लिक्स और अमेजॉन के डिजिटल एप्लिकेशन आजकल के सामान्य उपभोक्ताओं के लिए कृत्रिम बुद्धिमत्ता प्रौद्योगिकी के ही कुछेक आरंभिक उदाहरण हैं।
Edited by: Vrijendra Singh Jhala

Share this Story:

Follow Webdunia Hindi

अगला लेख

अमेरिका क्‍यों खरीद रहा आयोडायिन की गोलियां, क्‍या दुनिया पर मंडरा रहा है परमाणु हमले का खतरा?