विशेषज्ञों ने एआई के मानव नियंत्रण से बाहर होने से रोकने के लिए इसके सख्त नियमन की मांग की है, क्योंकि दुनिया भर के नेता इस तकनीक पर एक शिखर सम्मेलन के लिए पेरिस में एकत्र हो रहे हैं।
फ्रांस, जो भारत के साथ मिलकर सोमवार और मंगलवार को इस बैठक की मेजबानी कर रहा है, ने 2025 में एआई ‘एक्शन’ को प्राथमिकता देने का फैसला किया है, बजाय इसके कि पिछली बैठकों की तरह—2023 में ब्रिटेन के बलेटचली पार्क और 2024 में कोरिया की राजधानी सियोल में—सुरक्षा चिंताओं को मुख्य मुद्दा बनाया जाए।
फ्रांस की सोच यह है कि सरकारें, व्यवसाय और अन्य हितधारक एआई के वैश्विक शासन के समर्थन में आगे आएं और स्थिरता (सस्टेनेबिलिटी) को लेकर प्रतिबद्धताएं जताएं, लेकिन अनिवार्य नियम लागू न करें।
“हम केवल जोखिमों पर ही चर्चा नहीं करना चाहते। इसमें वास्तविक अवसर भी मौजूद हैं,” राष्ट्रपति इमैनुएल मैक्रों के एआई दूत ऐनी बुवेरो ने कहा।
‘जीवित रहने की इच्छा’
अमेरिका स्थित फ्यूचर ऑफ लाइफ इंस्टीट्यूट के प्रमुख मैक्स टेगमार्क, जो नियमित रूप से एआई के खतरों को लेकर चेतावनी देते रहे हैं, ने एएफपी से कहा कि फ्रांस को इस अवसर को हाथ से नहीं जाने देना चाहिए।
“फ्रांस अंतरराष्ट्रीय सहयोग का एक शानदार समर्थक रहा है और इसके पास वास्तव में बाकी दुनिया का नेतृत्व करने का अवसर है,” एमआईटी के इस भौतिक विज्ञानी ने कहा।
“पेरिस शिखर सम्मेलन एक अहम मोड़ पर खड़ा है और इसे अपनाया जाना चाहिए।”
टेगमार्क के संस्थान ने रविवार को ग्लोबल रिस्क एंड एआई सेफ्टी प्रिपेयर्डनेस (GRASP) नामक एक प्लेटफॉर्म की शुरुआत का समर्थन किया, जिसका उद्देश्य एआई से जुड़े प्रमुख जोखिमों और दुनिया भर में विकसित किए जा रहे समाधान का मानचित्रण करना है।
“हमने इन जोखिमों के समाधान के रूप में लगभग 300 उपकरण और तकनीकें पहचानी हैं,” जीआरएएसपी के समन्वयक साइरस होड्स ने कहा।
इस सर्वेक्षण के नतीजे ओईसीडी (OECD) और ग्लोबल पार्टनरशिप ऑन आर्टिफिशियल इंटेलिजेंस (GPAI) के सदस्यों को सौंपे जाएंगे। जीपीएआई में लगभग 30 देश शामिल हैं, जिनमें प्रमुख यूरोपीय अर्थव्यवस्थाएं, जापान, दक्षिण कोरिया और अमेरिका शामिल हैं। इस संगठन की बैठक रविवार को पेरिस में होगी।
पिछले हफ्ते, पहली अंतरराष्ट्रीय एआई सुरक्षा रिपोर्ट भी पेश की गई, जिसे 96 विशेषज्ञों ने तैयार किया और 30 देशों, संयुक्त राष्ट्र, यूरोपीय संघ और ओईसीडी का समर्थन प्राप्त था।
इस रिपोर्ट में ऑनलाइन फर्जी सामग्री जैसे परिचित जोखिमों से लेकर अधिक खतरनाक खतरों तक को सूचीबद्ध किया गया है।
“नए प्रमाण लगातार सामने आ रहे हैं, जिनमें जैविक हमलों (बायोलॉजिकल अटैक) या साइबर हमलों जैसी अतिरिक्त जोखिम शामिल हैं,” रिपोर्ट के समन्वयक और प्रसिद्ध कंप्यूटर वैज्ञानिक योशुआ बेन्जियो ने एएफपी को बताया।
बेन्जियो, जो 2018 में ट्यूरिंग पुरस्कार के विजेता रहे थे, दीर्घकालिक रूप से एआई सिस्टम पर मानव नियंत्रण के संभावित नुकसान से चिंतित हैं, जो “स्वयं के अस्तित्व को बनाए रखने की इच्छा” से प्रेरित हो सकते हैं।
मानव बुद्धिमत्ता से आगे निकलने का खतरा?
एजीआई (आर्टिफिशियल जनरल इंटेलिजेंस) एक ऐसी कृत्रिम बुद्धिमत्ता को संदर्भित करता है, जो सभी क्षेत्रों में मनुष्यों के बराबर या उससे अधिक क्षमता प्राप्त कर ले।
ओपनएआई के प्रमुख सैम ऑल्टमैन सहित कई विशेषज्ञों का मानना है कि यह तकनीक कुछ वर्षों में विकसित हो सकती है।
“अगर आप एआई की क्षमताओं में हो रही प्रगति को देखें, तो ऐसा लगता है कि हम 2026 या 2027 तक एजीआई तक पहुंच सकते हैं,” एंथ्रोपिक के प्रमुख डारियो अमोडेई ने नवंबर में कहा था।
टेगमार्क ने चेतावनी दी, “सबसे बुरी स्थिति में, अगर अमेरिकी या चीनी कंपनियां इस पर नियंत्रण खो देती हैं, तो उसके बाद पृथ्वी पर शासन मशीनों का होगा।”
हथियारों में एआई का उपयोग
कैलिफोर्निया स्थित बर्कले विश्वविद्यालय के कंप्यूटर विज्ञान प्रोफेसर स्टुअर्ट रसेल ने कहा कि उनके सबसे बड़े डर में से एक यह है कि “हथियार प्रणालियां, जहां एआई यह तय करेगा कि किसे और कब हमला करना है, पूरी तरह से स्वायत्त हो जाएं।”
रसेल, जो इंटरनेशनल एसोसिएशन फॉर सेफ एंड एथिकल एआई (IASEI) के समन्वयक भी हैं, सरकारों को इस बात की जिम्मेदारी लेने को कहते हैं कि वे सशस्त्र एआई के खिलाफ सुरक्षा उपाय स्थापित करें।
टेगमार्क ने कहा कि समाधान बहुत सरल है: एआई उद्योग को उसी तरह से नियंत्रित करना जैसा अन्य उद्योगों के साथ किया जाता है।
“पेरिस के बाहर कोई नया परमाणु रिएक्टर बनाने से पहले, इसे सरकारी विशेषज्ञों को यह साबित करना होगा कि यह सुरक्षित है और उस पर नियंत्रण नहीं खोया जाएगा… एआई के लिए भी यही मानक होना चाहिए,” टेगमार्क ने कहा।
Pls like share and comment