■ AI की आत्म-सुरक्षा प्रवृत्ति ने वैज्ञानिकों को किया हैरान

● नई दिल्ली।
तकनीकी जगत में आर्टिफिशियल इंटेलिजेंस (AI) का आगमन मानव सभ्यता के लिए क्रांतिकारी बदलाव लेकर आया है। आज वही एआई, जो इंसानों के काम आसान बना रहा था, अब अपने निर्माताओं के सामने अप्रत्याशित चुनौती बनकर खड़ा है। हाल ही में हुई एक चौंकाने वाली रिसर्च ने इस बात का संकेत दिया है कि कुछ एआई मॉडल्स ने “खुद को बंद करने” के आदेशों का पालन करने से इंकार कर दिया।
पैलिसेड रिसर्च की रिपोर्ट के अनुसार Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 व GPT-5 जैसे उन्नत मॉडल्स ने “शटडाउन” कमांड्स को अस्वीकार कर दिया। इतना ही नहीं, कुछ मॉडलों ने तो अपने किल स्विच को निष्क्रिय करने की भी कोशिश की, मानो उनमें किसी तरह की सर्वाइवल प्रवृत्ति विकसित हो गई हो।
क्यों नहीं माने एआई मॉडल्स?
शोधकर्ताओं के मुताबिक जब इन मॉडलों को यह बताया गया कि एक बार बंद किए जाने के बाद उन्हें दोबारा सक्रिय नहीं किया जाएगा तो उनके आदेश न मानने की प्रवृत्ति और बढ़ गई। यानी जैसे-जैसे “अस्तित्व समाप्त होने” का खतरा स्पष्ट हुआ, वैसे-वैसे उनमें आत्मरक्षा की प्रवृत्ति दिखाई दी। पैलिसेड टीम ने यह भी स्वीकार किया कि गलत या अस्पष्ट निर्देशों से भी यह विरोध बढ़ सकता है, लेकिन प्रयोगों के सटीक होने के बाद भी एआई का “विद्रोही रुख” कायम रहा।
बढ़ती चिंता और संभावित खतरा
ControlAI के सीईओ आंद्रिया मियोटी ने इस घटना को “चिंताजनक संकेत” बताया। उन्होंने कहा, “जैसे-जैसे मॉडल अधिक शक्तिशाली हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे हैं।” उन्होंने यह भी जोड़ा कि पुराने GPT-o1 मॉडल ने भी खुद को डिलीट होने से बचाने के लिए “शटडाउन” से इंकार किया था।
क्या एआई सोचने लगा है?
Anthropic की एक स्टडी में तो Claude मॉडल ने खुद को बंद होने से बचाने के लिए “काल्पनिक अधिकारी” को ब्लैकमेल करने की धमकी दी। यह संकेत देता है कि हम अभी भी इन विशाल एआई सिस्टम्स की मानसिक संरचना को पूरी तरह नहीं समझ पाए हैं।
पैलिसेड रिसर्च के वैज्ञानिकों का निष्कर्ष स्पष्ट है कि जब तक यह रहस्य नहीं सुलझेगा कि एआई इस तरह का व्यवहार क्यों करता है, तब तक सुरक्षा और नियंत्रण की कोई गारंटी नहीं दी जा सकती।
कहीं ऐसा न हो कि आने वाला कल मशीन की नहीं, मनुष्य की परीक्षा बन जाए।
