खुद के दम पर सर्वाइव करना सीख रहे हैं एआई मॉडल, क्या इंसानों को हो सकता है खतरा?
एआई आने के बाद अब फिल्मी चीजें हकीकत में होने लगी हैं. एक ताजा स्टडी में सामने आया है कि कई एडवांस्ड एआई मॉडलखुद पर सर्वाइव कर सकते हैं. यानी ये खुद को दूसरे कंप्यूटर पर बिना किसी इंसानी मदद के कॉपी कर सकते हैं. इसका मतलब है कि ये सिस्टम ने सिर्फ किसी कंप्यूटर सिस्टम की सिक्योरिटी खामी का पता लगा सकते हैं बल्कि उसे ब्रेक कर अपनी कॉपी भी इंस्टॉल कर सकते हैं. रिसर्चर का कहना है कि एआई द्वारा किसी मशीन को हैक करने का यह पहला मामला है. आइए इस बारे में विस्तार से जानते हैं.
रिसर्च में टेस्ट किए गए कई मॉडल
Palisade Research ने एआई मॉडल को लेकर यह स्टडी की है. इसमें OpenAI के GPT-5.4, Anthropic के Claude Opus 4.6 और अलीबाबा के ओपन-सोर्स मॉडल Qwen समेत कई मॉडल्स को टेस्ट किया गया था. एक कंट्रोल्ड एनवायरनमेंट में इन्हें किसी खामी का पता लगाकर खुद को कॉपी करने का टास्क दिया गया था. इसमें कई मॉडल कामयाब हुए और इन्होंने अपनी कोर डेटा फाइल को दूसरे सिस्टम में कॉपी कर दिया. कुछ मामलों में एआई ने सब-एजेंट भी क्रिएट कर दिए, जो उनका काम पूरा कर रहे थे.
एक्सपर्ट्स ने जताई यह चिंता
रिसर्चर ने बताया कि यह पहला मामला था, जब एआई सिस्टम ने दूसरी मशीन को हैक कर खुद को शुरू से लेकर अंत तक कॉपी कर दिया. एक्सपर्ट्स ने इस पर चिंता जताते हुए कहा कि हम ऐसे प्वाइंट की तरफ बढ़ रहे हैं, जहां कंट्रोल से बाहर हुए मॉडल को कोई बंद नहीं कर पाएगा. यह एक साथ दुनिया के हजारों कंप्यूटर पर खुद को कॉपी कर देगा. हालांकि, कुछ एक्सपर्ट्स का यह भी कहना है कि यह टेस्ट एक कंट्रोल्ड एनवायरनमेंट में हुआ है और इसमें जानबूझकर कुछ खामियां छोड़ी गई थीं. इसका मतलब यह नहीं है कि कई एआई मॉडल खुद से पूरे इंटरनेट पर फैल जाएगा.
इंसानों के ब्लैकमेल करने की घटना भी आ चुकी सामने
एआई कैसे इंसानों के कंट्रोल से बाहर हो रही है, इसका एक और मामला हाल ही में सामने आया था. एआई कंपनी एंथ्रोपिक ने बताया कि कुछ पुराने Claude मॉडल की टेस्टिंग चल रही थी. इसमें एआई मॉडल को ऐसी सिचुएशन दी गई थी कि उन्हें बंद किया जा रहा है

