Who will not be able to use AI Tools : भारत के वित्त मंत्रालय ने एक आदेश जारी कर आधिकारिक सरकारी उपकरणों पर AI टूल्स और एप्लिकेशन, जैसे ChatGPT और DeepSeek, के उपयोग पर प्रतिबंध लगा दिया है. 29 जनवरी 2025 को जारी किए गए इस सर्कुलर का उद्देश्य संवेदनशील सरकारी डेटा को संभावित साइबर खतरों से बचाना है.
सरकार ने क्यों किया AI टूल्स का बैन?
यह आदेश संयुक्त सचिव प्रदीप कुमार सिंह द्वारा हस्ताक्षरित है और इसमें कहा गया है कि AI-आधारित एप्लिकेशन सरकारी सिस्टम में सुरक्षा जोखिम पैदा कर सकते हैं. इसके मद्देनजर, मंत्रालय ने सभी कर्मचारियों को आधिकारिक उपकरणों पर ऐसे टूल्स का उपयोग करने से बचने की सलाह दी है. यह निर्देश वित्त सचिव की मंजूरी के बाद राजस्व, आर्थिक मामलों, व्यय, सार्वजनिक उद्यम, DIPAM और वित्तीय सेवाओं जैसे प्रमुख सरकारी विभागों को भेजा गया है.
क्या है AI टूल्स की वैश्विक प्रवृत्ति
AI टूल्स को लेकर दुनिया भर में सुरक्षा चिंताएं बढ़ रही हैं. कई सरकारें और निजी कंपनियां संवेदनशील डेटा की सुरक्षा के लिए AI टूल्स के उपयोग को सीमित कर रही हैं. AI मॉडल, जैसे ChatGPT, यूजर डेटा को एक्सटर्नल सर्वर पर प्रोसेस करते हैं, जिससे डेटा लीक और अनधिकृत एक्सेस का खतरा रहता है. कई वैश्विक कंपनियों ने भी AI टूल्स के उपयोग पर प्रतिबंध लगाया है ताकि गोपनीय डेटा सुरक्षित रह सके.
प्रतिबंध निजी उपकरणों पर भी लागू होगा?
सरकार के इस आदेश में यह स्पष्ट नहीं किया गया है कि क्या कर्मचारी अपने निजी उपकरणों पर AI टूल्स का उपयोग कर सकते हैं. हालांकि, यह कदम संकेत देता है कि सरकार AI के प्रति सतर्क रुख अपनाते हुए डेटा सुरक्षा को प्राथमिकता दे रही है.
भविष्य में सरकार AI उपयोग के लिए कोई स्पष्ट नीति बना सकती है या नहीं, यह अभी अनिश्चित है. फिलहाल, वित्त मंत्रालय के कर्मचारियों को अपने आधिकारिक कार्यों के लिए पारंपरिक तरीकों पर निर्भर रहना होगा.
क्या हैं AI टूल्स पर प्रतिबंध लगाने की मुख्य वजहें?
AI टूल्स से हो सकता है डेटा लीक
AI टूल्स जैसे ChatGPT और DeepSeek यूजर द्वारा इनपुट किए गए डेटा को बाहरी सर्वर पर प्रोसेस करते हैं. यदि सरकारी कर्मचारी संवेदनशील डेटा इन टूल्स पर दर्ज करते हैं, तो वह स्टोर या एक्सेस किया जा सकता है, और दुरुपयोग की संभावना हो सकती है. सरकारी विभाग गोपनीय वित्तीय डेटा, नीति ड्राफ्ट और आंतरिक संचार संभालते हैं. अनजाने में भी डेटा लीक होना गंभीर सुरक्षा जोखिम पैदा कर सकता है.
AI मॉडल पर नियंत्रण की कमी
सरकार पारंपरिक सॉफ़्टवेयर पर नियंत्रण रख सकती है, लेकिन AI टूल्स क्लाउड-बेस्ड होते हैं और निजी कंपनियों के स्वामित्व में होते हैं. उदाहरण के लिए, ChatGPT का मालिक OpenAI है और सरकार के पास यह जानने का कोई तरीका नहीं है कि वह डेटा को कैसे प्रोसेस और स्टोर करता है. इससे विदेशी हस्तक्षेप और साइबर हमलों का खतरा बढ़ सकता है.
डेटा संरक्षण कानूनों के अनुरूपता
भारत डिजिटल पर्सनल डेटा प्रोटेक्शन (DPDP) एक्ट, 2023 जैसे सख्त डेटा गोपनीयता कानूनों पर काम कर रहा है. AI टूल्स के बिना नियमों के इस्तेमाल से डेटा सुरक्षा नीति का उल्लंघन हो सकता है. इससे सरकारी सिस्टम साइबर खतरों के प्रति असुरक्षित हो सकते हैं.
सरकार का यह कदम सरकारी डेटा की सुरक्षा को मजबूत करने के लिए उठाया गया है. हालांकि, यह स्पष्ट नहीं है कि भविष्य में AI टूल्स के उपयोग के लिए कोई विनियमित नीति बनाई जाएगी या नहीं. फिलहाल, वित्त मंत्रालय के अधिकारियों को पारंपरिक तरीकों से काम करने की सलाह दी गई है, जिससे संवेदनशील डेटा की सुरक्षा सुनिश्चित हो सके.